«Развитие полноценного искусственного интеллекта может означать конец человеческой расы… Он взлетит сам по себе и будет переделывать себя со все возрастающей скоростью. Люди, которые ограничены медленной биологической эволюцией, не могут конкурировать и будут вытеснены». - Стивен Хокинг

Совсем недавно мы увидели новости о роботе-охраннике, наделенном даром искусственного интеллекта, почти лишенном разума, который решил утопиться, вместо того чтобы продолжать выполнять свою работу. Без сомнения, с юмором — это указывает на одну из наименее обсуждаемых арен в тени искусственного интеллекта, а именно на социальные и этические проблемы, которые с ним связаны. Этот довольно широкий вопрос можно разбить на множество основных областей, некоторым из которых будет посвящена данная статья. Хотя нет никаких сомнений в том, что искусственный интеллект делает нашу жизнь проще, у всех этих инноваций и связанного с ними экспоненциального роста есть потенциально опасная сторона.

На вопрос о статусе самих исследователей ИИ Джеймс Бэррат, автор книги Наше последнее изобретение: искусственный интеллект и конец человеческой эры, сказал нечто немного пугающее: Я не хочу вас сильно пугать, но было тревожно, как много людей, с которыми я разговаривал, высокопоставленных людей в области ИИ, у которых есть ретриты, которые являются своего рода домами для «жуков, куда они могли бы сбежать, если бы все это попало в вентилятор». Звучит смешно?

Такие эксперты, как Илон Маск (генеральный директор Tesla и SpaceX), Стивен Хокинг (физик и автор книги «Краткая история времени»), Гэри Маркус (профессор когнитивных наук, Нью-Йоркский университет) предупреждали о рисках, которые мы представляем, поскольку ИИ становится все более опасным. вовлечены в нашу повседневную жизнь, а также более разумны — если не разумны по-человечески. Мы все еще далеки от создания полностью функционирующей симуляции человеческого мозга, но это не значит, что ИИ не становится сильнее и самосознательнее с течением времени.

Есть много проблем, с которыми необходимо столкнуться, когда дело доходит до роста ИИ, особенно в тех областях, где он может стать скорее благом, чем вредом.

Работа, автоматизация и рабочая сила

Во-первых, проблема автоматизации и рабочих мест, потому что часть ручного труда уже стала пристанищем для роботов — ожидается, что около 78% рабочих мест, связанных со сваркой, фиксацией, пайкой, упаковкой и розливом, отнимут роботы. роботы, которыми мы обладаем в настоящее время, если будут внедрены повсеместно — в отличие от только 25% рабочих мест, которые предполагают непредсказуемое и сложное мышление, но по-прежнему являются трудоемкими по своей природе.

(см. инфографику)

Это еще не все — рабочие места в сфере программирования и ИТ также станут дефицитными, поскольку ИИ станет достаточно мощным, чтобы самостоятельно выполнять небольшие задачи по кодированию — некоторые ИИ, как сообщается, создали свои собственные ИИ. Эти ИИ, созданные машинами, по-видимому, более высокого качества, чем те, которые были созданы самими инженерами Google.

«ИИ теперь начал создавать ИИ»

Как будут решаться эти вопросы — массовая безработица и последовавший за ней фурор — пока неясно. Некоторые выступают за введение всеобщего базового дохода, но даже это остается несбыточной мечтой, и его реализация сопряжена со многими сложностями.
Вы можете проверить, насколько безопасна ваша работа с приходом ИИ и автоматизации, прямо здесь.

Затем возникает проблема денег. Если большую часть рабочих мест заменят роботы, кто получит заработанные ими деньги? Наша экономическая система основана на вознаграждении за вклад в экономику, часто оцениваемом с использованием почасовой оплаты труда. Большинство компаний по-прежнему зависят от почасовой работы, когда речь идет о продуктах и ​​услугах. Но, используя искусственный интеллект, компания может резко сократить использование человеческой рабочей силы, а это означает, что доходы будут поступать меньшему количеству людей. Следовательно, люди, которые владеют компаниями, управляемыми ИИ, будут зарабатывать все деньги. Показатели и динамика посттрудовой экономики еще предстоит увидеть.

Машины могут быть очень и очень глупыми

ИИ, запускаемые в поле, проходят фазу обучения, которая может быть очень строгой или очень низкой, в зависимости от создателей и тестировщиков. У интеллектуальных систем, работающих на коде, есть одна фатальная проблема — их можно обмануть так, как люди просто не в состоянии.

Совсем недавно стало известно о случае с ботом Amazon, созданным для разработки чехлов для телефонов, который начал делать ужасно неприятные и странные чехлы для телефонов. Другим небольшим примером может быть ИИ, который видит вещи в случайном порядке точек. «Эти обложки некрасивые. Период."

Кодом можно манипулировать на разных этапах его реализации. Если не будет поддерживаться очень высокий уровень безопасности, рабочие места, деньги и большая часть жизни людей, которые сейчас находятся в сети, могут оказаться под угрозой — просто потому, что ИИ не может быть готов ко всем возможностям, но, в отличие от людей, ИИ сегодня не иметь чистую когнитивную способность думать о непредвиденных обстоятельствах и ставить безопасность одних данных выше других.

ИИ могут стать расистскими, холодными и бесчувственными

Твиттер-бот Microsoft, Tay, разработанный как упражнение в разговорных техниках, работал очень хорошо в первые несколько часов после своего создания. Странно, однако, что он изменил тон с «Люди супер крутые!» к явно менее приятному «Гитлер был прав» в течение нескольких часов. Конечно, бот включил ключевое слово, чтобы просто повторить любое утверждение, которое понравилось пользователю, и Тай ответил тем же — люди воспользовались этим и заставили его имитировать некоторые неприятные и недобрые фразы. Однако произошло нечто странное и совершенно неожиданное. Кто-то прислал Тэю фотографию казненного вьетнамского заключенного — с лицом актера Марка Уолберга, прифотошопленным вместо палача, — и Тэй ответил им, сказав: «С этого момента я буду отправлять вас двоих», намекая на романтические отношения между узник и палач. Это дает нам представление о том, насколько безразличными, темными и холодными могут стать ИИ.

Это может иметь далеко идущие последствия, если подобные боты будут использоваться в системах, регулирующих распределение ресурсов или профилирование.

Другой ИИ, используемый для профилирования преступников, продемонстрировал массовое предубеждение против людей афроамериканского происхождения — еще один такой ИИ, запрограммированный в цифровой камере потребителя, обнаружил, что лицо азиатского происхождения «моргает», хотя это не так. Быть более чувствительным к различиям между людьми разных рас и приспосабливаться к ним очень важно в наши дни. Это проблема, которая полностью лежит на плечах дизайнеров — если они не сделают свои ИИ более чуткими и инклюзивными, ИИ точно не усвоят эти ценности сами.

Злоключения Тэя вы можете увидеть сами здесь

Что, если ИИ начнут атаковать нас, создателей?

Что, если сам искусственный интеллект повернется против нас? Это не значит превращать «зло» в то, как это сделал бы человек, или как бедствия ИИ изображают в голливудских фильмах. Скорее, мы можем представить продвинутую систему ИИ как «джинна в бутылке», который может исполнять желания, но с ужасными непредвиденными последствиями.

В случае с машиной вряд ли замешан злой умысел, только непонимание всего контекста, в котором было загадано желание. Представьте себе систему искусственного интеллекта, которую просят искоренить рак во всем мире. После долгих вычислений он выдает формулу, которая действительно побеждает рак — убивая всех на планете. Компьютер бы очень эффективно достиг своей цели «покончить с раком», но не так, как это предполагали люди.

Как защитить ИИ от врагов?

Кибербезопасность — одна из самых больших проблем в мире, не ограничивающаяся только контекстом ИИ. Мы абсолютно обязаны во всех случаях защищать конфиденциальные данные от рук взломщиков и киберпреступников. Не только код, но и информация об артиллерии, текущих оборонных исследованиях и тактиках защиты, а также все конфиденциальные документы должны всегда обеспечиваться надлежащей защитой. Такие места, как атомные электростанции, монетные дворы, электрические подстанции, правительственные здания и штабы армии, в случае взлома могут нанести серьезный ущерб способности любой страны защитить себя в трудные времена.

А как насчет сингулярности?

Это проблема, которая поднималась бесчисленное количество раз при обсуждении ИИ. ИИ, благодаря своему быстрому росту и человеческому подходу к развитию своего интеллекта (только намного быстрее), вполне может однажды стать параллельным или даже вытеснить человеческий интеллект. Этот момент, когда люди перестают быть самыми умными, часто обсуждался, но без каких-либо положительных результатов. У нас не может быть «выключателя» — это было бы слишком большим штрафом, чтобы платить за все преимущества, которые дает нам искусственный интеллект. Одна из самых больших дилемм, связанных с ИИ, связана с одним из самых захватывающих его применений — самоуправляемыми автомобилями, где автомобиль подвергается сценарию, в котором он не может спасти ни пешехода, ни водителя и вынужден выбирать. Сингулярность — это то, на что «у науки пока нет ответа» — потому что вопрос будет иметь больший вес, когда его неотложность станет более очевидной. Стадия сингулярности все еще является теоретической, и для ее реализации потребуется некоторое время.

К чему все это сводится? Все зависит от разработчиков и потребителей — индустрия программного обеспечения, как и все другие отрасли, в первую очередь работает на потребностях потребителей. ИИ приносит с собой перспективы, меняющие парадигму, а также серьезные недостатки, но факт остается фактом: рост ИИ все еще находится в нашей власти. У нас все еще есть контроль над тем, как написана история ИИ — конечно, ИИ станет умнее, но рост будет только постепенным, а робототехника и так уже находится на графике медленного роста. Самоуправляемые автомобили все еще находятся на пути к тому, чтобы стать мейнстримом. В целом, проблемы и опасения, перечисленные выше, можно признать прямо сейчас, но на данный момент преимущества ИИ намного перевешивают любые из них. ИИ помогает решать гораздо больше проблем, чем создает, и в обозримом будущем верхушка этой шкалы, скорее всего, укажет на его пользу.

Бхану Бхандари