Искусственный интеллект подразумевает эквивалентность с человеческим интеллектом. Эпоха автономного ИИ настала, и это вызывает неопределенность в отношении того, кто будет нести ответственность за решения, которые больше не принимаются людьми.

По определению, системы искусственного интеллекта — это программные (и, возможно, аппаратные) системы, разработанные людьми, которые действуют в физическом или цифровом измерении, понимая свою среду с помощью данных, оценивая, рассуждая на основе данных и выбирая наилучший курс действий для получения искомого. цель.

В контексте этого измерения давайте разберемся, что такое согласие?

Согласие возникает, когда одно лицо добровольно соглашается с предложением или желанием другого. Что касается данных, это относится к понятию, что данные человека не должны использоваться без его ведома или разрешения.

По мере развития технологий возникают дилеммы с согласием, например, с системами, которые собирают, обрабатывают и генерируют личные данные. Когда кто-то разрешает использование персональных данных, это считается согласием, а без разрешения те же действия становятся кражей и вторжением в частную жизнь.

ИИ уже здесь?

Хотя может показаться, что ИИ находится у забора, ИИ уже вокруг нас и, вероятно, уже в нашем внутреннем кругу. Он есть на всех наших устройствах и почти на каждом веб-сайте, который мы посещаем. И это может вторгнуться в вашу личную жизнь, если это еще не произошло.

ИИ работает как в вашем мобильном телефоне, так и в голосовых помощниках, таких как Alexa, Siri. Они слушают вас, понимают вас и учатся на том, что вы говорите. Например, если вы спросите их о местах отдыха, вскоре Alexa начнет рекомендовать идеи для отпуска в поисковых системах.

На Amazon, если кто-то купил ножи, он начнет видеть рекомендации для связанных вещей, таких как разделочная доска. Amazon использует ИИ, чтобы связать поисковые запросы с продуктами, которые могут понадобиться в будущем, на основе истории поиска и покупок.

Сегодня Gmail также предлагает автоматические ответы, похожие на ваши.

Короче говоря, ИИ окружает вас повсюду. И все это кажется полезным. Это кажется многообещающим. Он также обещает иметь потенциал для преобразования человеческих жизней.

Но есть ли у этого темная сторона?

В 2016 году несколько государственных прокуроров начали в США расследование против Cambridge Analytica в связи с неправомерным использованием компанией личных данных 50 миллионов пользователей Facebook. Компания была заблокирована в Facebook после сообщения New York Times, в котором говорилось, что она нарушила условия использования Facebook в отношении использования личных данных.

Поскольку люди доверяли Facebook, крупной социальной сети, которую миллионы людей используют каждый день, с личными данными, выборы были подделаны. Это была довольно большая таблетка, которую нужно было проглотить.

Существует тонкая грань между сбором данных и вторжением в частную жизнь. Настолько тонкий и размытый, что компании с одними из самых блестящих умов в мире либо не осознают, что пересекают его, либо достаточно убеждены, что верят, что никто не заметит, когда они это сделают.

Нет никаких сомнений в социальных преимуществах, которые дает более интеллектуальная технология, разработанная на основе объединения данных. Приложения GPS, например, помогают людям быстрее добираться до нужного места и обеспечивать бесперебойную работу транспорта.

Но тут возникает вопрос: возможно ли продолжать развивать ИИ, не переходя размытую грань? И какой ценой?

Хотя искусственный интеллект является наиболее влиятельным изобретением, Всемирный экономический форум также назвал его самой большой угрозой существованию. ВЭФ также предупреждает, что полный потенциал угроз ИИ даже немыслим.

Моральный ИИ?

Помимо данных и согласия, мораль мыслящих машин ставит еще несколько вопросов.

Например, представьте, что банк использует машинное обучение, чтобы рекомендовать заявки на ипотеку для утверждения. Отклоненный заявитель подает иск, утверждая, что процесс утверждения банком практикует расовую дискриминацию. В банке считают, что это невозможно, потому что алгоритм завязывает глаза на гонку заявителей.

Точно определить ответ может быть непросто. Генетический алгоритм, основанный на сложной нейронной сети, управляется эволюцией. Дальнейшее открытие показывает, что алгоритм использует поле адреса заявителей, которые родом или ранее проживали в бедных районах. Затем аудитор обнаруживает, что алгоритм содержит данные о приложениях в прошлом, которые были оценены экспертной комиссией. Это показывает, что группа судей-людей принимала одних кандидатов на основе расы, цвета кожи и пола, отклоняя других.

Вышеприведенный пример является примером того, что, когда алгоритмы ИИ выполняют когнитивную работу в рамках социальных аспектов — задач, которые ранее выполнялись людьми, — алгоритм ИИ наследует социальный аспект.

Ответственный ИИ?

Другим важным критерием для решения этой проблемы является способность распределять ответственность. Когда система ИИ не справляется с определенной задачей, кто берет на себя вину? Программисты? Конечные пользователи? Даже когда конструкция системы ИИ допускает переопределение, следует учитывать бюрократа, который может неблагоприятно обвинить ИИ в любом сложном решении с противоречивым результатом.

Установка стандартов

Несколько учреждений, которые понимают эти проблемы, разработали руководящие принципы, чтобы люди сохраняли контроль над создаваемыми ими системами.

В 2017 году IEEE запустил Этически согласованный дизайн в качестве ориентира для работы технологов, педагогов и политиков в ближайшие годы.

Некоторые руководящие принципы:

  1. Права человека: все ИИ должны создаваться для уважения, поощрения и защиты международно признанных прав человека. К ним относятся права на личные данные. Люди должны иметь право на доступ, обмен и извлечение выгоды из своих данных и информации, которую они предоставляют. Физическим лицам требуются политики, которые прямо сообщают им о последствиях, возникающих в результате агрегирования или перепродажи их личной информации.
  2. ИИ и защита данных: в январе 2019 года Комитет Совета Европы по Конвенции 108 принял руководящие принципы в отношении искусственного интеллекта и защиты данных. При этом Комитет признает, что ИИ может быть полезным инструментом для принятия решений, в частности, для поддержки доказательной и инклюзивной политики, и подчеркивает необходимость разработки и использования ИИ в отношении прав на неприкосновенность частной жизни и защиту данных. Документ основан на убеждении, что ни одно применение ИИ не должно ущемлять человеческое достоинство, права человека и основные свободы отдельных лиц, в частности в отношении защиты данных, как они закреплены в Европейской конвенции о правах человека.
  3. Человеческая решимость: вместе с правами приходит ответственность. Меморандум UGAI (Универсальные рекомендации по искусственному интеллекту) от октября 2018 года подтверждает право на человеческое определение. Это подтверждает, что люди, а не машины, несут ответственность за автоматизированное принятие решений. Во многих случаях невозможно вставить решение человека перед автоматическим решением. Таким образом, в случае сбоя автоматизированной системы необходимо провести оценку результата человеком.
  4. Прозрачность и подотчетность. Принцип Asilomar AI подчеркивает важность культуры сотрудничества, доверия и открытости среди исследователей и разработчиков ИИ. Основа конкретного решения ИИ всегда должна быть поддающейся обнаружению и иметь однозначное обоснование. Принцип прозрачности направлен на обеспечение независимой подотчетности. По мнению УГАИ, в практическом плане физическое лицо может не иметь возможности интерпретировать основание того или иного решения, но это не устраняет необходимости обеспечения возможности такого объяснения. Заинтересованные стороны отрасли несут ответственность за решения, делегированные таким системам. Они должны определить типы решений, которые никогда нельзя переносить в такие системы.
  5. Политика в области образования и осведомленности. Общественность должна осознавать влияние автономных и интеллектуальных технических систем на общество. В общественных интересах политика должна поддерживать, продвигать и обеспечивать соблюдение международно признанных правовых норм. Убедитесь, что управление и этика являются основными компонентами исследований, разработок, приобретения и использования. И информируйте общественность о влиянии связанных технологий на общество.

Надежный искусственный интеллект должен быть вылеплен…

Люди, одни из самых разумных существ на Земле, использовали свой интеллект, чтобы формировать глобусы, вырезая горы, укрощая реки, строя небоскребы, возделывая пустыни. Не будет ли более надежный интеллект иметь соответствующие более масштабные последствия?

Хотя ИИ предлагает нам этические проблемы, мы не можем игнорировать тот факт, что он может усилить человеческий интеллект. Искусственный интеллект может помочь цивилизации до тех пор, пока мы сохраняем его полезным.

Столкновения с технологическими инновациями прошлых лет показали нам, что мы можем контролировать ситуацию, если заявим о себе.

Трансформационная природа новой технологии заключается сама по себе не в самой первичной технологии, а скорее в последующих эффектах, вызванных этим развитием. Мы не управляли железнодорожными путями и стрелками; мы контролировали влияние их использования, например, ставки и безопасность работников. Мы регулировали не телеграфные (а позже и телефонные) провода и выключатели, а то, был ли доступ к ним справедливым и разумным.

Дорожная карта истории ясна: технологические инновации — это путь вперед. Нужно сосредоточиться на ощутимых преимуществах технологий и сосредоточиться на осмысленном регулировании ИИ.

Auro является сертифицированным партнером Blue Prism. Он дает людям возможность интеллектуальных навыков автоматизации с использованием роботизированной автоматизации процессов, искусственного интеллекта, машинного обучения и когнитивных вычислений. Свяжитесь с нами по адресу [email protected]