Все мы видели эти вселяющие страх заголовки о том, как искусственный интеллект украдет наши рабочие места и как нам следует быть очень осторожными с предвзятыми алгоритмами ИИ. Предвзятость означает, что алгоритм отдает предпочтение определенным группам людей или иным образом ведет решения к несправедливому исходу. Предвзятость может означать повышение зарплаты только белым сотрудникам-мужчинам, повышение факторов криминального риска для определенных этнических групп и наполнение вашей ленты новостей только темами и точками зрения, которые вы в настоящее время изучаете, вместо того, чтобы давать широкий, сбалансированный взгляд на мир и обучая вас.

Важно знать, что модель машинного обучения может быть предвзятой, но это вряд ли открывает какие-либо новые темы для обсуждения этики ИИ по сравнению с этическими решениями в целом. Белые мужчины в любом случае с большей вероятностью получат повышение по службе, судьи могут устать и выносить более строгие приговоры, а мы склонны потреблять новости, с которыми мы согласны. То есть такие же предубеждения существуют и без ИИ.

Вместо этого обсуждение этики ИИ должно быть сосредоточено на повышении прозрачности, просвещении общественности и приведении хороших примеров.

ИИ ничего не делает в одиночку

Заголовки, которые журналисты должны быть достаточно образованными, чтобы избегать, выглядят следующим образом: Новые алгоритмы закрепляют старые предубеждения в делах о защите детей

Во-первых, алгоритмы и ИИ ничего не делают в одиночку. Хотя это правда, что текущие модели ИИ и предложения, которые они генерируют, основаны на исторических данных, все еще есть люди, проверяющие текущую ситуацию перед окончательным решением. Заголовок выше дает нам представление о том, что алгоритмы допустили ужасную ошибку, и сотрудник по уходу за детьми ничего не мог с этим поделать. Дело шло о женщине, бывшей наркоманке, у которой забрали дочерей из-под опеки.

Вышеупомянутый случай ухода за детьми был из округа Бровард, Флорида, но предпринимаются попытки создать приложение AI для обнаружения проблем с уходом за детьми в городе под названием Эспоо в Финляндии. Город Эспоо и консалтинговая компания Tieto Inc. вместе строят модель глубокого обучения, которая на момент написания еще не использовалась в качестве основы для каких-либо решений, но при обучении модели были обнаружены многообещающие признаки. Они собрали социальные и медицинские данные, а также данные об отношениях с клиентами в сфере дошкольного образования о 520 000 граждан и более 37 миллионов контактных лиц с ними. Эксперимент привел к обнаружению 280 различных факторов, которые, если они встречаются вместе, предсказывают необходимость поддержки со стороны должностных лиц по уходу за детьми еще до того, как необходимо будет рассмотреть вопрос об опеке.

Компании, занимающиеся разработкой искусственного интеллекта, и журналисты, пишущие об искусственном интеллекте, должны завоевывать доверие общественности, а не наоборот. В искусственном интеллекте есть прекрасная возможность для расширения человеческих возможностей, и мы не должны повышать неопределенность, ведущую к сопротивлению и, таким образом, замедляя внедрение новой технологии.

Культивирование разжигания страха перед ИИ приводит к ситуации, когда хорошие примеры, такие как эксперимент по уходу за детьми в Эспоо, приуменьшаются, и разработчикам таких приложений нужно быть очень осторожными с тем, что публиковать. Это оставляет широкую публику в неведении относительно каких-либо великих достижений, и обычно незнание ведет к подозрению.

Хорошие примеры

Разговор должен перейти от попыток предотвратить предвзятость ИИ и принятие неверных решений в более конструктивное русло: как ИИ может помочь нам принимать этически правильные решения и операции.

Начнем с одного хорошего примера. Один из клиентов Валохая, TwoHat Security, строит модель, чтобы остановить распространение детской порнографии. TwoHat Security работает с правоохранительными органами и университетами Канады над созданием модели машинного зрения для обнаружения материалов о сексуальном насилии из даркнетов и других труднодоступных мест в Интернете. Нет сомнений в том, что это по всем параметрам этически, морально и социально правильный способ использования искусственного интеллекта. Использование машин для поиска незаконных материалов позволяет правоохранительным органам быть намного более эффективными и избавляет людей от необходимости самостоятельно просматривать болезненные материалы.

Тем не менее, главным образом из-за того, что средства массовой информации гонятся за шокирующей ценностью, мы чаще слышим о плохих примерах, чем о хороших.

Как быть прозрачным?

Ключевым аспектом в формировании общественного доверия к приложениям ИИ является прозрачность. В то время как журналисты могут внести свой вклад, написав с конструктивной и поддерживающей точки зрения, компании также должны делать свое и делиться своим прогрессом в создании новой технологии.

Например, компании могут начать с участия в конкурсе по этике ИИ, инициированном Министерством экономики Финляндии и Руководящей группой по вопросам занятости в сфере ИИ. Задача побуждает компании по всему миру записывать свои принципы этичного использования искусственного интеллекта, чтобы гарантировать ответственное развитие будущих технологий во всей компании. Считается, что этические принципы укрепляют доверие к клиентам, которые в целом хотят знать, какие приложения создаются с их данными. Вы можете узнать больше о вызове и принять участие здесь.

Приложение для глубокого обучения Lyrebird позволяет любому создать вокальный аватар, напоминающий собственный голос. Такая технология потенциально очень опасна в чужих руках. Не только потому, что он может имитировать чей-то голос, но и в сочетании с моделями обработки естественного языка (НЛП), которые могут переводить речь в текст и генерировать ответы, он может отвечать на заданные вопросы - вашим собственным голосом!

Не зря компания решила опубликовать свои этические принципы на своем сайте. Они предсказывают, что эта технология получит широкое распространение всего через несколько лет, и признают, что существует риск неправильного использования такой технологии. Они решили обучить людей технологии и для этого выпустили аудиосэмплы созданных в цифровом виде голосов Дональда Трампа и Барака Обамы. Можно было бы создать аудиоаватары в тишине и подождать, пока кто-нибудь воспользуется этой технологией, чтобы обмануть публику. Теперь, благодаря этой открытости, по крайней мере некоторые люди знают, что они подозрительны, если слышат, как Обама произносит странную речь. Людям нужно знать, что они не могут доверять всему, что видят и слышат.

Нам нужны уличные указатели для ИИ

Водители часто не понимали, что прохождение поворотов на высокой скорости может иметь ужасные последствия. - Билл Лумис, The Detroit News

Приведенная выше цитата описывает водителей в начале 20-го века, когда автомобили были новым зрелищем на дорогах. Не знаю, как вы, но мне было неприятно читать это. Это похоже на высказывание: Обучение вашей модели машинного зрения, распознающей человека, в основном с изображениями белых людей, заставляет модель распознавать только белых людей как людей и людей с темной кожей как обезьян. Ах да, это уже случилось с Google.

Google Фото, вы облажались. Мой друг не горилла. Pic.twitter.com/SMkMCsNVX4

- Джеки сейчас живет на @ jalcine @ playvicious.social. (@jackyalcine) 29 июня 2015 г.

В первые 30 лет, когда автомобили стали обычным явлением, они были очень опасны. Не было ни уличных знаков, ни надлежащей дорожной инфраструктуры, ни ограничений скорости, ни даже ремней безопасности. Не говоря уже о регулировании - просто поместите 10 человек в одну машину, пейте и садитесь за руль, если хотите!

Предвзятый ИИ становится аргументом в пользу того, что «металлическому коню нельзя доверять» в автомобильной промышленности начала 20 века. Возможно, всего через десять лет мы увидим решения ИИ такими же фундаментальными и очевидными, как автомобили.

Заголовок этических принципов Lyrebird гласит: «Великие технологии влекут за собой большую ответственность». То же самое касается и законодательства, которое безнадежно отстает от времени. Даже если можно утверждать, что единственной целью корпораций является получение прибыли для своих владельцев, крайне важно, чтобы компании были активны в этой дискуссии и держали регулирующие органы в курсе последних событий в области технологий. На этот раз регулирование не может отставать от технологий на 30 лет.

На снимке из архива Detroit News - уличные фонари начала 20 века, которые нужно было включать вручную.

Наше обещание этике ИИ

Текущая ситуация в некоторых компаниях не столь радужна с точки зрения прозрачности, в основном непреднамеренно. Есть несколько компаний, которые тестируют вещи и не имеют надлежащих записей о том, какая модель была обучена с какими данными и когда. Трудно быть прозрачным, если вы сами не уверены в деталях.

Валохай обещает сделать воспроизводимые эксперименты компаний по глубокому обучению и хранить в них записи обо всех тренингах и деталях. Давайте вместе сделаем шаг к прозрачной и этичной разработке ИИ.

Valohai сохраняет и архивирует всю эту информацию, что позволяет контролировать все версии и воспроизводить ее на 100%.

Первоначально опубликовано на blog.valohai.com.