Компании по всему миру сталкиваются с растущим давлением, требующим повышения прозрачности алгоритмов, которые делают прогнозы, которые определяют их бизнес-решения. В Вашингтоне недавно предложенный закон значительно продвинулся в регулирующей игре в догонялки, касающейся ИИ и машинного обучения. В этой статье представлен обзор хороших, плохих и уродливых аспектов ИИ, а также того, как можно избавиться от уродливого и уменьшить плохое.

Секретность и сложность, которые окружают новые технологии, такие как искусственный интеллект, на протяжении десятилетий беспокоят регулирующие органы и потребителей. В последнее время эти опасения были сосредоточены на моделях искусственного интеллекта, которые набирают популярность и дают прискорбные примеры дискриминации и предвзятости. Необязательно заглядывать в заголовки, чтобы найти примеры дорогостоящих рисков, связанных с моделями ИИ черного ящика. Утверждается, что Amazon создала инструмент найма ИИ, который дискриминировал женщин и , всего несколько недель назад, после урегулирования иска на 5 миллионов долларов, Facebook подал в суд Департамент жилищного строительства и городского развития за якобы несправедливый таргетинг на рекламу жилья.

Чтобы решить эти проблемы, три сенатора недавно предложили Закон об алгоритмической ответственности (AAA), который направлен на регулирование рисков предвзятости, дискриминации, конфиденциальности и безопасности, создаваемых применяемыми в настоящее время алгоритмами. широким кругом компаний.

На сегодняшний день многие модели искусственного интеллекта не обладают «возможностью опроса», необходимой для того, чтобы по-настоящему понять, как они функционируют. Чтобы доверять модели машинного обучения, необходимо ее тщательное и частое тестирование. Тем не менее, многие компании не проводят эту экспертизу «по запросу», не говоря уже о том, чтобы у них был процесс проведения такого типа анализа надежным и повторяемым образом. Сделать эти модели более прозрачными постфактум будет сложно и дорого.

Хотя нет гарантии, что AAA станет законом, нет сомнений в том, что законодатели и регулирующие органы будут предпринимать все больше и больше шагов в направлении алгоритмического регулирования. Одновременно потребители требуют большего контроля над своими данными. Этот импульс уже привел к появлению таких правил, как Open Banking и PSD2 ЕС по всему миру. Сейчас, когда задействованы все эти факторы, компаниям пора действовать.

Думаете, «подожди и посмотри» - это правильный подход? Обязательно учтите затраты. Facebook объявил в своем отчете о доходах на прошлой неделе, что они оценили и зарезервировали 3 миллиарда долларов «в связи с расследованием Федеральной торговой комиссией нашей платформы и методов обработки пользовательских данных… По нашим оценкам, диапазон убытков в этом вопросе составляет от 3 до 3 миллиардов долларов. 5,0 миллиарда долларов ».

Что на самом деле предлагается в этом законопроекте?

Короче говоря, AAA будет применяться к компаниям, которые:

  • Получать более 50 миллионов долларов дохода в год;
  • Владеть данными не менее 1 миллиона человек или устройств;
  • Коммерческие компании, которые в основном действуют как брокеры данных.

AAA уполномочит Федеральную торговую комиссию США (FTC) требовать от компаний «проводить оценку воздействия автоматизированных систем принятия решений и оценку воздействия на защиту данных» для систем принятия алгоритмических решений. Это заставит компании оценивать алгоритмы с точки зрения их «точности, справедливости, предвзятости, дискриминации, конфиденциальности и безопасности». Эти оценки применимы как к существующим, так и к новым системам и моделям принятия решений.

Хотя в настоящее время отсутствуют подробности того, что означают эти оценки, AAA действительно описывает то, что он будет просить компании предоставить: общее описание их модели искусственного интеллекта, стоимость и преимущества этих моделей, а также тщательную оценку рисков, связанных с конфиденциальностью и безопасностью персональная информация.

Это может означать, например, что компании должны продемонстрировать полную прозрачность при разработке своих моделей, доказать, как они устраняют предвзятость, показать, как они сообщают результаты потребителям и в какой степени потребители могут исправлять или возражать против их результатов.

Если AAA станет законом, исполнение будет нелегким. Регулирующим органам и предприятиям потребуются новые инструменты для устранения предвзятости, а также для разработки, понимания и мониторинга моделей. быть большой проблемой для соблюдения этих потенциальных новых правил.

Как это повлияет на ваш бизнес?

Ответ на этот вопрос будет полностью зависеть от того, как вы строили и эксплуатировали свои модели в прошлом. Компаниям, у которых есть надежный протокол разработки моделей ИИ и которые уже внедрили такие концепции, как «возможность опроса» и «объяснимость», будет гораздо меньше трудностей в обеспечении и подтверждении их соответствия.

Для компаний, у которых есть модели машинного обучения, которым не хватает возможности опроса и объяснения, включая ограниченное понимание их данных обучения, будет дорого обходиться обратным отслеживанием прозрачности и предвзятости их существующих моделей искусственного интеллекта.

Ясно одно: для всех компаний это увеличит регулятивное бремя и, скорее всего, потребует дополнительных ресурсов, которые должны привносить не только технологическую перспективу, но и человеческую, юридическую и поведенческую точки зрения.

Почему вы не можете позволить себе ждать и вам нужно начать подготовку прямо сейчас

«Будущее уже здесь, но оно распределяется неравномерно». - Уильям Гибсон

Несмотря на то, что этот закон может не быть принят, есть много признаков того, что и регулирующие органы, и потребители нуждаются в более строгом надзоре за прогностическими моделями и желают этого. С учетом того, что этим вопросам уделяется особое внимание, вот несколько рисков, связанных с выжидательным подходом:

  1. Стоимость. Восстановление существующих моделей для повышения прозрачности будет дорогостоящим.
  2. Упущенная выгода. Напротив, избежание проблемы за счет отказа от интеграции ИИ в свой бизнес приведет к невыгодному конкурентному положению.
  3. Доверие потребителей. Не нужно выходить за рамки уже приведенных примеров, чтобы увидеть, какое влияние необнаруженная предвзятость или дискриминация могут оказать на вашу репутацию.
  4. Доверие заинтересованных сторон. Члены правления, инвесторы и партнеры могут вскоре начать сомневаться в ваших планах соблюдения требований.
  5. Ошибки. Предвзятость и дискриминация могут привести к неправильной оценке риска, что приведет к принятию неверных решений.

По этим причинам (и многим другим) компаниям необходимо играть активную роль в выявлении и устранении проблем с предвзятостью. Таким образом, даже без формального регулирования, компании должны начать подготовку прямо сейчас.

Вот 3 вещи, которые компании могут начать делать сегодня, чтобы активно бороться с этими рисками:

  1. Проверьте прозрачность. Просмотрите текущий процесс разработки ИИ и оцените его прозрачность и предвзятость. Определите слабые места в процессе разработки модели и начните вносить изменения, которые приведут к большей прозрачности и пониманию.
  2. Тестируйте модели и обучающие данные на предмет предвзятости. Проверьте, как ваша модель работает в разных популяциях. Это включает в себя полное понимание данных обучения модели и то, какие ошибки могут существовать в этих данных, которые необходимо устранить. Документирование результатов этих тестов и вашей соответствующей реакции будет иметь решающее значение для доказательства того, что вы серьезно относитесь к прозрачности.
  3. Рассмотрите возможность назначения сотрудников AI Accountability. Подобно компаниям, у которых есть финансовые или качественные контролеры, в случае программного обеспечения и моделей искусственного интеллекта было бы естественным, если бы люди проверяли наличие побочных эффектов и других негативных воздействий, включая дискриминацию и предвзятость. Для достижения полной прозрачности требуется междисциплинарный подход, что выходит за рамки обязанностей специалистов по данным и требует дополнительных сотрудников.

Чем могут помочь такие компании, как Stratyfy?

Решения Stratyfy используют ИИ / машинное обучение полностью объяснимым образом и прозрачны по своей конструкции из-за внутренней природы лежащих в основе наших проприетарных алгоритмов. Эти алгоритмы позволяют вашим сотрудникам делиться своими знаниями и опытом с моделями, чтобы компенсировать недостающие, неверные или предвзятые данные. Пользователи могут надежно тестировать, настраивать и проверять модели для устранения предвзятости, автоматически отслеживая действия для удобной отчетности в один клик. Наше программное обеспечение идеально подходит для помощи компаниям в решении их проблем подотчетности в области ИИ. Например:

  • Stratyfy позволяет вам дополнять ваши данные человеческими знаниями, активно обращаясь к тем местам, где ваши данные искажены, разрежены или отсутствуют. Комбинация как данных, так и человеческого фактора может быть более справедливой, менее предвзятой (и, возможно, даже более точной), чем каждый из них по отдельности, что позволяет значительно улучшить качество ваших моделей.
  • Модуль анализа предвзятости Stratyfy позволяет компаниям выявлять предвзятость модели на ранней стадии и активно устранять ее, выборочно корректируя модель для устранения этих предубеждений. Эта функция может применяться для отслеживания и обнаружения систематической ошибки в любой модели.
  • Модели, построенные с использованием алгоритмов Stratyfy, затем можно скорректировать, чтобы устранить предвзятость. Этот тип выборочной настройки - шепот на ухо ИИ для корректировки смещения модели - невозможен с другими стандартными подходами к машинному обучению. Большинство наших клиентов могут устранить предвзятость с минимальным влиянием на прибыльность своих моделей.

КОНТАКТНАЯ ИНФОРМАЦИЯ: если вы хотите узнать больше о том, как Stratyfy может помочь вам проактивно устранять предвзятость в ваших моделях, свяжитесь со мной или [email protected], чтобы узнать, чем мы можем помочь.