Компании по всему миру сталкиваются с растущим давлением, требующим повышения прозрачности алгоритмов, которые делают прогнозы, которые определяют их бизнес-решения. В Вашингтоне недавно предложенный закон значительно продвинулся в регулирующей игре в догонялки, касающейся ИИ и машинного обучения. В этой статье представлен обзор хороших, плохих и уродливых аспектов ИИ, а также того, как можно избавиться от уродливого и уменьшить плохое.
Секретность и сложность, которые окружают новые технологии, такие как искусственный интеллект, на протяжении десятилетий беспокоят регулирующие органы и потребителей. В последнее время эти опасения были сосредоточены на моделях искусственного интеллекта, которые набирают популярность и дают прискорбные примеры дискриминации и предвзятости. Необязательно заглядывать в заголовки, чтобы найти примеры дорогостоящих рисков, связанных с моделями ИИ черного ящика. Утверждается, что Amazon создала инструмент найма ИИ, который дискриминировал женщин и , всего несколько недель назад, после урегулирования иска на 5 миллионов долларов, Facebook подал в суд Департамент жилищного строительства и городского развития за якобы несправедливый таргетинг на рекламу жилья.
Чтобы решить эти проблемы, три сенатора недавно предложили Закон об алгоритмической ответственности (AAA), который направлен на регулирование рисков предвзятости, дискриминации, конфиденциальности и безопасности, создаваемых применяемыми в настоящее время алгоритмами. широким кругом компаний.
На сегодняшний день многие модели искусственного интеллекта не обладают «возможностью опроса», необходимой для того, чтобы по-настоящему понять, как они функционируют. Чтобы доверять модели машинного обучения, необходимо ее тщательное и частое тестирование. Тем не менее, многие компании не проводят эту экспертизу «по запросу», не говоря уже о том, чтобы у них был процесс проведения такого типа анализа надежным и повторяемым образом. Сделать эти модели более прозрачными постфактум будет сложно и дорого.
Хотя нет гарантии, что AAA станет законом, нет сомнений в том, что законодатели и регулирующие органы будут предпринимать все больше и больше шагов в направлении алгоритмического регулирования. Одновременно потребители требуют большего контроля над своими данными. Этот импульс уже привел к появлению таких правил, как Open Banking и PSD2 ЕС по всему миру. Сейчас, когда задействованы все эти факторы, компаниям пора действовать.
Думаете, «подожди и посмотри» - это правильный подход? Обязательно учтите затраты. Facebook объявил в своем отчете о доходах на прошлой неделе, что они оценили и зарезервировали 3 миллиарда долларов «в связи с расследованием Федеральной торговой комиссией нашей платформы и методов обработки пользовательских данных… По нашим оценкам, диапазон убытков в этом вопросе составляет от 3 до 3 миллиардов долларов. 5,0 миллиарда долларов ».
Что на самом деле предлагается в этом законопроекте?
Короче говоря, AAA будет применяться к компаниям, которые:
- Получать более 50 миллионов долларов дохода в год;
- Владеть данными не менее 1 миллиона человек или устройств;
- Коммерческие компании, которые в основном действуют как брокеры данных.
AAA уполномочит Федеральную торговую комиссию США (FTC) требовать от компаний «проводить оценку воздействия автоматизированных систем принятия решений и оценку воздействия на защиту данных» для систем принятия алгоритмических решений. Это заставит компании оценивать алгоритмы с точки зрения их «точности, справедливости, предвзятости, дискриминации, конфиденциальности и безопасности». Эти оценки применимы как к существующим, так и к новым системам и моделям принятия решений.
Хотя в настоящее время отсутствуют подробности того, что означают эти оценки, AAA действительно описывает то, что он будет просить компании предоставить: общее описание их модели искусственного интеллекта, стоимость и преимущества этих моделей, а также тщательную оценку рисков, связанных с конфиденциальностью и безопасностью персональная информация.
Это может означать, например, что компании должны продемонстрировать полную прозрачность при разработке своих моделей, доказать, как они устраняют предвзятость, показать, как они сообщают результаты потребителям и в какой степени потребители могут исправлять или возражать против их результатов.
Если AAA станет законом, исполнение будет нелегким. Регулирующим органам и предприятиям потребуются новые инструменты для устранения предвзятости, а также для разработки, понимания и мониторинга моделей. быть большой проблемой для соблюдения этих потенциальных новых правил.
Как это повлияет на ваш бизнес?
Ответ на этот вопрос будет полностью зависеть от того, как вы строили и эксплуатировали свои модели в прошлом. Компаниям, у которых есть надежный протокол разработки моделей ИИ и которые уже внедрили такие концепции, как «возможность опроса» и «объяснимость», будет гораздо меньше трудностей в обеспечении и подтверждении их соответствия.
Для компаний, у которых есть модели машинного обучения, которым не хватает возможности опроса и объяснения, включая ограниченное понимание их данных обучения, будет дорого обходиться обратным отслеживанием прозрачности и предвзятости их существующих моделей искусственного интеллекта.
Ясно одно: для всех компаний это увеличит регулятивное бремя и, скорее всего, потребует дополнительных ресурсов, которые должны привносить не только технологическую перспективу, но и человеческую, юридическую и поведенческую точки зрения.
Почему вы не можете позволить себе ждать и вам нужно начать подготовку прямо сейчас
«Будущее уже здесь, но оно распределяется неравномерно». - Уильям Гибсон
Несмотря на то, что этот закон может не быть принят, есть много признаков того, что и регулирующие органы, и потребители нуждаются в более строгом надзоре за прогностическими моделями и желают этого. С учетом того, что этим вопросам уделяется особое внимание, вот несколько рисков, связанных с выжидательным подходом:
- Стоимость. Восстановление существующих моделей для повышения прозрачности будет дорогостоящим.
- Упущенная выгода. Напротив, избежание проблемы за счет отказа от интеграции ИИ в свой бизнес приведет к невыгодному конкурентному положению.
- Доверие потребителей. Не нужно выходить за рамки уже приведенных примеров, чтобы увидеть, какое влияние необнаруженная предвзятость или дискриминация могут оказать на вашу репутацию.
- Доверие заинтересованных сторон. Члены правления, инвесторы и партнеры могут вскоре начать сомневаться в ваших планах соблюдения требований.
- Ошибки. Предвзятость и дискриминация могут привести к неправильной оценке риска, что приведет к принятию неверных решений.
По этим причинам (и многим другим) компаниям необходимо играть активную роль в выявлении и устранении проблем с предвзятостью. Таким образом, даже без формального регулирования, компании должны начать подготовку прямо сейчас.
Вот 3 вещи, которые компании могут начать делать сегодня, чтобы активно бороться с этими рисками:
- Проверьте прозрачность. Просмотрите текущий процесс разработки ИИ и оцените его прозрачность и предвзятость. Определите слабые места в процессе разработки модели и начните вносить изменения, которые приведут к большей прозрачности и пониманию.
- Тестируйте модели и обучающие данные на предмет предвзятости. Проверьте, как ваша модель работает в разных популяциях. Это включает в себя полное понимание данных обучения модели и то, какие ошибки могут существовать в этих данных, которые необходимо устранить. Документирование результатов этих тестов и вашей соответствующей реакции будет иметь решающее значение для доказательства того, что вы серьезно относитесь к прозрачности.
- Рассмотрите возможность назначения сотрудников AI Accountability. Подобно компаниям, у которых есть финансовые или качественные контролеры, в случае программного обеспечения и моделей искусственного интеллекта было бы естественным, если бы люди проверяли наличие побочных эффектов и других негативных воздействий, включая дискриминацию и предвзятость. Для достижения полной прозрачности требуется междисциплинарный подход, что выходит за рамки обязанностей специалистов по данным и требует дополнительных сотрудников.
Чем могут помочь такие компании, как Stratyfy?
Решения Stratyfy используют ИИ / машинное обучение полностью объяснимым образом и прозрачны по своей конструкции из-за внутренней природы лежащих в основе наших проприетарных алгоритмов. Эти алгоритмы позволяют вашим сотрудникам делиться своими знаниями и опытом с моделями, чтобы компенсировать недостающие, неверные или предвзятые данные. Пользователи могут надежно тестировать, настраивать и проверять модели для устранения предвзятости, автоматически отслеживая действия для удобной отчетности в один клик. Наше программное обеспечение идеально подходит для помощи компаниям в решении их проблем подотчетности в области ИИ. Например:
- Stratyfy позволяет вам дополнять ваши данные человеческими знаниями, активно обращаясь к тем местам, где ваши данные искажены, разрежены или отсутствуют. Комбинация как данных, так и человеческого фактора может быть более справедливой, менее предвзятой (и, возможно, даже более точной), чем каждый из них по отдельности, что позволяет значительно улучшить качество ваших моделей.
- Модуль анализа предвзятости Stratyfy позволяет компаниям выявлять предвзятость модели на ранней стадии и активно устранять ее, выборочно корректируя модель для устранения этих предубеждений. Эта функция может применяться для отслеживания и обнаружения систематической ошибки в любой модели.
- Модели, построенные с использованием алгоритмов Stratyfy, затем можно скорректировать, чтобы устранить предвзятость. Этот тип выборочной настройки - шепот на ухо ИИ для корректировки смещения модели - невозможен с другими стандартными подходами к машинному обучению. Большинство наших клиентов могут устранить предвзятость с минимальным влиянием на прибыльность своих моделей.
КОНТАКТНАЯ ИНФОРМАЦИЯ: если вы хотите узнать больше о том, как Stratyfy может помочь вам проактивно устранять предвзятость в ваших моделях, свяжитесь со мной или [email protected], чтобы узнать, чем мы можем помочь.