Социально незащищенные сообщества часто выражают законную озабоченность по поводу того, что они чрезмерно охраняются и недостаточно защищены. Теперь появление алгоритмов искусственного интеллекта, управляющих бесчисленным множеством попыток прогностического контроля, угрожает усугубить проблему. Использование автоматизированных алгоритмов в охране правопорядка не устраняет несправедливость; предвзятость может быть вызвана тем, как такие машины обучаются. Действительно, автоматизация процесса принятия решений человеком может привести к системным предубеждениям под маской объективности. Черный ящик современных алгоритмов искусственного интеллекта, которые не учитывают лежащую в основе социальную механику преступления, не дает уверенности в том, что такие схемы могут в конечном итоге каким-либо значимым образом помешать преступности. Что еще хуже, алгоритмы ИИ, очевидно, являются эффективным усилителем силы для государства, демонстрируя все более навязчивый аппарат контроля и наблюдения для наблюдения за всеми аспектами нашей жизни.

В то время как появление мощных инструментов прогнозирования вызывает обеспокоенность по поводу беспрецедентной власти, которую они отдают в руки чрезмерно рьяных государств во имя защиты гражданского населения, новый подход демонстрирует, как сложные алгоритмы также могут дать нам возможность проверять предвзятость правоприменения и привлекать государства к ответственности. ранее немыслимыми способами.

Вопрос о том, как правоприменение взаимодействует с преступностью, модулирует ее и усиливает преступность, редко рассматривался в контексте точного предсказания событий. В недавнем исследовании (https://www.nature.com/articles/s41562-022-01372-0) в Nature Human Behavior (NHB) авторы по-новому смотрят на эти вопросы. Они демонстрируют, что инструменты прогнозирования могут обеспечить наблюдение за состоянием путем отслеживания системных предубеждений в правоприменении в городах. Таким образом, технология ИИ не ДОЛЖНА быть всевидящим и всезнающим силовиком для абсолютного государственного контроля; если все сделано правильно, это может помочь сообществу создать более свободное, более справедливое и равноправное общество.

Уникальность этой текущей попытки заключается в ее открытом характере: данные общедоступны, алгоритм имеет открытый исходный код, и, следовательно, результаты могут быть воспроизведены любым, у кого есть доступ к умеренно мощной вычислительной установке. Это можно рассматривать как шаг к демократизации ИИ: нет никаких скрытых входных данных, нет аннотаций данных, которые доступны «властям», и никто не сидит и не вводит параметры, которые затем использовались бы для определения и выявления плохих. или «рискованное» поведение. Подход, исключающий ожидаемый человеческий вклад, который может привести к неявным предубеждениям, возможно, является более справедливым и, что, возможно, более важно, воспринимается как справедливый.

Технически это означает, что нет необходимости вручную выбирать «функции». Обход необходимости выбирать функции — интригующее новое дополнение к набору инструментов AI/ML, но, что более важно, оно имеет решающее значение в контексте справедливого правоприменения. Недавний набег чикагской полиции на предиктивную работу полиции является подходящим примером.

Департамент полиции Чикаго внедрил инструмент в 2012 году, стремясь прогнозировать вероятных жертв или виновников преступлений с применением огнестрельного оружия, используя формулу, разработанную академическими исследователями. Эта формула создала список людей (Стратегический список субъектов), опираясь на такие факторы, как возраст во время последнего ареста человека и истории арестов.

Список не был общедоступным.

Выяснилось, что система нацеливалась на людей, которые никогда не обвинялись в серьезных преступлениях, а были раскрыты только после длительной судебной тяжбы за доступ к списку.

Волшебные формулы, используемые для создания секретных списков, не дают хороших результатов — кто знал?

Программа завершилась после обзора корпорации RAND в 2019 году.

Это своего рода обучающий момент: попытка выяснить «хорошие черты» сложной проблемы — прямой путь к провалу. Вряд ли у авторов «формулы» есть какие-то иные намерения, кроме благих. Но на практике было слишком много тонкостей, чтобы их можно было учитывать вручную: программа слишком зависела от записей об арестах, а в офисе генерального инспектора отметили, что она «эффективно наказывала людей за преступления, за которые они не были осуждены». Решение, предложенное в статье NHB, состоит в том, чтобы исключить ручной предварительный выбор функций, от которых зависят прогнозы.

Никакие секреты не делают предсказателей лучше — честнее.

Чтобы реализовать эту цель, авторы переработали структуру прогнозирования с нуля, формализовав новый подход к изучению стохастических явлений, который не требует ввода фиксированных признаков. Вместо простых нейронов, объединенных в сеть, «Сеть Грейнджера» собирает единицы, которые обучаются локально и, хотя и являются более сложными, являются генеративными и могут напрямую изучать нетривиальные аспекты случайных процессов. В конечном итоге это приводит к высокоточным прогнозам отдельных преступлений — точным как в пространстве (в пределах 2 городских кварталов), так и во времени (1–2 дня), сделанным достаточно в будущем (~ 1 неделя) для реализации соответствующих действий или вмешательств.

Но точность прогнозирования событий здесь не главное.

Эта новая структура удваивается как точный высокоточный симулятор — мы можем оценить влияние различных потенциальных политик правоприменения, оценить влияние текущей политики в разных районах и исследовать влияние возмущений на уровень преступности и влияние роста преступлений против собственности на насилие — предоставление основы для выявления предубеждений и выводов об изменениях политики, которые могут минимизировать такие последствия.

К сожалению, этот новый инструмент, хотя и является шагом в правильном направлении, не исключает возможности предвзятости в прогнозах ИИ. Данные, на которых обучается алгоритм, сами по себе могут быть необъективными. Действительно, чрезмерная охрана района увеличит количество контактов с правоохранительными органами, что ложно продемонстрирует более высокий уровень преступности. Статья NHB направлена ​​​​на то, чтобы частично противостоять этому эффекту, рассматривая только события, которые либо не инициированы офицером, либо являются серьезными насильственными преступлениями. Тем не менее, трудно очистить данные от любых предубеждений, и это по-прежнему остается проблемой.

Неизбежная реальность такова, что ИИ никуда не денется, и его влияние на нашу повседневную жизнь будет только возрастать. Мы должны сделать так, чтобы эта технологическая революция не привела нас к антиутопии. Ключевым моментом является демократизация этой невероятной силы, чтобы она работала на людей, а не против них. И этот подход — маленький шаг в этом направлении.

Исследование NHB было частично поддержано Коллегией Нойбауэра по культуре и обществу и Агентством перспективных оборонных исследовательских проектов США (DARPA) в рамках инициативы по искусственному интеллекту. Мнения, выраженные в этой статье, принадлежат только ее автору и не обязательно отражают официальную позицию Чикагского университета, спонсоров или любой другой организации. Спонсоры не участвовали в разработке исследования, и не следует предполагать никакого одобрения.