Социально незащищенные сообщества часто выражают законную озабоченность по поводу того, что они чрезмерно охраняются и недостаточно защищены. Теперь появление алгоритмов искусственного интеллекта, управляющих бесчисленным множеством попыток прогностического контроля, угрожает усугубить проблему. Использование автоматизированных алгоритмов в охране правопорядка не устраняет несправедливость; предвзятость может быть вызвана тем, как такие машины обучаются. Действительно, автоматизация процесса принятия решений человеком может привести к системным предубеждениям под маской объективности. Черный ящик современных алгоритмов искусственного интеллекта, которые не учитывают лежащую в основе социальную механику преступления, не дает уверенности в том, что такие схемы могут в конечном итоге каким-либо значимым образом помешать преступности. Что еще хуже, алгоритмы ИИ, очевидно, являются эффективным усилителем силы для государства, демонстрируя все более навязчивый аппарат контроля и наблюдения для наблюдения за всеми аспектами нашей жизни.
В то время как появление мощных инструментов прогнозирования вызывает обеспокоенность по поводу беспрецедентной власти, которую они отдают в руки чрезмерно рьяных государств во имя защиты гражданского населения, новый подход демонстрирует, как сложные алгоритмы также могут дать нам возможность проверять предвзятость правоприменения и привлекать государства к ответственности. ранее немыслимыми способами.
Вопрос о том, как правоприменение взаимодействует с преступностью, модулирует ее и усиливает преступность, редко рассматривался в контексте точного предсказания событий. В недавнем исследовании (https://www.nature.com/articles/s41562-022-01372-0) в Nature Human Behavior (NHB) авторы по-новому смотрят на эти вопросы. Они демонстрируют, что инструменты прогнозирования могут обеспечить наблюдение за состоянием путем отслеживания системных предубеждений в правоприменении в городах. Таким образом, технология ИИ не ДОЛЖНА быть всевидящим и всезнающим силовиком для абсолютного государственного контроля; если все сделано правильно, это может помочь сообществу создать более свободное, более справедливое и равноправное общество.
Уникальность этой текущей попытки заключается в ее открытом характере: данные общедоступны, алгоритм имеет открытый исходный код, и, следовательно, результаты могут быть воспроизведены любым, у кого есть доступ к умеренно мощной вычислительной установке. Это можно рассматривать как шаг к демократизации ИИ: нет никаких скрытых входных данных, нет аннотаций данных, которые доступны «властям», и никто не сидит и не вводит параметры, которые затем использовались бы для определения и выявления плохих. или «рискованное» поведение. Подход, исключающий ожидаемый человеческий вклад, который может привести к неявным предубеждениям, возможно, является более справедливым и, что, возможно, более важно, воспринимается как справедливый.
Технически это означает, что нет необходимости вручную выбирать «функции». Обход необходимости выбирать функции — интригующее новое дополнение к набору инструментов AI/ML, но, что более важно, оно имеет решающее значение в контексте справедливого правоприменения. Недавний набег чикагской полиции на предиктивную работу полиции является подходящим примером.
Департамент полиции Чикаго внедрил инструмент в 2012 году, стремясь прогнозировать вероятных жертв или виновников преступлений с применением огнестрельного оружия, используя формулу, разработанную академическими исследователями. Эта формула создала список людей (Стратегический список субъектов), опираясь на такие факторы, как возраст во время последнего ареста человека и истории арестов.
Список не был общедоступным.
Выяснилось, что система нацеливалась на людей, которые никогда не обвинялись в серьезных преступлениях, а были раскрыты только после длительной судебной тяжбы за доступ к списку.
Волшебные формулы, используемые для создания секретных списков, не дают хороших результатов — кто знал?
Программа завершилась после обзора корпорации RAND в 2019 году.
Это своего рода обучающий момент: попытка выяснить «хорошие черты» сложной проблемы — прямой путь к провалу. Вряд ли у авторов «формулы» есть какие-то иные намерения, кроме благих. Но на практике было слишком много тонкостей, чтобы их можно было учитывать вручную: программа слишком зависела от записей об арестах, а в офисе генерального инспектора отметили, что она «эффективно наказывала людей за преступления, за которые они не были осуждены». Решение, предложенное в статье NHB, состоит в том, чтобы исключить ручной предварительный выбор функций, от которых зависят прогнозы.
Никакие секреты не делают предсказателей лучше — честнее.
Чтобы реализовать эту цель, авторы переработали структуру прогнозирования с нуля, формализовав новый подход к изучению стохастических явлений, который не требует ввода фиксированных признаков. Вместо простых нейронов, объединенных в сеть, «Сеть Грейнджера» собирает единицы, которые обучаются локально и, хотя и являются более сложными, являются генеративными и могут напрямую изучать нетривиальные аспекты случайных процессов. В конечном итоге это приводит к высокоточным прогнозам отдельных преступлений — точным как в пространстве (в пределах 2 городских кварталов), так и во времени (1–2 дня), сделанным достаточно в будущем (~ 1 неделя) для реализации соответствующих действий или вмешательств.
Но точность прогнозирования событий здесь не главное.
Эта новая структура удваивается как точный высокоточный симулятор — мы можем оценить влияние различных потенциальных политик правоприменения, оценить влияние текущей политики в разных районах и исследовать влияние возмущений на уровень преступности и влияние роста преступлений против собственности на насилие — предоставление основы для выявления предубеждений и выводов об изменениях политики, которые могут минимизировать такие последствия.
К сожалению, этот новый инструмент, хотя и является шагом в правильном направлении, не исключает возможности предвзятости в прогнозах ИИ. Данные, на которых обучается алгоритм, сами по себе могут быть необъективными. Действительно, чрезмерная охрана района увеличит количество контактов с правоохранительными органами, что ложно продемонстрирует более высокий уровень преступности. Статья NHB направлена на то, чтобы частично противостоять этому эффекту, рассматривая только события, которые либо не инициированы офицером, либо являются серьезными насильственными преступлениями. Тем не менее, трудно очистить данные от любых предубеждений, и это по-прежнему остается проблемой.
Неизбежная реальность такова, что ИИ никуда не денется, и его влияние на нашу повседневную жизнь будет только возрастать. Мы должны сделать так, чтобы эта технологическая революция не привела нас к антиутопии. Ключевым моментом является демократизация этой невероятной силы, чтобы она работала на людей, а не против них. И этот подход — маленький шаг в этом направлении.
Исследование NHB было частично поддержано Коллегией Нойбауэра по культуре и обществу и Агентством перспективных оборонных исследовательских проектов США (DARPA) в рамках инициативы по искусственному интеллекту. Мнения, выраженные в этой статье, принадлежат только ее автору и не обязательно отражают официальную позицию Чикагского университета, спонсоров или любой другой организации. Спонсоры не участвовали в разработке исследования, и не следует предполагать никакого одобрения.