От онлайн-знакомств до микротаргетированной политической рекламы в вашей ленте Facebook - мир, управляемый информацией и алгоритмами, стал новой нормой. Однако рост принятия решений на основе данных сопровождался опасной уловкой объективности - ложным предположением о том, что числа должны быть нейтральными.

Следует отметить, что компьютерная наука и наука о данных предлагают множество полезных и даже новаторских идей по наиболее насущным социальным проблемам мира. Они позволяют исследователям изучать исторические тенденции в огромном масштабе и делать соответствующие прогнозы с высокой степенью точности. Более того, от Лаборатории бедности и технологий до Центра пространственного и текстового анализа (CESTA) исследовательские университеты, такие как Стэнфорд, были в авангарде использования технологий для лучшего понимания мира вокруг нас.

Однако опасность заключается в том, чтобы забыть, что за строками кода и массивными наборами данных стоят люди.

Умные люди, конечно, но склонные к лени, предубеждениям и глупым ошибкам, как и все мы. И когда технология оснащена преобразующей силой, эти недостатки - и их влияние на общество - становятся еще более значительными. Ошибки в алгоритмах нелегко отследить и устранить, вместо этого они быстро систематизируются и воспроизводятся.

Мы уже начали видеть последствия чрезмерного доверия к данным, а также опасности, которые они продолжают представлять. Модели« прогнозирующей полицейской деятельности » говорят полицейским, где сосредоточить свои ресурсы, основываясь на записях прошлых арестов, институционализации предубеждений против черных и замедления прогресса в полицейской системе, которая уже ощущает себя застрявшей в 1950-х годах. Когда Microsoft протестировала Тай, чат-бота для Твиттера, имитирующего пользователей-людей, она начала извергать нацистскую риторику в течение нескольких часов после релиза.

Мне хотелось бы думать, что разработчики этих технологий не собирались увековечивать ненависть и расизм. Тем не менее, одновременно этическим императивом для технических новаторов является понимание этих тенденций и противодействие им в будущих проектах.

Так что же делает данные настолько опасными, особенно когда речь идет о разработке политики на высоком уровне?

Во-первых, данные часто не могут точно представить совокупность. Как мы все знаем из базовой статистики, выборка для опросов подвержена любому количеству проблем: отсутствие ответов, неполный охват, необъективность ответов. Более того, систематическая ошибка отбора часто непропорционально влияет на сообщества, которые и без того маргинализированы, возможно, потому, что у них нет доступа в Интернет, стационарных телефонов или времени, чтобы ответить на вопросы анкеты. Если подумать, чей опыт имеет тенденцию узаконивать, а чей систематически исключается из доминирующих нарративов, даже очень большие наборы данных оказываются менее всеобъемлющими, как кажется.

Кроме того, данные носят в основном описательный характер. Это, безусловно, многое говорит нам о том, что происходило в прошлом, но не предписывает конкретных действий на будущее. В результате нормативные выводы, которые мы делаем, не только субъективны, но и подтверждают прошлые неверные суждения. Например, автоматизация части процесса приема в медицинскую школу больницы Святого Георгия сохранила исторические модели исключения женщин и небелых. Машинное обучение только усложняет ситуацию, давая компьютерам возможность интерпретировать и принимать решения при минимальном контроле - риск, который стал очевиден, когда умная технология распознавания изображений Google пометила фотографии чернокожих людей« гориллами ».

К счастью, те же самые аналитические инструменты, которые так часто использовались для подавления, можно использовать для освободительных целей, но на каждом этапе этого процесса необходимо проявлять осторожность.

В Стэнфордском обзоре социальных инноваций утверждается, что технологические компании должны уделять приоритетное внимание этике в своей корпоративной культуре, практике приема на работу и стандартах оценки. Другие определили лучшие практики использования данных для организаций социального сектора; например, покупка информации непосредственно у недостаточно обслуживаемых сообществ и дезагрегация данных во избежание гомогенизации различных групп населения. Наконец, Стэнфордский и другие университеты могут расширить свою роль в продвижении инженерии, ориентированной на человека, приняв такие меры, как расширение требований Технологии в обществе для специалистов по информатике.

В эпоху фейковых новостей и массовой политической поляризации как никогда заманчиво принять стратегии принятия решений, которые кажутся прочно основанными на эмпирике и объективной реальности. Однако данные не являются нейтральными, и мы не можем продолжать действовать так, как есть. Сделать старые способы делать что-то еще быстрее и эффективнее не означает, что мы прогрессируем.

Вместо этого стоит замедлить двигатель инноваций и спросить себя: какое будущее действительно создают наши алгоритмы?

Изначально опубликовано в моей колонке в The Stanford Daily. Если вам понравилась эта статья, ознакомьтесь с моими статьями на Medium:





Эта история опубликована в The Startup, крупнейшем предпринимательском издании Medium, за которым следят более 285 454 человека.

Подпишитесь, чтобы получать наши главные новости здесь.