Вторая часть исследовательского проекта о социальном воображении искусственного интеллекта инженеров по машинному обучению.

О мечтах, машинах и экосистемах

Вскоре после Первой мировой войны молодой ученый по имени Артур Тэнсли мечтал убить свою жену в африканской деревне. Напуганный своим кошмаром, он хотел понять его более глубокий смысл. В 1923 году Тэнсли решил переехать в Вену, чтобы Зигмунд Фрейд проанализировал свой сон. Что очаровало Тэнсли, так это довольно непризнанная идея Фрейда, согласно которой человеческий мозг представлял собой машину, состоящую из сенсорных сетей. Идея захватила воображение Тэнсли, и, загипнотизированный метафорой мозга как машины, ученый решил применить ее к своим собственным теориям природы. Тэнсли начал представлять себе природу как машину, взаимосвязанную самоорганизующуюся систему — он назвал ее экосистемой.

Несмотря на то, что общественное видение концептуализации природы как упорядоченного равновесия можно рассматривать как старое западное желание (Kricher, 2009), Тэнсли удалось перевести механическое представление о мире в научную гипотезу. Благодаря этой рационализации Тэнсли стал неотъемлемой частью социальной конструкции кибернетической теории: системного утопического видения мира, которое впоследствии повлияло на вычисления, политику и промышленность (Medina, 2011; Turner, 2006).

«Именно образованные таким образом системы являются, с точки зрения
эколога, основными единицами природы на поверхности земли».
Артур Тэнсли, Использование и злоупотребление вегетативными понятиями и терминами, 1 935

Почти сто лет спустя, в то время как социальное воображение кибернетической теории все еще преобладает в социальных представлениях инженеров (Mansell, 2012), технология, называемая искусственным интеллектом, в дальнейшем ИИ, «захватила общественное воображение и глубоко формирует социальная, экономическая и политическая сферы» (Элиш и Бойд, 2018, стр. 57). ИИ привлекает так много внимания как из-за понятий больших данных и глубокого обучения, так и из-за его истории, культурных ассоциаций и присущей ему изменчивости (Elish & Hwang, 2016), которые создал пространство для материализации надежд и страхов в нем и через него.

С одной стороны, социальные деятели рассматривают ИИ как решение самых больших мировых проблем, начиная от обещаний решить проблему изменения климата и заканчивая улучшением здравоохранения (Knight, 2016). С другой стороны, ученые из различных дисциплин предупреждают о переходе к обществу черного ящика (Pasquale, 2015) или о присущих системам ИИ расовых или половых предубеждениях (O’Neil, 2016). Они требуют большей прозрачности, подотчетности и объяснимости ИИ (Wachter, Mittelstadt, & Floridi, 2017) и призывают к более справедливому (Barocas & Selbst, 2016) и этичному использованию (Dignum, 2018).

По-прежнему признавая этот академический дискурс, цель данного исследования состоит в том, чтобы внести свой вклад в него с другой точки зрения: вместо дихотомической оценки того, обречен ли ИИ на успех или его следует опасаться за неудачу, и вместо того, чтобы изучать реальные системы, критикующие их предубеждения и недостатки, я подхожу к ИИ с точки зрения социального конструктивизма. Подчеркивая роль инженеров в формировании технологии и важность социального воображения как критической и аналитической линзы для нее, я сосредоточусь на изучении неотъемлемых социальных и политических требований, узаконивающих ИИ. С исследовательским вопросом

Как инженеры по машинному обучению представляют себе ИИ в социальном плане?

Я стремлюсь находить, отображать и критиковать социальные образы инженеров по машинному обучению с помощью качественных полуструктурированных интервью и тематического сетевого анализа.

Войти в гиперрациональный мир преимущественно белых инженеров-мужчин и взять у них интервью об их мечтах, видении и убеждениях в отношении ИИ может оказаться непростой задачей для социолога. Однако изучение эмоциональных, нереалистичных и сентиментальных предположений инженеров может пролить свет как на формулировку, так и на стабилизацию технологии. Отход от предположения, что ИИ — это просто еще одна технология в истории технологий, сформированная ценностями, убеждениями и страхами социальных акторов, допускает иную, необходимую форму социального исследования: он позволяет сформулировать вопросы о новых структурах власти в технологическое общество (Ellul, 2011), состоящее из новых технологий и социальных образов, сформулированных их инженерами, — это позволяет бросить вызов этим социальным представлениям, деконструируя и критикуя их.

Разоблачение социального воображения инженеров по машинному обучению может не только вызвать необходимый междисциплинарный диалог, но и еще больше разрушить «техностратегический дискурс» (Кон, 1987, стр. 718), чтобы бросить вызов доминирующим голосам в формирование ИИ. С помощью этой задачи можно создать, услышать альтернативные творческие голоса и решить, как общество хочет понимать свое технологическое прошлое, жить в своем технологическом настоящем и стремиться к своему технологическому будущему.

Технологии — это артефакты, в которых есть политика

«Ген, семя, зародыш, чип, мозг, бомба… Меня интересуют не пересечения границ, а скорее зоны имплозии природы в культуру, материала и тропа, места трансформации, которые порождают нарративы о возможных мирах и новых действиях. ».
Донна Харауэй, «Скромный свидетель», 1997 г.

В конце девятнадцатого века президент Национальной ассоциации электрического освещения объявил, что «[одно] чудо следует за другим, пока мы не можем не задаваться вопросом, какое кажущееся невозможное произойдет дальше» (Уилмердинг в Марвине, 1990, стр. 56). ). Представленный как технологическое чудо, электрический свет привел к различным видениям, убеждениям и обещаниям, сделанным от имени технологии (Marvin, 1990). Различные социальные акторы заявляли, что это, наконец, принесет гармонию человечества (Морозов, 2013), создаст свободу, демократию и обеспечит реализацию просвещения (Sturken & Thomas, 2004).

Электрический свет — всего лишь один из творческих технологических спектаклей в истории технологий, простирающийся от железной дороги, обещающей преодолеть пространство и время, через телеграф, несущий трансатлантический мир (Marsden & Smith, 2005), до Интернета, ведущего к децентрализации и усиленному индивидуализму. Тернер, 2006).

Несмотря на то, что неотъемлемые социальные и политические средства, появившиеся вместе с новыми технологиями, ретроспективно очевидны, гуманитарные науки в девятнадцатом и двадцатом веках широко игнорировали социальное внутри технологии, пытаясь выделить свое собственное поле, сосредоточив внимание на людях, а не на машинах (Латур, 2005). Тем не менее, есть несколько исключений из этого. Например, Карл Маркс (1992) критиковал технологические обещания прогресса как модели капитализма, а Макс Вебер (2013) ввел понятие железной клетки как метафору рационального, эффективного, бюрократического мышления. Кроме того, мыслители Франкфуртской школы рассматривали технологию как материализованную идеологию (Feenberg, 1999). Мартин Хайдеггер (1996) утверждал, что сущность техники фактически раскрывает и скрывает социальное, а Гилберт Симондон (1958) в своей работе О способе существования технических объектов подчеркивал человеческую реальность, материализованную в технологиях. .

Однако, укорененные в западном идеализме в целом и индустриализации в частности, гуманитарные науки рассматривали технологию скорее как нейтральный, естественный прогресс, не заслуживающий изучения с социальной точки зрения (Feenberg, 1999; van Lente, 2000). В частности, социология оставалась «беспредметным социальным миром» (Латур, 2005, с. 82).

В конце двадцатого века историки технологий начали иллюстрировать на примерах, таких как электричество (Hughes, 1983), телефон (Marvin, 1990) и бакелитовый пластик (Bijker, 1995), что технологии на самом деле должны быть рассматриваются как социальные, исторические тексты (Медина, 2011), которые необходимо читать, анализировать и исследовать. Эти исследования заложили основу для социального конструирования технологий, продемонстрировав интерактивные отношения между технологиями и обществом и изучив социальные последствия технологических систем (Sturken & Thomas, 2004).

Социальный конструктивистский взгляд рассматривает и общество, и технологии как человеческие конструкции и предполагает, что технологии всегда являются выражением мечтаний, видений, значений и желаний (Bijker, 1995). Таким образом, технологии становятся артефактами, в которых есть политика (Winner, 1980). Им нужно расследование, которое должно

«быть эмансипаторским, а не инструментальным, он политизирует технологический выбор, а не умиротворяет его, и проблематизирует, а не оправдывает» Бийкер, 1995, с. 280

Таким образом, социальная конструктивистская точка зрения на технологию отвергает вышеупомянутую веру в технологическую нейтральность и подчеркивает, что технология всегда формируется социальным действием (Dourish & Bell, 2011), контекстуализируя и воплощая сложную сеть политических, экономических и социальных факторов (Bijker и право, 2010а). В социальной конструкции технологии утверждения о машинах становятся утверждениями о человеческом состоянии, а технологические системы становятся кристаллизацией пространных описаний социального мира, заслуживающих изучения с точки зрения социолога. Технологии — это «формализации, [...] рассматриваемые как инструменты для навязывания значений» (Haraway, 2004, стр. 23). Это социальные и политические акты (Hecht, 1998).

Следовательно, концепции запутанности между технологией и обществом вызывают вопросы о границах между социальным и технологическим: где, если вообще следует провести черту между человеком и машиной? Взгляд, получивший распространение в последнее десятилетие и основанный на представлении Томаса Хью (Hughe, 1986) о бесшовной сети между технологиями и обществом, особенно подчеркивает сетевые, нечеткие отношения между людьми и машинами. В своем Манифесте киборга Донна Харауэй (2004) опирается на эту точку зрения, пытаясь стереть границы между организмами и машинами, введя метафору киборга. Эта иллюстрация гибридности не только критикует искусственную дихотомию, точку зрения, широко подчеркиваемую до того социальными науками, но и радикально политизирует технологию. Вводя концепцию актантов в свою акторно-сетевую теорию, Бруно Латур (2005) также стремится преодолеть различие между людьми и не-людьми, особенно иллюстрируя, как следует анализировать и критиковать такие сети.

Однако Харауэй (2004) характеризует большинство существующих подходов к отношениям между обществом и технологиями как «пограничную войну» (с. 8). Для данного исследования важность этих теорий заключается в их социализации и политизации технологии. Что важно с точки зрения социального конструктивизма, так это предположение, что

«Технология никогда не бывает чисто технологической: она также и социальная. Социальное никогда не бывает чисто социальным: оно также технологично» Bijker & Law, 2010b, p. 305

Таким образом, это позволяет рассматривать технологию как политический источник власти и социальной структуры в мире (Feenberg, 1995). Технология становится включением механизмов построения порядка в обществе (Winner, 1980), и, следовательно, то, что Джорджио Агамбен (2009) называет диспозитивом.

Подход к технологии с точки зрения социального конструктивизма позволяет исследовать ее механизмы власти, желаний, контроля, видений, страхов и правил. Он позволяет критически исследовать социальных акторов, его формирующих. Однако нельзя упускать из виду, что социальный конструктивистский взгляд на технологию не предполагает неизменности властных структур (Law, 1987). Он не рассматривает технологии как конечные продукты, созданные инженерами и слепо адаптированные пользователями. Следовательно, она не предполагает линейности технологических разработок, поскольку в основе этих разработок лежит сложное, нелинейное, динамичное общество. Таким образом, социальная конструктивистская теория технологии является теорией расширения прав и возможностей, поскольку она отрицает неизменность властных структур в целом и технологических инноваций в частности. Скорее, он по своей сути предполагает, что все может измениться, могло быть другим или даже могло потерпеть неудачу. Как следствие, он оставляет место для воображения социальных акторов.

Это вторая часть исследовательского проекта Risk and Delusion in the Rational World of Machine Learning Engineers. Чтобы получить обзор и дополнительную информацию о публикации, посетите Часть 1. Если вы хотите продолжить чтение, перейдите к Часть 3.

Полная ссылка:Кэтрин Фрич, «Риск и заблуждение в рациональном мире инженеров по машинному обучению», Институт цифровой культуры MOTIF, (16 марта 2019 г.), https://medium.com /@katrinfritsch/risk-and-delusion-in-the-rational-world-of-machine-learning-engineers-1-10-e739df39056a