Пятая часть исследовательского проекта о социальном воображении искусственного интеллекта инженеров по машинному обучению.

Искусственный интеллект — это инструмент

Одно социальное воображение, появившееся в ходе этого исследования, заключается в том, что инженеры машинного обучения рассматривают ИИ как инструмент. Рассматривать технологию как инструмент — относительно здравый смысл в истории техники, предполагающий, что технология — это нейтральный объект, способный служить любой цели (Feenberg, 1999; Winner, 1980). ИИ становится улучшением только для того, кто решит его использовать, как ясно дал понять один из интервьюируемых:

"Думаю, как я уже говорил, это будет больше похоже на инструмент, который можно использовать как во благо, так и во вред. Мол, это улучшит то, на что вы способны, и люди, которые его используют, должны принять решение о воздействии, верно?»
(Интервью 10)

Вопреки теориям социального конструирования технологий, которые стремятся социализировать и политизировать технологию на любой стадии развития и любого социального актора, социальное воображение ИИ как Инструмент представляет собой антиполитизацию ИИ в его инженерном процессе.

Идея о том, что ИИ по своей сути нейтрален, пытается избежать субъективных аспектов ИИ и, следовательно, его политики.

Это не инженеры по машинному обучению, потому что они занимаются «наукой ради науки» (Интервью 6), а намерения пользователей ИИ политизируют его. Следовательно, социальное воображение ИИ как инструмента отвергает любую предшествующую социальную ответственность инженеров по машинному обучению при разработке технологии.

С представлением о нейтральности технологий тесно связаны аргументы в пользу промышленной революции и неизбежности прогресса. Эта взаимосвязь между историческими событиями, которые формируют нынешние концепции технологий, является центральной функцией социального воображаемого, связывая прошлое с будущей мобилизацией технологических инноваций (Jasanoff, 2015). С помощью этого исторического аргумента опрошенные подчеркивали сходство между ИИ сегодня и промышленной революцией в восемнадцатом и девятнадцатом веках:

«Промышленная революция, они, вероятно, также говорили, что мы теряем рабочие места из-за машин, и теперь мы делаем автомобили, и, да, мы выжили, верно? Поэтому я не думаю, что у технического прогресса когда-либо есть отрицательная сторона. Потому что все, что он может сделать, — это увеличить наш опыт, верно?» (Интервью 9)

И собеседник продолжил:

«Это естественный прогресс. И я думаю, что если вы оглянетесь на сегодняшний день через пятьдесят лет и посмотрите на людей, жалующихся на цифровых медицинских помощников, они будут смеяться над людьми, которые жаловались на это. На мой взгляд."
(Интервью 9)

Сравнивая сегодняшний ИИ с промышленной революцией и помещая его в рамки нормативности прогресса, Эндрю Финберг (1999) называет «технологическим детерминизмом» (стр. 77). Он видит, что это коренится в двух предпосылках: во-первых, прогресс концептуализируется как однолинейный, а это означает, что, как бы ни продвигались технологические разработки, сам прогресс не подвергается сомнению. Во-вторых, прогресс рассматривается как технологический императив, который социальные акторы должны принять и приспособиться к нему.

Из этого понятия, родившегося в девятнадцатом веке, следует предположение, что то, что можно сделать технологически, всегда должно быть сделано в любом случае (Postman, 1993). Вера в прогресс становится средством легитимации разработки ИИ, потому что инженеры по машинному обучению могут представлять себя только как «экземпляры «технологического прогресса»» (ван Ленте, 2000, стр. 60), а не как лица, решающие, стоит ли технологии должны быть инновационными в первую очередь. Служа прогрессу, они принимают участие в том, что в любом случае неизбежно.

Однако инженеры по машинному обучению также сталкиваются с дилеммой. Технологическое будущее становится «двуглавым монстром». То есть их нельзя избежать, потому что прогресс нельзя остановить, и они требуют усилий, потому что прогресс нельзя останавливать» (ван Ленте, 2000, с. 60). Как следствие, инженеры по машинному обучению, подчеркивающие свою веру в технический прогресс, не могут не выполнять свои технологические обещания будущего.

Социальное воображение ИИ как инструмента, встроенное в неизбежность прогресса и уходящее корнями в исторический нарратив промышленной революции, отвергает любую социальную ответственность и узаконивает инженеров машинного обучения в инновациях ИИ. Политические намерения есть только у пользователей, а не у самих инженеров.

Прогресс не ставится под сомнение — ИИ становится не только желанным, но и фактически неизбежным.

Искусственный интеллект — помощник

Опрошенные инженеры по машинному обучению также рассматривают ИИ как помощника, а не как замену человека. Они видят расширяющий возможности ИИ в сочетании людей и машин, как пояснил один из интервьюируемых:

«Но я думаю, что на более непосредственном уровне необходимо создавать машины, которые могут помогать людям. Не просто полностью отказаться от людей, но оставить людей за свойства и возможности, для которых они хороши, и оставить машины, чтобы дополнять их в их работе. Так что да, в этом смысле смесь того и другого». (Интервью 6)

Социальное воображение ИИ как помощника позволяет уменьшить любой социальный вопрос о замене людей машинами. Помощник не заменяет человека, а помогает в выполнении задач и дополняет опыт. Это также неявно обрамляет предполагаемые структуры власти ИИ. Если ИИ всего лишь помощник, то он находится под людьми, выполняя задачи, которые люди делать не хотят. ИИ становится слугой, артефактом, который не стоит подвергать сомнению, поскольку его контролируют люди.

Социальное представление об ИИ как о помощнике возникло в оптимистичном контексте взглядов инженеров на технологическое будущее, в которое они вносят свой вклад. Эти контексты включали беспилотные автомобили и здравоохранение, обещая человеческую свободу за счет экономии времени и денег, позволяя им сосредоточиться и иметь больший комфорт.

Дэвид Най (2004) концептуализирует эту формулировку технологии как помощника в утопическом видении технологий, подчеркивая улучшающие аспекты новых машин, улучшающих повседневную жизнь. Представляя ИИ в качестве помощника, один инженер по машинному обучению сказал:

«Знаете, надеюсь, эти вещи помогут нам меньше работать и больше сосредоточиться на саморазвитии. Больше учиться, прогрессировать, больше расти, чем делать тупую, скучную, да, в какой-то степени тупую работу». (Интервьюируемый 1)

Идея разгрузки задач и освобождения людей является относительно распространенным предположением в дискуссиях об автоматизации (Элиш, 2016). Учитывая историю технологий, часто предполагалось, что технологии приносят человеку свободу и облегчение (Feenberg, 1999). Евгений Морозов (2013) называет это «решенничеством» (стр. 6), риторикой, которая обещает социальные решения, такие как свобода или демократия, с помощью технологий и, следовательно, затемняет настоящие социальные вопросы, лежащие в ее основе. Интересно, что некоторые исследователи показали, что эти решения часто даже не становятся истиной, а новые технологии скорее увеличивают время работы (Bainbridge, 1982; Parasuraman & Riley, 1997; Tenner, 1997).

Кроме того, в сфере здравоохранения, в частности, ИИ рассматривался не только как помощник, позволяющий врачам экономить время, но и как способ более точно оценивать заболевания. В частности, распознавание изображений для МРТ-сканов использовалось в качестве примера, чтобы подчеркнуть этот аргумент. В этом контексте ИИ рассматривался как машина, которая может спасать жизни, потому что она не влечет за собой человеческих ошибок, но с большей точностью определяет, какие болезни есть у людей и как их следует лечить. То, что аккуратно переплетается с понятием ИИ как помощника, — это аргумент о том, что люди должны быть в курсе систем ИИ, чтобы убедиться, что машины работают правильно:

«Я считаю, что хорошо, если машина находится в курсе событий вместе с человеком. Я не думаю, что их следует использовать отдельно в данный момент». (Интервью 12)

Держать людей в курсе — еще одна преобладающая риторика в текущих дискуссиях о людях и автоматизации (Элиш, 2016). Это особенно заслуживает изучения, потому что оно создает предположения о том, кто будет нести ответственность в случае сбоя автоматизированных систем. В своем исследовании Зоны моральной деформации Мадлен Клэр Элиш (2016) на примере авиакатастрофы рейса 447 авиакомпании Air France показывает, как люди часто выступают в роли носителей моральной вины и столкнуться с юридическими санкциями за ошибки, допущенные автоматизированными системами. Она утверждает, что, удерживая людей в курсе, предполагается, что люди могут дополнять автоматизацию, если это необходимо, и если они этого не делают, они несут ответственность на уровне общества.

Таким образом, возникающая тема о том, что люди должны быть в курсе систем, которые создают инженеры по машинному обучению, снова перекладывает ответственность с инженеров на людей, которые должны отслеживать и контролировать эти системы. Тем не менее, в высоко «компьютеризированном обществе» (Ниссенбаум, 1996, стр. 25) невозможно привлечь к ответственности только одного человека из-за того, что Хелен Ниссенбаум (1996) называет «проблемой многих рук» (стр. 25). Это означает, что несколько человек создают и внедряют технологические системы и, следовательно, должны нести ответственность в случае сбоя этих систем.

Социальное воображение инженеров по машинному обучению об ИИ как о помощнике — это еще одно технологическое видение, ведущее к разным последствиям: оно не только обещает человеческую свободу и безопасность, но и узаконивает инновации ИИ, не подвергая их сомнению, потому что ИИ будет только служить и не заменить человека. Кроме того, именно люди должны нести ответственность в случае сбоя системы, а не сам ИИ или инженеры по машинному обучению, которые ее создали. Именно сила технологических обещаний делает возможным необходимое социальное действие (van Lente, 2000). Следовательно, необходима критическая позиция по отношению к этим обещаниям, что приводит к еще одному социальному воображению ИИ как заблуждению.

Это пятая часть исследовательского проекта Risk and Delusion in the Rational World of Machine Learning Engineers. Чтобы получить обзор и дополнительную информацию о публикации, посетите Часть 1. Если вы хотите продолжить чтение, перейдите к Часть 6.

Полная ссылка:Кэтрин Фрич, «Риск и заблуждение в рациональном мире инженеров по машинному обучению», Институт цифровой культуры MOTIF, (16 марта 2019 г.), https://medium.com /@katrinfritsch/risk-and-delusion-in-the-rational-world-of-machine-learning-engineers-1-10-e739df39056a