Изучая искусственный интеллект, машинное обучение и общий прогресс технологий, а также наблюдая за реакцией на шумиху, которая окружает все это, я вынужден задаться вопросом, полностью ли мы учитываем наши возможности в определении характера влияния технологии. Ни с точки зрения регулирования самих технологий, ни с точки зрения их развития (и то, и другое является важным соображением); скорее, с точки зрения того, как мы, люди, будем развиваться, чтобы снизить неотъемлемые риски.

Мы участвуем в разработке ИИ — искусственного интеллекта, — который будет не только работать на нас, но и наблюдать за нами и влиять на наши решения. Мы знаем, что нам нужно защитить себя от ИИ существ, которые мы создаем. Но мы их все равно строим.

Обещания ИИ включают в себя автоматизацию непривлекательных механических задач и перемалывание умопомрачительных объемов данных, чтобы найти то, что мы, возможно, ищем. (Интересно, что мы регулярно спотыкаемся, когда определяем, что именно мы ищем, — совсем другая тема.) ИИ работает, потому что он обучен угождать людям; по крайней мере, это верно для узкоспециализированного ИИ — ИИ, созданного для достижения успеха в конкретной задаче, но не преуспевающего в случайной принципиально другой задаче. В узком ИИ алгоритмы (разработанные людьми) следят за своим успехом (определяются людьми), а затем практикуются на данных (созданных людьми) до тех пор, пока не будет достигнута желаемая метрика производительности (предоставленная людьми). Пока ИИ ограничен этой моделью, влияние человеческих слабостей (по крайней мере — или, что еще хуже, гнусных намерений) неизбежно.

В любом случае, мы знаем, что ИИ никогда не будет панацеей. Это может даже оказаться чрезмерно удушающим и бесчеловечным. Мы знаем о рисках, хотя я не уверен, что мы их действительно знаем. Нам даже не нужно заглядывать так далеко, как предложенные антиутопии, в которых ОИИ позволяет машинам догнать человечество. (G в AGI, вообще, превращает ИИ из узкого в нет.) Проблемы возникают с самыми базовыми системами поддержки ИИ, которые определяют, например, кто будет нанят или кто получает условно-досрочное освобождение. Корректировка известных проблем, таких как предвзятость, обеспечивает определенное удобство, но, в конце концов, алгоритмы и обучающие данные подвержены человеческим ошибкам, и невозможно заранее знать, принесут ли лучшие усилия склонные к ошибкам люди. достаточно.

Учитывая сложность — хотя бы с точки зрения постоянно растущего числа узлов и ребер в графе отношений — элементов, которые используются в вычислениях ИИ, предотвращение антиутопического результата может показаться неизбежным. Учитывая те способности ИИ, которые не зависят от прямого человеческого влияния, интеллект ИИ сводится к его впечатляющей скорости с перетасовкой битов для выполнения алгебраических манипуляций. В этом его сила, и на этом фронте люди не могут конкурировать. Но как мы могли бы изменить наше отношение к ИИ, если бы вместо этого сосредоточились на усилении нашей человечности? Поощрения делать это на индивидуальном уровне изобилует, но как сделать его системным?

В нынешней структуре западное (и другое) общество полагается на то, что люди принимают определенное поведение, многие из которых подобны машинам и имеют тенденцию минимизировать нашу человечность, например, ограничивая нашу индивидуальность. Большинство из нас придерживаются ограничивающих социальных норм и ожиданий, не ставя под сомнение необходимость этого. Подчиняясь воле других, мы уменьшаем нашу человечность. Слепо выполняя указания и приказы, мы подавляем нашу человечность. И, в конечном счете, подчиняясь заблуждению лидеров и/или общественных структур, освобождающих нас от ответственности, мы отдаем свою человечность.

Если это ставит нас в невыгодное положение по сравнению с повелителями ИИ, какие у нас есть варианты? Потребность в этих поведенческих ожиданиях не является фундаментальной для общества; они были встроены в наши социальные системы, чтобы они могли работать эффективно, а не эффективно — с минимальными затратами и предельной производительностью. И приносить значительную пользу некоторым — не обязательно всем и даже большинству. Истинная цель этих приспособлений, которые нас просят сделать, состоит в том, чтобы поддерживать существующие социальные структуры и системы.

Но это машиноподобное поведение подталкивает нас к соперничеству с компьютерами на их территории — и мы не можем победить на этом фронте. Прекратив поощрять или вознаграждать такое поведение, например, за любознательность, творчество и сострадание, мы можем получить шанс усилить нашу человечность настолько, чтобы оставаться на шаг впереди ИИ — даже когда он перейдет в ОИИ.

Чтобы достичь этого, наши социальные структуры и системы должны будут адаптироваться. Или, скорее, подвергнуться радикальной трансформации — им придется противостоять людям, которые на самом деле являются людьми. Учитывая огромные компромиссы, на которые мы пошли, трудно даже понять, с чего начать на этом фронте. Инициативы по созданию систем, расширяющих свободу действий участников, похоже, движутся в правильном направлении. И то, как развивается образование, будет иметь большое значение. Недавний переход к самостоятельному обучению в прогрессивных начальных школах и за их пределами является обнадеживающим началом.

На фундаментальном уровне было бы разумно покончить с мифом о том, что изменения — это сложно. Что ж, возможно, миф немного преувеличен, но факт заключается в том, что изменения так же важны для человеческой жизни, как и дыхание. Энергия, потраченная на сопротивление его потоку, может быть направлена ​​на лучшую цель. Возможно, важнее всего то, что мы обрели бы уверенность в себе, имея дело с различиями, — уверенность, которая уменьшила бы страх, из которого прорастают многие наши человеческие споры и ограничения.

Обнадеживает то, что нам также предоставляется возможность для оптимизма — рассматривать это как начало потенциально прекрасных отношений. Мы зашли в тупик; перемены неизбежны. И если человечество хочет сохраниться, оно должно процветать. Я надеюсь, что мы будем лучше для этого.