Искусственный интеллект уже интегрируется в системы защиты нового поколения, и его демилитаризация маловероятна. В любом случае ограничение его использования в военных целях, вероятно, не самая разумная стратегия.

Ежегодное собрание Всемирного экономического форума в этом году вот-вот начнется. Просматривая повестку дня на этот год, я не мог не вспомнить прошлогоднее интервью с генеральным директором Google Сундаем Пичаи, который был весьма открыт и оптимистичен в отношении того, как он видит ИИ. изменить фундаментальные способы функционирования человечества.

Действительно, автоматизация мыслительных процессов в сочетании с высокоскоростными сетями связи, мгновенной доступностью данных и мощными вычислительными ресурсами может повлиять на все механизмы общества. А.И. будет играть ключевую роль в принятии решений, повседневном управлении и автоматизации здравоохранения, образования, энергоснабжения, правоохранительных органов, экономики и управления, и это лишь некоторые из них.

Как и большинство других инноваций, каждое технологическое достижение может быть использовано в злых целях, и ИИ. ничем не отличается. Что пугает большинство людей, так это его неуловимая природа, столь обширная сфера деятельности и играющая центральную роль во многих научно-фантастических сюжетах, которые не очень хорошо кончаются.

В своем интервью Сундай попытался развеять подобные опасения, предложив странам демилитаризовать ИИ. Конечно, такие комментарии следует рассматривать в контексте. Но ожидать этого от всех стран - все равно что ожидать, что человечество вообще перестанет воевать.

Причина, по которой я подчеркиваю все, заключается в том, что для создания дисбаланса достаточно одной страны. Что, если Северная Корея решит интегрировать ИИ? в своих межконтинентальных баллистических ракетах для высокоточного автономного наведения? Реально ли ожидать, что США воздержатся от того же, чтобы противодействовать таким угрозам? Это снова гарантированное взаимное уничтожение.

В такой ситуации вы можете достичь равновесия по Нэшу только в том случае, если обе стороны могут больше терять, когда они примут более агрессивную стратегию доминирования и противник нанесет ответный удар. Можно было бы ожидать, что генеральный директор одного из крупнейших в мире ИИ ориентированные компании на то, чтобы хотя бы знать такую ​​фундаментальную концепцию теории игр.

Но, конечно, Сундай это прекрасно понимает. Его утопическое видение гармоничного межгосударственного мирного сотрудничества для применения А.И. просто подыгрывает планам своего работодателя. По иронии судьбы, это произошло в начале того же года, когда был снят ее девиз не делай зла, его собственные сотрудники вышли в знак протеста против его участия в военных проектах, и люди начали серьезно волноваться. о доступности и неправомерном использовании их личной информации, такой как электронная почта и данные мобильного телефона.

Поддержание баланса сил на противоборствующих сторонах уже является достаточно хорошей причиной, чтобы не вводить ограничения на одну сторону, без каких-либо конкретных гарантий того, что другая сторона действительно делает то же самое. Но вот еще несколько причин, по которым А. демилитаризации не произойдет, и поэтому мы, вероятно, вообще не хотим, чтобы это произошло.

Финансирование

Оборонные бюджеты стимулируют множество исследований и инноваций в западных странах, где наличие сильного военного потенциала считается критически важным. Они не только финансируют строительство ракет и истребителей-невидимок. Они поддерживают развитие идей, которые часто еще не имеют коммерческой бизнес-модели, но все же заслуживают того, чтобы иметь их до того, как появятся конкурирующие страны. Конечно, более вероятно, что идеи с явным военным применением финансируются из оборонных бюджетов. Но такие технологии, как Интернет (первоначально ARPANET) и Глобальная система позиционирования, начинались как оборонные проекты и в конечном итоге были представлены публике.

Автономные транспортные средства, возможно, стали более популярными благодаря проекту Google по созданию беспилотных автомобилей (ныне Waymo), но на самом деле это стало результатом грандиозного вызова Агентства оборонных исследовательских проектов США (DARPA). Затем Google набрал людей из команды, победившей в конкурсе 2005 года. DARPA также провело вызов робототехники с целью разработки роботов-гуманоидов, способных выполнять опасные задачи в среде, слишком вредной для человека. Достаточно вспомнить катастрофы в Чернобыле и Фукусиме, а также последствия того, что люди, работающие в радиоактивной среде, должны справиться с их последствиями, чтобы понять, насколько полезной может быть такая технология.

DARPA принимает A.I. очень серьезно , а также других оборонных организаций, таких как BAE Systems и Thales . Ожидая, что военные сложат руки и отдалятся от А.И. просто нереально.

А.И. Может снизить количество жертв (с обеих сторон)

Одна из основных проблем, связанных с использованием искусственного интеллекта. в армии идет разработка роботов-убийц. Это законная проблема, которую необходимо решать с помощью правильной политики и договоров, хотя я сомневаюсь, что если бы технологические компоненты были доступны, любая страна публично признала бы наличие автономного оружия (до тех пор, пока она не будет вынуждена вывести их и использовать) . Более того, если одна нация может получить такую ​​технологию, вероятно, будет очень плохой идеей оставлять игровое поле несбалансированным.

Учитывая, что общий искусственный интеллект еще очень далек, а робот-убийца в стиле Терминатора маловероятен, возможно, нам стоит больше сосредоточиться на непосредственных преимуществах искусственного интеллекта, таких как Battlefield Intelligence. Что, если бы солдатский козырек был оснащен дополненной реальностью, использующей искусственный интеллект. отличить друга от врага или гражданского от угрозы точнее, чем накачанный адреналином человеческий страх за свою жизнь? Автономные бронетранспортеры можно использовать для миссий с высокой степенью риска, таких как доставка припасов по вражескому маршруту или вывоз раненых из активной зоны боевых действий. Роботы могли сопровождать солдат и помогать им в расследовании угроз или перевозить тяжелое оборудование.

Что, если бы системы наведения ракет были оснащены бортовыми алгоритмами, проверяющими цель до взрыва? Хирургические удары будут просто поражать намеченные цели, вместо того, чтобы вызывать побочный ущерб и гибель невинных мирных жителей. А как насчет более умных систем ПВО, использующих искусственный интеллект? отслеживать и перехватывать воздушные угрозы или даже обнаруживать их до того, как они действительно будут запущены?

А.И. не очень хорошо определен

Большинство A.I. методы включают обработку потоков данных, применение математических методов, таких как исчисление, вероятность и статистика, и их объединение с использованием нескольких алгоритмов для получения решения. Нет ничего действительно познавательного, разумного или самосознающего.

В отличие от ядерного оружия, где вы можете четко определить, есть ли у страны запасы или нет (при условии, что вы можете их найти), нет четкого способа классификации программных технологий, интегрированных в различные системы защиты. Более того, нельзя ожидать, что военные воздержатся от использования имеющихся у них данных и вычислительных ресурсов для получения более быстрой, умной и проверенной на машинах поддержки принятия решений, в то время как широкая публика всегда под рукой. А.И. демилитаризации просто не происходит.

Йозеф Бахада имеет докторскую степень. в области компьютерных наук по специальности А.И. методы планирования и составления расписания. Он работает консультантом по технологиям, разрабатывая A.I. решения для приложений логистики и нефтепромысловых технологий. Любые мнения, выраженные в приведенной выше статье, являются его собственными и не обязательно совпадают с точкой зрения какой-либо из аффилированных организаций.