Наряду с замечательными достижениями ИИ и продолжающимся быстрым проникновением в новые области все большую обеспокоенность вызывают этические проблемы, связанные с передовыми системами ИИ. Такие инциденты, как прошлогоднее закрытие Genderify на базе ИИ и уход Яна Лекуна из Twitter после жарких дискуссий о модели воссоздания фотографий PULSE AI Университета Дьюка, подчеркивают продолжающиеся споры относительно предубеждений и ошибок, заложенных в дизайне и развертывании систем ИИ. Недавнее увольнение из Google AI соруководителя команды Ethical AI Тимнита Гебру ставит более серьезный вопрос: хотят ли технические гиганты и крупные исследовательские институты вообще искать решения?

Статья в Journal of Artificial Intelligence Research делает еще один шаг вперед, предупреждая, что управление сверхразумным ИИ (компьютерной программой или запрограммированным роботом, который намного умнее человека почти в два раза) может стать принципиально невозможным. любое поле). Препринт статьи был загружен на arXiv в 2016 году, а теперь, когда тема стала как никогда актуальной, была опубликована расширенная версия с дополнительными деталями презентации, ссылками и комментариями об альтернативных сценариях.

Предположим, система ИИ со сверхчеловеческим интеллектом могла бы учиться самостоятельно и через Интернет имела бы доступ ко всем данным человечества. Вопрос, рассматриваемый в статье Суперинтеллект не может содержаться: уроки теории вычислимости, заключается в том, будет ли такая главная система искусственного интеллекта, контролирующая все онлайн-машины по всему миру, излечивать рак, устанавливать мир во всем мире и предотвращать климатическую катастрофу. — или вместо этого он просто выбросит человечество и захватит Землю?

Профессор Автономного университета Мадрида и первый автор статьи Мануэль Альфонсека сообщил Synced по электронной почте: «Мы пришли к выводу, что сверхразум нельзя контролировать при любых обстоятельствах. В некоторых случаях это можно контролировать, но не во всех». Альфонсека работал над исследованием с исследователями из Института человеческого развития им. Макса Планка в Германии, Калифорнийского университета в Сан-Диего, Института сетевых технологий IMDEA и Университета Чили.

Команда утверждает, что сверхразумный ИИ представляет собой принципиально иную проблему, чем системы, обычно изучаемые под эгидой «этики роботов», потому что такой сверхразум многогранен и, следовательно, потенциально способен мобилизовать разнообразные ресурсы для достижения целей, которые потенциально непостижимы для людей. , не говоря уже об управляемости.

Исследователи изучили два разных механизма, предложенных оксфордским философом Ником Бостромом при рассмотрении того, как можно управлять сверхразумным ИИ. Один из вариантов — ограничить возможности сверхразума, чтобы он не причинил вреда людям, например, отгородив его стеной от Интернета и всех других технических устройств, чтобы он не контактировал с внешним миром. Однако такой подход сделает сверхразумный ИИ значительно менее мощным.

Другой рассматриваемый вариант — мотивировать сверхразумный ИИ с самого начала только для достижения целей, отвечающих наилучшим интересам человечества, например, путем программирования в нем этических принципов. Однако исследователи демонстрируют, что эти и другие современные и исторические идеи управления сверхразумным ИИ имеют свои пределы.

Команда разработала теоретический алгоритм сдерживания, который мог бы гарантировать, что сверхразумный ИИ не сможет причинить вред людям ни при каких обстоятельствах, имитируя поведение ИИ и останавливая те, которые считаются вредными. Однако их анализ пришел к выводу, что в рамках текущей вычислительной парадигмы такой алгоритм построить невозможно.

Если разбить проблему на основные правила теоретической информатики, окажется, что алгоритм, который приказывает ИИ не уничтожать мир, может непреднамеренно остановить свои собственные операции. Если бы это произошло, вы бы не знали, продолжает ли алгоритм сдерживания анализировать угрозу или он прекратил сдерживать вредоносный ИИ. По сути, это делает алгоритм сдерживания непригодным для использования, — говорит Ияд Рахван, другой автор статьи и директор Института человеческого развития Макса Планка в Берлине.

По расчетам исследователей, проблема сдерживания неразрешима, и ни один алгоритм не сможет найти решение для определения того, причинит ли ИИ вред миру.

Исследование сосредоточено на сверхразумном искусственном интеллекте, до достижения которого еще далеко. Альфонсека, однако, считает, что также будет невозможно полностью контролировать агентов общего искусственного интеллекта (AGI) (компьютерные программы или запрограммированные роботы, которые столь же умны, как люди в самых разных областях). Поскольку такие системы были бы эквивалентны людям, говорит он, мы можем задать вопрос: возможно ли контролировать человека при любых обстоятельствах?

По оценкам экспертов, нам может понадобиться еще одно столетие или даже больше, чтобы достичь ОИИ, и никто не может ничего предусмотреть в отношении сверхразума, говорит Альфонсека. «Возможно даже, что мы никогда не достигнем AGI. В таком случае наша теорема станет просто теоретическим упражнением».

Статья Суперинтеллект не может содержаться: уроки теории вычислимости доступна на веб-сайте Journal of Artificial Intelligence Research.

Корреспондент: Юань Юань | Редактор: Майкл Саразен

Синхронизированный отчет | Обзор китайских решений искусственного интеллекта в ответ на пандемию COVID-19 — 87 тематических исследований от более чем 700 поставщиков ИИ

В этом отчете предлагается взглянуть на то, как Китай использует технологии искусственного интеллекта в борьбе с COVID-19. Он также доступен на Amazon Kindle. Вместе с этим отчетом мы также представили базу данных, охватывающую дополнительные 1428 решений искусственного интеллекта для 12 сценариев пандемии.

Нажмите здесь, чтобы найти больше отчетов от нас.

Мы знаем, что вы не хотите пропустить ни одной новости или научного открытия.Подпишитесь на нашу популярную рассылку Synced Global AI Weekly, чтобы получать еженедельные обновления AI.