Хотя преимущества технологий искусственного интеллекта существенны, стоит задача обеспечения их этичного проектирования, производства, использования и управления. Был поднят ряд этических последствий, связанных с машинным обучением, а также более широкие этические проблемы, связанные с роботами с искусственным интеллектом¹. Однако эти последствия не соответствуют рискам существования ИИ и опасности несдерживаемого сверхразумного ИИ. Предлагаются два новых метода управления для безопасной разработки ИИ: использование смоделированной среды и ленивый суперинтеллект.

Агент ИИ может быть создан в закрытой среде, которая имитирует предполагаемое реальное приложение. Это метод контроля возможностей, направленный на контроль того, что может делать сверхразум². Существуют два уровня, так что выходные данные агента сначала задаются в моделировании и подтверждаются как вредоносные перед выходом из реальной системы. Подобно игре на пианино в видеоиграх, выходы с пианино могут не оказывать прямого воздействия на внешнюю среду - у игрока могут быть наушники, в игре может быть отключен звук и т. Д. При использовании моделируемой среды элементы управления и ограничения накладываются на потенциально сверхразумный ИИ, чтобы не допустить его прямого воздействия на наш мир или вреда.

ИИ должен быть разработан с учетом минимума, чтобы не допустить его чрезмерной амбициозности. Конечные цели, такие как самосохранение, когнитивное развитие, технологическое совершенство и приобретение ресурсов, скорее всего, будут преследоваться большинством интеллектуальных агентов². Если сверхразумный ИИ будет преследовать его безоговорочно, последствия могут быть катастрофическими. Следовательно, существуют методы выбора мотивации, позволяющие контролировать то, что хочет делать суперинтеллект². При плохо определенной цели, такой как «увеличить мое счастье», «ленивый ИИ» действует в соответствии с тем, что минимально увеличивает счастье (например, показывает несколько забавное видео). Абсурдные сценарии, такие как имплантация электродов в центр удовольствия нашего мозга, предотвращаются только путем увеличения «уровня амбиций» ИИ до заранее определенного порога безопасности.

Люди всегда должны иметь преимущество в развитии сверхразумного ИИ. С помощью моделирования окружающей среды инженеры могут наблюдать, как агент будет вести себя в реальном мире без вредных последствий. Ленивый суперинтеллект может не достигать поставленных целей, но люди защищены от последствий плохо сформулированных целей. Хотя многие считают, что разговоры о сценариях Судного дня являются чрезмерными предположениями, никогда не рано начинать диалог о стратегиях контроля над такими агентами.

[1] Валлор, Шеннон и Джордж А. Бекей. «Искусственный интеллект и этика самообучающихся роботов». Оксфордская стипендия в Интернете, 2017, DOI: 10.1093 / oso / 9780190652951.003.0022.

[2] Бостром, Ник. Суперинтеллект. Издательство Оксфордского университета, 2016.