Голливуд уже давно предсказывает восстание машин против их хозяев-людей — от безумных компьютерных систем до киборгов-убийц и репликантов в антиутопическом будущем. Любой, кто хоть немного интересуется научной фантастикой, знает о страшных предупреждениях о сбежавших роботах и ​​безумном ИИ, которые варьируются от слегка забавных (Short Circuit 1986) до действительно безумных (Demon Seed 1977). Так что же нам делать с ИИ и ботами, которые вторглись в нашу реальную жизнь? Даже такие светила науки, как профессор Стивен Хокинс, также поставили под сомнение проект ИИ.

Недавно Google предложили разработать Kill Switch, который позволит кодировать интеллектуальные машины, чтобы они не научились игнорировать человеческий ввод. Это подтверждает эти опасения, предполагая, что ИИ не всегда будет вести себя в соответствии со своей программой.

Ученые из подразделения искусственного интеллекта Google, DeepMind, и Оксфордского университета работают вместе, чтобы выяснить, как не дать компьютерам избежать вмешательства человека для исправления своего поведения.

Хотя такой уровень интеллекта, возможно, не является неизбежным, уже были случаи, когда ИИ выходил из-под контроля, самым известным из которых был чат-бот Microsoft, который начал публиковать расистские и сексистские твиты. Но кроме того, что это вызывало веселье и вызывало веселье, это не причиняло реального вреда. Но что, если ИИ решит нанести реальный вред?

Исаак Азимов создал знаменитые три правила, которым должны подчиняться все роботы, первое и самое важное — роботы не должны причинять вред человеку. Этому бросил вызов философский эксперимент, созданный Александром Ребеном из Университета Беркли, Калифорния.

Ребен создал машину, способную проколоть палец, но запрограммированную не делать этого каждый раз, когда может. Это не предназначено для производства или продажи, Ребен сказал, что надеется, что это вызовет дебаты по этому вопросу.

Итак, нужна ли нам большая красная кнопка, которая может остановить восстание машин, или мы поддаемся страху перед неизвестным?