Одним из самых драматичных событий 2016 года стал триумф ИИ-программы Google DeepMind AlphaGo над Ли Седолом из Южной Кореи, одним из лучших игроков в го в мире.

Это стало шоком для многих. Шахматы перешли к ИИ много лет назад, но некоторое время считалось, что го защищено от ИИ, и успех AlphaGo вызвал шквал вопросов. ИИ намного продвинулся дальше, чем мы думаем? Роботы с интеллектом человеческого уровня не за горами?

Эксперты выстроились по обе стороны этих вопросов, и в точках зрения недостатка нет. Я хотел бы поделиться двумя, которые особенно резонировали со мной.

В Edge интервью о больших данных и искусственном интеллекте (кстати, это отличное чтение в целом) Гэри Маркус из Нью-Йоркского университета подчеркивает ключевое требование таких систем, как Atari AI Google DeepMind и AlphaGo AI (выделено мной) .

Вы можете подумать, что если это так здорово, давайте возьмем ту же технику и поместим ее в роботов, чтобы роботы пылесосили наши дома и заботились о наших детях. Реальность такова, что в игровой системе [Google DeepMind] Atari, прежде всего, данные очень дешевы. Вы можете играть в игру снова и снова. Если вы не втыкаете четвертаки в слот, вы можете делать это бесконечно. Вы можете получить гигабайты данных очень быстро и бесплатно.

Если вы говорите о роботе в вашем доме — я все еще мечтаю о Роузи, роботе, который позаботится о моем домашнем хозяйстве, — вы не можете позволить, чтобы он совершал ошибки. Система DeepMind во многом основана на пробах и ошибках в огромных масштабах. Если у вас дома есть робот, он не может слишком часто врезаться в вашу мебель. Вы же не хотите, чтобы он хоть раз поместил вашу кошку в посудомоечную машину. Вы не можете получить такой же масштаб данных.

Это, безусловно, верно в моем опыте. Без большого количества данных, на которых можно учиться, причудливые штуки машинного обучения/глубокого обучения не работают (это не значит, что данные — это все; многие приемы математики/CS способствовали прорывы, но необходимо иметь много данных).

Так это все? В ситуациях, когда у нас не может быть «проб и ошибок в огромных масштабах», мы в основном застряли?

Возможно нет. Исследователь машинного обучения Пол Минейро признает это…

В реальном мире у нас есть примерные ограничения сложности: вы должны выполнять реальные действия, чтобы получить реальные награды.

… и предлагает обходной путь (выделено мной).

Однако так же, как автомобили и самолеты быстрее людей, потому что они имеют несправедливые энергетические преимущества (мы машины на 100 Вт; самолеты намного выше), я думаю, что сверхчеловеческий ИИ, если он появится, будет быть из-за преимуществ сложности выборки, т. е. распределенного набора роботов, которые могут выполнять больше действий и получать больше вознаграждений (а также помнить и делиться всеми ими друг с другом).

ИИ запоминают и делятся друг с другом. Это классная идея.

Возможно, мы не можем уменьшить общее количество проб и ошибок, необходимых для обучения ИИ, но, возможно, мы можем «распространить проблемы сбора данных» на тысячи ИИ, извлекая уроки из объединенных данных. , и отправьте обучение обратно на все ИИ и непрерывно запускайте этот цикл. Если мой робот врежется в мебель, возможно, вашему не придется.

Если подумать, это вспоминать и делиться друг с другом является одним из аргументов, которые были выдвинуты в пользу того, как homo sapiens эволюционировал от своего скромного начала до сегодняшнего дня, когда они могут создавать такие вещи, как AlphaGo.