Одним из самых драматичных событий 2016 года стал триумф ИИ-программы Google DeepMind AlphaGo над Ли Седолом из Южной Кореи, одним из лучших игроков в го в мире.
Это стало шоком для многих. Шахматы перешли к ИИ много лет назад, но некоторое время считалось, что го защищено от ИИ, и успех AlphaGo вызвал шквал вопросов. ИИ намного продвинулся дальше, чем мы думаем? Роботы с интеллектом человеческого уровня не за горами?
Эксперты выстроились по обе стороны этих вопросов, и в точках зрения недостатка нет. Я хотел бы поделиться двумя, которые особенно резонировали со мной.
В Edge интервью о больших данных и искусственном интеллекте (кстати, это отличное чтение в целом) Гэри Маркус из Нью-Йоркского университета подчеркивает ключевое требование таких систем, как Atari AI Google DeepMind и AlphaGo AI (выделено мной) .
Вы можете подумать, что если это так здорово, давайте возьмем ту же технику и поместим ее в роботов, чтобы роботы пылесосили наши дома и заботились о наших детях. Реальность такова, что в игровой системе [Google DeepMind] Atari, прежде всего, данные очень дешевы. Вы можете играть в игру снова и снова. Если вы не втыкаете четвертаки в слот, вы можете делать это бесконечно. Вы можете получить гигабайты данных очень быстро и бесплатно.
Если вы говорите о роботе в вашем доме — я все еще мечтаю о Роузи, роботе, который позаботится о моем домашнем хозяйстве, — вы не можете позволить, чтобы он совершал ошибки. Система DeepMind во многом основана на пробах и ошибках в огромных масштабах. Если у вас дома есть робот, он не может слишком часто врезаться в вашу мебель. Вы же не хотите, чтобы он хоть раз поместил вашу кошку в посудомоечную машину. Вы не можете получить такой же масштаб данных.
Это, безусловно, верно в моем опыте. Без большого количества данных, на которых можно учиться, причудливые штуки машинного обучения/глубокого обучения не работают (это не значит, что данные — это все; многие приемы математики/CS способствовали прорывы, но необходимо иметь много данных).
Так это все? В ситуациях, когда у нас не может быть «проб и ошибок в огромных масштабах», мы в основном застряли?
Возможно нет. Исследователь машинного обучения Пол Минейро признает это…
В реальном мире у нас есть примерные ограничения сложности: вы должны выполнять реальные действия, чтобы получить реальные награды.
… и предлагает обходной путь (выделено мной).
Однако так же, как автомобили и самолеты быстрее людей, потому что они имеют несправедливые энергетические преимущества (мы машины на 100 Вт; самолеты намного выше), я думаю, что сверхчеловеческий ИИ, если он появится, будет быть из-за преимуществ сложности выборки, т. е. распределенного набора роботов, которые могут выполнять больше действий и получать больше вознаграждений (а также помнить и делиться всеми ими друг с другом).
ИИ запоминают и делятся друг с другом. Это классная идея.
Возможно, мы не можем уменьшить общее количество проб и ошибок, необходимых для обучения ИИ, но, возможно, мы можем «распространить проблемы сбора данных» на тысячи ИИ, извлекая уроки из объединенных данных. , и отправьте обучение обратно на все ИИ и непрерывно запускайте этот цикл. Если мой робот врежется в мебель, возможно, вашему не придется.
Если подумать, это вспоминать и делиться друг с другом является одним из аргументов, которые были выдвинуты в пользу того, как homo sapiens эволюционировал от своего скромного начала до сегодняшнего дня, когда они могут создавать такие вещи, как AlphaGo.