Когда вы поднимаете тему искусственного интеллекта перед широкой публикой, одно из первых, что приходит на ум, это либо Скайнет Терминатора, либо роботы Матрицы. Но истории о творениях человека, восставших против него, не новы. На самом деле слово «робот» впервые было использовано в 1920 году Карелом Чапеком в его пьесе R.U.R. Тогда слово «робот» относилось не к механизированным автоматам, к которым мы привыкли сегодня, а просто к гуманоидам, созданным с научной точки зрения.

Помимо того, что он был автором слова «робот», R.U.R. это также первая история, в которой исследуется концепция роботов, поднимающихся и нападающих на своих создателей. И даже старше этого классический Франкенштейн Мэри Шелли.

Но вместо того, чтобы испугаться этих историй, мы приняли их. На самом деле, сегодня эксперты по ИИ даже исследуют процесс, называемый глубоким обучением, который призван перенести искусственный интеллект из научной фантастики в реальную жизнь.

Глубокое обучение — это форма машинного обучения, направленная на развитие компьютерного интеллекта. В машинном обучении компьютер медленно подвергается воздействию новых данных в течение определенного периода времени и учится делать прогнозы на основе этих данных. Затем разработчики возвращаются к программному обеспечению и вносят изменения в параметры, чтобы улучшить качество прогнозирования.

Однако глубокое обучение использует повторное воздействие нескольких наборов данных, обычно изображений или звуковых фрагментов, для определения ключевых классификаторов. Затем компьютер представляет прогноз на основе этих классификаторов, а разработчики предоставляют обратную связь, либо подтверждая прогноз, либо внося исправления. Это процесс, очень похожий на человеческое обучение, и на самом деле глубокое обучение активно пытается имитировать человеческий разум, используя системы, называемые искусственными нейронными сетями.

Нейронная сеть — это математическая модель, состоящая из нескольких слоев. Когда набор данных отправляется через нейронную сеть, он проходит через каждый из слоев, известных как скрытые слои. На каждом уровне он проверяет определенные параметры, пока не достигнет выходного уровня, где делается прогноз относительно содержимого данных. То, как нейронные сети проверяют параметры, определяется так называемым правилом обучения.

Хотя существует множество различных видов правил обучения, таких как правило обучения персептрона, правило обучения Видроу-Хоффа и правила обучения адаптивного Хо-Кашьяпа (AHK), правило обучения дельта является одним из наиболее часто используемых. используемые правила, используемые нейронными сетями с обратным распространением. Обратное распространение звучит как очень красивое слово, но на самом деле оно означает только то, что компьютеры учатся, делая ошибки, которые затем исправляются разработчиком, как и при обучении человека.

Если вам кажется, что этот процесс займет много времени, вы правы. Если через процесс проходит только один компьютер. Но многие места, которые инвестируют в глубокое обучение, такие как Google, часто используют одновременно большое количество компьютеров.

В июне 2013 года Google собрала одну из крупнейших на сегодняшний день нейронных сетей, объединив 16 000 компьютерных процессоров с более чем миллиардом подключений, и показала ей 10 миллионов случайно выбранных видеороликов на Youtube. Без какого-либо участия человека он смог точно идентифицировать 16% контента, что не кажется впечатляющим, пока вы не поймете, что это на 70% больше, чем в предыдущих моделях. Когда они откалибровали систему и сделали категории сортировки более общими (с 22 000 до 1 000 категорий), точность подскочила до 50%.

Так что же, спросите вы, мы делаем с этой технологией, кроме показа множества видеороликов с котиками из интернета? Что ж, до сих пор процессы глубокого обучения повысили точность программного обеспечения для распознавания голоса, а также были достигнуты большие успехи в технологии перевода. Он также использовался в робототехнике для повышения ловкости и точности движений. Наконец, одна из самых впечатляющих вещей, которые мы сделали, — это научила компьютер играть в китайскую игру Го.

Компьютер не только хорошо играет в эту абстрактную стратегическую игру, но и постоянно побеждает мастеров-игроков снова и снова. Конечно, это потому, что компьютер, AlphaGo, отдает предпочтение условию победы, а не набору очков, что сознательно выбрали бы немногие люди. В конце концов, сокрушить соперника на 50 очков гораздо приятнее, чем выиграть на 2 очка, даже если вероятность проигрыша несколько выше.

Объективность AlphaGo — одна из причин, по которой она может продолжать выигрывать у лучших игроков, но что это значит для будущего?

Решат ли наши повелители роботов, играющих в го, что наши человеческие эмоции являются причиной наших страданий?

Будут ли они запирать нас в трубах, чтобы они служили батареями для их очень сложного и логичного общества?

Или они просто объявят нас устаревшими и отправят механических убийц в прошлое, чтобы стереть с лица земли лидеров сопротивления человечества и подавить нашу врожденную потребность в выживании, несмотря на все их попытки раздавить нас своими могучими металлическими копытами?

Можно только надеяться, что искусственный интеллект завтрашнего дня будет гораздо более благожелательным, чем это любит изображать научная фантастика. Однако трудно отрицать, что ботаники внутри нас наполовину взволнованы тем, что мы можем сделать из наших машин, и наполовину готовятся спасти Джона Коннора.

А пока остановимся на проигрыше в настольных играх.

Первоначально опубликовано на www.deepcoredata.com 2 июня 2016 г.