Почему обратное распространение препятствует общему искусственному интеллекту

Представьте, что вы должны обучать свой алгоритм, как если бы это был человек.

Вы показываете «ему» зеленую бумагу и спрашиваете, какого она цвета.

И ваш агент отвечает: красный.

Если бы его обучали как личность, как бы вы поправили своего агента? Вы бы сказали ему: нет. Это зеленый. Правильно? Но как это сделать с обратным распространением?

Мы вычисляем функцию потерь (ошибку между его ответом и ожидаемым ответом) и ставим перед его глазами «специальное стекло» и изменяем его характеристики, уменьшая чувствительность к красному цвету и увеличивая чувствительность к зеленому. Может быть, уменьшить синий, а также.

Затем мы продолжаем показывать цвета и задавать один и тот же вопрос, а затем, когда снова присутствует зеленый цвет, теперь его ответ будет чем-то вроде коричневого.

При обратном распространении мы продолжаем изменять веса и смещения до тех пор, пока машина не ответит на то, что мы ожидаем услышать… Другими словами, мы деформируем нейронную сеть, чтобы она отвечала так, как мы хотим.

Угадайте, что произойдет, когда мы покажем ему в следующий раз желтый цвет (в то время еще не обученный цвет)? Ответ не может быть правильным.

Кроме того, если на этот раз вы настроите стекло, чтобы он увидел желтый цвет, что произойдет, когда вы снова покажете ему зеленый цвет позже? да. Катастрофическое забывание.

Здесь можно возразить, что мы исправим неправильное обнаружение машины, которая действительно допустила ошибку, когда ответила красным перед зеленым листом бумаги, но в данном случае здесь нужно не исправлять свои ошибки. обнаружение, но это именование.

Таким образом, обратное распространение — это не только корень катастрофического забывания. Это также предотвращает иерархическое обучение. Если вы думаете, что это не может быть правдой, знайте, что с самого первого раза, когда исследователи выявили катастрофическое забывание, они поняли, что проблема была в алгоритме обратного распространения.



Но видите ли, в то время ИИ был совсем другим без обратного распространения ошибки. Линейные решения решают менее половины проблем реального мира. Мир состоит из нелинейных проблем. И в то время мы не могли решить их с помощью нейронных сетей. А глубокие модели было нецелесообразно тренировать только с помощью доступных инструментов. Обратное распространение изменило это и позволило обучать огромные глубокие модели, позволяя нам решать (наконец-то) нелинейные проблемы, и это как бы изменило все.





Так что кредит причитается. Обратное распространение позволило нам развиваться так, как раньше было невозможно, но это сделало нас неустойчивыми. Мы приближались к математике и уходили от нейробиологии, и мы забыли, что природа уже все это придумала. И угадайте, что? Придумать, как это решить, не так-то просто. Так почему бы не спросить, кто уже сделал это, как это сделать?

Глубокое обучение — это прекрасно. И добился больших результатов. Также RNN, GAN, CNN, но нам пора искать новые решения. Пришло время позволить обратному распространению стать историей и остаться в прошлом.

Буду рад услышать ваши мысли и идеи!