Во Вселенной существует множество фундаментальных ограничений. Некоторые из них носят физический характер: вы не можете разогнаться до скорости света, не можете знать ни положение, ни импульс с полной точностью или знать, когда радиоактивный атом распадется. Любая мыслящая машина, которую мы построим, будет ограничена этими физическими законами. Конечно, если эта машина является электронной или даже квантовой по своей природе, эти пределы, вероятно, будут за пределами биологических и химических ограничений нашего человеческого мозга. Тем не менее, ИИ вполне может столкнуться с некоторыми фундаментальными ограничениями. Некоторые из них могут быть связаны с природной неопределенностью. Независимо от того, насколько усердно мы думаем о проблеме, качество нашего принятия решений может иметь пределы. Даже сверхчеловеческий интеллект не сможет лучше вас предсказать результат следующей лотереи EuroMillions.

АРГУМЕНТ "СОБАКА БЫСТРОГО ДУМА"

Кремний имеет значительное преимущество в скорости по сравнению с программным обеспечением нашего мозга, и это преимущество удваивается каждые два года или около того, согласно закону Мура. Но одна только скорость не увеличивает интеллекта. Даже если я заставлю свою собаку думать быстрее, она все равно вряд ли будет играть в шахматы. В нем нет необходимых мысленных конструкций, языка и абстракций. Стивен Пинкер выразительно сформулировал этот аргумент: «Чистая вычислительная мощность - это не пикси-пыль, которая волшебным образом решает все ваши проблемы».

Интеллект - это гораздо больше, чем думать о проблеме быстрее или дольше, чем кто-то другой. Конечно, закон Мура помог ИИ. Теперь мы учимся быстрее и на больших наборах данных. Более быстрые компьютеры, безусловно, помогут нам в создании искусственного интеллекта. Но, по крайней мере, для людей интеллект зависит от многих других вещей, включая годы опыта и тренировок. Совершенно не ясно, можно ли замкнуть это в кремнии, просто увеличив тактовую частоту или добавив больше памяти.

АРГУМЕНТ «ВЫЧИСЛИТЕЛЬНАЯ СЛОЖНОСТЬ»

Наконец, в информатике уже есть хорошо разработанная теория того, насколько сложно решать различные задачи. Есть много вычислительных задач, для которых даже экспоненциальных улучшений недостаточно, чтобы помочь нам решить их практически. Компьютер не может проанализировать какой-то код и точно знать, остановится ли он когда-нибудь - «проблема остановки». Алан Тьюринг, отец вычислений и искусственного интеллекта, как известно, доказал, что такая проблема в целом невычислима, независимо от того, насколько быстрым или умным мы делаем компьютер, анализирующий код. Поможет переход на другие типы устройств, например квантовые компьютеры. Но они предложат только экспоненциальные улучшения по сравнению с классическими компьютерами, чего недостаточно для решения таких проблем, как проблема остановки Тьюринга. Существуют гипотетические гиперкомпьютеры, которые могут преодолеть такие вычислительные барьеры. Однако вопрос о том, могли ли такие устройства существовать, остается спорным.

БУДУЩЕЕ

Итак, есть много причин, по которым мы можем никогда не стать свидетелями технологической сингулярности. Но даже без взрыва интеллекта мы могли бы получить машины, демонстрирующие сверхчеловеческий интеллект. Возможно, нам просто придется самому мучительно запрограммировать большую часть этого. Если это так, влияние ИИ на нашу экономику и на наше общество может произойти не так быстро, как опасаются такие люди, как Хокинг. Тем не менее, мы должны начать планирование этого воздействия.

Даже без технологической особенности ИИ, вероятно, окажет большое влияние на характер работы. Многие рабочие места, например водитель такси и водитель грузовика, скорее всего, исчезнут в ближайшие десять лет. Это еще больше усилит неравенство, которое мы наблюдаем сегодня в обществе. И даже весьма ограниченный ИИ, вероятно, будет иметь большое влияние на характер войны. Роботы сделают войну индустриальной, снизив барьеры для войны и дестабилизируя нынешний мировой порядок. Они будут использоваться террористами и странами-изгоями против нас. Если мы не хотим закончить Терминатором, нам лучше запретить роботов на поле боя в ближайшее время. Если мы все сделаем правильно, ИИ поможет сделать нас всех более здоровыми, богатыми и счастливыми. Если мы ошибаемся, ИИ вполне может оказаться одной из худших ошибок, которые мы когда-либо совершаем.

Следуй за мной:

Twitter: @Deepakv_raj

Facebook: дипакамиррадж

LinkedIn: дипакарадж