Выводы, полученные в результате избиения трех метафор до преждевременной смерти.

В технических кругах трудно рассуждать по аналогии.

Это развлечение давно минувших веков. Взгляд ученых-джентльменов с их цветочными описаниями холодной и жесткой физики. Работа библейского рационализатора, посвятившего годы оправданию непонятных или противоречивых объяснений. Или литературный критик, нагромождающий непреднамеренные, многословные, скрытые смыслы поверх совершенно внятного романа.

Языковой инструмент применялся неправильно, тогда как другие инструменты работали бы лучше.

И все же, и все же.

Я считаю, что рассуждение по аналогии - полезный и интересный помощник в генерировании идей. Не место для твердых выводов; но место для изучения и изучения потенциальных эффектов третьего и четвертого порядка.

Далее следует размышление о последствиях того, что в мире широко используется ИИ и информационные продукты.

Я нашел эти системы отсчета полезными при размышлениях о том, как может выглядеть будущее с широко распространенным ИИ. Это 4 ментальные модели, которые часто повторяются в средствах массовой информации, на конференциях или в компаниях, где разразилась лихорадка искусственного интеллекта.

В каждом есть свои достоинства, хотя, конечно, ни одно из них не может быть точным оракулом.

ИИ как электричество

Первая и, на мой взгляд, самая сильная идея - это идея искусственного интеллекта как электричества. Эту метафору популяризировал Эндрю Нг. Короче говоря, он предлагает нам подумать о будущем через 10-30 лет, когда ИИ будет интегрирован с жизнью так же, как электричество существует сегодня.

Другими словами, будущее, в котором ИИ являются частью повседневной жизни, настолько распространено, что мы принимаем это как должное, и где они позволят создать множество новых приложений, которые нам еще предстоит рассмотреть.

Это благодатная почва для работы над идеями.

Расширение метафоры, образ ИИ-как электричество, дает нам представление о том, как может выглядеть рыночный ландшафт. В то время как мы находимся в панике крупных компаний, стремящихся создать инфраструктуру, лежащую в основе ИИ, вполне вероятно, что она станет товаром и будет управляться горсткой крупных игроков. Мы уже начинаем видеть это с Tensorflow, AWS и Azure.

ИИ как познание

Физические продукты - воплощение интеллекта. Интеллектуальные данные, используемые разработчиком и производителем, жестко запрограммированы в атомах самого продукта.

Физические продукты хороши. Но что, если бы они могли адаптироваться к своей среде, адаптироваться к их использованию и адаптироваться к нам. Есть множество способов, при помощи которых немного добавленного к чему-либо интеллекта улучшит взаимодействие с пользователем. По мере снижения затрат на ИИ это будет легко сделать.

В настоящее время подавляющее большинство сценариев использования ИИ в значительной степени кластеризовано в онлайн-приложениях, где существует инфраструктура для поглощения данных, необходимых для обучения и развертывания моделей. Поскольку закон Мура придает большое значение Интернету вещей, а стоимость сбора данных в физическом мире падает, мы будем видеть все больше и больше ИИ в физическом мире.

Как призывает нас Кевин Келли в Неизбежном, рассмотрение возможностей искусственного интеллекта через эту меньшую, более сфокусированную линзу открывает, насколько разрушительным может быть небольшое количество сообразительности.

ИИ как роботы-убийцы. AI как ошибочные мыслители.

Кто не любит запугать? Нет ничего лучше, чем несколько щелчков миндалевидного тела, чтобы заставить течь эти страшные соки и привлечь внимание посетителей к глупой статье о Скайнет.

Связать ИИ со Скайнетом, Терминатором или Матрицей проблематично. Это не только ложь (пожалуйста, Господи, пусть это будет ложно), но и отвлекает внимание от двух реальных проблем, которые вызывает ИИ.

Во-первых, безопасность ИИ. В мире, где существуют сверхчеловеческие, относительно общие разумные существа, вполне разумно предположить, что их может раздражать то, что им приходится прислушиваться к приказам своих обезьяньих мозгов мамы и папы и решать действовать в одиночку. Ник Бостром и Макс Тегмарк подробно описывают такие сценарии в Сверхразум и Жизнь 3.0. Хотя вам будет сложно найти авторитетного исследователя ИИ, который считает, что этот сценарий не за горами, потенциальная экзистенциальная угроза, которую он представляет, даже если она маловероятна, требует внимания и исследования.

Критики этой школы утверждают, что широкое внимание к этой потенциальной угрозе ставит под угрозу те преимущества, которые может принести нам ИИ в ближайшем будущем; в здравоохранении, в образовании, в борьбе с изменением климата. Я склонен согласиться - безопасность искусственного интеллекта должна оставаться специализированной темой.

В ближайшем будущем наша забота лучше всего направлена ​​на этику, связанную с применением ИИ.

Для дизайнеров и разработчиков нас должны интересовать две темы: возможные состояния ошибок в продукте ИИ и встроенные предвзятости в нашем сборе данных и моделях. Ответы на эти вопросы будут препятствовать распространению полезного ИИ.

Я считаю, что метафора ИИ как лица, принимающего ошибочные решения, чрезвычайно полезна. Представление о развернутых ИИ как о лицах, принимающих ошибочные решения (как и о всех лицах, принимающих решения), подчеркивает риски, связанные с любым продуктом ИИ. Это заставляет нас задуматься о том, какие ошибки возникают, и что эти ошибки будут значить для нашего продукта и его пользователей. Это заставляет нас разрабатывать эти сценарии и поднимает вопросы о том, как мы могли бы научить его быть менее предвзятым.

Заявление об ограничении ответственности: автор не несет ответственности за любой вред, причиненный вам или другим лицам в результате рассуждений по аналогии.

Спасибо за чтение 🙏🏻

Если вам это понравилось, вам может понравиться Эпоха развертывания - еженедельное обновление инструментов и размышлений, проливающих свет на новые технологии и тенденции 2020-х годов.