Нас окружают технологии искусственного интеллекта, такие как Siri, Alexa и Google. Они были созданы с единственной целью: лучше понять нас!

Хорошо, что мы уже можем наблюдать значительный прогресс!

Новейшие системы искусственного интеллекта могут читать определенные типы текстов с точностью человеческого уровня, выполняя сотни миллиардов вычислений в мгновение ока.

Когда текст является частью более крупного диалога, задача значительно усложняется. Чтобы понять, что пользователь пытается сказать и как на него ответить, вам нужно посмотреть на контекст. Чтобы соответствовать нашим ожиданиям ответа в режиме реального времени, в этой ситуации нам нужно добавить больше функций к диалоговым ИИ-ботам.

Такие проблемы, как отсутствие долговременной памяти, могут возникнуть в результате решения фундаментальных проблем. В результате ускорение машинного обучения (МО), которое обеспечивает все это, становится чрезвычайно сложной задачей.

Тем не менее, прогресс в чат-ботах, по-видимому, предвещает значительно менее разочаровывающие встречи с ИИ.

Ограничение скорости чат-ботов и диалогового ИИ

Нетрудно поддерживать естественную беседу. Вместо этого используется умопомрачительно большая сеть моделей машинного обучения, каждая из которых решает небольшую часть головоломки в выборе того, что сказать дальше.

Каждая модель добавляет драгоценные миллисекунды к задержке системы: одна учитывает местоположение пользователя, другая — историю взаимодействия, а третья — обратную связь, которую аналогичные ответы получали в прошлом.

Другими словами, фактическим пределом диалогового ИИ является наше терпение.

Уровни ада зависимостей

В академической среде, где мы готовы ждать результатов часами или даже днями, наши ожидания от ИИ в корне отличаются от реальных. Здесь нам нужны быстрые ответы. Таким образом, каждое потенциальное улучшение для диалоговых ботов с искусственным интеллектом, в частности, должно оцениваться с учетом стремления к уменьшению задержки.

Так называемый «критический путь» отвечает за задержку. Это кратчайший путь между вводом, сообщением пользователя и выводом, ответом бота, с использованием связанных моделей машинного обучения. Это древняя концепция управления проектами, но она применима к современным сетям машинного обучения при попытке сократить количество ненужных шагов.

Определение критического пути

Итак, как определить критический путь? Все просто сводится к зависимостям, которые долгое время были определяющей проблемой в разработке программного обеспечения. Улучшение одного приложения может потребовать от инженеров обновления всей системы в любой подключенной программной архитектуре. Кроме того, иногда обновление для Приложения A может быть несовместимо с Приложениями B, C и D.

«Ад зависимостей» — термин для этой ситуации. Зависимости машинного обучения, которые требуют большого внимания к деталям, усугубляют разочарование.

В большинстве программных зависимостей используются API-интерфейсы, которые передают простое дискретное состояние определенного приложения, например ячейка в электронной таблице, меняющая цвет с красного на зеленый. API-интерфейсы позволяют инженерам проектировать каждое приложение по-своему, оставаясь при этом на одной странице. С другой стороны, инженеры, работающие с зависимостями ML, имеют дело с абстрактными распределениями вероятностей. Таким образом, не всегда ясно, как модификации одной модели повлияют на более широкую сеть машинного обучения.

Мы можем сделать диалоговый ИИ реальностью, не говоря уже об опыте работы в реальном времени, только если освоим эти сложные взаимодействия между моделями.

Экономия времени за счет исключения шагов

Вам нужно будет сочетать машинное обучение и человеческую интуицию, чтобы освоить диалоговые зависимости ИИ.

Некоторые диалоговые боты с искусственным интеллектом предназначены для ответа на запросы сотрудников. Это может включать получение лицензии PowerPoint или получение информации о политике PTO. Однако оказывается, что даже кажущиеся незначительными проблемы могут привести к аду зависимости.

Например, ответ на запрос PTO может быть на странице 53 справочника сотрудников, и он может отличаться для продавца в Канаде и инженера в Испании. Когда вы добавите сложность игнорирования нерелевантных переменных, таких как планы сотрудника на отпуск на Гавайях, вы получите множество специализированных моделей машинного обучения, которые должны работать вместе.

Как определить шаги критического пути?

Ключевым моментом является выяснение того, какие модели — или этапы критического пути — необходимы для решения каждой проблемы.

Например, понимание естественного языка, или NLU, — это первый шаг к преобразованию неструктурированного текста в данные, пригодные для машинных действий. Наш NLU — это набор моделей машинного обучения, которые, среди прочего, исправляют опечатки, различают ключевые объекты, извлекают сигнал из шума и определяют намерения пользователя. С помощью этой информации мы можем исключить модели, которые не нужны в будущем.

Это влечет за собой создание прогноза полезного решения проблемы до изучения реальных предложений компании. Например, лицензия на программное обеспечение или форма запроса могут быть полезны сотруднику, который запрашивает доступ к PowerPoint, но ему почти наверняка не нужна карта нового рабочего места. Мы можем предвидеть, какие модели активировать, а какие обойти, используя информацию из процесса NLU, известную как система «предварительного запуска».

Поскольку распределения вероятностей являются абстрактными, система предварительного запуска использует машинное обучение и правила, основанные на интуиции, от экспертов-людей. Проводить время там, где это важно, — это, в конце концов, и искусство, и наука.

Освобождение пространства для развития диалоговых ботов с искусственным интеллектом

Через десять лет никто не знает, как будет выглядеть разговорный ИИ. Что мы знаем, так это то, что нам нужно оптимизировать наших чат-ботов прямо сейчас, чтобы освободить место для будущего развития. Мы не можем продолжать увеличивать сложность, не решая проблему задержки всей системы, если мы хотим сохранить разговорный опыт.