Как преодолеть шумиху вокруг машинного обучения

Техническая экосистема хорошо знакома с модными словечками. От «Web 2.0» до «облачных вычислений», «сначала мобильные» и «по требованию» - кажется, что каждый год знаменует появление и популяризацию новых фраз, к которым присоединяются молодые компании. Но хотя тенденции, которые представляют эти фразы, реальны, и компании, определяющие категории, неизбежно будут придавать вес недавно придуманным модным словечкам, производные стартапы также будут стремиться воспользоваться концепциями, которые остаются плохо определенными экспертами и мало понятными для всех остальных.

В июньском посте CB Insights описал безумие (и абсурд) момента:

«Понятно, что 9 из 10 инвесторов очень плохо понимают, что такое ИИ, поэтому, если вы основатель, собирающий деньги, вам следует добавить немного ИИ в свою презентацию. Использование «искусственного интеллекта», «ИИ», «чат-бота» или «бота» является победителем прямо сейчас и может немного повысить вашу оценку или ускорить процесс.

Если вы хотите понять, что вам нужен ИИ, используйте такие термины, как машинное обучение, нейронные сети, распознавание изображений, глубокое обучение и НЛП. Затем сядьте и посмотрите, как поступает финансирование ».

Сегодняшние презентации и заголовки содержат скучные упоминания об «искусственном интеллекте» и «машинном обучении». Но что на самом деле означают эти термины? И как отделить пустые утверждения от создания реальной стоимости при оценке бизнеса и технологий, которые лежат в его основе? Хороший первый шаг - хотя бы мимолетное знание того, о чем вы говорите, поэтому давайте начнем с основ.

Определения

Искусственный интеллект

Термины «искусственный интеллект» и «машинное обучение» часто используются как синонимы, но это вносит неточность и двусмысленность. Термин «искусственный интеллект», введенный в 1956 году на конференции CS в Дартмутском колледже, относится к направлению исследований, направленных на воссоздание характеристик, которыми обладает человеческий интеллект.

В то время считалось, что General AI будет в пределах досягаемости. Люди считали, что конкретные достижения (например, обучение компьютера шашкам или шахматам) позволят нам узнать, как машины учатся, и, в конечном итоге, запрограммировать компьютеры так, чтобы они учились так же, как мы. Если бы мы могли использовать машины для имитации рудиментарного способа познания мира младенцами, рассуждали рассуждения, скоро у нас был бы полностью функционирующий взрослый искусственный интеллект, который мог бы справляться с новыми задачами с той же или большей скоростью.

Оглядываясь назад, это было слишком оптимистично.

Хотя конечной целью ИИ было и остается создание разумного машинного сознания, мы еще не достигли обобщенного искусственного интеллекта. Более того, за исключением серьезного прорыва в методологии, у нас нет для этого разумных сроков. В результате исследования (особенно виды исследований, относящиеся к миру венчурных капиталистов и стартапов) теперь сосредоточены на подобласти искусственного интеллекта, известной как машинное обучение, нацеленной на решение индивидуальных задач, которые могут повысить производительность и принести пользу бизнесу сегодня.

Машинное обучение

В отличие от заявленной цели ИИ по воссозданию человеческого интеллекта, инструменты машинного обучения стремятся создавать прогностические модели для конкретных задач. Проще говоря, машинное обучение - это полезность. Ничего особенного, просто повышенная статистика.

Хотя существует множество хороших определений машинного обучения, мне больше всего нравится определение Тома М. Митчелла 1997 года:

«Считается, что компьютерная программа учится на опыте E в отношении некоторого класса задач T и показателя производительности P, если ее производительность при выполнении задач в T, измеренная с помощью P, улучшается с опытом E.»

Скорее формальное, но это определение не содержит модных словечек и напрямую связано с элегантностью и простотой машинного обучения. Проще говоря, считается, что машина узнает, улучшается ли ее производительность при выполнении набора задач по мере того, как ей предоставляется больше данных.

Нужен пример? Как насчет одного из вашего курса Статистика 101: простая линейная регрессия. Цель (или задача) состоит в том, чтобы провести «линию наилучшего соответствия» с учетом некоторого начального набора наблюдаемых данных. Посредством итеративного процесса, который стремится минимизировать среднее расстояние от линии регрессии и диаграммы разброса данных (его показатель производительности), линейная регрессия улучшает свою прогнозируемую «линию наилучшего соответствия» с каждой дополнительной точкой данных (опыт).

Бум. Машинное обучение.

Учитывая эту относительно низкую планку, практически любая технологическая компания может заявить, что она «использует машинное обучение». Так куда мы идем отсюда? Чтобы еще больше прояснить эту тему, полезно также понять, как разрабатываются алгоритмы машинного обучения. При линейной регрессии рассматриваемый алгоритм просто рисует линию, которая приближается к как можно большему количеству отдельных точек данных. Но как насчет реального примера?

Хотя математика, лежащая в основе более сложных моделей машинного обучения, быстро становится невероятно сложной, лежащие в основе концепции часто очень интуитивно понятны.

Разработка модели машинного обучения

Допустим, вы хотели предсказать, какие новые песни понравятся конкретному пользователю Spotify. Следуй своей интуиции.

Вы, вероятно, начнете с его или ее существующей библиотеки и ожидаете, что другим пользователям, у которых есть большое количество общих песен, вероятно, понравится дополнительный набор песен в библиотеке другого пользователя (процесс, называемый совместная фильтрация). . Вы также можете проанализировать акустические элементы в библиотеке пользователя, чтобы найти общие черты, такие как оптимистичный темп или использование электрогитары (например, Spotify использует нейронные сети для этого). Наконец, вы можете назначить соответствующий вес трекам, которые пользователь слушал неоднократно, отмечен звездочкой или отмечен большим пальцем вверх / вниз.

Все, что осталось, - это преобразовать эти интуиции в математическое представление, которое принимает необходимые источники данных и выводит ранжированный список песен для представления пользователю. По мере того как пользователь слушает, любит и не любит новую музыку, эти новые точки данных (или опыт в нашей прежней терминологии) могут быть переданы обратно в те же модели для обновления и, таким образом, улучшения этого списка прогнозов.

Если вы хотите узнать больше о более сложных алгоритмах машинного обучения, в Интернете есть множество ресурсов, которые отлично справляются с объяснением нейронных сетей, глубокого обучения, байесовских сетей, скрытых марковских моделей и многих других. больше систем моделирования. Но для наших целей техническая реализация менее актуальна, чем понимание того, как стартапы создают ценность, используя эту технологию. Так что давайте продолжим.

Где ценность?

Теперь, когда мы рассмотрели, что такое машинное обучение, на что следует обратить внимание опытным инвесторам и скептически настроенным читателям? По моему опыту, первоначальная лакмусовая бумажка состоит в том, чтобы пройти через три основных строительных блока модели машинного обучения (задача T, показатель производительности P и опыт E) и найти новые или интересные подходы. Именно эти новинки составляют основу дифференцированных продуктов и успешных стартапов.

Опыт | Уникальные или проприетарные наборы данных

Без данных невозможно обучить модель машинного обучения. Полная остановка.

С общедоступным обучающим набором вы можете обучить модель машинного обучения выполнять определенные задачи, и это здорово, но тогда вы полагаетесь на настройку и настройку производительности своего алгоритма, чтобы превзойти другие. Если все строят модели машинного обучения с одними и теми же наборами обучающих данных, конкурентные преимущества (по крайней мере, вначале) практически отсутствуют.

Напротив, уникальный и закрытый набор данных дает несправедливое преимущество. Только Facebook имеет доступ к своей социальной сети. Только Uber имеет доступ к пунктам посадки / высадки каждого пассажира в своей сети. Это наборы данных, которые только одна компания может использовать для обучения своих моделей машинного обучения. Ценность этого очевидна. Это основная нехватка частного ресурса. И это может создать огромный ров.

Возьмем, к примеру, * Digital Genius. Компания предлагает инструменты автоматизации обслуживания клиентов и считает клиентов многочисленными компаниями из списка Fortune 500. Эти отношения предлагают Digital Genius эксклюзивный доступ к миллионам исторических журналов чата обслуживания клиентов, которые представляют собой миллионы соответствующих ответов на широкий круг запросов клиентов. Используя эти данные, Digital Genius обучает свои алгоритмы обработки естественного языка (NLP) до начала взаимодействия с новыми, живыми клиентами.

Чтобы достичь того же уровня производительности, конкуренту нужно будет создать такое же количество журналов чата с нуля. С практической точки зрения, это потребует выполнения миллионов живых взаимодействий с клиентами, многие из которых, вероятно, будут разочаровывать и бесполезны для самих клиентов. Хотя алгоритм со временем будет изучаться и улучшаться, производительность модели в первый день будет в лучшем случае невысокой, а сама компания вряд ли получит поддержку на рынке. Таким образом, наличие собственных наборов данных от их крупнейших клиентов дает Digital Genius реальное, дифференцированное ценностное предложение в области автоматизации чатов.

Конечно, еще один способ получить доступ к уникальному набору данных - это захватить тот, которого никогда не существовало. Грядущая волна Интернета вещей и распространение датчиков обещают открыть множество новых наборов данных, которые никогда ранее не анализировались. Компании, которые получают проприетарный доступ к новым наборам данных или те, которые сами создают проприетарные наборы данных, могут таким образом превзойти конкурентов.

* OTTO Motors (подразделение Clearpath Robotics) собрала один из самых надежных наборов данных о промышленных помещениях на планете с помощью своей сети автономных роботов для транспортировки материалов (на фото ниже). Каждый раз, когда робот OTTO перемещается по производственному цеху, информацию о его окружении - движущихся вилочных погрузчиках, пешеходах, препятствиях на пути - можно отправить обратно в централизованную базу данных. Если компания затем разработает более надежную модель для навигации вокруг вилочных погрузчиков, например, команда OTTO Motors сможет протестировать и отладить свои улучшения в сравнении с реальными историческими данными среды без необходимости фактического тестирования своих роботов или даже использования физических сред.

Эта же гонка данных еще более конкурентоспособна на дороге. Причина, по которой команды Google Self-Driving Car, Tesla Autopilot и Uber Self-Driving рекламируют (или прогнозируют) количество автономных миль, пройденных, заключается в том, что каждая дополнительная миля фиксирует ценные данные об изменении окружающей среды, которые инженеры затем можно использовать для тестирования, поскольку они улучшают свои алгоритмы автономной навигации. Но по сравнению с общемировым количеством миль, проезжаемых в год (приблизительно 3,15 триллиона миль в 2015 году только в США), только минимальное количество из них охвачено тремя упомянутыми проектами. выше, оставляя возможность с нуля для таких стартапов, как Cruise Automation, nuTonomy и Zoox.

Последний и наиболее экспериментальный подход к использованию уникальных наборов данных - это программная генерация данных, которые затем используются для обучения алгоритмов машинного обучения. Этот метод лучше всего подходит для создания наборов данных, которые сложно или невозможно собрать.

Вот пример. Чтобы создать алгоритм машинного обучения для прогнозирования направления взгляда человека в реальной среде, вам сначала нужно обучиться на образцах данных, для которых направление взгляда правильно обозначено. Учитывая буквально миллиарды изображений людей, которые смотрят с открытыми глазами в разных направлениях в любой мыслимой среде, можно подумать, что это тривиальная задача. Набор данных, казалось бы, уже существует.

Проблема в том, что данные не помечены, и ручная маркировка, не говоря уже об определении точного направления взгляда человека на основе фотографии, слишком сложна для человека, чтобы это сделать с какой-либо степенью точности или в разумные сроки. Несмотря на наличие обширного хранилища изображений, мы не можем даже создать достаточно точные аппроксимации направления взгляда для машины, на которой можно было бы тренироваться. У нас нет полного набора данных с пометками.

Чтобы решить эту проблему, группа исследователей из Кембриджского университета программно сгенерировала визуализацию искусственного глаза и связала каждое изображение с соответствующим направлением взгляда. Создав более 10000 изображений в различных условиях освещения, исследователи сгенерировали достаточно данных с метками, чтобы обучить алгоритм машинного обучения (в данном случае нейронную сеть) предсказывать направление взгляда на фотографиях людей, с которыми машина ранее не сталкивалась. Создав программно помеченный набор данных, мы обошли проблемы, присущие нашему существующему репозиторию реальных данных.

Хотя средства поиска, сбора или генерации данных для обучения моделей машинного обучения разнообразны, оценка источников данных, к которым у компании есть доступ (особенно тех, к которым конкуренты не могут получить доступ), является отличной отправной точкой при оценке стартапа или его технология. Но машинное обучение - это не только опыт.

Задача | Дифференцированные подходы

Так же, как доступ к уникальному набору данных по своей сути ценен, разработка нового подхода к задаче машинного обучения (T) или начало работы над новой или забытой задачей предоставляют альтернативные пути к созданию ценности.

DeepMind, компания, которую Google приобрела в 2014 году за более чем 500 миллионов долларов, разработала подход к созданию моделей, который позволил им опередить остальных в отрасли машинного обучения, известной как глубокое обучение (отсюда и название). Хотя их приобретение осталось в значительной степени незамеченным в массовой прессе, было трудно не заметить заголовки, поскольку их алгоритм машинного обучения, получивший название AlphaGo, в начале 2016 года выступил против чемпиона мира по го.

Правила игры в го относительно просты, но количество возможных позиций доски в игре превышает количество атомов во вселенной. Традиционные методы машинного обучения сами по себе просто не могут дать эффективную стратегию, учитывая количество возможных результатов. Однако дифференцированный подход DeepMind к этим существующим методам позволил команде не только превзойти действующего чемпиона мира по игре Ли Седола, но и сделать это таким образом, что зрители описали работу машины как гениальную и красивую. ”

Однако сложность выполнения одной задачи плохо переносится на другие области. Используйте тот же код из проекта AlphaGo, чтобы отвечать на запросы в службу поддержки или перемещаться по производственному цеху, и производительность, вероятно, будет ужасной. Фактически, приблизительное соотношение 1: 1 между Задачей и моделью машинного обучения означает, что в краткосрочной и среднесрочной перспективе существует бесчисленное множество Задач, для которых еще не обучена модель машинного обучения.

По этой причине выявление запущенных Задач может быть довольно прибыльным и простым, чем можно было бы ожидать. Можно предположить, например, что, поскольку значительное количество времени, усилий и денег было потрачено на улучшение анализа фотографий, этот анализ видео показал такой же прирост производительности. Не так. В то время как некоторые модели из статического анализа изображений были перенесены, сложность, связанная с движущимися изображениями и звуком, препятствовала развитию, особенно потому, что все еще остается много низко висящих фруктов в пространстве для фотоидентификации.

Это создало прекрасную возможность для * Dextro и Clarifai быстро продвинуться вперед в применении машинного обучения для понимания содержания видео. Эти достижения в области анализа видео теперь позволяют дистрибьюторам видео создавать видео с возможностью поиска на основе не только вручную отправленных метаданных от пользователей, которые загружают, но и содержания, содержащегося в видео, такого как стенограмма видео, категория видео и даже отдельные лица. объекты или концепции, которые появляются на протяжении всего видео.

Производительность | Улучшение ступенчатой ​​функции

Последним важным фактором создания ценности для стартапов, стремящихся использовать технологию машинного обучения, является значительное превосходство над конкурентами в известной задаче.

Отличный пример - Проспер, который выдает ссуды физическим лицам и малому и среднему бизнесу. Их задача такая же, как и у любого другого кредитора на рынке - точно оценить риск ссуды денег конкретному человеку или бизнесу. Учитывая, что Проспер и их коллеги как в альтернативном, так и в традиционном мире кредитования живут или умирают из-за своей способности предсказывать кредитоспособность, производительность (P) абсолютно критически важна для успеха их бизнеса. Так как же относительно молодые альтернативные кредиторы превосходят даже крупнейшие финансовые институты?

Вместо того чтобы брать десятки точек данных о конкретном заемщике, Проспер рисует на порядок больше данных. В дополнение к использованию более крупного и дифференцированного набора данных новая волна альтернативных кредиторов, таких как Prosper, тщательно изучает исследовательские работы и проводит собственные внутренние разработки, чтобы включить передовые алгоритмы машинного обучения в свои наборы данных. Вместе характеристики производительности результирующих моделей машинного обучения представляют уникальную и дифференцированную способность выдавать прибыльные ссуды целой группе потребителей и предприятий, которым исторически отказывали унаследованные учреждения.

Возможность оценить эффективность моделей машинного обучения стартапа по сравнению с моделями конкурентов - еще один отличный способ выделить самые инновационные компании и отделить простых разносчиков шумихи и ажиотажа.

Вернемся к делу

Чтобы быть ясным, машинное обучение - это гораздо больше, чем раздутая реклама и пустые обещания. Хитрость заключается в том, чтобы отделить пшеницу от плевел. Вооружившись четкими определениями и практическим знанием простых концепций, лежащих в основе модных словечек и заголовков, смело выбирайте презентации!

Но помните об этом нюансе.

Да, машинное обучение - при правильном использовании - реально и эффективно. Но конечный успех или неудача любого бизнеса в гораздо большей степени зависит от рыночных возможностей, продуктивности и способности команды продавать, чем от конкретных реализаций алгоритмов машинного обучения. Подобно тому, как привлекательные технологии являются необходимым, но недостаточным условием для создания успешной технологической компании, отличные технологии при отсутствии жизнеспособного бизнеса вряд ли станут чем-то большим, чем научный проект.

Большое спасибо Cooper Zelnick за то, что он был автором и редактором этого альбома. Благодарим Райана Аталлаха и Свена Крейсса за исправление технических ошибок.

* Джейсон Блэк - инвестор RRE Ventures. Несколько компаний из портфеля RRE, упомянутые в этом посте, отмечены звездочкой *.