Введение в машинное обучение в Интернете

Будучи математиком и специалистом по анализу данных на протяжении многих лет, я всегда считал онлайн-обучение самой сложной и интригующей темой. Теоретическая основа онлайн-обучения постоянно была частью моих разнообразных исследований. Теперь, будучи главным специалистом по анализу данных в NICE Actimize, я понял, насколько важно, чтобы эта теоретическая основа стала практической.

Каждую минуту обрабатываются миллиарды финансовых транзакций. Финансовые организации сталкиваются с высоким риском мошенничества. Чтобы оставаться на шаг впереди, необходимы высокие возможности машин для эффективного и быстрого обучения в Интернете.

Эта статья посвящена фундаментальным концепциям машинного обучения в Интернете и глоссарию.

О компании

Эта статья посвящена одному из самых увлекательных и сложных поддоменов в теории вычислительного обучения - машинному обучению в Интернете. В последнее время онлайн-обучение и инкрементное обучение привлекли внимание, особенно в контексте больших данных и обучения на основе потоков данных, что противоречит традиционному предположению о полной доступности данных. Несмотря на то, что доступно множество различных методов, часто остается неясным, какой из них подходит для конкретной задачи и как они работают по сравнению друг с другом.

Что такое машинное обучение в Интернете?

Онлайн-машинное обучение - это устоявшаяся парадигма обучения, имеющая как теоретическое, так и практическое применение. Онлайн-обучение изучается во многих областях исследований, включая обнаружение онлайн-аномалий, инкрементное обучение, теорию игр и теорию информации. Он также вызвал большой интерес у практиков в области науки о данных из-за недавнего появления крупномасштабных приложений, таких как обнаружение финансового мошенничества, социальные сети, здравоохранение и онлайн-рейтинг в Интернете.

Онлайн-машинное обучение собирается делать последовательные прогнозы, зная правильный ответ на предыдущие прогнозы и потенциально дополнительную доступную информацию.

Онлайн-учащийся должен делать предсказания о последовательности экземпляров, один за другим, и получать обратную связь после каждого предсказания. Эффективность онлайн-учащегося обычно сравнивается с лучшим предсказателем из данного класса, часто с точки зрения его дополнительных потерь (сожаления) по сравнению с лучшим предсказателем.

Пример

Например, учащийся может получить образец финансовой транзакции, и вопрос в том, является ли транзакция мошеннической или нет. Чтобы ответить на вопрос, учащийся использует механизм прогнозирования, называемый гипотезой, который представляет собой отображение набора вопросов на набор допустимых ответов. После предсказания ответа выявляется правильный ответ, и учащийся терпит убытки, если есть расхождение между его ответом и правильным. Цель учащегося - свести к минимуму совокупные убытки, понесенные за время его прохождения. Для достижения этой цели учащийся может обновлять гипотезу после каждого раунда, чтобы быть более точным в последующих раундах.

Что такое сожаление?

Границы сожаления - это обычная черта анализа алгоритмов онлайн-обучения. Граница сожаления измеряет производительность онлайн-алгоритма относительно производительности конкурирующего механизма прогнозирования, называемого конкурирующей гипотезой. Конкурирующая гипотеза может быть выбрана задним числом из класса гипотез после наблюдения всей последовательности пар вопрос-ответ.

Границы сожаления универсальны в том смысле, что они верны для любой возможной фиксированной гипотезы в данном классе гипотез. Таким образом, универсальная оценка рассматривается как нижняя оценка для задачи оптимизации, в которой мы ищем оптимальную конкурирующую гипотезу. Хотя оптимальная конкурирующая гипотеза может быть найдена только задним числом, после наблюдения всей последовательности пар вопрос-ответ, эта точка зрения связывает границы сожаления с нижними границами задач минимизации.

Формально мы оцениваем успеваемость учащегося, используя понятие сожаления. Учитывая любую фиксированную гипотезу h∈ H, мы определяем сожаление алгоритма онлайн-обучения как лишние потери из-за несогласованности прогнозов с гипотезой h,

Точно так же для любого фиксированного вектора u ∈ S мы определяем сожаление процедуры выпуклого программирования в режиме онлайн как лишние потери из-за несогласованного выбора вектора u ∈ S,

Что такое двойственность?

Понятие двойственности, обычно используемое в теории выпуклой оптимизации, играет важную роль в получении нижних оценок минимального значения задачи минимизации. Обобщая понятие двойственности Фенхеля, мы можем вывести двойную задачу оптимизации, которую можно постепенно оптимизировать по мере продвижения онлайн-обучения. Основная идея, лежащая в основе нашего вывода, - это связь между границами сожаления и двойственностью Фенхеля. Эта связь приводит к сокращению процесса онлайн-обучения к задаче постепенного повышения двойной целевой функции.

Чтобы получить явные количественные границы сожаления, мы немедленно используем свойство слабой двойственности, которое говорит нам, что двойная цель снизу ограничивает первичную цель. Поэтому мы сводим процесс онлайн-обучения к задаче постепенного увеличения двойной целевой функции. Величина T, на которую двойное увеличение, служит новым и естественным понятием прогресса.

Поступая таким образом, мы можем связать совокупную потерю конкурирующей гипотезы и совокупную потерю онлайн-алгоритма, используя увеличение двойственности.

Что такое инкрементное обучение?

Инкрементное обучение относится к ситуации непрерывной адаптации модели на основе постоянно поступающего потока данных. Онлайн-обучение становится необходимым в интерактивных сценариях, где учебные примеры предоставляются на основе отзывов людей с течением времени. Инкрементное обучение относится к стратегиям онлайн-обучения, которые работают с ограниченными ресурсами памяти.

Concept Drift

Пошаговое обучение имеет ряд проблем с онлайн-обучением, при этом ограничения памяти добавляют немало дополнительных преимуществ. Одна из важных проблем состоит в том, что при рассмотрении временной структуры выборок данных можно наблюдать изменения в статистике данных, которые происходят с течением времени. Изменения в распределении данных с течением времени обычно называют дрейфом концепций. Можно выделить разные типы дрейфа концепций: изменения во входном распределении называются только дрейфом виртуальных концепций или ковариативный сдвиг, или изменения в самой базовой функциональности, называемые реальным дрейфом концепции. Кроме того, дрейф концепции может быть постепенным или резким. Термин «локальный дрейф концепции» характеризует изменения статистики данных только в определенной области пространства данных. Реальный дрейф концепции проблематичен, поскольку он приводит к конфликтам в классификации, например, когда в данных появляется новый, но визуально похожий класс: это в любом случае будет влиять на эффективность классификации до тех пор, пока модель может быть адаптирована соответственно.

Дилемма стабильности и пластичности

Для шумной среды или дрейфа концепций вторая проблема состоит в том, когда и как адаптировать текущую модель. Быстрое обновление обеспечивает быструю адаптацию к новой информации, но старая информация так же быстро забывается. С другой стороны, адаптация может выполняться медленно, и в этом случае старая информация сохраняется дольше, но реактивность системы снижается. Дилемма, стоящая за этим компромиссом, обычно обозначается дилеммой стабильности-пластичности, которая является хорошо известным ограничением как для искусственных, так и для биологических систем обучения. [1]

Методы инкрементального обучения, которые адаптируют изученные модели к дрейфу концепций только в тех областях пространства данных, где происходит дрейф концепций, предлагают частичное решение этой проблемы. Многие методы онлайн-обучения сами по себе, имеющие дело с ограниченными ресурсами, не могут решить эту дилемму, поскольку они демонстрируют так называемое поведение катастрофического забывания, даже когда новая статистика данных не отменяет старые. [1 ]

Один из подходов к решению дилеммы стабильность-пластичность состоит в улучшении правил обучения с помощью явных метастратегий, когда и как учиться. [1]

Сравнительный анализ модели

Существуют две принципиально разные возможности для оценки производительности алгоритмов инкрементального обучения:

Инкрементальное против непостоянного: в отсутствие дрейфа концепций цель обучения состоит в выводе стационарного распределения p (y | x) для типичных данных, характеризуемых p (x). Этот параметр имеет место, например, всякий раз, когда инкрементные алгоритмы используются для больших наборов данных, где они конкурируют с часто распараллеливаемыми пакетными алгоритмами. В таких условиях выбранный метод оценивает точность классификации окончательной модели Mt на тестовом наборе или в рамках перекрестной проверки. Хотя инкрементное обучение должно давать результаты в том же диапазоне, что и пакетные варианты, необходимо учитывать, что они имеют дело с ограниченными знаниями из-за их доступа к потоковым данным. В качестве примера было показано, что алгоритмы инкрементной кластеризации не могут достичь той же точности, что и пакетные версии, если их ресурсы ограничены. [1]

Инкрементные и инкрементные: когда вы сталкиваетесь с дрейфом концепции, разные функции затрат могут представлять интерес. Виртуальный дрейф концепций направлен на вывод стационарной модели p (y | x) с вероятностью дрейфа p (x) входных данных. В таких условиях представляет интерес надежность модели при оценке на тестовых данных, которые следуют, возможно, искаженному распределению. Такие настройки можно легко сгенерировать, например, путем обеспечения несбалансированного распределения меток для тестовых и обучающих данных. Всякий раз, когда присутствует реальный дрейф уверенности, поведение ошибки классификации в Интернете

следующая точка данных обычно является методом выбора; таким образом, простое усреднение этих ошибок может сопровождаться детальной проверкой общей формы онлайн-ошибки, поскольку это дает представление о скорости сходимости, например, для резкого изменения концепции. [1]

Формальные гарантии поведения обобщения: поскольку многие классические алгоритмы, такие как простой перцептрон или методы с большим запасом, были предложены в качестве онлайн-алгоритмов, существует обширная работа по исследованию их поведения при обучении, скорости сходимости и способность к обобщению, классически полагающаяся на предположение о том, что данные являются iid Некоторые результаты ослабляют i.i.d. предположение например требуя только взаимозаменяемости. В последнее время популярные настройки, такие как изучение обобщенной линейной регрессии, могут сопровождаться гарантиями сходимости для произвольных распределений p (x) с точки зрения теории игр: в таких настройках классификатор Mt и обучающий пример

может быть применен в состязательной манере, по-прежнему обеспечивая высокую скорость сходимости в соответствующих ситуациях.

В этой статье были упомянуты основные концепции и несколько математических понятий машинного обучения онлайн. В следующих статьях я подробно расскажу о каждой концепции и расскажу об алгоритмах машинного обучения в Интернете.

Ссылки

[1] Алгоритмы и приложения инкрементального обучения, Александр Гепперт, Барбара Хаммер, (2016)