Различные парадигмы имеют разные способы обучения.

Формально у нас есть следующие определения машинного обучения (ML):

я. «Область исследования, которая дает компьютерам возможность учиться без явного программирования». - Артур Сэмюэл, 1959 г.

II. «Правильно поставленная проблема обучения: говорят, что компьютерная программа учится на опыте E в отношении некоторой задачи T и некоторой производительности P, если его эффективность на T, измеряемая P, улучшается с опытом E». — Том Митчелл, 1998 г.

Таким образом, мы можем сделать вывод, что ML имеет целью разработку алгоритмов, направленных на улучшение некоторых задач с помощью предыдущего опыта. Эти переживания являются доступными данными, или, другими словами, образцами наблюдаемого события. На данный момент идея использования образцов данных (опыта) в качестве основы для разработки алгоритма машинного обучения называется индуктивным рассуждением. Исходя из этого наблюдаемого набора данных, мы ожидаем, что алгоритм сможет понять закономерности и обобщить свои выводы на всю популяцию. Это позволяет компьютеру принимать решения и учиться без явного программирования для данной задачи.

Например, вместо этого мы явно пишем такой код, как if(words_number‹100){“spam”}; else{"не спам"} для компьютера сделать классификацию электронных писем, мы даем большое количество электронных писем, и компьютер должен быть в состоянии, с помощью этих образцов и некоторых правил, сказать, являются ли будущие электронные письма спамом, гораздо точнее тогда наш первый подход. Обычно производительность наших моделей можно измерить, разделив образцы на два набора: обучающий набор и тестовый набор (на самом деле можно добавить еще один набор, называемый набор валидации, но мы его пока опустим, чтобы упростить объяснение). Итак, наборы отвечают соответственно за обучение модели (оценка ее параметров) и оценку ее производительности (моделирование будущих выборок).

Типы обучения

Существует множество способов классификации алгоритмов ML. Здесь мы будем использовать один из них, типы обучения:

  • Контролируемое обучение
  • Обучение без учителя
  • Обучение с подкреплением

На следующей пузырьковой диаграмме показаны некоторые общие области применения для каждой парадигмы.

Контролируемое обучение

В этой категории модели имеют в качестве входных данных набор размеченных данных. Когда метки дискретны, мы говорим, что это проблема классификации (например, медицинский диагноз, кредитный анализ или наш предыдущий пример с классификацией электронной почты), с другой стороны, когда метки непрерывны, мы говорим, что проблема регрессии (скорость ветра прогноз, цены на дома на основе характеристик). Здесь алгоритмы пытаются вычислить явную функцию, которая сопоставляет помеченные данные с соответствующими входными данными. Алгоритмы с учителем соответствуют модели по минимизации ошибок или максимизации точности. В конце процесса обучения знания сохраняются в самой модели, то есть в первую очередь в графе операторов и коэффициентов или наборе правил.

Наиболее часто используемые контролируемые алгоритмы:

  • Линейная регрессия
  • Логистическая регрессия
  • Искусственные нейронные сети
  • Машины опорных векторов
  • K-ближайшие соседи
  • Дерева решений
  • Наивный байесовский метод

Неконтролируемое обучение

В основном применяемые для кластеризации, обнаружения аномалий и задач ассоциации, алгоритмы неконтролируемого обучения не нуждаются в размеченных данных. Здесь обучение присуще способности алгоритма различать входную информацию с помощью расстояний или распознавания образов. Поэтому знание здесь не только в самих данных, но и в виде гиперпараметров моделей.

Наиболее часто используемые контролируемые алгоритмы:

  • K-средние
  • Гауссовская смесь
  • Скрытые марковские модели
  • Анализ главных компонентов
  • Изоляция Лес
  • DBScan

Обучение с подкреплением

Эта парадигма сильно отличается от двух предыдущих. По сути, здесь агент (система) подвергается воздействию ситуаций и получает вознаграждение или наказание в зависимости от предпринимаемых им действий. Наиболее показательным примером является использование методов обучения с подкреплением, чтобы научить роботов ходить. Алгоритмы RL, смешанные с глубоким обучением, также показали потрясающие результаты. Здесь знания динамичны, постоянно модифицируются.

Спасибо, что прочитали.

Особая благодарность Габриэлю Теотонио (gabrielteotonio.com) и Яиру Сейлу ([email protected]).