Предварительное условие: Введение в машинное обучение

Контролируемые и неконтролируемые в основном используются многими инженерами по машинному обучению и компьютерными фанатами.

Обучение с подкреплением действительно мощное средство, и его сложно применять для решения проблем.

Обучение с учителем

как мы знаем из прошлой истории, машинное обучение принимает данные в качестве входных данных. Назовем эти данные данными обучения

Данные обучения включают в себя как входы, так и L абели (цели)

что такое входы и метки (цели) ?? например, сложение двух чисел: a = 5, b = 6, результат = 11, входные данные - 5,6, а Target - 11

Сначала мы обучаем модель с большим количеством обучающих данных (входные данные и цели).

затем с новыми данными и логикой, которую мы получили до того, как спрогнозировать результат

(Примечание: мы не получаем точного 6 в качестве ответа, мы можем получить значение, близкое к 6 на основе данных обучения и алгоритма)

Этот процесс называется контролируемое обучение, он действительно быстрый и точный.

Регрессия. Это тип проблемы, при которой нам нужно спрогнозировать значение continuous-response (например: выше мы прогнозируем число, которое может варьироваться от -бесконечность до + бесконечность)

Некоторые примеры

  • какова цена дома в конкретном городе?
  • какова стоимость акций?
  • сколько всего пробежек может быть на борту в игре в крикет?

и т. д.… есть множество вещей, которые мы можем предсказать, если захотим.

Классификация. Это тип проблемы, при которой мы прогнозируем значение категориального ответа. где данные могут быть разделены на определенные «классы» (например, мы прогнозируем одно из значений в наборе значений).

Вот несколько примеров:

  • это письмо спам или нет?
  • будет дождь сегодня или нет?
  • это кошка или нет?

Обычно вопросы типа «да / нет» называются бинарной классификацией.

Другие примеры:

  • это письмо является спамом, важным или продвижением?
  • это кошка, собака или тигр?

Этот тип называется многоклассовой классификацией.

Вот финальное изображение

Классификация разделяет данные, регрессия соответствует данным

Это все для обучения с учителем.

Обучение без учителя

Данные обучения не включают здесь Цели, поэтому мы не говорим системе, куда двигаться, система должна понимать себя на основе данных, которые мы даем.

Здесь обучающие данные не структурированы (содержат зашумленные данные, неизвестные данные и т. Д.)

Пример: случайные статьи с разных страниц.

Существуют также разные типы обучения без учителя, такие как кластеризация и обнаружение аномалий (кластеризация довольно известна).

Кластеризация. Это тип проблемы, при которой мы группируем похожие вещи вместе.

Немного похоже на мультиклассовую классификацию, но здесь мы не предоставляем ярлыки, система понимает их на основе самих данных и группирует данные.

Вот несколько примеров:

  • данные новостные статьи объединяются в разные типы новостей.
  • учитывая набор твитов, кластер на основе содержимого твита
  • учитывая набор изображений, сгруппируйте их в разные объекты

Неконтролируемое обучение немного сложно реализовать, и оно не используется так широко, как контролируемое.

Я хотел бы осветить обучение с подкреплением в отдельной полной статье, так как оно интенсивно. так

Это все для этой истории. Надеюсь, вы уловили какое-то представление.

В следующем рассказе я хотел бы поговорить о первом алгоритме машинного обучения: Линейная регрессия с градиентным спуском.

Увидимся!