*Что такое машинное обучение?

наша способность учиться и лучше справляться с задачей благодаря опыту является частью человека, когда мы рождаемся, мы почти ничего не знаем и почти ничего не можем сделать для себя, но вскоре мы учимся и с каждым днем ​​становимся все более способными, но знаете ли вы, что компьютер может сделать тоже самое.

Машинное обучение объединяет статистику и информатику, чтобы позволить компьютерам научиться выполнять заданную задачу, не будучи запрограммированным для этого. Точно так же, как ваш мозг использует опыт для улучшения задачи, компьютер может использовать его.
Допустим, вам нужен компьютер, который может отличить изображение собаки от изображения кошки, вы можете начать с подачи ему изображений и сообщения ему об этом. то собака, то кошка.

компьютер, запрограммированный на обучение, будет искать статистические закономерности в данных, которые позволят ему распознавать кошку или собаку в будущем, он может самостоятельно выяснить, что у кошек носы короче, а собаки бывают самых разных размеров и размеров. затем представить эту информацию в числовой организации в пространстве, но, что особенно важно, именно компьютер, а не программист, идентифицирует эти шаблоны и устанавливает алгоритм, по которому будущие данные будут сортироваться.
Одним из примеров простого, но очень эффективного алгоритма является поиск оптимального линия, отделяющая кошек от собак.
Когда компьютер видит новое изображение, он проверяет, с какой стороны линии оно находится, и говорит либо кошка, либо собака. Но конечно могут быть ошибки. Чем больше данных получает компьютер, тем точнее становится его алгоритм и тем точнее он может быть в своих прогнозах. Машинное обучение уже широко применяется.

Эта технология лежит в основе распознавания лиц, преобразования текста в речь, спам-фильтров в ваших входящих онлайн-покупках или рекомендациях по просмотру, обнаружения мошенничества с кредитными картами и многого другого…
В Оксфордском университете исследования в области машинного обучения объединяют статистику и компьютер для создавать алгоритмы, которые могут решать сложные проблемы более эффективно, используя меньшую вычислительную мощность
От медицинской диагностики до социальных сетей потенциал машинного обучения для преобразования нашего мира поистине сногсшибателен.

*Типы машинного обучения

1. Контролируемое обучение

Обучение с учителем описывает класс задач, который включает использование модели для изучения сопоставления между входными примерами и целевой переменной.

Приложения, в которых обучающие данные содержат примеры входных векторов вместе с соответствующими им целевыми векторами, называются задачами обучения с учителем.

- Страница 3, Распознавание образов и машинное обучение, 2006 г.

Модели подходят для обучающих данных, состоящих из входных и выходных данных, и используются для прогнозирования наборов тестов, где предоставляются только входные данные, а выходные данные модели сравниваются с удерживаемыми целевыми переменными и используются для оценки навыков модели.

Обучение – это поиск в пространстве возможных гипотез той, которая будет работать хорошо, даже на новых примерах, выходящих за рамки обучающей выборки. Чтобы измерить точность гипотезы, мы даем ей тестовый набор примеров, отличный от обучающего набора.

- Страница 695, Искусственный интеллект: современный подход, 3-е издание, 2015 г.

Существует два основных типа задач обучения с учителем: это классификация, предполагающая предсказание метки класса, и регрессия, предполагающая предсказание числового значения.

  • Классификация: задача контролируемого обучения, которая включает в себя прогнозирование метки класса.
  • Регрессия: задача обучения под наблюдением, которая включает прогнозирование числовой метки.

Как задачи классификации, так и задачи регрессии могут иметь одну или несколько входных переменных, а входные переменные могут относиться к любому типу данных, например числовому или категориальному.

Примером проблемы классификации может служить набор данных MNIST рукописные цифры, где входными данными являются изображения рукописных цифр (пиксельные данные), а выходными данными является метка класса для того, какую цифру представляет изображение (числа от 0 до 9).

Примером задачи регрессии может служить набор данных Бостонские цены на жилье, где входными данными являются переменные, описывающие район, а выходными данными является цена дома в долларах.

Некоторые алгоритмы машинного обучения описываются как контролируемые алгоритмы машинного обучения, поскольку они предназначены для решения задач машинного обучения с учителем. Популярные примеры включают: деревья решений, машины опорных векторов и многие другие.

Наша цель — найти полезное приближение f(x) к функции f(x), лежащее в основе прогностической связи между входными и выходными данными

- Страница 28, Элементы статистического обучения: интеллектуальный анализ данных, вывод и прогнозирование, 2-е издание, 2016 г.

Алгоритмы называются контролируемыми, потому что они обучаются, делая прогнозы на основе примеров входных данных, а модели контролируются и корректируются с помощью алгоритма, чтобы лучше прогнозировать ожидаемые целевые результаты в наборе обучающих данных.

Термин «обучение с учителем» возник из-за того, что цель предоставляется инструктором или учителем, который показывает системе машинного обучения, что нужно делать.

- Страница 105, Глубокое обучение, 2016.

Некоторые алгоритмы могут быть специально разработаны для классификации (например, логистическая регрессия) или регрессии (например, линейная регрессия), а некоторые могут использоваться для обоих типов задач с небольшими модификациями (например, искусственные нейронные сети).

2. Неконтролируемое обучение

Обучение без учителя описывает класс проблем, связанных с использованием модели для описания или извлечения взаимосвязей в данных.

По сравнению с обучением с учителем, обучение без учителя работает только с входными данными без выходных или целевых переменных. Таким образом, при обучении без учителя учитель не исправляет модель, как в случае обучения с учителем.

При неконтролируемом обучении нет инструктора или учителя, и алгоритм должен научиться понимать данные без этого руководства.

- Страница 105, Глубокое обучение, 2016.

Существует много типов неконтролируемого обучения, хотя есть две основные проблемы, с которыми часто сталкиваются практикующие специалисты: это кластеризация, которая включает в себя поиск групп в данных, и оценка плотности, которая включает в себя суммирование распределения данных.

  • Кластеризация: неконтролируемая проблема обучения, связанная с поиском групп в данных.
  • Оценка плотности: задача обучения без учителя, которая включает в себя суммирование распределения данных.

Примером алгоритма кластеризации является k-Means, где k относится к количеству кластеров, которые необходимо обнаружить в данных. Примером алгоритма оценки плотности является Оценка плотности ядра, который включает использование небольших групп тесно связанных выборок данных для оценки распределения новых точек в проблемном пространстве.

Самой распространенной задачей обучения без учителя является кластеризация: обнаружение потенциально полезных кластеров входных примеров. Например, таксист может постепенно разработать концепцию "дней с хорошим трафиком" и "дней с плохим трафиком", но учитель никогда не будет давать ему примеры каждого из них.

- Страницы 694–695, Искусственный интеллект: современный подход, 3-е издание, 2015 г.

Кластеризация и оценка плотности могут быть выполнены, чтобы узнать о закономерностях в данных.

Также могут использоваться дополнительные неконтролируемые методы, такие как визуализация, которая включает графическое представление данных различными способами, и методы проекции, которые включают уменьшение размерности данных.

  • Визуализация: задача обучения без учителя, которая включает создание графиков данных.
  • Проекция: проблема обучения без учителя, которая включает создание низкоразмерных представлений данных.

Примером метода визуализации может быть матрица диаграммы рассеяния, которая создает одну диаграмму рассеяния для каждой пары переменных в наборе данных. Примером проекционного метода может быть Анализ основных компонентов, который включает в себя суммирование набора данных с точки зрения собственных значений и собственных векторов с удалением линейных зависимостей.

Цель таких задач обучения без учителя может заключаться в обнаружении групп похожих примеров в данных, что называется кластеризацией, или в определении распределения данных во входном пространстве, известном как оценка плотности, или в проецировании данных. из многомерного пространства в двух- или трехмерное для визуализации.

- Страница 3, Распознавание образов и машинное обучение, 2006 г.

3. Обучение с подкреплением

Обучение с подкреплением описывает класс задач, в которых агент работает в среде и должен научиться действовать, используя обратную связь.

Обучение с подкреплением — это изучение того, что делать — как сопоставлять ситуации с действиями, — чтобы максимизировать числовой сигнал вознаграждения. Учащемуся не говорят, какие действия предпринять, но вместо этого он должен выяснить, какие действия приносят наибольшую пользу, попробовав их.

- Страница 1, Обучение с подкреплением: введение, 2-е издание, 2018 г.

Использование среды означает отсутствие фиксированного набора обучающих данных, а скорее цель или набор целей, которые должен достичь агент, действия, которые он может выполнять, и отзывы о выполнении работы по достижению цели.

Некоторые алгоритмы машинного обучения работают не только с фиксированным набором данных. Например, алгоритмы обучения с подкреплением взаимодействуют с окружающей средой, поэтому существует петля обратной связи между системой обучения и ее опытом.

- Страница 105, Глубокое обучение, 2016.

Это похоже на обучение с учителем в том, что у модели есть некоторый отклик, на котором можно учиться, хотя обратная связь может быть задержанной и статистически зашумленной, что затрудняет для агента или модели связывание причины и следствия.

Примером проблемы с подкреплением является игра, в которой агент имеет целью набрать высокий балл и может делать ходы в игре и получать обратную связь в виде наказаний или вознаграждений.

Во многих сложных областях обучение с подкреплением — единственный возможный способ научить программу работать на высоком уровне. Например, в игре человеку очень сложно обеспечить точную и непротиворечивую оценку большого количества позиций, которая потребуется для обучения функции оценки непосредственно на примерах. Вместо этого программе можно сообщить, когда она выиграла или проиграла, и она может использовать эту информацию для изучения функции оценки, которая дает достаточно точные оценки вероятности выигрыша из любой заданной позиции.

- Страница 831, Искусственный интеллект: современный подход, 3-е издание, 2015 г.

Впечатляющие недавние результаты включают в себя использование подкрепления в AlphaGo от Google, чтобы превзойти лучшего в мире игрока в го.

Некоторые популярные примеры алгоритмов обучения с подкреплением включают Q-обучение, обучение с разницей во времени и глубокое обучение с подкреплением.

Гибридные проблемы обучения

Границы между неконтролируемым и контролируемым обучением размыты, и существует множество гибридных подходов, основанных на каждой области исследования.

В этом разделе мы более подробно рассмотрим некоторые из наиболее распространенных гибридных областей обучения: частично контролируемое, самоконтролируемое и многоэкземплярное обучение.

Теория

Основная цель учащегося - обобщить свой опыт. Обобщение в этом контексте — это способность обучающейся машины точно работать с новыми, невидимыми примерами/задачами после изучения набора обучающих данных. Обучающие примеры берутся из некоторого в целом неизвестного распределения вероятностей (считающегося репрезентативным для пространства событий), и учащийся должен построить общую модель этого пространства, которая позволит ему производить достаточно точные прогнозы в новых случаях.

История

1950 — Алан Тьюринг создает «Тест Тьюринга», чтобы определить, обладает ли компьютер реальным интеллектом. Чтобы пройти тест, компьютер должен быть в состоянии обмануть человека, заставив его поверить, что он тоже человек.

1952 — Артур Сэмюэл написал первую компьютерную обучающую программу. Программой была игра в шашки, и компьютер IBM совершенствовался в этой игре, чем больше он играл, изучая, какие ходы составляли выигрышные стратегии, и включая эти ходы в свою программу.

1957 — Франк Розенблатт разработал первую нейронную сеть для компьютеров (персептрон), которая имитирует мыслительные процессы человеческого мозга.

1967 — Был написан алгоритм «ближайшего соседа», позволяющий компьютерам начать использовать очень простое распознавание образов. Это можно использовать для составления маршрута для коммивояжеров, начиная со случайного города, но гарантируя, что они посетят все города во время короткого тура.

1979 — Студенты Стэнфордского университета изобретают «Стэнфордскую тележку», которая может самостоятельно преодолевать препятствия в комнате.

1981 — Джеральд Деджонг представляет концепцию обучения на основе объяснений (EBL), в которой компьютер анализирует обучающие данные и создает общее правило, которому он может следовать, отбрасывая неважные данные.

1985 — Терри Сейновски изобретает NetTalk, который учится произносить слова так же, как это делает ребенок.

1990-е — работа над машинным обучением переходит от подхода, основанного на знаниях, к подходу, основанному на данных. Ученые начинают создавать программы для компьютеров, чтобы анализировать большие объемы данных и делать выводы — или «учиться» — на основе результатов.

1997 — Deep Blue от IBM побеждает чемпиона мира по шахматам.

2006 — Джеффри Хинтон вводит термин «глубокое обучение» для объяснения новых алгоритмов, позволяющих компьютерам «видеть» и различать объекты и текст на изображениях и видео.

2010 — Майкрософт Kinect может отслеживать 20 человеческих черт со скоростью 30 раз в секунду, позволяя людям взаимодействовать с компьютером посредством движений и жестов.

2011 — Watson от IBM побеждает своих конкурентов-людей в Jeopardy.

2011 — Разработан мозг Google, и его глубокая нейронная сеть может научиться обнаруживать и классифицировать объекты так же, как это делает кошка.

2012 — Google X Lab разрабатывает алгоритм машинного обучения, способный автономно просматривать видео на YouTube, чтобы идентифицировать видео, в которых есть кошки.

2014 — Facebook разрабатывает DeepFace, программный алгоритм, способный распознавать или проверять людей на фотографиях на том же уровне, что и люди.

2015 — Amazon запускает собственную платформу машинного обучения.

2015 — Microsoft создает набор инструментов распределенного машинного обучения, который позволяет эффективно распределять задачи машинного обучения на нескольких компьютерах.

2015 — Более 3000 исследователей искусственного интеллекта и робототехники при поддержке Стивена Хокинга, Илона Маска и Стива Возняка (среди многих других) подписывают открытое письмо, предупреждающее об опасности автономного оружия, которое выбирает цели и поражает их без вмешательства человека.

2016 — Алгоритм искусственного интеллекта Google побеждает профессионального игрока в китайской настольной игре Го, которая считается самой сложной настольной игрой в мире и во много раз сложнее шахмат. Алгоритму AlphaGo, разработанному Google DeepMind, удалось выиграть пять игр из пяти в соревновании по го.

Будущее машинного обучения!

Машинное обучение (ML) — это приложение ИИ (искусственного интеллекта), которое позволяет системам учиться и совершенствоваться без программирования или контроля. Если вам интересно узнать,что ждет машинное обучение в будущем, читайте дальше, чтобы узнать больше.

Будучи интенсивно развивающимся языком, непрерывные технологические достижения обязательно затронут область машинного обучения, которая будет определять будущее машинного обучения. Давайте кратко заглянем в будущее машинного обучения в 2020 году.

источники

https://www.ibm.com/downloads/cas/GB8ZMQZ3