Вы когда-нибудь задумывались, как Spotify всегда знает песни, которые лучше всего подходят для вашей жизни? Как его ежедневные плейлисты миксов не только относятся к жанру музыки, который вам нравится, но и как они могут описать историю вашей жизни? Это связано с тем, что Spotify использует машинное обучение для предоставления наилучших рекомендаций своим слушателям. Но применение машинного обучения не ограничивается этим, от Alexa до фильтров Instagram, машинное обучение повсюду.

С точки зрения непрофессионала, машинное обучение дает алгоритму возможность учиться без явного программирования и делать прогнозы на основе того, что он узнал. Том Митчелл (1997) дает более техническое определение машинного обучения ниже.

Говорят, что компьютерная программа учится на опыте E в отношении некоторой задачи T и некоторого показателя производительности P, если ее производительность на T, измеряемая P, улучшается с опытом E.

Чтобы повысить производительность для конкретной задачи, нам нужен большой и разнообразный набор данных. Даже минимальное количество обучающих примеров, необходимое для полуприличного алгоритма, достигает десятков тысяч строк. Следовательно, сбор данных является важной частью машинного обучения, которое может выполняться вручную или автоматически. Кроме того, существует множество онлайн-наборов данных в разных доменах, таких как Kaggle, репозиторий машинного обучения UCI.

Затем набор данных очищается, реорганизуется и масштабируется, чтобы найти лучшие функции для алгоритма. Эти функции используются машиной для обучения и прогнозирования. Но как он решает, какие функции являются наиболее оптимальными для наилучших прогнозов? Вот где математика пригодится инженеру по машинному обучению. Хотя математика в машинном обучении не требует сложных вычислений, очень важно понимать, что, почему и как работают алгоритмы. Это понимание играет решающую роль в манипулировании моделями для получения желаемых результатов.

Машинное обучение находится под сильным влиянием линейной алгебры. Почему? Что ж, линейная алгебра — это правильное и определенное представление на языке, который легко понятен компьютеру. Линейная алгебра необходима для обработки огромных наборов данных, с которыми работает алгоритм. Используя умножение матриц, линейная алгебра предлагает быстрые решения для x и y.

Еще одним фактором для манипулирования прогнозами в модели машинного обучения является частичное отличие от многомерного исчисления. Прежде чем понять применение частичной дифференциации в машинном обучении, мы знаем, что функция стоимости реализована для проверки ошибки в алгоритме. Затем функция стоимости минимизируется с использованием частичного дифференцирования для формирования градиентного спуска, который регулирует направление функции и коэффициент величины.

Обозначения: Xi — функция i-й строки, Yi — помеченный результат i-й строки, n — количество обучающих наборов, m и c — параметры наклона и точки пересечения соответственно.

Частичное дифференцирование делается, чтобы получить скорость изменения функции стоимости по отношению к m и c по отдельности. Представленные в векторной форме частные производные образуют вектор Якоби.

Для прогнозирования результатов в моделях машинного обучения требуется вероятность элементарного уровня. Хотя часто используется в форме распределения, например распределения Бернулли, распределения Гаусса, функции плотности вероятности и функции кумулятивной плотности, наиболее интересной формулой является теорема Байе.

В теории вероятностей и статистике теорема Байеса — это вероятность события, основанная на предварительном знании условий, которые могут быть связаны с этим событием. По этому принципу работает наивный байесовский алгоритм машинного обучения. Слово «наивный» связано с тем, что теорема Байе работает в предположении, что оба события независимы друг от друга, что является наивным подходом.

A, B — события, P(A|B) — вероятность A при условии, что B истинно, P(B|A) — вероятность B, когда A истинно, и P(A), P(B) независимые вероятности.

Таким образом, математика является важным аспектом машинного обучения и имеет множество применений во всех функциях модели. Прежде чем закончить, я реализовал генератор текста, используя сонеты Шекспира, чтобы создать связный текст, имитирующий стиль письма Шекспира. Я использовал модель долговременной кратковременной памяти, модель машинного обучения. Сгенерированный текст приведен ниже:

s более зрелый должен со временем умереть,

его нежный наследник мог бы сохранить его память:

но ты, сократившийся до своих ясных глаз,

питай пламя твоего света самосущным топливом,

мой звуковой сигнал, она дышит oe Bath dasehr ill:

tirse делать я сосна и turfeit день за днем,

или прожорлив на всех, или на всех прочь.