Публикации по теме 'regularization'


Почему L1-регуляризация создает разреженность — Математическая и визуальная интуиция
Я читал во многих источниках (блоги/видео на YouTube), что L1-Regularization создает разреженность, но ни один из них не дал мне хорошей интуиции, пока я не увидел это видео. Видео находится за платным доступом, поэтому я дам вам краткое изложение видео в этом блоге. Давайте поймем интуицию по шагам Шаг 1: Запишем обобщенную математическую формулировку L1 и L2. Примечание 1. Здесь потеря может быть любой и будет одинаковой как для L1, так и для L2. Примечание 2. Левая часть..

Регуляризация в машинном обучении
Важный метод, чтобы избежать переобучения Введение Разработка модели машинного обучения — это не волшебство, когда вы щелкаете пальцами и « БУМ!» , модель появляется автоматически. На самом деле, люди часто думают, что искусственный интеллект (ИИ) так же умен, как человек. Тем не менее, я хотел бы вставить это восприятие, используя логику из речи, которую я прочитал в сообщении, но я не помню, кто разместил его, говоря, среди прочего, что « компьютер является более быстрым тупее..

Регуляризация моделей ML
Регуляризация линейных моделей машинного обучения — Ридж-регрессия Обучение моделей машинного обучения иногда представляет собой сложную задачу, если ваша модель машинного обучения хорошо работает с обучающим набором, но не с тестовым набором. В то время мы думали о том, что нам сделать, чтобы он работал лучше. Итак, здесь, в этом блоге, мы узнаем, как поступить в такой ситуации. Привет, ребята, бывают ситуации, когда наша модель хорошо работает с обучающим набором, но не с..

Проклятие размерности в машинном обучении
Машинное обучение произвело революцию в различных отраслях, позволив компьютерам учиться на данных и делать точные прогнозы или решения. Одной из ключевых проблем машинного обучения является работа с многомерными данными, широко известная как «проклятие размерности». Это явление создает серьезные проблемы с точки зрения вычислительной сложности, производительности модели и обобщения. В этой статье мы рассмотрим, что такое проклятие размерности, его влияние на алгоритмы машинного обучения и..

Понимание регуляризации
Регуляризация — мощный инструмент, помогающий настраивать модели. В начале этого года у меня было очень ограниченное представление о регуляризации. Для меня это был просто инструмент для переобучения. Если у модели были более высокие потери при проверке, чем потери при поездке, добавление регуляризации L1 или L2 могло бы решить эту проблему. Правда в том, что есть много разных способов взглянуть на регуляризацию, и это мощный инструмент, который может помочь настроить модели, которые..

Работа с сильно коррелированными столбцами в моделях машинного обучения
Простая попытка решения общей проблемы Фон Я работал с набором данных по умолчанию для кредитной карты в рамках проекта учебного курса по науке о данных. Нам пришлось запустить различные алгоритмы машинного обучения, чтобы попытаться предсказать, будет ли кто-то по умолчанию или нет, в основном используя оценку F1 в качестве метрики. Мы попробовали поиск по сетке на основе логистической регрессии гребня и лассо, K ближайших соседей и деревьев решений, чтобы увидеть, какая модель..

Зачем нужна регуляризация функции потерь и как она помогает
Всякий раз, когда мы запускаем простую модель машинного обучения, такую ​​как линейная классификация, мы можем определить меру несчастья с помощью функций потерь. Мы видели, как работает функция потерь в разделе Функции потерь и что она делает . Однако в функциях потерь, таких как мультиклассовый SVM, есть ошибка. Всякий раз, когда мы вычисляем показатель потерь с помощью функции потерь и находим W, для которого L является самым низким (допустим, 0), мы никогда не можем быть уверены,..