Публикации по теме 'apc'


Полное руководство по сжатию цветных изображений с использованием PCA в python.
Если вы являетесь энтузиастом науки о данных или машинного обучения, вы, должно быть, сталкивались с PCA (анализ основных компонентов), который является популярным алгоритмом машинного обучения без учителя, в основном используемым для уменьшения размерности большого набора данных. Мы также можем использовать PCA для уменьшения размерности изображений. Простой вариант использования Давайте подумаем о случае, когда вы работаете над проектом AI-ML, который имеет дело с изображениями...

Магическое внутреннее произведение и ортогональные векторные подпространства
Я оставил последнюю статью с концепциями линейной алгебры, где мы рассмотрели векторные пространства, пространство строк, пространство столбцов, разложение собственных векторов, разложение по сингулярным значениям и другие концепции. Эта статья является продолжением самой последней статьи, здесь мы посмотрим на реальную реализацию линейной алгебры в истинном смысле этого слова. То, о чем мы все знаем и тоже используем, - анализ главного компонента для уменьшения размерности ...

Сегментация клиентов — Выявление клиентов среди населения
Недавно я закончил 12-недельный курс инженера по машинному обучению в Udacity. Я проходил аналогичные курсы раньше, но обнаружил, что проект Capstone в рамках этого курса действительно помог мне укрепить уверенность в себе для участия в соревнованиях Kaggle. В этом посте будет рассмотрен мой завершающий проект по Арвато-Бертельсманну; выявление потенциальных клиентов среди населения Германии. Проблема Компания не хочет тратить деньги на рассылку агитационных материалов каждому немцу..

Обзоры анализа основных компонентов, PCA方法回顧
В машинном обучении это важный неконтролируемый метод. В статистике это также классический метод многомерного анализа. В этой статье я постараюсь разобраться в том, что я считаю ключевым для нас. Прежде чем приступить к сегодняшнему контенту, вы должны знать: Многофакторный анализ (с несколькими Yi ) vs. Однофакторный анализ (только один Y ) Вместо одного значения отклонения нам нужно расширить до общего значения отклонения . Одна линейная комбинация Xi образует одну новую..

Снижение размерности с помощью анализа главных компонентов
Введение Часто функции существующих данных сильно коррелированы. Некоторые из них вполне очевидны из данных, тогда как некоторые из них имеют скрытую корреляцию, которую можно обнаружить при тщательном наблюдении за данными. Например. допустим, у нас есть структурированные данные, одна из характеристик которых - скорость транспортного средства в милях в час, а другая - в километрах в час. Определенно, обе эти функции захватывают одну и ту же информацию, то есть скорость, и одна из них..

Урок 21  — «Машинное обучение: методы уменьшения размерности» — «Анализ основных компонентов…
На этом уроке мы обсудим анализ основных компонентов (PCA), популярный метод уменьшения размерности, используемый в машинном обучении для преобразования функций набора данных в представление с меньшим размером. Мы сосредоточимся на построении интуиции вокруг этой концепции и на том, почему это важно. Уменьшение размерности — это метод, используемый для уменьшения количества объектов в наборе данных при сохранении как можно большего количества информации. Это может помочь повысить..

t-распределенное стохастическое встраивание соседей (t-SNE) — от начала до конца — уменьшение размерности
Недавно я закончил один из бестселлеров Марка Мэнсона — «Тонкое искусство пофигизма». Одним из ключевых выводов из книги, который можно применить к науке о данных и современному машинному обучению, использующему большие данные, является идея сосредоточиться на том, «что действительно важно». Как и в нашей жизни, когда все становится очень сложно, когда мы определяем, что действительно важно, в науке о данных это означает расстановку приоритетов для наиболее важных переменных и показателей,..