Публикации по теме 'dimensionality-reduction'
Анализ главных компонентов — Как и почему это работает?
Если вы знаете, как реализовать PCA, но не уверены во внутренней работе и теории, лежащей в ее основе, в этом посте я попытаюсь объяснить лежащие в основе концепции и выводы таким образом, который мне было проще всего понять и, надеюсь, интуитивно понятен. достаточно, по крайней мере, для нескольких моих коллег-энтузиастов данных.
Анализ основных компонентов хорошо зарекомендовал себя в области науки о данных как метод уменьшения размерности данных, и в Интернете доступно множество..
Пошаговое руководство по уменьшению размерности
Уменьшение размерности – это метод, используемый в науке о данных и машинном обучении для уменьшения количества функций или переменных в наборе данных при сохранении большей части важной информации. Это помогает упростить набор данных, повысить эффективность вычислений и снизить риск переобучения. Ниже приведены пошаговые инструкции, которым вы можете следовать в Python.
Во-первых: Импорт библиотек Начните с импорта необходимых библиотек в Python, таких как NumPy, pandas,..
Анализ основных компонентов для данных о раке молочной железы с помощью R и Python
Алгоритм неконтролируемого машинного обучения для уменьшения размерности
Привет еще раз! Сегодня мы обсудим один из самых популярных алгоритмов машинного обучения, который использует каждый специалист по данным - анализ главных компонентов (PCA) . Ранее я написал некоторое содержание для этой темы. Если вы еще не читали, вы также можете прочитать их по адресу:
Анализ главных компонентов (PCA) с помощью Scikit-learn Статистические и математические концепции, лежащие в..
Тензорная декомпозиция в Python
В этом посте дается краткое руководство по реализации канонической полиадической тензорной декомпозиции в Python, включая краткое введение в тензорную декомпозицию. Однако основная цель этой записной книжки - сосредоточиться на реализации тензорной декомпозиции в Python. В соответствии с этой целью мы реализуем тензорную декомпозицию, используя две библиотеки, доступные в Python ( TensorLy и tensortools ), и простую реализацию тензорной декомпозиции с помощью Numpy (через попеременную..
Разложение по сингулярным значениям против разложения по собственным значениям для уменьшения размерности
Выполнение PCA обоими методами и сравнение результатов
Разложение по сингулярным числам (SVD) и собственное разложение (ED) — это методы матричной факторизации, основанные на линейной алгебре.
В области машинного обучения (ML) оба могут использоваться в качестве методов сокращения данных (т.е. для уменьшения размерности).
Ранее мы подробно обсуждали собственное разложение . Сегодня мы уделим больше внимания обсуждению СВД.
Анализ главных компонентов (PCA) может быть выполнен с..
Основная интуиция LDA
Всякий раз, когда мы сталкиваемся с моделями машинного обучения, включающими классификацию данных изображения или имеем дело с векторами сложной размерности, вычисления становятся препятствием для получения своевременных результатов. Поэтому интуитивно понятно использовать алгоритмы, которые уменьшают сложность вычислений с использованием векторов и помогают получать своевременные и лучшие результаты. И мы поговорим об одной такой методике классификации, использующей уменьшение размерности,..
Навигация по проклятию размерности в машинном обучении (часть 2)
Посмотрите, как проклятие размерности влияет на алгоритмы классификации.
Введение
Итак, мы подробно рассмотрели в предыдущем выпуске этой серии «Что такое Проклятие размерности ». Если вы хотите быстро просмотреть эту статью:
Проклятие размерности в машинном обучении Рассмотрение того, как более высокие измерения влияют на данные medium.com
Теперь давайте углубимся, чтобы понять, как разреженность влияет на алгоритмы..