Публикации по теме 'dimensionality-reduction'


Анализ главных компонентов — Как и почему это работает?
Если вы знаете, как реализовать PCA, но не уверены во внутренней работе и теории, лежащей в ее основе, в этом посте я попытаюсь объяснить лежащие в основе концепции и выводы таким образом, который мне было проще всего понять и, надеюсь, интуитивно понятен. достаточно, по крайней мере, для нескольких моих коллег-энтузиастов данных. Анализ основных компонентов хорошо зарекомендовал себя в области науки о данных как метод уменьшения размерности данных, и в Интернете доступно множество..

Пошаговое руководство по уменьшению размерности
Уменьшение размерности  – это метод, используемый в науке о данных и машинном обучении для уменьшения количества функций или переменных в наборе данных при сохранении большей части важной информации. Это помогает упростить набор данных, повысить эффективность вычислений и снизить риск переобучения. Ниже приведены пошаговые инструкции, которым вы можете следовать в Python. Во-первых: Импорт библиотек Начните с импорта необходимых библиотек в Python, таких как NumPy, pandas,..

Анализ основных компонентов для данных о раке молочной железы с помощью R и Python
Алгоритм неконтролируемого машинного обучения для уменьшения размерности Привет еще раз! Сегодня мы обсудим один из самых популярных алгоритмов машинного обучения, который использует каждый специалист по данным - анализ главных компонентов (PCA) . Ранее я написал некоторое содержание для этой темы. Если вы еще не читали, вы также можете прочитать их по адресу: Анализ главных компонентов (PCA) с помощью Scikit-learn Статистические и математические концепции, лежащие в..

Тензорная декомпозиция в Python
В этом посте дается краткое руководство по реализации канонической полиадической тензорной декомпозиции в Python, включая краткое введение в тензорную декомпозицию. Однако основная цель этой записной книжки - сосредоточиться на реализации тензорной декомпозиции в Python. В соответствии с этой целью мы реализуем тензорную декомпозицию, используя две библиотеки, доступные в Python ( TensorLy и tensortools ), и простую реализацию тензорной декомпозиции с помощью Numpy (через попеременную..

Разложение по сингулярным значениям против разложения по собственным значениям для уменьшения размерности
Выполнение PCA обоими методами и сравнение результатов Разложение по сингулярным числам (SVD) и собственное разложение (ED) — это методы матричной факторизации, основанные на линейной алгебре. В области машинного обучения (ML) оба могут использоваться в качестве методов сокращения данных (т.е. для уменьшения размерности). Ранее мы подробно обсуждали собственное разложение . Сегодня мы уделим больше внимания обсуждению СВД. Анализ главных компонентов (PCA) может быть выполнен с..

Основная интуиция LDA
Всякий раз, когда мы сталкиваемся с моделями машинного обучения, включающими классификацию данных изображения или имеем дело с векторами сложной размерности, вычисления становятся препятствием для получения своевременных результатов. Поэтому интуитивно понятно использовать алгоритмы, которые уменьшают сложность вычислений с использованием векторов и помогают получать своевременные и лучшие результаты. И мы поговорим об одной такой методике классификации, использующей уменьшение размерности,..

Навигация по проклятию размерности в машинном обучении (часть 2)
Посмотрите, как проклятие размерности влияет на алгоритмы классификации. Введение Итак, мы подробно рассмотрели в предыдущем выпуске этой серии «Что такое Проклятие размерности ». Если вы хотите быстро просмотреть эту статью: Проклятие размерности в машинном обучении Рассмотрение того, как более высокие измерения влияют на данные medium.com Теперь давайте углубимся, чтобы понять, как разреженность влияет на алгоритмы..