Публикации по теме 'linear-algebra'


Разложение по сингулярным значениям против разложения по собственным значениям для уменьшения размерности
Выполнение PCA обоими методами и сравнение результатов Разложение по сингулярным числам (SVD) и собственное разложение (ED) — это методы матричной факторизации, основанные на линейной алгебре. В области машинного обучения (ML) оба могут использоваться в качестве методов сокращения данных (т.е. для уменьшения размерности). Ранее мы подробно обсуждали собственное разложение . Сегодня мы уделим больше внимания обсуждению СВД. Анализ главных компонентов (PCA) может быть выполнен с..

Применение разложения матриц для машинного обучения
В этом посте мы узнаем, как решить множество задач машинного обучения с помощью нашего старого друга-математика: разложения матриц. Мотивация В машинном обучении и статистике нам часто приходится иметь дело со структурными данными, которые обычно представлены в виде таблицы строк и столбцов или матрицы. Многие проблемы машинного обучения можно решить с помощью матричной алгебры и векторного исчисления. В этом блоге я собираюсь обсудить несколько проблем, которые можно решить с..

Основы машинного обучения: линейная регрессия и однослойный персептрон
Цель этой статьи — представить идеи машинного обучения на простом примере линейной регрессии. Сначала я изо всех сил пытался понять концепции машинного обучения, мне было трудно понять, как оно работает, глядя на диаграммы нейронных сетей и их соответствующие уравнения. Единственное, что заставило его застрять, — это вывести уравнения для себя и написать пример. Моя цель — пройтись по каждому этапу процесса, начиная с самой простой из всех нейронных сетей для линейной регрессии. Я..

Машинное обучение, часть 3
Этот пост является частью серии упражнений из курса Эндрю Нг по машинному обучению на Coursera. Исходный код, текст упражнения и файлы данных для этого сообщения доступны здесь . Также отметьте Часть-1 , Часть-2 , Часть-4 и Часть-5 . Матрицы и векторы Матрицы представляют собой двумерные массивы: ⎡⎣⎢⎢⎢ adgj; behk; cfil ⎤⎦⎥⎥⎥ Вышеупомянутая матрица имеет четыре строки и три столбца, поэтому это матрица 4 x 3. Вектор - это матрица с одним столбцом и множеством..

FastEmbed: как вычислить эффективные многомерные вложения PCA?
Это краткое содержание статьи FastEmbed [ python ] [ pyspark ] SVD / PCA - это широко используемый метод встраивания для низкоразмерных наборов данных. Вопрос, на который мы здесь отвечаем: «Как вы масштабируете SVD / PCA для многомерных наборов данных, таких как социальные сети?» Так что же такое встраивание SVD / PCA? Сначала мы создаем матрицу M (каждая строка является записью набора данных). Затем мы вызываем стандартную процедуру SVD, чтобы получить ее декомпозицию:..

Разложение собственного разложения
Основы Разложение собственного разложения Нежное введение собственных векторов и собственных значений В детстве я всегда что-нибудь ломал. Я ломал вещи, потому что хотел посмотреть, что внутри. Я хотел понять, как все устроено. Ну, к сожалению — я только что сломал вещи — я не мог восстановить его обратно в рабочее состояние. Собственное разложение тоже ломает вещи, как и я, но делает это лучше. Он разлагает матрицу на собственные значения и собственные векторы. В следующих..

Линейная алгебра III
Как пища, съеденная без аппетита, утомительна, так и изучение без усердия вредит памяти, не усваивая то, что поглощается — Леонардо да Винчи В этом посте я постараюсь осветить несколько понятий, которые я оставил в предыдущих постах и без которых мы не сможем углубиться в понятия. Частное пространство Пусть V(F) — векторное пространство , а W — подпространство V, тогда любое подмножество вида V+W является подмножеством V; где V+W={v+w: v∈V и w∈W}, и выполняются следующие..