Публикации по теме 'implementation'


Линейная регрессия: все возможные техники, которые вам нужно знать
Вы когда-нибудь пробовали различное количество возможных способов найти параметры прямой линии, которые бы лучше всего соответствовали вашим данным. Если нет, посмотрите! Действительно! Нам всем хорошо известно самое известное уравнение прямой линии, то есть y = mx + c , где y - наша зависимая переменная , которую нужно предсказать. с помощью независимой переменной iex . Здесь наш градиент / наклон, обозначенный как m - , представляет собой изменение y для единичного изменения..

Реализация Hard Margin SVM с использованием Gradient Ascent, с нуля, с примерами [Python]
В предыдущей статье была объяснена математическая основа SVM с жесткими границами. В итоге формулировка сводилась к компактной функции стоимости J(α) , которую нужно было максимизировать. В этой статье метод градиентного восхождения используется в качестве последовательной максимальной оптимизации, что означает, что градиентное восхождение итеративно улучшает аппроксимацию значений α , что приводит к максимальному значению функции J . Итерационная процедура метода..

Руководство по шагам внедрения машинного обучения
Шаг 1. Первый шаг для любого проекта — это определение определения проблемы, которое будет состоять из описания проблемы, обсуждения ограничений на данные, мотивации данных и направления результата. Шаг 2. Следующим шагом будет анализ сбора данных, подготовка графиков и диаграмм, понимание распределения данных, выбросы и сравнение диаграмм дадут нам больше информации. Шаг 3. следующим шагом будет подготовка данных, изменение, форматирование, очистка — этот шаг, по моему мнению,..

Скрытое распределение Дирихле (LDA): руководство по подходу вероятностного моделирования для обнаружения темы
Реализация скрытого распределения Дирихле в Python Скрытое распределение Дирихле (LDA) - один из наиболее распространенных алгоритмов тематического моделирования. LDA была предложена Дж. К. Притчардом, М. Стивенсом и П. Доннелли в 2000 году и вновь открыта Дэвидом М. Блей, Эндрю Й. Нг и Майклом И. Джорданом в 2003 году. В этой статье я попытаюсь дать вам представление о том, что тематическое моделирование есть. Мы узнаем, как работает LDA, и, наконец, попробуем реализовать нашу..

Давайте реализуем Hashing & HashTable:
Когда и зачем нам нужен HashTable?? Структура данных хэш-таблицы используется, когда у нас есть элементы в парах ключ-значение, и мы хотим искать, вставлять или удалять любую пару в среднем за постоянное время. Однако следует иметь в виду, что элементы в хеш-таблице располагаются в любом нерелевантном порядке. Ключевые компоненты, необходимые для хэширования: Хэш-функция . Эта функция преобразует ключ в целочисленные значения, которые служат в качестве местоположения (индекса..

Внедрение кластеризации K-средних с нуля
Эта статья не преследует цель подробно объяснить кластеризацию K-средних, которую вы можете получить где угодно, но предоставить детали реализации, не используя Scikit, узнайте, чего вы не найдете везде. K-Means - один из популярных и простых алгоритмов обучения без учителя, используемых для кластеризации. Гиперпараметр «K» в K-средних означает количество кластеров. K-Means - это схема кластеризации на основе центроидов. Я рассматриваю следующий крошечный набор данных для пошагового..

Путеводитель по случайному лесу для новичков
Как новичку, очень легко заблудиться, разбираясь в случайных лесах. Но не бойтесь, мои друзья-новички, потому что этот блог даст вам руководство для начинающих, как пережить этот запутанный беспорядок в этой теме. Мы также рассмотрим реализацию случайного леса, а также деревья решений в наборе данных, что поможет вам лучше понять этот алгоритм. Введение Случайный лес - это метод ансамблевого обучения , который используется в основном для задач классификации, но его также можно..