Публикации по теме 'sklearn'
СОХРАНИТЕ И ЗАГРУЗИТЕ МОДЕЛИ SCIKIT LEARN ЗА МИНУТУ
ПОЛНОЕ РУКОВОДСТВО
Как сохранить и загрузить свои модели Scikit-learn за минуту
Вы когда-нибудь создавали модели машинного обучения и задавались вопросом, как их сохранить? Что ж, через минуту я покажу вам, как сохранить ваши модели Scikit learn в виде файла.
Сохранение данных называется сериализацией , где мы сохраняем объект в виде потока байтов для сохранения на диске. Загрузка или восстановление модели называется десериализацией , при которой мы восстанавливаем поток..
Развертывание моделей машинного обучения в производственной среде с помощью FastAPI и Celery
Полный рабочий пример для обслуживания вашей модели с использованием асинхронных задач Celery и FastAPI.
Обзор
В Интернете есть множество материалов, связанных с созданием и обучением всевозможных моделей машинного обучения. Однако после обучения высокопроизводительной модели остается значительно меньше материала для ее внедрения в производство.
В этом посте рассматривается рабочий пример обслуживания модели машинного обучения с использованием Celery и FastAPI. Весь код можно..
Объяснение Pipeline, ColumnTransformer и FeatureUnion
Что они делают и когда что использовать
Эти три мощных инструмента должны знать каждый, кто хочет освоить sklearn . Поэтому очень важно научиться эффективно использовать их при построении модели машинного обучения.
Прежде чем мы углубимся, давайте сначала сформулируем две точки зрения:
Преобразователь: Преобразователь относится к объекту с fit () и transform () метод, который очищает, уменьшает, расширяет или генерирует функции . Проще говоря, преобразователи помогают..
Алгоритм дерева решений ID3 (итеративный дихотомизатор) - В SKLEARN: -
Алгоритм ID3 основан на вычислении энтропии и прироста информации. Энтропия рассчитывается как
а прирост информации рассчитывается как
Алгоритм ID3-
Сначала вычисляется энтропия целевого атрибута (P). Затем вычисляется прирост информации для других атрибутов. Атрибут с максимальной информацией. усиление выбирается в качестве атрибута для разделения, т. е. выбирается атрибут с максимальной потерей энтропии. Вычисляется подмножество набора данных (R’). Шаги со 2 по 3..
Алгоритмы ближайших соседей в машинном обучении
Мы попытаемся понять алгоритмы BallTree и KDTree, используемые как в K-Neighbours Classifer, так и в K-Neighbors Regressor. Основное внимание будет уделяться пониманию обоих алгоритмов на небольших данных без использования какого-либо языка программирования, а затем пониманию того, что на самом деле означают параметры и атрибуты, упомянутые в KNeighborsClassifier и KNeighborsRegressor .
Алгоритм Ball Tree: - Мы рассмотрим алгоритм Ball Tree, следуя статье , написанной Тингом Лю,..
Реализация различных ядер алгоритма SVC в наборе данных Iris
Использование Python для реализации различных ядер SVC в наборе данных Iris
В этой статье мы рассмотрим алгоритм SVC в библиотеке Sklearn и поэкспериментируем с различными ядрами в наборе данных Iris.
Классификатор опорных векторов
Классификатор опорных векторов ( SVC ) - это модель машинного обучения с учителем, используемая для задач классификации на две группы. После предоставления модельного набора SVC помеченных обучающих данных для каждой категории они могут..
Приближаемся к конкурсу на Kaggle: Avito Demand Prediction Challenge (часть 3 — линейная регрессия)
Проведя последние 2 статьи ( здесь и здесь ), играя с данными в конкурсе Kaggle, сегодня я начну строить базовую модель. Я думаю, что начну с чего-то простого, например, с модели линейной регрессии. Линейная регрессия должна идеально подходить здесь, поскольку у нас есть ряд независимых переменных, каждая из которых пытается описать нашу зависимую переменную Deal_Probability. Что пытается сделать линейная регрессия, так это сформировать линейное уравнение, описывающее закономерность..