Публикации по теме 'precision-recall'


Матрица путаницы в машинном обучении
Были ли вы в ситуации, когда вы ожидали, что ваша модель машинного обучения будет работать очень хорошо, но она выдала низкую точность? Вы проделали всю тяжелую работу — так где же модель классификации пошла не так? Как вы можете исправить это? Существует множество способов оценить эффективность вашей модели классификации, но ни один из них не выдержал испытания временем, как матрица путаницы. Это помогает нам оценить, как работала наша модель, где она пошла не так, и предлагает нам..

Наука о данных: путь к более безопасным дорогам, часть II
Взгляд на дисбаланс данных под другим углом Лучший угол для решения любой проблемы - это попытка. - Анонимный Вступление Продолжение предыдущей статьи . Прежде чем идти по следу, позвольте нам очень кратко рассказать о том, что мы сделали ранее. У нас есть набор данных о столкновениях автомобилей в Сиэтле, где серьезность аварии (степень тяжести 1, 2, 3 и 4) должна быть спрогнозирована с использованием предикторов, таких как состояние дороги, тип столкновения, состояние..

Модели классификации с более высокой точностью и значениями полноты
В идеальном сценарии, где существует четкая и определенная граница принятия решения, которая различает данные, принадлежащие к различным классам, значения точности и полноты для всех классов будут равны 1. К сожалению, в сценариях реального времени модели машинного обучения или глубокого обучения не может поместить каждую точку данных в свой предполагаемый класс. Как модель классифицирует экземпляр как положительный или отрицательный? (пожалуйста, обратитесь к этой статье , чтобы узнать..

Кривые точности-отзыва
Иногда кривая стоит тысячи слов - как рассчитать и интерпретировать кривые точности-отзыва в Python. В предыдущем посте я рассмотрел кривые ROC и AUC - как их рассчитать и как их интерпретировать. Сегодня я собираюсь выполнить еще одно упражнение для аналогичного показателя эффективности бинарной классификации - кривые точности-отзыва . Кривые точности-отзыва Как и кривая ROC , кривая точности-отзыва используется для оценки производительности алгоритмов двоичной..

Вопросы по теме 'precision-recall'

Как вычислить точность и полноту при кластеризации?
Я действительно запутался, как вычислить точность и отзыв в приложениях кластеризации. У меня следующая ситуация: Даны два набора A и B. Используя уникальный ключ для каждого элемента, я могу определить, какие из элементов A и B совпадают. Я...
18677 просмотров
schedule 05.04.2022

Система рекомендаций: простая совместная фильтрация на основе пользователей для точной оценки и отзыва
Я ищу очень простую реализацию на Java пользовательской совместной фильтрации . Я хотел бы оценить точность и полноту этого CF с набором данных кинообъектива. Я видел, что производительность (F1) должна составлять от 20 до 30% (с подобием Пирсона и...
7033 просмотров

Что означает припоминание в машинном обучении?
В чем смысл отзыва классификатора, например. байесовский классификатор? пожалуйста, приведите пример. например, точность = правильно/правильно+неправильно для тестовых данных. как понять вспомнить?
31638 просмотров

Как рассчитать точность и отзыв
База данных и правило классификации, как рассчитать точность и отзыв? MinSupp = 3% против MinConf = 30% No. outlook temperature humidity windy play 1 sunny hot high FALSE no 2 sunny hot high TRUE...
708 просмотров
schedule 14.07.2022

Хорошая кривая ROC, но плохая кривая точности-отзыва
У меня есть результаты машинного обучения, которые я не совсем понимаю. Я использую python sciki-learn с 2+ миллионами данных о 14 функциях. Классификация «ab» выглядит довольно плохо на кривой точности-отзыва, но ROC для Ab выглядит так же хорошо,...
4309 просмотров

Как использовать sklearn.metrics для вычисления микро / макро мер для задачи классификации с несколькими метками?
У меня есть результаты, полученные с помощью классификатора с несколькими метками, для которых я хочу вычислить микро- и макроточность, отзыв и оценки F1 с использованием sklearn.metrics в python, но не могу понять, как это сделать. У меня есть...
1504 просмотров
schedule 23.08.2023

Вычисление точности, отзыва и FScore по результатам матрицы путаницы в R
У меня есть следующая матрица путаницы, теперь мне нужно рассчитать из нее точность, отзыв и FScore, как мне это сделать, используя полученные значения? Матрица путаницы и статистика Reference Prediction One Zero One 37 43...
9121 просмотров
schedule 04.08.2022

Как изменить порог точности и отзыва в python scikit-learn?
Я слышал, как люди говорят, что вы можете настроить порог, чтобы найти компромисс между точностью и отзывом, но я не могу найти реального примера того, как это сделать. Мой код: for i in mass[k]: df = df_temp # reset df before each loop...
6465 просмотров

Точность, отзыв, ROC в solr
Моя последняя задача сделать поисковую систему. Я использую solr для доступа и извлечения данных из онтологии, которые позже будут использоваться в качестве корпусов. Я совершенно новичок в этих вещах (поиск информации, онтология, python и solr)....
295 просмотров
schedule 13.04.2022

Имеет ли смысл вспомнить в задаче классификации 2 классов?
Я знаю, что Recall= TP/(TP+FN) Предположим, я рассматриваю значения отзыва для разных контекстов классификатора. В одном контексте я беру класс А в качестве своего положительного класса и класс В в качестве моего отрицательного класса. В другом...
76 просмотров

Какова правильная версия средней точности?
Я пытаюсь вычислить Среднюю точность (и Средняя точность ) на Набор данных изображений Oxford Building . Ниже приведен код, который они предоставляют для вычисления средней точности. Обратите внимание, что pos_set — это объединение...
786 просмотров

Есть ли способ написать окончательные веса (после того, как все эпохи закончились), используя pybrain?
Я написал программу для обучения моей сети с помощью pybrain. У меня есть 104 входа и 7 выходов в каждой строке файла поезда. Я создал один скрытый слой длиной 50. Сеть записана в файле .xml. Но я не знаю, как записать окончательные веса и смещения в...
90 просмотров

Как получить F1, точность и отзыв для набора данных с перекрестной проверкой в ​​​​R
У меня есть два набора данных. train <- read.csv("train.csv") test <- read.csv("test.csv") Данные в наборе поездов выглядят так, как показано ниже. > str(train) 'data.frame': 891 obs. of 12 variables: $ PassengerId: int 1 2...
2730 просмотров

Пользовательский макрос для вызова в керасе
Я пытаюсь создать собственный макрос для recall = (recall of class1 + recall of class2)/2 . Я придумал следующий код, но я не уверен, как вычислить истинное положительное значение класса 0. def unweightedRecall(): def recall(y_true,...
1212 просмотров

Определение пользовательской метрики с использованием обратного вызова в keras
Я хотел создать пользовательскую метрику на основе обратного вызова в keras. Во время просмотра проблем в Keras я наткнулся на следующий код для метрики f1: class Metrics(keras.callbacks.Callback): def on_epoch_end(self, batch, logs={}):...
137 просмотров

точность и ошибка отзыва при использовании sklearn
Я использую точность sklearn и отзыв, чтобы получить эти оценки. Я получил сообщение об ошибке значения. Может ли кто-нибудь сказать, где я делаю не так? Мой y_test выглядит следующим образом 443 positive 3615 positive 2030...
1498 просмотров
schedule 01.01.2024

Прецизионные кривые полноты в области поиска изображений
Я работаю над проблемой обнаружения замыкания цикла в два разных сезона, например, летом и осенью. Мне нужно сделать кривые точного припоминания. Предположим, я взял 500 изображений летнего и 500 изображений осеннего сезона. У меня есть матрица...
204 просмотров

Точность и точность в моделях Keras
Я пытаюсь вручную рассчитать точность и точность моей модели Keras. Я посмотрел на функцию metrics.py, и у нее есть приведенный ниже код для расчета точности. def precision(y_true, y_pred): '''Calculates the precision, a metric for multi-label...
535 просмотров

Кривая ROC и кривая точного отзыва
Каковы основные допущения кривой ROC? Какая часть кривой ROC больше влияет на кривую PR?
159 просмотров

Является ли выбор модели на основе балла F1 (вычисленного при пороге = 0,5) эквивалентом выбора модели на основе кривой «Площадь под точной кривой отзыва»?
https://neptune.ai/blog/f1-score-accuracy-roc-auc-pr-auc дает хорошее резюме о точности по сравнению с AUROC, F1 и AUPR. При сравнении производительности разных моделей в одном и том же наборе данных, в зависимости от варианта использования,...
143 просмотров
schedule 10.12.2022