Вопросы по теме 'hyperparameters'

Многомерный гиперпараметрический поиск с помощью vw-hypersearch в Vowpal Wabbit
vw-hypersearch - это оболочка Vowpal Wabbit, предназначенная для оптимизации гиперпараметров в модели vw: скорость регуляризации, скорость обучения и спады, мини-пакеты, размеры начальной загрузки и т. д. В руководстве для vw-hypersearch есть...
979 просмотров

Функция для определения разумного начального предположения для scipy.optimize?
Я использую scipy.optimize. свернуть , чтобы найти минимум четырехмерной функции, который довольно чувствителен к исходному предположению. Если я немного его изменю, решение существенно изменится. Есть много вопросов, похожих на этот, уже в SO...
3457 просмотров

Настройка гиперпараметров с использованием пакета pure ranger в R
Мне нравится скорость пакета ranger для создания случайных моделей леса, но не вижу, как настроить mtry или количество деревьев. Я понимаю, что могу сделать это с помощью синтаксиса train () каретки, но я предпочитаю увеличение скорости за счет...
9608 просмотров
schedule 26.03.2023

Настройка гиперпараметров для Tensorflow
Я ищу пакет настройки гиперпараметров для кода, написанного непосредственно в Tensorflow (а не в Keras или Tflearn). Не могли бы вы сделать какое-нибудь предложение?
6899 просмотров

thread.lock во время класса поиска пользовательских параметров с использованием распределенного Dask
Я написал свою собственную реализацию поиска параметров в основном из-за того, что мне не нужна перекрестная проверка GridSearch и RandomizedSearch scikit-learn . Я использую dask для обеспечения оптимальной распределенной производительности....
173 просмотров

Как настроить гиперпараметры при подаче данных из flow_from_directory
У меня есть обучающие данные, структурированные таким образом, что flow_from_directory можно использовать и обучать сеть. Теперь я хочу выполнить настройку гиперпараметров с помощью GridSearchCV. При использовании GridSearchCV вместе с моделями...
359 просмотров
schedule 25.05.2023

Сетка параметров настройки логистической регрессии в пакете R Caret?
Я пытаюсь подогнать модель логистической регрессии в R, используя класс caret package . Я сделал следующее: model <- train(dec_var ~., data=vars, method="glm", family="binomial", trControl = ctrl,...
12592 просмотров

Использование GridsearchCV() с проверкой удержания
GridsearchCV() имеет аргумент cv, значение которого по умолчанию равно 3, что означает, что он 3-кратный. Есть ли способ использовать Gridsearch() со схемой проверки удержания. Например 80-20% разделение???
902 просмотров

Настройка гиперпараметров с использованием hyperopt sklearn с RandomForestClassifier
В настоящее время я пытаюсь оптимизировать гиперпараметры, используя RandomizedSearchCV или GridSearchCV . Для сравнения я хочу попробовать hyperopt, который также доступен как hyperopt-sklearn ( https://github.com/hyperopt/hyperopt-sklearn )....
723 просмотров

{caret}xgTree: в показателях производительности с повторной выборкой отсутствовали значения.
Я пытаюсь запустить 5-кратную модель XGBoost для этого набора данных . Когда я запускаю следующий код: train_control<- trainControl(method="cv", search = "random", number=5,...
2631 просмотров
schedule 30.07.2022

Параллельная перекрестная проверка для групп гиперпараметров в python
Мне нужно запустить сразу несколько перекрестных проверок для определенных групп Гиперпараметры SVR: ((C_0,gamma_0),(C_1,gamma_1)...(C_n,gamma_n)) и, таким образом, искать метод распараллеливания, чтобы ускорить его. Возможно, можно было...
86 просмотров

Получить параметры из модели загрузки в xgboost
Я сделал классификационную модель, которая была сохранена с помощью bst.save_model('final_model.model') в другом файле я загружаю модель и провожу тестирование своих тестовых данных, используя: bst = xgb.Booster() # init model...
5586 просмотров
schedule 02.05.2023

Настройка гиперпараметров с использованием пакета MLR
Я хочу настроить гиперпараметры для случайного леса с помощью пакета MLR. У меня есть несколько вопросов: 1) Как мне решить, какой из параметров мне следует настроить? Я слышал что-то о том, как поддерживать максимально возможное количество...
761 просмотров
schedule 30.01.2023

Python/GPyOpt: оптимизация только одного аргумента
В настоящее время я пытаюсь найти минимум некоторой функции f(arg1, arg2, arg3, ...) с помощью оптимизации по Гауссу, используя модуль GPyOpt . Хотя f(...) принимает много входных аргументов, я хочу оптимизировать только один из них. Как ты это...
723 просмотров

Оптимизация гиперпараметров в API обнаружения объектов тензорного потока
Есть ли способ указать оптимизацию гиперпараметров, такую ​​​​как Hyperopt или другую, в файле конфигурации API обнаружения объектов для точной настройки модели?
880 просмотров

Разная точность проверки на разных тренировках в keras
Я обучил модель keras на Mnist, сохранив одинаковые гиперпараметры обучения и модели. Данные обучения и проверки были точно такими же. Я получил пять различных значений точности — 0,71, 0,62, 0,59, 0,52, 0,46 на разных тренировках. Модель каждый...
94 просмотров
schedule 07.07.2023

Выбор num_leaves в LightGBM?
Есть ли эмпирическое правило для инициализации параметра num_leaves в lightgbm . Например, для рекомендуемого набора данных 1000 мы знаем, что с tree-depth из 10 он может охватывать весь набор данных, поэтому мы можем выбрать это...
4260 просмотров

Приближение точности моего логистического регрессионного тестирования к точности моего обучения с помощью Python
У меня есть набор данных баскетбольной статистики с 656 факторами. Я использую классификатор логистической регрессии, чтобы предсказать победителей и проигравших (выигрывает команда 1 или команда 2), вычитая статистику команды 1 из статистики команды...
470 просмотров

Настройка гиперпараметра LightGBM RandomimzedSearchCV
У меня есть набор данных со следующими размерами для обучающих и тестовых наборов: X_train = (58149, 9), y_train = (58149,), X_test = (24921, 9) и y_test = (24921,) Код, который у меня есть для RandomizedSearchCV с использованием классификатора...
4039 просмотров
schedule 11.02.2023

Настройка гиперпараметра с помощью gridsearch приводит к переобучению
Настройка гиперпараметра с помощью gridsearch приводит к переобучению. Погрешность поезда определенно мала, но погрешность теста велика. Разве вы не можете настроить гиперпараметр, чтобы уменьшить ошибку теста? def custom_wmae(actual_values,...
1120 просмотров