Вопросы по теме 'regularized'
Кондиционирование матрицы SVD - как проецировать из исходного пространства в кондиционированное пространство?
Классический метод шумоподавления данных состоит в том, чтобы создать матрицу, выполнить SVD, установить малые сингулярные значения равными нулю, а затем умножить разложенные части матрицы для создания новой матрицы. Это один из способов...
865 просмотров
schedule
23.01.2024
Как установить intercept_scaling в scikit-learn LogisticRegression
Я использую объект LogisticRegression scikit-learn для упорядоченной двоичной классификации. Я прочитал документацию по intercept_scaling , но не понимаю, как разумно выбирать это значение.
Наборы данных выглядят так:
10-20 признаков,...
2563 просмотров
schedule
14.10.2023
Улучшение плохо обусловленной матрицы
У меня есть плохо обусловленная матрица, чей rcond() близок к нулю, и поэтому обратная матрица не оказывается правильной. Я попытался использовать pinv() , но это не решает проблему. Вот как я принимаю обратное:
X = (A)\(b);
Я искал...
19940 просмотров
schedule
30.10.2022
Регуляризованный код логистической регрессии в Matlab
Я пробую свои силы в регуляризованном LR, просто используя эти формулы в Matlab:
Функция стоимости:
J(theta) = 1/m*sum((-y_i)*log(h(x_i)-(1-y_i)*log(1-h(x_i))))+(lambda/2*m)*sum(theta_j)
Градиент:
∂J(theta)/∂theta_0 =...
27248 просмотров
schedule
13.11.2023
Выбор параметра регуляризации
При применении регуляризованной логистической регрессии: я разделяю свои данные на наборы для обучения, перекрестной проверки и тестирования. Я хочу применить регуляризацию и работаю над выбором лямбда параметра регуляризации. Для этого я пробую...
5478 просмотров
schedule
12.09.2022
Что такое цель в выводе Python sklearn coef_?
Когда я выполняю гребневую регрессию с помощью sklearn в Python, вывод coef_ дает мне двумерный массив. Согласно документации это (n_targets, n_features) .
Я понимаю, что черты - это мои коэффициенты. Однако я не уверен, что это за цели. Что...
13202 просмотров
schedule
27.06.2023
TensorFlow - регуляризация с потерями L2, как применить ко всем весам, а не только к последнему?
Я играю с ИНС, которая является частью курса Udacity DeepLearning.
У меня есть задание, которое включает в себя обобщение сети с одним скрытым слоем ReLU с использованием потерь L2. Интересно, как правильно ввести это, чтобы штрафовали ВСЕ веса, а...
73803 просмотров
schedule
09.05.2022
Как настроить RandomForest Sklearn? max_depth против min_samples_leaf
max_depth VS min_samples_leaf
Параметры max_depth и min_samples_leaf меня больше всего сбивают с толку при многократных попытках использования GridSearchCV . Насколько я понимаю, оба этих параметра позволяют контролировать глубину...
4675 просмотров
schedule
27.10.2023
Выпадение при использовании Keras с бэкэндом TensorFlow
Я читал о реализации отсева в Keras, и, похоже, он использует версию с обратным отсевом, хотя там написано отсев.
Вот что я понял, когда прочитал документацию по Keras и Tensorflow:
Когда я указываю Dropout(0.4) , 0,4 означает, что вероятность...
1968 просмотров
schedule
09.07.2022
Добавить пользовательскую регуляризацию в Tensorflow
Я использую тензорный поток для оптимизации простой целевой функции наименьших квадратов, например:
Здесь Y — целевой вектор, X — входная матрица, а вектор w представляет веса, которые необходимо изучить.
Пример сценария:
,...
802 просмотров
schedule
04.06.2022
Почему word2vec не использует регуляризацию?
Модели ML с огромным количеством параметров будут иметь тенденцию к переобучению (поскольку они имеют большую дисперсию). На мой взгляд, word2vec одна из таких моделей. Один из способов уменьшить дисперсию модели — применить метод регуляризации,...
1618 просмотров
schedule
03.08.2023
Что такое потеря регуляризации в тензорном потоке?
При обучении DNN обнаружения объектов с помощью API обнаружения объектов Tensorflows платформа Visualization Plattform Tensorboard строит скаляр с именем regularization_loss_1
Что это? Я знаю, что такое регуляризация (чтобы сеть могла хорошо...
10502 просмотров
schedule
07.02.2022
Выведите функцию потерь/стоимости в керасах
Я пытаюсь найти функцию стоимости в Керасе. Я использую LSTM с функцией потерь categorical_crossentropy и добавил регуляризатор. Как мне вывести, как выглядит функция стоимости после моего регуляризатора для моего собственного анализа?
model =...
994 просмотров
schedule
05.12.2022
Регуляризация RNN: какой компонент регуляризовать?
Я создаю RNN для классификации (после RNN есть слой softmax). Есть так много вариантов того, что регулировать, и я не уверен, что если просто попробовать все из них, будет ли эффект такой же? какие компоненты я могу использовать для какой ситуации?...
11527 просмотров
schedule
13.06.2023
Регуляризованный градиентный спуск Python для логистической регрессии
Я пытаюсь реализовать градиентный спуск (GD) (не стохастический) для логистической регрессии в Python 3x. И есть проблемы.
Логистическая регрессия определяется следующим образом (1): формула логистической регрессии
Формулы для градиентов...
2216 просмотров
schedule
08.07.2023
Пользовательский регуляризатор активности keras
def kl_divergence(p, p_hat):
return (p * K.log(p / p_hat)) + ((1 - p) * K.log((1 - p) / (1 - p_hat)))
class SparseActivityRegularizer(Regularizer):
sparsityBeta = None
def __init__(self, l1=0., l2=0., p=0.01, sparsityBeta=0.1):
self.p =...
2587 просмотров
schedule
25.03.2023
значения пути регуляризации h2o glm
[Питон 3.5.2, h2o 3.22.1.1, JRE 1.8.0_201]
Я запускаю glm lambda_search и использую путь регуляризации для выбора лямбды.
glm_h2o = H2OGeneralizedLinearEstimator(family='binomial', alpha=1., lambda_search=True, seed=param['GLM_SEED'])...
242 просмотров
schedule
15.07.2022
Попытка выполнить LDA с помощью LASSO
PenalizedLDA( x = train_x, y =train_y) возвращает
Ошибка в sort.int(x, na.last = na.last, уменьшение = уменьшение,...): 'x' должен быть атомарным
Я пытаюсь использовать линейный дискриминантный анализ с лассо в наборе данных sampbase из...
314 просмотров
schedule
28.07.2022
Как создать автоэнкодер, в котором каждый уровень кодировщика должен представлять то же самое, что и слой декодера
Я хочу создать автоэнкодер, в котором каждый уровень в кодировщике имеет то же значение, что и соответствующий уровень в декодере. Так что, если автоэнкодер идеально обучен, значения этих слоев должны быть примерно одинаковыми.
Допустим,...
103 просмотров
schedule
08.06.2022
Регуляризация активаций после инициализации модели
Я хотел бы добавить регуляризацию активаций в Tensorflow.keras в предварительно обученной сети, используя цикл по слоям.
Если я хочу упорядочить веса или предвзятости , я могу сделать следующее:
l1=0.001
l2=0.001
for layer in model.layers:...
94 просмотров
schedule
06.07.2022