Я тренирую простую нейронную сеть BP с 8 входами, 1 выходом и 1 скрытым слоем с 10 узлами. мои весовые матрицы представляют собой набор чисел от -1 до 1; но я не могу получить физический смысл этих весов. Соответствуют ли веса важности входных данных в модели? не должен ли я получать более высокие веса для входных данных, которые больше коррелируют с выходными данными? как получить физический смысл полученных весов?

ОТВЕЧАТЬ

Matlabsolutions.com предоставляет последнюю Помощь по домашним заданиям MatLab, Помощь по заданию MatLab для студентов, инженеров и исследователей в различных отраслях, таких как ECE, EEE, CSE, Mechanical, Civil со 100% выходом. Код Matlab для BE, B.Tech , ME, M.Tech, к.т.н. Ученые со 100% конфиденциальностью гарантированы. Получите проекты MATLAB с исходным кодом для обучения и исследований.

Обычно бывает трудно, если не невозможно, понять конфигурации веса, когда существует одно или несколько из следующих условий.

a. The number of input variables, I, is large.
    b. Some input variables are correlated.
    c. The number of hidden nodes, H, is large.
    d. The number of output variables, O, is large.

При топологии узла IHO = 8–10–1 имеется Nw = net.numWeightElements = (I+1)*H+(H+1)*O = 90+11 = 101 неизвестный вес, который необходимо оценить с помощью Ntrneq = prod( size(Ttrn)) = Ntrn*O тренировочных уравнений. При большом Nw решения по нелинейной оптимизации обычно ненадежны, если только Ntrneq ›› Nw.

Если используются нечетные функции активации, такие как tansig, каждый локальный минимум связан с 2^H * H! конфигурации весов, связанные путем изменения знаков весов, прикрепленных к каждому скрытому узлу (2 ^ H), и переупорядочения положения скрытых узлов (H!).

Лучше всего (не обязательно в порядке эффективности)

1. Максимально уменьшить входную размерность I. Каждое уменьшение на 1 уменьшает Nw на H. Простые подходы:

a. Use STEPWISEFIT or SEQUENTIALFS with polynomial models that are 
    linear in the weights.
    b. After training, rank the inputs by the increase in MSE when only the
    matrix row of that input is scrambled (i.e., randomly reordered ). Remove
    the worst input, retrain and repeat untill only useful inputs remain.
    c.Transform to dominant orthogonal inputs using PCA for regression or PLS 
    for classification.

2. Максимально сократить количество скрытых узлов H. Каждое уменьшение на 1 уменьшает Nw на I+O+1. Мой подход состоит в том, чтобы получить отдельные проекты numH*Ntrials, где numH — количество значений-кандидатов для H, а Ntrials — количество различных инициализаций веса для каждого кандидата.

СМОТРИТЕ ПОЛНЫЙ ОТВЕТ НАЖМИТЕ НА ССЫЛКУ