Отказ от ответственности: это примечания к уроку Перцептрон (курс PadhAI onefourthlabs Первый курс по глубокому обучению)
Недостаток MP-Neuron:
y = m*x+b
1. Только логический ввод и логический вывод.
2. Линейное (только линейное уравнение sin. Косинус, функции невозможны)
3. Фиксированный наклон (фиксированный наклон, который может составлять -1 или около того)
4. Несколько перехватов (только один b (смещение))
Основная причина, по которой модель персептрона достаточна, заключается в необходимости предоставления небулевых значений в качестве входных данных - лучшего уравнения для классификации большего количества перехватов и переменного наклона.
Пример: пример бурения нефтяных скважин (горнодобывающая промышленность)
Это зависит от различных факторов: плотности, солености, давления, глубины поверхности океана, все это не логические значения, и мы хотим принимать реальные значения, и мы хотим принимать реальные значения вместо преобразования значений в логические.
Персептрон:
Персептрон удовлетворяет некоторым ограничениям, с которыми мы сталкиваемся в нейронах МП, основные отличия указаны ниже.
Персептрон:
Данные и задача:
Модель персептрона может иметь даже логические значения, но также иметь реальные значения, в основном в случае этой модели персептрона.
В модели персептрона, использующей реальные данные, мы возьмем много реальных данных, мы возьмем много реальных значений, слишком высоких значений, слишком низких значений в этих вычислениях сложно, поэтому на самом деле мы стандартизируем данные с помощью формулы, как показано ниже.
Таким образом мы стандартизируем данные и сделаем данные более эффективными.
Но, наконец, в модели персептрона, даже если входы реальны, выходы реальны, выходы будут логическими.
Модель:
Он более или менее совпадает с моделью нейрона MP на диаграмме, основное отличие состоит в том, что здесь все x1, x2, x3, x4, ………., Xn - действительные значения, а также w1, w2, w3,… .wn - присвоенные веса. к каждому значению.
Например, если сумма больше, чем b, то на выходе будет единица, иначе на выходе будет ноль.
Разница между MP-Neuron и Perceptron:
Еще один способ отличить МП нейрон от перцептрона - это
Итак, в этом случае нам нужно уменьшить вес и присвоить цене отрицательное значение, тогда мы обновим его таким образом.
В этом важность наличия весов в модели, которые позволяют вам определять важность каждой функции, а также имеют отрицательное значение для каждой функции.
Геометрическая интерпретация модели:
Это геометрическая интерпретация МП-нейрона и перцептрона.
С порогом и наклоном переменных в персептроне у нас есть преимущество, заключающееся в том, что мы можем классифицировать эффективность большего количества данных (сложных данных) на положительную и отрицательную.
Как показано выше, он эффективно классифицирует данные по сравнению с MP Neuron, но по-прежнему отстает в полной классификации данных.
Для трехмерной формы:
w1*x1 + w1*x2 + w3*x3 — b = 0
Функция потери:
Здесь, например, цель: если фактический результат (прогнозируемый) = истинный результат, тогда мы назначим убыток, иначе мы назначим убыток = 1
Назначение функции потерь - сообщить модели, что необходимо внести некоторую коррекцию.
Это функция потерь персептрона.
Потеря персептрона = потеря квадратной ошибки
Они оба одинаковы, когда у нас есть логические выходы.
Алгоритм обучения:
Общий рецепт: P:
Алгоритм:
На основе вышеуказанного алгоритма:
Если знаменатель положителен, знак зависит от скалярного произведения w * x
Поскольку x принадлежит p, если w * x ‹0 (на самом деле у нас должно быть w * x≥0, мы проверяем отрицательный случай), то это означает, что угол (α) между этим X и текущим W больше чем 90 (но мы хотим быть менее 90), какой новый угол появляется после обновления.
Следовательно, w (new) = w + x
Значение косинуса увеличивается, а угол между векторами уменьшается.
Точно так же, поскольку отрицательное значение для x принадлежит N, если w * x≥0 (на самом деле нам нужно, чтобы оно было w * x ‹b, мы видим отрицательное значение), то это означает, что угол (α) между этим X и текущий w меньше 0 (но мы хотим, чтобы (α) было больше)
Значение косинуса уменьшается, угол между векторами увеличивается.
Алгоритм обучения перцептрона будет работать только с данными, которые линейно разделяются, алгоритм обучения перцептрона не будет работать, если данные не являются линейно разделяемыми.
Оценка:
Формула точности - это отношение количества правильных прогнозов к общему количеству прогнозов.
Это подробное объяснение модели персептрона.
Это небольшая попытка загрузки заметок. Я верю в «Обмен знаниями - лучший способ развития навыков». Комментарии будут приветствоваться. Могут быть предложены даже небольшие правки.
Каждые аплодисменты будут большим воодушевлением.
Подпишитесь на мой канал, чтобы получать больше обновлений…