Отказ от ответственности: это примечания к уроку Перцептрон (курс PadhAI onefourthlabs Первый курс по глубокому обучению)

Недостаток MP-Neuron:

y = m*x+b

1. Только логический ввод и логический вывод.

2. Линейное (только линейное уравнение sin. Косинус, функции невозможны)

3. Фиксированный наклон (фиксированный наклон, который может составлять -1 или около того)

4. Несколько перехватов (только один b (смещение))

Основная причина, по которой модель персептрона достаточна, заключается в необходимости предоставления небулевых значений в качестве входных данных - лучшего уравнения для классификации большего количества перехватов и переменного наклона.

Пример: пример бурения нефтяных скважин (горнодобывающая промышленность)

Это зависит от различных факторов: плотности, солености, давления, глубины поверхности океана, все это не логические значения, и мы хотим принимать реальные значения, и мы хотим принимать реальные значения вместо преобразования значений в логические.

Персептрон:

Персептрон удовлетворяет некоторым ограничениям, с которыми мы сталкиваемся в нейронах МП, основные отличия указаны ниже.

Персептрон:

Данные и задача:

Модель персептрона может иметь даже логические значения, но также иметь реальные значения, в основном в случае этой модели персептрона.

В модели персептрона, использующей реальные данные, мы возьмем много реальных данных, мы возьмем много реальных значений, слишком высоких значений, слишком низких значений в этих вычислениях сложно, поэтому на самом деле мы стандартизируем данные с помощью формулы, как показано ниже.

Таким образом мы стандартизируем данные и сделаем данные более эффективными.

Но, наконец, в модели персептрона, даже если входы реальны, выходы реальны, выходы будут логическими.

Модель:

Он более или менее совпадает с моделью нейрона MP на диаграмме, основное отличие состоит в том, что здесь все x1, x2, x3, x4, ………., Xn - действительные значения, а также w1, w2, w3,… .wn - присвоенные веса. к каждому значению.

Например, если сумма больше, чем b, то на выходе будет единица, иначе на выходе будет ноль.

Разница между MP-Neuron и Perceptron:

Еще один способ отличить МП нейрон от перцептрона - это

Итак, в этом случае нам нужно уменьшить вес и присвоить цене отрицательное значение, тогда мы обновим его таким образом.

В этом важность наличия весов в модели, которые позволяют вам определять важность каждой функции, а также имеют отрицательное значение для каждой функции.

Геометрическая интерпретация модели:

Это геометрическая интерпретация МП-нейрона и перцептрона.

С порогом и наклоном переменных в персептроне у нас есть преимущество, заключающееся в том, что мы можем классифицировать эффективность большего количества данных (сложных данных) на положительную и отрицательную.

Как показано выше, он эффективно классифицирует данные по сравнению с MP Neuron, но по-прежнему отстает в полной классификации данных.

Для трехмерной формы:

w1*x1 + w1*x2 + w3*x3 — b = 0

Функция потери:

Здесь, например, цель: если фактический результат (прогнозируемый) = истинный результат, тогда мы назначим убыток, иначе мы назначим убыток = 1

Назначение функции потерь - сообщить модели, что необходимо внести некоторую коррекцию.

Это функция потерь персептрона.

Потеря персептрона = потеря квадратной ошибки

Они оба одинаковы, когда у нас есть логические выходы.

Алгоритм обучения:

Общий рецепт: P:

Алгоритм:

На основе вышеуказанного алгоритма:

Если знаменатель положителен, знак зависит от скалярного произведения w * x

Поскольку x принадлежит p, если w * x ‹0 (на самом деле у нас должно быть w * x≥0, мы проверяем отрицательный случай), то это означает, что угол (α) между этим X и текущим W больше чем 90 (но мы хотим быть менее 90), какой новый угол появляется после обновления.

Следовательно, w (new) = w + x

Значение косинуса увеличивается, а угол между векторами уменьшается.

Точно так же, поскольку отрицательное значение для x принадлежит N, если w * x≥0 (на самом деле нам нужно, чтобы оно было w * x ‹b, мы видим отрицательное значение), то это означает, что угол (α) между этим X и текущий w меньше 0 (но мы хотим, чтобы (α) было больше)

Значение косинуса уменьшается, угол между векторами увеличивается.

Алгоритм обучения перцептрона будет работать только с данными, которые линейно разделяются, алгоритм обучения перцептрона не будет работать, если данные не являются линейно разделяемыми.

Оценка:

Формула точности - это отношение количества правильных прогнозов к общему количеству прогнозов.

Это подробное объяснение модели персептрона.

Это небольшая попытка загрузки заметок. Я верю в «Обмен знаниями - лучший способ развития навыков». Комментарии будут приветствоваться. Могут быть предложены даже небольшие правки.

Каждые аплодисменты будут большим воодушевлением.

Подпишитесь на мой канал, чтобы получать больше обновлений…