От традиционных методов к продвинутому методу статистического машинного обучения.

Привет, ребята!! Я изучаю информатику и очень люблю глубокое обучение. ИИ революционизирует мир, превращая сложные обычные задачи в более простые. ИИ процветает везде и, конечно же, в той самой биомедицине, где есть избыток данных, которые можно использовать для обучения модели. ИИ сделал так много замечательных достижений в области медицины, таких как предсказание глаукомы, что является очень сложной задачей для человека, и если его не предсказать на раннем этапе, это может привести даже к слепоте.

Итак, здесь я должен рассказать еще об одной такой утомительной задаче, которая может быть революционизирована с помощью подхода глубокого обучения.

Проблема

Припадок — это внезапное, неконтролируемое электрическое нарушение в головном мозге. Это может вызвать изменения в вашем поведении, движениях или чувствах, а также в уровнях сознания. Если у вас два или более припадков или склонность к повторяющимся припадкам, у вас эпилепсия. Эпилепсия является одним из наиболее распространенных заболеваний, поражающих головной мозг. При подсчете детей и взрослых в Соединенных Штатах: Около 5,1 миллиона человек в Соединенных Штатах страдают эпилепсией. Около 3,4 миллиона человек в США страдают активной эпилепсией.

Проблема здесь не только в огромном количестве случаев, но и в том, что методы наблюдения за такими больными настолько утомительны и неуловимы.

Как вы оцениваете судороги?

Как уже говорилось выше, эти припадки являются электрическими нарушениями в мозге. Существует очень много методов, используемых для захвата припадков по сигналам мозга.

некоторые из них:

  1. ) Электроэнцефалограмма

2.) Компьютерная томография

3.) МРТ

Электроэнцефалограмма широко используется во всем мире. Для диагностики этих записей ЭЭГ общепринятым способом является визуальное восприятие этих записей неврологами. Только представьте, что одному человеку, который всесторонне анализирует записи одного пациента, может потребоваться день на классификацию, а в очереди так много дел. Люди не могут видеть статистические фрагменты информации внутри записи ЭЭГ, что может сделать модель машинного обучения.

В этом состоит постановка задачи и цель разработки автоматики обнаружения припадков.

Введение в нашу работу:

В настоящее время существует так много работ, связанных с обнаружением припадков в области глубокого обучения, и мы работаем над тем, чтобы предложить оптимизированный способ обнаружения с использованием генеративно-состязательной сети.

Эта статья основана на задаче, данной мне на этапе обучения, чтобы понять базовые знания о данных ЭЭГ и придумать их, чтобы использовать их в нашем проекте глубокого обучения.

Здесь, в этой задаче, мы используем преобразование Стоквелла и неглубокий ученик, такой как случайный лес, наивный Байес и дерево решений.

Я использовал преобразование Стоквелла для предварительной обработки необработанных данных ЭЭГ, преобразования их в частотно-временную матрицу и обучения вышеупомянутым классификаторам. Со случайным лесом я получил точность около 99,6%.

Здесь используется набор данных Боннская база данных.

Бонн-Набор данных:

Это самый маленький набор данных об изъятиях в Интернете. Размер будет около нескольких мегабайт.

Он разделен на 5 наборов:

  1. набор А — Нормальный
  2. установить B — Нормальный
  3. комплект С — Inter-Ictal
  4. комплект D — Inter-Ictal
  5. набор E — Иктал

В каждом наборе 100 функций с 4097 образцами.

набор A и набор B представляют собой записи ЭЭГ здорового человека, а набор C и набор D - от людей, страдающих припадками, которые находятся в состоянии между нормой и припадком. Это состояние между нормальным и поглаживанием является интериктальным. Это стадия, на которой мы можем определить, что у человека будет приступ. Иктальное состояние – это состояние, когда наступил приступ.

Преобразование Стоквелла:

Прежде чем объяснять S-преобразование. У вас могут возникнуть некоторые вопросы, например, зачем нам нужно преобразовывать сигналы для анализа, что эти преобразования делают с этими сигналами? Что ж, я здесь, чтобы ответить на эти вопросы!

Зачем нам нужно преобразовывать сигналы?

В основном для удобства и экономии. Многие вещи, сложные в одной области, становятся тривиальными в другой. Например, свертка во временной области, необходимая для фильтрации, становится простым умножением после преобразования Фурье. Это лежит в основе большинства современных технологий цифровой связи, включая LTE, WiFi и т. д.

Другим примером может быть удаление шума в аудио- и видеосигналах или сжатие сигнала, выполняемое в таких кодеках, как mp3 и mp4. Все это делается путем преобразования (иногда нелинейного) входящего сигнала в разные области и использования только важных функций.

На более широком уровне вы даже можете рассматривать все искусственные нейронные сети как выполняющие нелинейные преобразования входного сигнала, прежде чем принимать решения по преобразованному выходному сигналу.

Что эти преобразования делают с этими сигналами?

Трансформация есть не что иное, как переход от одного домена к другому. Например, из временной области в частотную. Эти преобразования изменяют сигнал из временной области в частотную область и наоборот.

Здесь. В нашем случае S-преобразование — это инструмент частотно-временной декомпозиции, который преобразует сигнал в частотно-временное распределение. Частотно-временное распределение изображает изменения частотного паттерна относительно времени. Используя это распределение, время и частоту можно анализировать одновременно.

т → Время

f → Частота

x(t) — входной сигнал, и входные сигналы масштабируются с использованием функции окна Гаусса.

w(t-τ, f) — гауссова оконная функция, которая

предоставлено:

Оконные функции работают с набором строк и возвращают одно значение для каждой строки из базового запроса. Термин окно описывает набор строк, с которыми работает функция. Оконная функция использует значения из строк в окне для вычисления возвращаемых значений.

Объяснение гауссовской оконной функции может занять некоторое время. Я объясню это в моем следующем блоге. Итак, здесь вы просто представляете функцию, которая работает со строками матриц и возвращает преобразованные значения.

<script src="https://gist.github.com/ThiruRJST/e1b8a3850640c2badadf793d38d21955.js"></script>

Этап предварительной обработки необработанных данных ЭЭГ для сбора функций, которые может изучить неглубокий ученик.

Машинное обучение

Основное различие между поверхностным обучением и глубоким обучением заключается в том, что поверхностное обучение зависит от особенностей. С другой стороны, специалисты по глубокому обучению извлекают информацию или функции из исходных данных и создают идеальные модели прогнозирования.

Вы можете понять это здесь:

Здесь я использовал классификатор случайного леса, который является неглубоким учеником. Я использовал его, потому что это был всего лишь ознакомительный сеанс, чтобы лучше понять основы моей статьи. Давайте углубимся в учебный сеанс.

Классификатор случайного леса — это не что иное, как алгоритм классификации на основе голосования, который представляет собой метод ансамбля. Группа деревьев решений составляет алгоритм случайного леса, поэтому он называется ансамблевым методом.

Давайте возьмем пример в реальном времени, чтобы лучше понять:

Теперь, в этой ситуации с пандемией, мы все заперты в своем доме. Это действительно скучно, верно. Вы решаете посмотреть сериал, но не знаете, какой из них выбрать. Итак, вы спрашиваете своего друга Xчтобы предложить вам несколько сериалов. ваш друг X спросит о жанре, который вам нравится (это может быть романтика, боевик или триллер и т. д.); → это функция, которую Xиспользует, чтобы понять ваш вкус.Xпредлагает вам сериал для просмотра. Но теперь вы просите всех своих друзей, таких как Y,Z,K,M, предложить какой-нибудь сериал. деревья решений и информация, которой вы оба делитесь, определяют результат. Метод формирования решения основан на теории информации и кросс-энтропии. Не будем так глубоко в это погружаться.

Это основной способ работы классификатора случайного леса.

<script src="https://gist.github.com/ThiruRJST/a7c9bf3e7b012a71b8e50a8b0a0f5c05.js"></script>

Точность, которую я получил с помощью классификатора случайного леса, составляет 99,5%.