Пересечение неконтролируемого обучения и человеческого мозга

Это четвертая статья из серии, а именно «Когнитивное вычислительное моделирование пространственно-временной фМРТ в вентрально-височной коре головного мозга». Если вы хотите просмотреть всю серию, перейдите по следующей ссылке.



Я представлю тему обучения репрезентации без учителя в распределенных областях человеческого мозга и пример его использования в исследовании декодирования мозга. Давайте начнем.

Все связанные материалы размещены на моей странице GitHub. Не забудьте проверить это. Если вы любитель бумаги, вы можете прочитать бумажную версию этой серии статей, которую также можно найти в моем репо.



Неконтролируемое и многообразное обучение в человеческом мозге

Функциональные данные МРТ очень многомерны, если учесть все воксели или координаты поверхности, полученные со стандартными параметрами изображения. Как и в нашем наборе данных, со структурой данных четырехмерных изображений временных рядов у нас есть проблема с кривой размерности. Следовательно, уменьшение размерности и алгоритмы обучения многообразию могут уменьшить размерность пространства фМРТ, сохраняя геодезические отношения в представлениях нижнего пространства. Мы выполнили PCA, LDA, ICA, NNMF и MDS в качестве алгоритмов уменьшения размерности. Кроме того, t-SNE, UMAP, ISOMAP, LLE и Spectral Embedding выполняются для создания низкоразмерных многообразий пространства fMRI. Давайте начнем с открытия пересечения обучения без учителя и человеческого мозга. Я выполнил множество алгоритмов обучения без учителя, так как это дополнительно помогает понять геодезическую информацию, лежащую в основе человеческого мозга, и дает предварительную информацию о том, можно ли декодировать нейронную активность в распределенных регионах.

Установим и импортируем все необходимые пакеты. Пожалуйста, обратитесь к предыдущим статьям (часть I) для понимания набора данных. Обратите внимание, что эта статья не предназначена для ответов на следующие вопросы (на которые уже даны ответы)

  • Как структурированы данные фМРТ? (часть I)
  • Почему на человеческий мозг выполняется пространственно-временная маскировка? (Часть II)

Вот команды pip для установки всего, что нам нужно.

Мы установили все (даже больше), что нам нужно. Импортируем их следующим образом.

Мы готовы к работе! Давайте возьмем набор данных Haxby.

Следующее, что нужно сделать, это подготовить, замаскировать, стандартизировать и преобразовать данные фМРТ в матричную форму NumPy следующим образом.

Предварительная обработка завершена. Итак, мы можем перейти к реальным процессам, которые хотим выполнить. В этом фрагменте кода «маски» - это замаскированные области человеческого мозга, которые мы хотим выполнять с помощью когнитивных задач, а категории - это просто их ярлыки. Мы не используем целые воксели для целей обучения репрезентации. Наша основная идея состоит в том, чтобы извлечь и визуализировать скрытые переменные в человеческом мозгу, в которых происходят распределенные и перекрывающиеся паттерны нейронной активности.

Наконец, мы можем начать реальный бизнес следующим образом. На следующих рисунках разные цвета представляют разные категории. (т. е. синие цвета относятся к классу 1, апельсины относятся к классу 2 и т. д.)

Чтобы правильно визуализировать скрытое пространство, я использовал пакет python plotly. Следующий код выполняет двухмерную и трехмерную визуализацию в интерактивном режиме.

Уменьшение размера: PCA

PCA - это линейный алгоритм уменьшения размерности без учителя, который вычисляет главные векторы для изменения основы представления [26]. PCA - это алгоритм, который используется в широком диапазоне тем, от сжатия изображений до декорреляции текстов. Здесь мы выполнили PCA для RoI субъекта 5 и визуализировали его следующим образом.

Уменьшение размера: LDA

LDA - это алгоритм уменьшения размерности с учителем и обобщение линейного дискриминанта Фишера, цель которого - найти линейное подпространство, которое характеризует исходное пространство данных. Поскольку это контролируемое обучение, это мощная парадигма в репрезентативном обучении. Здесь мы выполнили LDA для RoI объекта 5 и визуализировали его. Из рисунков видно, что LDA превосходит другие методы благодаря однозначному разделению геодезических расстояний в многообразиях.

Уменьшение размера: ICA

ICA - это вычислительный подход для разделения многовариантных сигналов на их аддитивные компоненты. Это естественная парадигма неконтролируемого уменьшения размерности. Здесь мы выполнили ICA для RoI субъекта 5 и визуализировали его следующим образом.

Уменьшение размера: NNMF

NNMF - это итерационный неотрицательный факторный анализ для разложения неотрицательной матрицы на ее линейные подпространства. Это полезно при извлечении естественных линейных подпространств исходных выборок данных. Здесь мы выполнили NNMF для RoI объекта 5 и визуализировали его.

Многостороннее обучение: MDS

MDS - это классический подход к извлечению нелинейных подпространств исходного пространства данных путем сохранения геодезического расстояния в многообразии. Получено вложение более низкой размерности для представления исходных данных в многообразии. Здесь мы выполнили MDS для RoI объекта 5 и визуализировали его.

Многостороннее обучение: t-SNE

T-SNE - это итеративный статистический подход для получения нелинейного встраивания исходного пространства данных путем сохранения небольших попарных расстояний или локализованного сходства. Это минимизирует расхождение Кульбака-Лейблера между совместными вероятностями низкоразмерного встраивания и данных большой размерности. Здесь мы выполнили t-SNE для RoI субъекта 5 и визуализировали его.

Многостороннее обучение: UMAP

UMAP - это недавний подход к нелинейному встраиванию, который обычно значительно превосходит t-SNE. Он очень похож на t-SNE, но также сохраняет глобальную геодезическую структуру данных. Здесь мы выполнили UMAP для RoI объекта 5 и визуализировали его.

Многостороннее обучение: ISOMAP

Карта ISOMAP также является алгоритмом нелинейного вложения через изометрическое отображение для точной оценки внутренней геометрии многообразия путем сохранения геодезических расстояний в многообразии. Здесь мы выполнили ISOMAP по RoI объекта 5 и визуализировали его.

Многостороннее обучение: LLE

LLE - это сохраняющий топологию алгоритм нелинейного уменьшения размерности, пытающийся сохранить структуру соседей в многообразии, и он, как правило, превосходит ISOMAP с точки зрения оптимизации и скорости, поэтому он имеет очень практическое применение в литературе. Здесь мы выполнили LLE для RoI объекта 5 и визуализировали его.

Обучение многообразию: спектральное встраивание

Спектральное вложение также является алгоритмом нелинейного вложения, который формирует матрицу аффинности и применяет спектральное разложение к лапласовскому графу. Здесь мы выполнили спектральное вложение в RoI объекта 5 и визуализировали его.

Это все для этой статьи. Мы рассмотрели неконтролируемое репрезентативное обучение в распределенных областях человеческого мозга и пример его использования в исследовании декодирования мозга. Поздравляю! Вы закончили четвертую статью и сделали шаг вперед через когнитивные вычислительные подходы к расшифровке человеческого мозга.

В следующей статье мы выполним комплексные алгоритмы декодирования от классических алгоритмов машинного обучения до нейронных сетей.

Ссылки статей

  1. Опубликованные статьи


2.



3.



4.



2. Уже в пути (скоро…)

  1. Заполнитель для Части V

Дальнейшее чтение

Следующий список ссылок используется в моем исследовании как для машинного обучения, так и для нейробиологии. Я настоятельно рекомендую скопировать ссылки и кратко их просмотреть.

использованная литература

[1] Дж. Л. Ба, Дж. Р. Кирос и Г. Э. Хинтон. Нормализация слоев, 2016.

[2] Л. Буйтинк, Г. Луппе, М. Блондель, Ф. Педрегоса, А. Мюллер, О. Гризель, В. Никулае, П. Преттенхофер, А. Грамфорт, Дж. Гроблер, Р. Лейтон, Дж. Вандерплас , A. Joly, B. Holt, 10 и G. Varoquaux. Дизайн API для программного обеспечения машинного обучения: опыт проекта scikit-learn. В семинаре ECML PKDD: языки для интеллектуального анализа данных и машинного обучения, страницы 108–122, 2013.

[3] X. Чу, Z. Tian, ​​Y. Wang, B. Zhang, H. Ren, X. Wei, H. Xia и C. Shen. Близнецы: новый взгляд на дизайн пространственного внимания в трансформерах зрения, 2021 год.

[4] К. Краммер, О. Декель, Дж. Кешет, С. Шалев-Шварц, Ю. Зингер. Онлайн пассивно-агрессивные алгоритмы. 2006 г.

[5] К. Дж. Фристон. Статистическое параметрическое отображение. 1994 г.

[6] К. Г. Гросс, К. Д. Роча-Миранда и Д. Бендер. Визуальные свойства нейронов нижневисочной коры макака. Журнал нейрофизиологии, 35 (1): 96–111, 1972.

[7] С. Дж. Хэнсон, Т. Мацука и Дж. В. Хаксби. Комбинаторные коды в вентральной височной доле для распознавания объектов.

[8] Дж. Хэксби, М. Гоббини, М. Фьюри, А. Ишаи, Дж. Схоутен и П. Пьетрини. «Распознавание визуальных объектов», 2018.

[9] Р. А. Хеккеманн, Дж. В. Хайнал, П. Альджабар, Д. Рюкерт и А. Хаммерс. Автоматическая анатомическая МРТ-сегментация головного мозга, сочетающая распространение меток и объединение решений. NeuroImage, 33 (1): 115–126, 2006.

[10] Д. Хендрикс, К. Гимпель. Погрешность гаусса, линейные единицы (гели), 2020.

[11] С. Хуанг, В. Шао, М.-Л. Ван и Д.-К. Чжан. Основное декодирование зрительной информации от деятельности человеческого мозга: краткий обзор. Международный журнал автоматизации и вычислений, страницы 1–15, 2021 г.

[12] Р. Костер, М. Дж. Чедвик, Ю. Чен, Д. Беррон, А. Банино, Э. Дюзель, Д. Хассабис и Д. Кумаран. Рецидив большой петли ¨ в системе гиппокампа поддерживает интеграцию информации по эпизодам. Нейрон, 99 (6): 1342–1354, 2018.

[13] Э. Маор. Теорема Пифагора: 4000-летняя история. Издательство Принстонского университета, 2019.

[14] К. А. Норман, С. М. Полин, Г. Дж. Детре и Дж. В. Хаксби. Помимо чтения мыслей: анализ множественных вокселей данных ФМР. Тенденции в когнитивных науках, 10 (9): 424–430, 2006.

[15] А. Дж. О’Тул, Ф. Цзян, Х. Абди и Дж. В. Хаксби. Частично распределенные представления предметов и лиц в вентральной височной коре. Журнал когнитивной нейробиологии, 17 (4): 580–590, 2005.

[16] Ф. Педрегоса, Г. Вароко, А. Грамфор, В. Мишель, Б. Тирион, О. Гризель, М. Блондель, П. Преттенхофер, Р. Вайс, В. Дубург, Дж. Вандерплас, А. Пассос , Д. Курнапо, М. Брюше, М. Перро и Э. Дюшене. Scikit-learn: машинное обучение на Python. Журнал исследований в области машинного обучения, 12: 2825–2830, 2011.

[17] Р. А. Полдрак. Анализ области интересов для фмр. Социальная когнитивная и аффективная нейробиология, 2 (1): 67–70, 2007.

[18] М. Поустчи-Амин, С. А. Мировиц, Дж. Дж. Браун, Р. К. МакКинстри и Т. Ли. Принципы и применения эхопланарной визуализации: обзор для общего радиолога. Радиография, 21 (3): 767–779, 2001.

[19] Р. П. Редди, А. Р. Матхулла и Дж. Раджешваран. Пилотное исследование перспективного восприятия и эмоционального заражения профессионалов в области психического здоровья: взгляд на эмпатию стеклянным мозгом. Индийский журнал психологической медицины, страница 0253717620973380, 2021.

[20] С. М. Смит, К. Л. Миллер, Г. Салими-Хоршиди, М. Вебстер, К. Ф. Бекманн, Т. Э. Николс, Дж. Д. Рэмси и М. В. Вулрич. Методы сетевого моделирования для фмри. Neuroimage, 54 (2): 875–891, 2011.

[21] К. Танака. Нижне-височная кора и предметное зрение. Ежегодный обзор нейробиологии, 19 (1): 109–139, 1996.

[22] М.С. Тредер. Mvpa-light: набор инструментов для классификации и регрессии многомерных данных. Границы неврологии, 14: 289, 2020.

[23] M. P. Van Den Heuvel и H.E.H. Pol. Изучение сети мозга: обзор функциональной связи ФМР в состоянии покоя. Европейская нейропсихофармакология, 20 (8): 519–534, 2010.

[24] Дж. Вароко, А. Грамфор, Дж. Б. Полайн, Б. Тирион. Ковариационный отбор мозга: лучшие индивидуальные функциональные модели связности с использованием популяционного априорного анализа. Препринт arXiv arXiv: 1008.5071, 2010.

[25] Ю. Ван, Дж. Кан, П. Б. Кеммер и Ю. Го. Эффективный и надежный статистический метод оценки функциональной связи в крупномасштабных мозговых сетях с использованием частичной корреляции. Границы нейробиологии, 10: 123, 2016.

[26] С. Волд, К. Эсбенсен, П. Гелади. Анализ главных компонентов. Хемометрия и интеллектуальные лабораторные системы, 2 (1–3): 37–52, 1987.

[27] С. Волд, К. Эсбенсен, П. Гелади. Анализ главных компонентов. Хемометрия и интеллектуальные лабораторные системы, 2 (1–3): 37–52, 1987.