Во время моей программы иммерсивной науки о данных в школе Flatiron мы недавно изучали различные методы машинного обучения, в том числе опорные векторные машины (SVM), которые, вероятно, являются наиболее сложной концепцией, которая была рассмотрена. У них есть забавный способ взять более полдюжины концепций исчисления и статистики на уровне выпускников и сварить их в докторский суп, который, вероятно, потребует дополнительной настройки гиперпараметров после создания данной модели.

Цель этой статьи не состоит в том, чтобы полностью объяснить внутреннюю работу SVM. Тем не менее, это мощный алгоритмический инструмент, который можно использовать в различных ситуациях, учитывая его способность уменьшать переобучение модели, его невосприимчивость к локальным минимумам и его относительную вычислительную эффективность. Моя цель - проанализировать использование SVM на практике и объяснить процесс и результаты.

В предыдущем сообщении в блоге я написал об уровне ВВП в штатах США и стране в целом, и я думаю, что понимание мира на экономическом уровне - полезное упражнение, которое может помочь понять мир в целом. Тем не менее, я помню, как мои профессора учили меня в колледже, что экономика традиционно не была академической дисциплиной с прогнозированием. Экономисты могут оглянуться назад и объяснить, как возникла Великая рецессия, а также реакцию рынка и суверенных субъектов, которые, вероятно, заблокировали спад и позволили мировой экономике продолжить рост. Однако, обладая всей коллективной мудростью в этой области и более доступными данными, чем в любой другой момент истории, он не смог предсказать крах.

Тем не менее, после краха доступность данных выросла в геометрической прогрессии, вычислительные мощности стали намного дешевле, а ноу-хау для обработки данных стало более доступным. Способность эффективно перебирать и моделировать априорные знания (в данном случае предыдущие экономические обстоятельства) позволит экономике лучше прогнозировать ситуации в настоящем времени.

Это мышление привело меня к этому наблюдению и вопросу:

Я не могу быть первым, кто захочет применить SVM в макроэкономическом контексте. Могу ли я найти пример экономиста, использующего SVM для прогнозирования?

Этот вопрос привел меня к Машинной модели опорных векторов для дискриминации при валютном кризисе Ариндама Чаудхури.

В документе есть два основных отличия: общие сведения по затронутым темам, такие как определение валютного кризиса и углубленный академический взгляд на логику и математику, лежащие в основе SVM, и результат модели.

ЧТО ТАКОЕ ВАЛЮТНЫЙ КРИЗИС?

По определению Инвестопедии:

Валютный кризис вызван падением стоимости национальной валюты. Это снижение стоимости отрицательно влияет на экономику, создавая нестабильность обменных курсов, а это означает, что одна единица определенной валюты больше не покупает столько, сколько раньше в другой валюте.

По сути, валютный кризис случается, когда внутри страны возникает значительный внешний эффект, который вызывает резкую негативную реакцию на ожидания инвесторов, что, в свою очередь, приводит к бегству капитала из страны.

Характеристики, используемые для этой модели, следующие:

Реальный внутренний кредит

Международные резервы

Инфляция

Цены на нефть (Brent)

Индекс цен промышленных акций

Обменный курс

Переоценка обменного курса с использованием метода декомпозиции Ходрика-Пресскотта

Для получения более подробной информации о текущем кризисе вот более подробное объяснение от Investopedia.

ЧТО ТАКОЕ ОПОРНЫЕ ВЕКТОРНЫЕ МАШИНЫ?

Как сказано в учебнике Flatiron School по SVM:

«Идея машин опорных векторов (также называемых SVM) заключается в том, что мы выполняем классификацию, находя разделительную линию или (в более высоких измерениях)« гиперплоскость », которая лучше всего различает два класса. Поскольку мы говорим о линиях и гиперплоскостях, всегда проще всего объяснить эту идею на визуальном примере ».

Для дальнейшего более глубокого погружения в SVM я бы предложил эту лекцию профессора Массачусетского технологического института:

ВЫВОДЫ

У автора была база данных ежемесячных данных с ранее упомянутыми особенностями, которая насчитывала 232 наблюдения, и он запускал две отдельные модели. Первая модель была обучена с использованием первых 216 наблюдений, 203 из которых относятся к некризисным событиям, а остальные 13 - к кризисным событиям. Вторая модель использовала всего 215 наблюдений с таким же количеством позитивных кризисных событий.

Цель автора заключалась в том, чтобы использовать SVM для обнаружения модели с более низким NSR, чем в двух ранее опубликованных исследованиях, в которых рассматривалась такая же информация, и автор утверждает, что его модель работает лучше, чем предыдущие модели.

АНАЛИЗ

  • Необходимо пройти через классовый балансировщик, такой как SMOTE, чтобы нормализовать разницу между кризисными и некризисными результатами.
  • Модель может чрезмерно соответствовать данным или быть искажена иным образом, поскольку 1) существует ограниченное количество положительных примеров кризиса, поэтому перекрестная проверка будет хорошим результатом, 2) в документе предполагается, что количество наблюдений, выбранных для анализа, было выбрано порядок, в котором они появлялись в данных, поэтому были включены его возможные искаженные данные, которые можно было решить путем рандомизации выбранных наблюдений.
  • Автор не сообщает, как были выбраны наблюдения второй модели. Где они такие же поставлены с одним пропавшим? Кроме того, что повлияло на решение выбрать такое количество наблюдений из набора?
  • В качестве общей метрики точности модели автор использует NSR или отношение шум / сигнал, определяемое как (1– чувствительность) / специфичность. Я считаю, что оценка F1 принесет пользу этой модели, поскольку F1 дает более точную картину того, как модель неверно классифицирует свои прогнозы, анализируя среднее гармоническое значение типов ошибок, а не их относительную силу. Конечно, он использовал эту метрику для сравнения своих результатов с использованием SVM с другой статьей, в которой использовалась другая техника моделирования.
  • Учитывая, что в SVM использовалось всего семь функций, использование полиномиального расширения с PCA могло бы дать некоторые интересные результаты.
  • Честно говоря, со всеми представленными надежными данными и обработкой информации я подумал, что было интересно, что окончательный результат и заключение были быстро определены и завершены. Я ожидал получить больше информации относительно предыдущих выводов и дополнительных показателей (за пределами NSR) для определения

ПОСЛЕДНИЕ МЫСЛИ

Этот документ был написан в 2006 году, поэтому некоторые показатели и, возможно, даже технологические ограничения того времени, я думаю, могли бы объяснить некоторые из моих критических замечаний, но это интересный пример понимания определенных экономических академических концепций, поиска данных, которые подтверждают логика, лежащая в основе концепций, и проверка предположений, лежащих в основе концепций, чтобы доказать, соответствует ли теория реальности.

От себя лично, чтение этой статьи дало мне силы в том смысле, что я чувствовал, что я понял большую часть представленных тем и аргументов.

Мысли? Оставьте мне комментарий @ j.jacisin и спасибо, что прочитали!