Во время моей программы иммерсивной науки о данных в школе Flatiron мы недавно изучали различные методы машинного обучения, в том числе опорные векторные машины (SVM), которые, вероятно, являются наиболее сложной концепцией, которая была рассмотрена. У них есть забавный способ взять более полдюжины концепций исчисления и статистики на уровне выпускников и сварить их в докторский суп, который, вероятно, потребует дополнительной настройки гиперпараметров после создания данной модели.
Цель этой статьи не состоит в том, чтобы полностью объяснить внутреннюю работу SVM. Тем не менее, это мощный алгоритмический инструмент, который можно использовать в различных ситуациях, учитывая его способность уменьшать переобучение модели, его невосприимчивость к локальным минимумам и его относительную вычислительную эффективность. Моя цель - проанализировать использование SVM на практике и объяснить процесс и результаты.
В предыдущем сообщении в блоге я написал об уровне ВВП в штатах США и стране в целом, и я думаю, что понимание мира на экономическом уровне - полезное упражнение, которое может помочь понять мир в целом. Тем не менее, я помню, как мои профессора учили меня в колледже, что экономика традиционно не была академической дисциплиной с прогнозированием. Экономисты могут оглянуться назад и объяснить, как возникла Великая рецессия, а также реакцию рынка и суверенных субъектов, которые, вероятно, заблокировали спад и позволили мировой экономике продолжить рост. Однако, обладая всей коллективной мудростью в этой области и более доступными данными, чем в любой другой момент истории, он не смог предсказать крах.
Тем не менее, после краха доступность данных выросла в геометрической прогрессии, вычислительные мощности стали намного дешевле, а ноу-хау для обработки данных стало более доступным. Способность эффективно перебирать и моделировать априорные знания (в данном случае предыдущие экономические обстоятельства) позволит экономике лучше прогнозировать ситуации в настоящем времени.
Это мышление привело меня к этому наблюдению и вопросу:
Я не могу быть первым, кто захочет применить SVM в макроэкономическом контексте. Могу ли я найти пример экономиста, использующего SVM для прогнозирования?
Этот вопрос привел меня к Машинной модели опорных векторов для дискриминации при валютном кризисе Ариндама Чаудхури.
В документе есть два основных отличия: общие сведения по затронутым темам, такие как определение валютного кризиса и углубленный академический взгляд на логику и математику, лежащие в основе SVM, и результат модели.
ЧТО ТАКОЕ ВАЛЮТНЫЙ КРИЗИС?
По определению Инвестопедии:
Валютный кризис вызван падением стоимости национальной валюты. Это снижение стоимости отрицательно влияет на экономику, создавая нестабильность обменных курсов, а это означает, что одна единица определенной валюты больше не покупает столько, сколько раньше в другой валюте.
По сути, валютный кризис случается, когда внутри страны возникает значительный внешний эффект, который вызывает резкую негативную реакцию на ожидания инвесторов, что, в свою очередь, приводит к бегству капитала из страны.
Характеристики, используемые для этой модели, следующие:
Реальный внутренний кредит
Международные резервы
Инфляция
Цены на нефть (Brent)
Индекс цен промышленных акций
Обменный курс
Переоценка обменного курса с использованием метода декомпозиции Ходрика-Пресскотта
Для получения более подробной информации о текущем кризисе вот более подробное объяснение от Investopedia.
ЧТО ТАКОЕ ОПОРНЫЕ ВЕКТОРНЫЕ МАШИНЫ?
Как сказано в учебнике Flatiron School по SVM:
«Идея машин опорных векторов (также называемых SVM) заключается в том, что мы выполняем классификацию, находя разделительную линию или (в более высоких измерениях)« гиперплоскость », которая лучше всего различает два класса. Поскольку мы говорим о линиях и гиперплоскостях, всегда проще всего объяснить эту идею на визуальном примере ».
Для дальнейшего более глубокого погружения в SVM я бы предложил эту лекцию профессора Массачусетского технологического института:
ВЫВОДЫ
У автора была база данных ежемесячных данных с ранее упомянутыми особенностями, которая насчитывала 232 наблюдения, и он запускал две отдельные модели. Первая модель была обучена с использованием первых 216 наблюдений, 203 из которых относятся к некризисным событиям, а остальные 13 - к кризисным событиям. Вторая модель использовала всего 215 наблюдений с таким же количеством позитивных кризисных событий.
Цель автора заключалась в том, чтобы использовать SVM для обнаружения модели с более низким NSR, чем в двух ранее опубликованных исследованиях, в которых рассматривалась такая же информация, и автор утверждает, что его модель работает лучше, чем предыдущие модели.
АНАЛИЗ
- Необходимо пройти через классовый балансировщик, такой как SMOTE, чтобы нормализовать разницу между кризисными и некризисными результатами.
- Модель может чрезмерно соответствовать данным или быть искажена иным образом, поскольку 1) существует ограниченное количество положительных примеров кризиса, поэтому перекрестная проверка будет хорошим результатом, 2) в документе предполагается, что количество наблюдений, выбранных для анализа, было выбрано порядок, в котором они появлялись в данных, поэтому были включены его возможные искаженные данные, которые можно было решить путем рандомизации выбранных наблюдений.
- Автор не сообщает, как были выбраны наблюдения второй модели. Где они такие же поставлены с одним пропавшим? Кроме того, что повлияло на решение выбрать такое количество наблюдений из набора?
- В качестве общей метрики точности модели автор использует NSR или отношение шум / сигнал, определяемое как (1– чувствительность) / специфичность. Я считаю, что оценка F1 принесет пользу этой модели, поскольку F1 дает более точную картину того, как модель неверно классифицирует свои прогнозы, анализируя среднее гармоническое значение типов ошибок, а не их относительную силу. Конечно, он использовал эту метрику для сравнения своих результатов с использованием SVM с другой статьей, в которой использовалась другая техника моделирования.
- Учитывая, что в SVM использовалось всего семь функций, использование полиномиального расширения с PCA могло бы дать некоторые интересные результаты.
- Честно говоря, со всеми представленными надежными данными и обработкой информации я подумал, что было интересно, что окончательный результат и заключение были быстро определены и завершены. Я ожидал получить больше информации относительно предыдущих выводов и дополнительных показателей (за пределами NSR) для определения
ПОСЛЕДНИЕ МЫСЛИ
Этот документ был написан в 2006 году, поэтому некоторые показатели и, возможно, даже технологические ограничения того времени, я думаю, могли бы объяснить некоторые из моих критических замечаний, но это интересный пример понимания определенных экономических академических концепций, поиска данных, которые подтверждают логика, лежащая в основе концепций, и проверка предположений, лежащих в основе концепций, чтобы доказать, соответствует ли теория реальности.
От себя лично, чтение этой статьи дало мне силы в том смысле, что я чувствовал, что я понял большую часть представленных тем и аргументов.
Мысли? Оставьте мне комментарий @ j.jacisin и спасибо, что прочитали!