Байесовский информационный критерий (BIC) - это критерий выбора модели среди конечного набора моделей. Частично он основан на функции правдоподобия и тесно связан с информационным критерием Акаике (AIC).
При подгонке моделей можно увеличить вероятность, добавив параметры, но это может привести к переобучению. BIC решает эту проблему, вводя штраф за количество параметров в модели. Срок штрафа в BIC больше, чем в AIC.
BIC широко используется для идентификации моделей во временных рядах и линейной регрессии. Однако его можно довольно широко применять к любому набору моделей, основанных на максимальном правдоподобии.
Математическое выражение:
Математически BIC можно определить как
Применение и интерпретация:
Модели могут быть протестированы с использованием соответствующих значений BIC. Более низкое значение BIC указывает на более низкие штрафные санкции, следовательно, на лучшую модель.
Читайте также статистику AIC.
Хотя эти два показателя получены с разных точек зрения, они тесно связаны. Видимо, единственная разница в том, что BIC учитывает количество наблюдений в формуле, а AIC не учитывает.
Хотя BIC всегда выше, чем AIC, чем ниже значение этих двух показателей, тем лучше модель.
Практический набор данных:
Посетите нашу платформу анализа и анализа данных Analyttica TreasureHunt, чтобы попрактиковаться в реальных наборах данных.