Байесовский информационный критерий (BIC) - это критерий выбора модели среди конечного набора моделей. Частично он основан на функции правдоподобия и тесно связан с информационным критерием Акаике (AIC).

При подгонке моделей можно увеличить вероятность, добавив параметры, но это может привести к переобучению. BIC решает эту проблему, вводя штраф за количество параметров в модели. Срок штрафа в BIC больше, чем в AIC.

BIC широко используется для идентификации моделей во временных рядах и линейной регрессии. Однако его можно довольно широко применять к любому набору моделей, основанных на максимальном правдоподобии.

Математическое выражение:

Математически BIC можно определить как

Применение и интерпретация:

Модели могут быть протестированы с использованием соответствующих значений BIC. Более низкое значение BIC указывает на более низкие штрафные санкции, следовательно, на лучшую модель.

Читайте также статистику AIC.

Хотя эти два показателя получены с разных точек зрения, они тесно связаны. Видимо, единственная разница в том, что BIC учитывает количество наблюдений в формуле, а AIC не учитывает.

Хотя BIC всегда выше, чем AIC, чем ниже значение этих двух показателей, тем лучше модель.

Практический набор данных:

Посетите нашу платформу анализа и анализа данных Analyttica TreasureHunt, чтобы попрактиковаться в реальных наборах данных.

Также прочтите следующее:

Проверка соответствия.

Фильтр ядра.

Кластеризация k-средних.