imagesinformatsionnye-kriterii-akaike-i-shvartsa-formula-i-naznachenie-thumb.jpg

Информационный критерий

Чем меньше значение критерия, тем лучше модель. Информационные критерии используются исключительно для сравнения моделей между собой, без содержательной интерпретации значений этих критериев. Информационный критерий Акаике — (AIC) критерий, применяющийся исключительно для выбора из нескольких статистических моделей. То есть критерии основаны на неком компромиссе между точностью и сложностью модели.

Разработан в 1971 как «an information criterion» («(некий) информационный критерий») Хироцугу Акаике и предложен им в статье 1974 года. Таким образом, критерий не только вознаграждает за качество приближения, но и штрафует за использование излишнего количества параметров модели. C — независимая от модели константа, которую можно исключить в случае сравнения моделей на одних и тех же данных. Эта форма критерия часто удобна, если мы уже вычислили как статистику качества приближения.

Данный подход позволяет сравнивать модели, оцененные по выборках разного объема. Критерий, используемый при исследовании феномена НЛО по признаку необычной сложности, заключённой в нём информации, особенно среди палеофеноменов (например, памятников культуры далёкого прошлого). Критерий — признак, на основе которого производится оценка состояния ядерной и радиационной безопасности ядерных установок судов и иных плавсредств.

Однако недостатком данного критерия является нечувствительность к ошибкам, малым по абсолютной величине. Заметим, что критерии MAPE и MPE не подходят для временных рядов с нулевыми членами. Чем ближе в выражении (8) значение КД к единице, тем лучше модель описывает реальные данные. Однако она не применима, если в модели среди объясняющих переменных имеются лаговые значения результативного признака.

Модель прогнозирования тем лучше, чем ниже показатель Cp, AIC, BIC. На данные критерии положительно влияет уменьшения остаточной дисперсии и отрицательно – количество включенных параметров. Основным различием между ними является степень жесткости, то есть, насколько велик штраф за большое количество параметров в модели. Для сопоставимости значений критериев в работе рекомендуется применение процедуры Бокса-Кокса.

Информационный критерий

То есть стояла задача оценки переобучения модели. Акаике, используя теорию информации (в том числе расстояние Кульбака — Лейблера), смог для ряда частных случаев получить искомую оценку. Стоит отметить, что абсолютное значение AIC не имеет смысла — он указывает только на относительный порядок сравниваемых моделей.

Модель бинарного выбора — Модель бинарного выбора применяемая в эконометрике модель зависимости бинарной переменной (принимающей всего два значения 0 и 1) от совокупности факторов. Если получено большое положительное процентное значение, то – последовательно недооценивающей. Однако в работе рекомендуют в таких случаях пропускать нулевые элементы ряда и уменьшать значение n на единицу.

Также следует отметить, что критерий СКД может принимать значения больше единицы и отрицательные значения (пример приведен в (10)), что не дает возможности корректно интерпретировать данный критерий. Различие в жесткости проистекает из различия в предъявляемых требованиях к моделям прогнозирования. Значения, получаемые по логарифмической модели значительно меньше соответствующих значений линейной модели, поэтому является естественным, что остатки также значительно меньше.

Они не позволяют тестировать модели в смысле проверки статистических гипотез. В основе критерия BIC лежит требование максимизации вероятности выбора истинной модели.

Читайте также: