AIC и BIC используются, например, в ступенчатой регрессии. Они на самом деле являются частью большого класса "эвристики", которые также используются. Например, DIC (информационный критерий отклонения) часто используется при выборе байесовской модели.
Тем не менее, они в основном "эвристика". Хотя можно показать, что как AIC, так и BIC асимптотически сходятся к подходам кросс-валидации (я думаю, что AIC идет к CV с отстранением, а BIC к другому подходу, но я не уверен), они известны недостаточное наказание и чрезмерное наказание соответственно. То есть, используя AIC, вы часто получаете модель, которая является более сложной, чем должна быть, тогда как с BIC вы часто получаете модель, которая слишком упрощена.
Поскольку оба связаны с CV, CV часто является лучшим выбором, который не страдает от этих проблем.
Затем, наконец, возникает проблема количества параметров, которые требуются для BIC и AIC. При использовании аппроксиматоров общих функций (например, KNN) на вещественных входах можно «скрыть» параметры, т. Е. Построить действительное число, содержащее ту же информацию, что и два действительных числа (например, о пересечении цифр). В таком случае, каково фактическое количество параметров? С другой стороны, более сложных моделей, вы можете иметь ограничения по вашим параметрам, скажем , вы можете только подходят такие параметры, что θ1>θ2 (смотри , например , здесь ). Или вы можете иметь неидентифицируемость, и в этом случае несколько значений параметров фактически дают одну и ту же модель. Во всех этих случаях простой подсчет параметров не дает подходящей оценки.
Поскольку многие современные алгоритмы машинного обучения демонстрируют эти свойства (то есть универсальное приближение, нечеткое число параметров, неидентифицируемость), AIC и BIC менее полезны для этой модели, чем могут показаться на первый взгляд.
РЕДАКТИРОВАТЬ :
Еще несколько моментов, которые можно уточнить:
- Кажется, я ошибся, рассматривая отображение путем перемежения цифр биекции между R→RN (см. Здесь ). Однако, детали того, почему это не биекция, немного сложны для понимания. Однако нам на самом деле не нужна биекция, чтобы эта идея сработала (достаточно сюрприза).
- Согласно доказательству Кантора (1877), между R→RN должна быть биекция . Хотя эта биекция не может быть определена явно, ее существование может быть доказано (но это требует бездоказательной аксиомы выбора). Эта биекция все еще может использоваться в теоретической модели (возможно, нереально реализовать эту модель в компьютере), чтобы распаковать один параметр в произвольное количество параметров.
- На самом деле нам не нужно, чтобы отображение между R→RN было биекцией. Любой сюръективной функции R→RN достаточно, чтобы распаковать несколько параметров из одного. Можно предположить, что такие помехи существуют как пределы последовательности других функций (так называемые кривые заполнения пространства , например кривая Пеано ).
- Поскольку ни доказательство Кантора не является конструктивным (оно просто доказывает существование биекции, не приводя примера), ни кривые заполнения пространства (поскольку они существуют только как пределы конструктивных объектов и, следовательно, сами по себе не являются конструктивными), аргумент I сделано только теоретическое доказательство. Теоретически, мы могли бы просто добавлять параметры в модель, чтобы уменьшить BIC ниже любого желаемого значения (в обучающем наборе). Тем не менее, в реальной реализации модели мы должны аппроксимировать кривую заполнения пространства, поэтому ошибка аппроксимации может помешать нам фактически сделать это (я фактически не проверял это).
- Поскольку все это требует аксиомы выбора, доказательство становится недействительным, если вы не принимаете эту аксиому (хотя большинство математиков так и делают). Это означает, что в конструктивной математике это может быть невозможно, но я не знаю, какую роль конструктивная математика играет для статистики.
- Идентифицируемость неразрывно связана с функциональной сложностью. Если просто взять идентифицируемую модель N -параметра и добавить лишний параметр (например, нигде не используемый), то новая модель становится неидентифицируемой. По существу, один с использованием модели , которая имеет сложность RN+1 , чтобы решить проблему , которая имеет сложность RN . Аналогично с другими формами неидентификации. Возьмем, к примеру, случай неидентифицируемых перестановок параметров. В этом случае каждый использует модель, которая имеет сложность RN , однако актуальная проблема имеет только сложность набора классов эквивалентности по RN, Тем не менее, это только неофициальный аргумент, я не знаю какого-либо формального трактовки этого понятия «сложность».