Простейшая форма информационно-теоретического CLT заключается в следующем:
Пусть будут iid со средним и дисперсией 1 . Пусть f_n - плотность нормализованной суммы \ frac {\ sum_ {i = 1} ^ n X_i} {\ sqrt {n}}, а \ phi - стандартная гауссовская плотность. Тогда теоретико-информационный CLT утверждает, что если D (f_n \ | \ phi) = \ int f_n \ log (f_n / \ phi) dx конечно для некоторого n , то D (f_n \ | \ phi) \ до 0 при n \ до \ инфты .
Конечно, эта конвергенция, в некотором смысле, «сильнее», чем хорошо установленные в литературе конвергенции, конвергенция в распределении и конвергенция в метрике, благодаря неравенству Пинскера . То есть сходимость в KL-дивергенции подразумевает сходимость в распределении и сходимость на расстоянии .
Я хотел бы знать две вещи.
Что такого замечательного в результате ?
Это только по причине , указанной в третьем абзаце мы говорим , конвергенция в KL-дивергенции ( т.е. , ) сильнее?
NB: я задал этот вопрос некоторое время назад в math.stackexchange, где я не получил никакого ответа.