Если я правильно вычислил, логистическая регрессия асимптотически имеет ту же силу, что и t-критерий. Чтобы увидеть это, запишите его логарифмическую вероятность и вычислите ожидание его гессиана в его глобальном максимуме (его отрицательные оценки дисперсионно-ковариационной матрицы решения ML). Не беспокойтесь об обычной логистической параметризации: проще просто параметризовать ее с двумя этими вероятностями. Детали будут зависеть от того, как именно вы проверяете значимость коэффициента логистической регрессии (есть несколько методов).
То, что эти тесты имеют схожие степени, не должно вызывать удивления, поскольку теория хи-квадрат для оценок ML основана на нормальном приближении к логарифмической вероятности, а t-тест основан на нормальном приближении к распределениям пропорций. Суть в том, что оба метода дают одинаковые оценки двух пропорций, и обе оценки имеют одинаковые стандартные ошибки.
Фактический анализ может быть более убедительным. Давайте примем некоторую общую терминологию для значений в данной группе (A или B):
- является вероятностью 1.п
- - размер каждого набора розыгрышей.N
- - количество сетов розыгрышей.м
- - количество данных.N= м н
- (равно 0 или 1 ) - это значение j- го результата в i- м наборе розыгрышей.Кя ж01Jгояго
- - общее количество единиц в i- м тираже.Кяяго
- общее количество единиц.К
Логистическая регрессия, по существу, является оценкой ML по . Его логарифм даетсяп
журнал( L ) = k log( р ) + ( N- л ) журнал( 1 - р ) .
Его производные по параметру имеют видп
∂журнал( Л )∂п= кп- N- к1 - р и
- ∂2журнал( Л )∂п2= кп2+ N- к( 1 - р )2,
Установка первого к нулю дает оценку М.Л. р = K / N и закупорки , что в обратную втором выражении дает дисперсию р ( 1 - р ) / N , который является квадратом стандартной ошибки.п^= к / шп^( 1 -р^) / N
Т статистика будет получена из оценок , основанных на данных , сгруппированных наборами дро; а именно, как разность средних (одна из группы A, а другая из группы B), деленная на стандартную ошибку той разницы, которая получается из стандартных отклонений средних. Давайте тогда посмотрим на среднее и стандартное отклонение для данной группы. Средние равно , который является идентичным ML оценивани р . Рассматриваемое стандартное отклонение - это стандартное отклонение средств вытяжки; то есть это стандартное отклонение набора k i / n . Вот суть вопроса, поэтому давайте рассмотрим некоторые возможности.к / сп^Кя/ н
Предположим , что данные не сгруппированы в дро вообще: то есть, и т = Н . К я являюсь ничьими средствами. Их выборки дисперсия равна N / ( N - 1 ) раз р ( 1 - р ) . Из этого следует, что стандартная ошибка идентична стандартной ошибке ML, за исключением коэффициента √n = 1m = NКяN/ (N- 1 )п^( 1 - р^) , что по существу равно1,когдаN=1800. Поэтому, помимо этой крошечной разницы, любые тесты, основанные на логистической регрессии, будут такими же, как и t-тест, и мы получим практически одинаковую мощность.N/ (N- 1 )---------√1N= 1800
Когда данные группируются, (истинная) дисперсия равна p ( 1 - p ) / n, потому что статистика k i представляет сумму n переменных Бернулли ( p ), каждая с дисперсией p ( 1 - p) ) . Следовательно, ожидаемая стандартная ошибка среднего значения m этих значений равна квадратному корню из p ( 1 - p ) / n / m =Кя/ нp ( 1 - p ) / nКяNпр ( 1 - р )м , как и прежде.p ( 1 - p ) / n / m = p ( 1 - p ) / N
Число 2 указывает, что мощность теста не должна заметно изменяться в зависимости от того, как распределены результаты (то есть, как и n варьируются в зависимости от m n = N ), за исключением, возможно, довольно небольшого эффекта от корректировки в выборке дисперсия (если вы не были настолько глупы, чтобы использовать очень мало наборов розыгрышей в каждой группе).мNm n = N
Ограниченное моделирование для сравнения с р = 0,74 (с 10 000 итераций в каждом), включая m = 900 , n = 1 (по существу, логистическая регрессия); m = n = 30 ; и m = 2 , n = 450 (максимизация корректировки дисперсии выборки) подтверждают это: мощность (при α = 0,05р = 0,70p=0.74m=900,n=1m=n=30m=2,n=450α=0.05(односторонний) в первых двух случаях равен 0,59, тогда как в третьем, где поправочный коэффициент вносит существенные изменения (теперь вместо 1798 или 58 имеется только две степени свободы), он падает до 0,36. Другой тест, сравнивающий с p = 0,52, дает степени 0,22, 0,21 и 0,15 соответственно: опять же, мы наблюдаем лишь небольшое снижение от отсутствия группировки в ничьи (= логистическая регрессия) до группировки в 30 групп и существенное снижение всего две группы.p=0.50p=0.52
Морали этого анализа:
- Вы не теряете много, когда делите свои значения данных на большое количество m относительно небольших групп "ничьих".Nm
- mn
- N