Относительный размер значений p при разных размерах выборки


13

Как изменяется относительный размер значения ap при разных размерах выборки? Например, если вы получили при для корреляции, а затем при вы получите такое же значение p, равное 0,20, каков будет относительный размер значения p для второго теста по сравнению с исходным значением p когда ?p=0.20n=45n=120n=45


1
Пожалуйста, объясните, в каком смысле вы изменяете размеры выборки. Вы пытаетесь сравнить p-значения для двух независимых экспериментов разных вещей или вместо этого, возможно, рассматриваете возможность увеличения выборки размером путем сбора дополнительных независимых наблюдений? 4512045
whuber

К сожалению, мне не дали больше информации, чем в вопросе

1
Это для какой-то темы?
Glen_b

Ответы:


19

Подумайте о том, чтобы бросить монету, которая, как вы подозреваете, может слишком часто подниматься головой.

Вы проводите эксперимент, а затем тест с односторонней гипотезой. В десяти бросках вы получаете 7 голов. Что-то хотя бы далеко от 50% может легко случиться с честной монетой. Ничего необычного там нет.

Если вместо этого вы получите 700 голов в 1000 бросков, результат, по крайней мере, настолько далек от справедливого, насколько это было бы удивительно для честной монеты.

Таким образом, 70% голов совсем не странно для честной монеты в первом случае и очень странно для честной монеты во втором случае. Разница в размере выборки.

По мере увеличения размера выборки наша неопределенность относительно того, где может быть среднее значение популяции (доля голов в нашем примере), уменьшается. Таким образом, более крупные выборки согласуются с меньшими диапазонами возможных значений совокупности - чем больше выборок, тем больше значений становятся «исключенными».

Чем больше данных у нас есть, тем точнее мы можем определить, где может быть среднее значение совокупности ... так что фиксированное значение неправильного среднего значения будет выглядеть менее правдоподобным, когда размеры нашей выборки станут большими. То есть значения p имеют тенденцию увеличением размера выборки, если только является истиннымH0 .


Спасибо :) А как это подходит для получения того же значения p (не меньшего) с большим размером выборки?

1
Ваш вопрос не говорит о том, что значение p одинаково, он говорит, что вы думали, что это будет то же самое. Это новый вопрос или вы просто не понимали, что вы хотите? В любом случае, это может произойти - если большая выборка достаточно близка к тому, что вы ожидаете при нулевом значении, чтобы сделать это. Представьте, что у вас было 8 голов на 25 бросках (32% голов), но 14 голов на 39 бросках (около 36% голов). Значение p для теста почти одинаково. P(H)=0.5
Glen_b

1
Ваш отредактированный вопрос теперь очень запутанный. Я думал, что понял, о чем ты спрашиваешь, теперь я совершенно не понимаю, о чем ты говоришь. (Видимо, то, что выглядело так, будто
просило,

1
Я не знаю, что подразумевается под фразой «относительное p-значение».
Glen_b

1
Для анонимного редактора: 700 голов в 1000 бросках - намного больше, чем необходимо для установления точки; это уже 12,65 стандартных отклонений от среднего. Это соответствует p-значению . Это уже экстремальный пример, поэтому умножение всего на 1000 на самом деле не помогает улучшить эту точку зрения. Даже 70 из 100 будет более чем достаточно. 1.7×1037
Glen_b

8

Я согласен с @Glen_b, просто хочу объяснить это с другой точки зрения.

Давайте приведем пример разницы средств в двух группах населения. Отклонение эквивалентно утверждению, что 0 не находится в доверительном интервале для разности средних. Этот интервал становится меньше с n (по определению), поэтому становится все труднее для любой точки (в данном случае, нуля) находиться в интервале с ростом n. Поскольку отклонение по доверительному интервалу математически эквивалентно отклонению по p-значению, p-значение будет уменьшаться при n.H0

Наступит момент, когда вы получите интервал, такой как который будет указывать, что первая популяция действительно имеет большее среднее значение, чем вторая, но эта разница настолько мала, что вы не будете против этого. Вы отклоните , но это отклонение ничего не будет значить в реальной жизни. По этой причине p-значений недостаточно для описания результата. Нужно всегда давать некоторую меру РАЗМЕРА наблюдаемой разницы.Н 0[0.0001,0.0010]H0


3

значение для в виде , что данное, отлична от нуля фактически равна нулю в популяции будет уменьшаться с увеличением размера образца. Это связано с тем, что более крупная выборка, которая обеспечивает последовательное доказательство этого ненулевого эффекта, дает больше доказательств против нуля, чем меньшая выборка. Меньшая выборка предоставляет больше возможностей для случайной ошибки выборки для оценки величины эффекта смещения, как иллюстрирует ответ @ Glen_b. Регрессия к среднему уменьшает ошибку выборки при увеличении размера выборки; оценка величины эффекта на основе центральной тенденции выборки улучшается с увеличением размера выборки в соответствии с центральной теоремой о пределе . Поэтомуpp- т. Е. Вероятность получения большего количества выборок того же размера и с размерами эффекта, по крайней мере, такими же сильными, как и у вашей выборки, если вы выбираете их случайным образом из одной и той же совокупности, предполагая, что размер эффекта в этой совокупности фактически равен нулю, - уменьшается с увеличением размера выборки увеличивается, и размер эффекта выборки остается неизменным. Если размер эффекта уменьшается или отклонение ошибки увеличивается с увеличением размера выборки, значимость может оставаться неизменной.

Вот еще один простой пример: корреляция между и . Здесь Пирсона . Если я продублирую данные и протестирую соотношение и , сих пор , но . Не требуется много копий ( ), чтобы приблизиться к , как показано здесь:x={1,2,3,4,5}y={2,1,2,1,3}r=.378,t(3)=.71,p=.53y = { 2 , 1 , 2 , 1 , 3 , 2 , 1 , 2 , 1 , 3 } r = .378 t ( 3 ) = 1.15 , p = .28 n limx={1,2,3,4,5,1,2,3,4,5}y={2,1,2,1,3,2,1,2,1,3}r=.378t(3)=1.15,p=.28nlimnp(n)=0


Когда вы ссылаетесь на CLT, я думаю, что вы действительно хотите сослаться на закон больших чисел. CLT дает нам приблизительную норму распределения выборки, о которой вы даже не упоминаете.
Дейсон
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.