Вопрос, который я хочу задать, заключается в следующем: как изменяется доля выборок в пределах 1 SD от среднего значения нормального распределения с увеличением числа вариаций?
(Почти) всем известно, что при одномерном нормальном распределении 68% выборок можно найти в пределах 1 стандартного отклонения от среднего. Как насчет 2, 3, 4, ... размеров? Я знаю, что становится меньше ... но на сколько (точно)? Было бы удобно иметь таблицу с цифрами для 1, 2, 3 ... 10 измерений, а также 1, 2, 3 ... 10 SD. Кто-нибудь может указать на такую таблицу?
Немного больше контекста - у меня есть датчик, который предоставляет данные до 128 каналов. Каждый канал подвержен (независимому) электрическому шуму. Когда я ощущаю калибровочный объект, я могу усреднить достаточное количество измерений и получить среднее значение по 128 каналам вместе со 128 отдельными стандартными отклонениями.
НО ... когда речь идет об отдельных мгновенных показаниях, данные реагируют не так сильно, как 128 отдельных показаний, а как одно считывание (до) 128-мерной векторной величины. Конечно, это лучший способ обработать несколько критических чтений, которые мы берем (обычно 4-6 из 128).
Я хочу понять, что такое «нормальная» вариация и что является «выбросом» в этом векторном пространстве. Я уверен, что видел таблицу, подобную той, которую я описал, которая применима к такой ситуации - кто-нибудь может указать на одну из них?