Вероятность
Распространенные проблемы в теории вероятностей относятся к вероятности наблюдений при наличии определенной модели и заданных параметров (назовем их ). Например, вероятности для определенных ситуаций в карточных играх или играх в кости часто очень просты.Икс1, х2, . , , , хNθ
Однако во многих практических ситуациях мы имеем дело с обратной ситуацией ( логическая статистика ). То есть: дано наблюдение и теперь модель неизвестна , или, по крайней мере, мы не знаем определенные параметры .Икс1, х2, . , , , хК θθ
В задачах такого типа мы часто ссылаемся на термин, называемый вероятностью параметров, , который представляет собой показатель веры в определенный параметр учетом наблюдений . Этот термин выражается как пропорциональный вероятности для наблюдений при условии, что параметр модели будет гипотетически верным. L ( θ )θИкс1, х2, . , ИксКИкс1, х2, . , ИксКθL (θ, х1, х2, . , ИксК) ∝ вероятность наблюдения х1, х2, . , ИксК учитывая θ
Для данного значения параметра чем более вероятно определенное наблюдение (относительно вероятности с другими значениями параметра), тем больше наблюдение поддерживает этот конкретный параметр (или теорию / гипотезу, которая предполагает этот параметр) , (Относительная) высокая вероятность укрепит наше мнение о значении этого параметра ( об этом можно сказать гораздо более философски ).θИкс1, х2, . , ИксN
Вероятность возникновения проблемы с немецким танком
Теперь для задачи немецкого танка функция правдоподобия для набора образцов :Икс1, х2, . , ИксК
L (θ, х1, х2, . , ИксК) = Pr ( x1, х2, . , ИксК, θ ) = { 0( θК)- 1если макс ( х1, х2, . , ИксК) > θесли макс ( х1, х2, . , ИксК) ≤ θ ,
Наблюдаете ли вы образцы {1, 2, 10} или образцы {8, 9, 10}, не должно иметь значения, когда образцы рассматриваются из равномерного распределения с параметром . Обе выборки одинаково вероятны с вероятностью и, используя идею вероятности, одна выборка не говорит больше о параметре чем другая выборка.θ( θ3)- 1θ
Высокие значения {8, 9, 10} могут заставить вас думать / полагать, что должно быть выше. Но только значение {10} действительно дает вам соответствующую информацию о вероятности (значение 10 говорит о том, что будет равно десяти или выше, остальные значения 8 и 9 не вносят в эту информацию никакой информации). ).θθ θθθ
Теорема Фишера-Неймана о факторизации
Эта теорема говорит вам, что некоторой статистики (т. Некоторой функции наблюдений, такой как среднее значение, медиана или, как в немецкой задаче танка максимум) достаточно (содержит всю информацию), когда вы можете вынесем, в функции правдоподобия, условия, которые зависят от других наблюдений , так что этот фактор не зависит от как параметр и (и та часть функции правдоподобия, которая связывает данные с гипотетическими значениями параметров, зависит только от статистики, но не от всех данных / наблюдений).T( х1, х2, … , ХК)Икс1, х2, … , ХКθИкс1, х2, … , ХК
Случай немецкого танка прост. Вы можете видеть выше, что все выражение для приведенного выше правдоподобия уже зависит только от статистики а остальные значения не имеют значения.Макс ( х1, х2, . , ИксК)Икс1, х2, . , ИксК
Маленькая игра как пример
Допустим, мы играем в следующую игру несколько раз: сама является случайной величиной и рисуется с равной вероятностью либо 100, либо 110. Затем мы рисуем образец .θИкс1, х2, . , , , хК
Мы хотим выбрать стратегию угадывания , основанную на наблюдаемых которая максимизирует нашу вероятность иметь правильное предположение .θИкс1, х2, . , , , хКθ
Правильной стратегией будет выбор 100, если только одно из чисел в выборке не будет> 100.
У нас может возникнуть соблазн выбрать значение параметра 110 уже тогда, когда многие из имеют тенденцию иметь все высокие значения, близкие к сотне (но ни один из них не превышает 100), но это было бы неправильно. Вероятность такого наблюдения будет больше, когда истинное значение параметра равно 100, чем когда оно равно 110. Поэтому, если мы предположим, что в такой ситуации значение 100 равно значению параметра, мы с меньшей вероятностью допустим ошибку (поскольку Ситуация с этими высокими значениями, близкими к сотне, но все еще ниже ее, возникает чаще в случае, когда истинное значение равно 100, а не в случае, когда истинное значение равно 110).Икс1, х2, . , , , хК