Решение немецкой проблемы танков


10

Есть ли формальное математическое доказательство того, что решение немецкой проблемы танков является функцией только параметров k (количество наблюдаемых образцов) и m (максимальное значение среди наблюдаемых образцов)? Другими словами, можно ли доказать, что решение не зависит от других значений выборки, кроме максимального значения?


3
Вы спрашиваете, как показать, что максимума выборки достаточно для параметра θ задающего верхнюю границу дискретного равномерного распределения от 1 до θ .
Scortchi - Восстановить Монику

2
Теорема Фишера-Неймана о факторизации Функция правдоподобия, вероятность k наблюдаемых образцов (суммированных по максимуму m ) с учетом параметров n (количество резервуаров) может быть полностью записана в терминах k и Это будет ответ? m
Pr(M=m|n,k)={0if m>n(m1k1)(nk)if mn,
Секст Эмпирик

@ Scortchi, это правильно, спасибо, что перефразировал это для меня более ясно.
Богдан Александру

@MartijnWeterings нет; по сути, я прошу (цитируя комментарий Сортки выше) доказательства того, что выборочного максимума достаточно для решения без фактического вычисления решения.
Богдан Александру

Таким образом, вы не ищете теорему Фишера Неймана в качестве доказательства?
Секст Эмпирик

Ответы:


15

Вероятность

Распространенные проблемы в теории вероятностей относятся к вероятности наблюдений при наличии определенной модели и заданных параметров (назовем их ). Например, вероятности для определенных ситуаций в карточных играх или играх в кости часто очень просты.x1,x2,...,xnθ

Однако во многих практических ситуациях мы имеем дело с обратной ситуацией ( логическая статистика ). То есть: дано наблюдение и теперь модель неизвестна , или, по крайней мере, мы не знаем определенные параметры .x1,x2,...,xk θθ

В задачах такого типа мы часто ссылаемся на термин, называемый вероятностью параметров, , который представляет собой показатель веры в определенный параметр учетом наблюдений . Этот термин выражается как пропорциональный вероятности для наблюдений при условии, что параметр модели будет гипотетически верным. L(θ)θx1,x2,..xkx1,x2,..xkθ

L(θ,x1,x2,..xk)probability observations x1,x2,..xk given θ 

Для данного значения параметра чем более вероятно определенное наблюдение (относительно вероятности с другими значениями параметра), тем больше наблюдение поддерживает этот конкретный параметр (или теорию / гипотезу, которая предполагает этот параметр) , (Относительная) высокая вероятность укрепит наше мнение о значении этого параметра ( об этом можно сказать гораздо более философски ).θx1,x2,..xn


Вероятность возникновения проблемы с немецким танком

Теперь для задачи немецкого танка функция правдоподобия для набора образцов :x1,x2,..xk

L(θ,x1,x2,..xk)=Pr(x1,x2,..xk,θ)={0if max(x1,x2,..xk)>θ(θk)1if max(x1,x2,..xk)θ,

Наблюдаете ли вы образцы {1, 2, 10} или образцы {8, 9, 10}, не должно иметь значения, когда образцы рассматриваются из равномерного распределения с параметром . Обе выборки одинаково вероятны с вероятностью и, используя идею вероятности, одна выборка не говорит больше о параметре чем другая выборка.θ(θ3)1θ

Высокие значения {8, 9, 10} могут заставить вас думать / полагать, что должно быть выше. Но только значение {10} действительно дает вам соответствующую информацию о вероятности (значение 10 говорит о том, что будет равно десяти или выше, остальные значения 8 и 9 не вносят в эту информацию никакой информации). ).θθ θθθ


Теорема Фишера-Неймана о факторизации

Эта теорема говорит вам, что некоторой статистики (т. Некоторой функции наблюдений, такой как среднее значение, медиана или, как в немецкой задаче танка максимум) достаточно (содержит всю информацию), когда вы можете вынесем, в функции правдоподобия, условия, которые зависят от других наблюдений , так что этот фактор не зависит от как параметр и (и та часть функции правдоподобия, которая связывает данные с гипотетическими значениями параметров, зависит только от статистики, но не от всех данных / наблюдений).T(x1,x2,,xk)x1,x2,,xkθx1,x2,,xk

Случай немецкого танка прост. Вы можете видеть выше, что все выражение для приведенного выше правдоподобия уже зависит только от статистики а остальные значения не имеют значения.max(x1,x2,..xk)x1,x2,..xk


Маленькая игра как пример

Допустим, мы играем в следующую игру несколько раз: сама является случайной величиной и рисуется с равной вероятностью либо 100, либо 110. Затем мы рисуем образец .θx1,x2,...,xk

Мы хотим выбрать стратегию угадывания , основанную на наблюдаемых которая максимизирует нашу вероятность иметь правильное предположение .θx1,x2,...,xkθ

Правильной стратегией будет выбор 100, если только одно из чисел в выборке не будет> 100.

У нас может возникнуть соблазн выбрать значение параметра 110 уже тогда, когда многие из имеют тенденцию иметь все высокие значения, близкие к сотне (но ни один из них не превышает 100), но это было бы неправильно. Вероятность такого наблюдения будет больше, когда истинное значение параметра равно 100, чем когда оно равно 110. Поэтому, если мы предположим, что в такой ситуации значение 100 равно значению параметра, мы с меньшей вероятностью допустим ошибку (поскольку Ситуация с этими высокими значениями, близкими к сотне, но все еще ниже ее, возникает чаще в случае, когда истинное значение равно 100, а не в случае, когда истинное значение равно 110).x1,x2,...,xk


Круто, именно то, что мне было нужно! Просто один комментарий к вашей последней круглой скобке: вы говорите «эти высокие значения, близкие к сотне, встречаются чаще ...», и я понимаю, почему это так, но просто для уточнения: любое значение от 1 до 100 более вероятно когда, если параметр равен 100 (по существу, вероятность для каждого числа в 1-100 равна 1 / параметр).
Богдан Александру

Кроме того, теперь ваш первоначальный комментарий к моему посту имеет смысл - если бы я знал, как применять эти концепции, ваш комментарий был бы именно той подсказкой, которая мне понадобилась бы для получения доказательства. Еще раз спасибо!
Богдан Александру

@ БогданАлександру ты прав; это верно для любого значения от 1 до 100. Это противоречивая идея: мы склонны думать, что более высокие наблюдаемые значения как-то более убедительны для некоторого значения параметра, чем низкие наблюдаемые значения, но для любого числа одинаково вероятны и, таким образом, не влияют / не должны влиять на наше мнение о параметре модели За исключением максимального значения, которое мы наблюдаем. Но даже в игре, которую я сделал, только с выбором между двумя значениями. Он таков, что даже максимум не дает больше информации, когда он выше или ниже, за исключением границы сотен).
Секст Эмпирик

Мой первоначальный комментарий, возможно, был слишком тяжелым, но я просто пытался понять, какой ответ нужен. Особенно я нахожу термин «доказательство» немного сильным, и мне было интересно, искали ли вы просто теорему факторизации (на вопрос, на который ответили бы «да», если вы не знали бы эту теорему), или же вы искали что-то более расплывчатое и философские, как даже сложные концепции статистики / вероятности и выход за рамки такой теоремы, чтобы искать другой тип «доказательства».
Секст Эмпирик

Тогда читайте о моих намерениях! Еще раз спасибо.
Богдан Александру

0

Вы не представили точную формулировку «проблемы», поэтому не совсем ясно, что вы хотите доказать. С байесовской точки зрения апостериорная вероятность зависит от всех данных. Однако каждое наблюдение определенного серийного номера будет поддерживать этот номер в наибольшей степени. То есть при любом наблюдении отношение шансов между апостериорным и предыдущим будет больше для гипотезы «фактическое количество танков равно », чем для «фактического количества танков [число, отличное от ]». Таким образом, если мы начнем с равномерного априора, то будет иметь самый высокий апостериор после наблюдения этого наблюдения.nnnn

Рассмотрим случай, когда у нас есть точка данных и гипотезы . Очевидно, апостериор для равен нулю. И наши постеры для будут больше, чем их предыдущие. Причина этого заключается в том, что в байесовских рассуждениях отсутствие доказательств является доказательством отсутствия. Каждый раз, когда у нас есть возможность, мы могли бы сделать наблюдение, которое уменьшило бы нашу вероятность, но нет, вероятность увеличивается. Поскольку мы могли видеть , что установило бы наши постеры для на ноль, тот факт, что мы этого не видели, означает, что мы должны увеличить наши постеры для13N=10,13,15N=10N=13,151616N=13,15N=13,15 . Но обратите внимание, что чем меньше число, тем больше чисел, которые мы могли бы увидеть, исключило бы это число. Для , то мы бы отвергли эту гипотезу после просмотра . Но для нам бы понадобилось как минимум чтобы отклонить гипотезу. Поскольку гипотеза является более фальсифицируемой, чем , тот факт, что мы не фальсифицировали является большим доказательством для , чем отсутствие фальсификации является доказательством для .N=1314,15,16,...N=1516N=13N=15N = 13 N = 13 N = 15 N = 15N=13N=13N=15N=15

Поэтому каждый раз, когда мы видим точку данных, она устанавливает заднюю часть всего, что ниже нее, на ноль и увеличивает заднюю часть всего остального, причем меньшие числа получают наибольшее усиление. Таким образом, число, которое получает общее наибольшее усиление, будет наименьшим числом, апостериорное значение которого не было установлено равным нулю, то есть максимальным значением наблюдений.

Числа, меньшие максимального, влияют на то, насколько большим будет усиление, которое получает максимум, но это не влияет на общую тенденцию максимального получения максимального усиления. Рассмотрим приведенный выше пример, где мы уже видели . Если следующий номер, который мы видим, равен , какой эффект это даст? Выручает больше, чем , но оба числа уже были отклонены, так что это не имеет значения. Это помогает больше, чем , но уже помогло больше, чем , так что это не влияет на то, какое число помогло больше всего.1355613151315


Этот пример во многом зависит от ситуации, и утверждения не являются общими. Например, если предварительное значение составляет 50% для 13 и 50% для 15, то наблюдение 13 не таково, что «наши предшественники для N = 13, 15 будут больше, чем их предыдущие». Наблюдения могут уменьшать апостериорные относительно предшествующего ,
Секст Эмпирик

Также, наблюдение за дополнительными числами может изменить вывод. В случае «если следующее число, которое мы видим, это 5 ...», то апостериор все равно изменится, даже когда числа уже «выручены», дополнительные числа могут увеличить эту «помощь» (например, когда вы выбираете все числа 1,2, ... 12, 13, тогда это увеличит апостериор на 13 больше, чем когда вы только
Sextus
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.