Вопросы с тегом «decision-theory»

27
Парадокс Спящей Красавицы
Ситуация Некоторые исследователи хотели бы усыпить вас. В зависимости от секретного броска справедливой монеты, они кратко разбудят вас один раз (головы) или два раза (хвосты). После каждого пробуждения они возвращают вас спать с лекарством, которое заставляет вас забыть это пробуждение. Когда вы проснетесь, в какой степени вы должны верить, что …

7
Сколько заплатить? Практическая проблема
Это не вопрос домашнего труда, а реальная проблема, с которой сталкивается наша компания. Совсем недавно (2 дня назад) мы заказали у дилера 10000 этикеток. Дилер - независимый человек. Он получает этикетки, изготовленные извне, и компания производит оплату дилеру. Каждый лейбл стоил компании ровно 1 доллар. Вчера дилер пришел с этикетками, …

5
Как работать с иерархическими / вложенными данными в машинном обучении
Я объясню мою проблему на примере. Предположим, вы хотите предсказать доход человека с учетом некоторых атрибутов: {Возраст, Пол, Страна, Регион, Город}. У вас есть тренировочный набор данных, как так train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4, 5,5,5,5), CityID=c(1,1,2,3, 4,5,6,6, 7,7,7,8), Age=c(23,48,62,63, 25,41,45,19, 37,41,31,50), Gender=factor(c("M","F","M","F", "M","F","M","F", "F","F","F","M")), Income=c(31,42,71,65, 50,51,101,38, 47,50,55,23)) train …
29 regression  machine-learning  multilevel-analysis  correlation  dataset  spatial  paired-comparisons  cross-correlation  clustering  aic  bic  dependent-variable  k-means  mean  standard-error  measurement-error  errors-in-variables  regression  multiple-regression  pca  linear-model  dimensionality-reduction  machine-learning  neural-networks  deep-learning  conv-neural-network  computer-vision  clustering  spss  r  weighted-data  wilcoxon-signed-rank  bayesian  hierarchical-bayesian  bugs  stan  distributions  categorical-data  variance  ecology  r  survival  regression  r-squared  descriptive-statistics  cross-section  maximum-likelihood  factor-analysis  likert  r  multiple-imputation  propensity-scores  distributions  t-test  logit  probit  z-test  confidence-interval  poisson-distribution  deep-learning  conv-neural-network  residual-networks  r  survey  wilcoxon-mann-whitney  ranking  kruskal-wallis  bias  loss-functions  frequentist  decision-theory  risk  machine-learning  distributions  normal-distribution  multivariate-analysis  inference  dataset  factor-analysis  survey  multilevel-analysis  clinical-trials 

2
В чем разница между функцией потерь и функцией принятия решений?
Я вижу, что обе функции являются частью методов интеллектуального анализа данных, таких как Gradient Boosting Regressors. Я вижу, что это тоже отдельные объекты. Каковы отношения между обоими в целом?

2
Каково теоретико-обоснованное обоснование байесовских интервалов вероятности?
(Чтобы понять, почему я написал это, проверьте комментарии ниже моего ответа на этот вопрос .) Ошибки типа III и теория статистических решений Правильный ответ на неправильный вопрос иногда называют ошибкой типа III. Теория статистических решений - это формализация принятия решений в условиях неопределенности; это обеспечивает концептуальную структуру, которая может помочь …

4
При каких условиях совпадают байесовские и частые точечные оценки?
С фиксированным априором оценки ML (частота - максимальная вероятность) и MAP (байесовская апостериорная) совпадают. В целом, однако, я говорю о точечных оценках, полученных как оптимизаторы некоторой функции потерь. Т.е. (Bayesian) х (x^(.)=argminE(L(X−x^(y))|y) (Bayesian) x^(.)=argminE(L(X−x^(y))|y) (Bayesian) \hat x(\,. ) = \text{argmin} \; \mathbb{E} \left( L(X-\hat x(y)) \; | \; y \right) …

2
Чеканка монет, процессы принятия решений и ценность информации
Представьте себе следующую схему: у вас есть 2 монеты, монета A, которая гарантированно будет честной, и монета B, которая может быть или не быть честной. Вас просят сделать 100 монетных бросков, и ваша цель - максимизировать количество голов . Ваша предварительная информация о монете B состоит в том, что она …

1
Пример строгого неравенства фон Неймана
Пусть обозначает байесовский риск оценки относительно априора , пусть обозначает множество всех априоров в пространстве параметров , а обозначает множество все (возможно, рандомизированные) правила принятия решений.δ π Π Θ Δr(π,δ)r(π,δ)r(\pi, \delta)δδ\deltaππ\piΠΠ\PiΘΘ\ThetaΔΔ\Delta Статистическая интерпретация минимаксного неравенства Джона фон Неймана гласит, что supπ∈Πinfδ∈Δr(π,δ)≤infδ∈Δsupπ∈Πr(π,δ),supπ∈Πinfδ∈Δr(π,δ)≤infδ∈Δsupπ∈Πr(π,δ), \sup_{\pi\in\Pi} \inf_{\delta\in\Delta} r(\pi, \delta) \leq \inf_{\delta\in\Delta}\sup_{\pi\in\Pi} r(\pi, \delta), со …

2
Что такое полная достаточная статистика?
У меня есть проблемы с пониманием полной достаточной статистики? Пусть - достаточная статистика.T= Σ xяTзнак равноΣИксяT=\Sigma x_i Если с вероятностью 1 для некоторой функции g , то это полная достаточная статистика.Е[ г( Т) ] = 0Е[грамм(T)]знак равно0E[g(T)]=0граммграммg Но что это значит? Я видел примеры униформы и Бернулли (страница 6 http://amath.colorado.edu/courses/4520/2011fall/HandOuts/umvue.pdf …

1
Загадка парикмахера
Моя парикмахерская Стейси всегда выглядит счастливой, но ей часто не хватает времени. Сегодня Стейси была запоздалой на мое назначение и очень извинялась. Во время стрижки я подумала: как долго должны проходить ее стандартные встречи? (если предпочтение клиента на чистые круглые числа может быть проигнорировано, на мгновение). Следует учитывать определенный «волновой …

2
Граница принятия решения для персептрона
Я пытаюсь построить границу решения алгоритма персептрона, и я действительно запутался в нескольких вещах. Мои входные экземпляры имеют форму , в основном это двумерный входной экземпляр ( x 1 и x 2 ) и целевое значение двоичного класса ( y ) [1 или 0].[(x1,x2),y][(x1,x2),y][(x_{1},x_{2}), y]x1x1x_{1}x2x2x_{2}yyy Следовательно, мой весовой вектор имеет …

3
MAP является решением
Я столкнулся с этими слайдами (слайд № 16 и № 17) на одном из онлайн-курсов. Преподаватель пытался объяснить, как максимальная апостериорная оценка (MAP) на самом деле является решением L(θ)=I[θ≠θ∗]L(θ)=I[θ≠θ∗]L(\theta) = \mathcal{I}[\theta \ne \theta^{*}] , где - истинный параметр.θ∗θ∗\theta^{*} Может кто-нибудь объяснить, пожалуйста, как это следует? Изменить: Добавлены слайды, если ссылка …

3
Как выбрать лучший показатель для измерения калибровки?
Я программирую и занимаюсь разработкой на основе тестов. После внесения изменений в код я запускаю свои тесты. Иногда они добиваются успеха, а иногда они терпят неудачу. Перед запуском теста я записываю число от 0,01 до 0,99, чтобы удостовериться, что тест пройдёт успешно. Я хочу знать, улучшаю ли я прогнозирование того, …

2
Помимо теста Дурбина-Уотсона, какие проверки гипотез могут дать неубедительные результаты?
Тестовая статистика Дарбины-Уотсон может лежать в безрезультатной области, где не возможно либо отклонить или не отвергнуть нулевую гипотезу (в данном случае, нулевой автокорреляции). Какие другие статистические тесты могут дать "неубедительные" результаты? Существует ли общее объяснение (хорошо машет рукой), почему этот набор тестов не может принять двоичное решение «отклонить» / «не …

1
Как оценка, которая минимизирует взвешенную сумму квадратов смещения и дисперсии, вписывается в теорию принятия решений?
Хорошо, мое оригинальное сообщение не смогло получить ответ; Итак, позвольте мне поставить вопрос по-другому. Я начну с объяснения моего понимания оценки с точки зрения теории решения. У меня нет формального обучения, и меня не удивит, если мое мышление каким-то образом ошибочно. Предположим , у нас есть некоторая функция потерь L(θ,θ^(x))L(θ,θ^(x))L(\theta,\hat\theta(x)) …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.