Вопросы с тегом «parameterization»

7
Признает ли байесовский факт, что существует одно фиксированное значение параметра?
В байесовском анализе данных параметры рассматриваются как случайные величины. Это связано с байесовской субъективной концептуализацией вероятности. Но признают ли байесовцы теоретически, что в «реальном мире» существует одно истинное фиксированное значение параметра? Кажется, что очевидный ответ - «да», потому что тогда попытка оценить параметр была бы почти бессмысленной. Академическая цитата для …

1
Для каких распределений параметры параметризации в BUGS и R различны?
Я нашел несколько дистрибутивов, для которых BUGS и R имеют разные параметризации: Normal, log-Normal и Weibull. Для каждого из них я понимаю, что второй параметр, используемый R, необходимо преобразовать в обратном направлении (1 / параметр), прежде чем использовать в BUGS (или в моем случае JAGS). Кто-нибудь знает исчерпывающий список этих …

5
Что в названии: гиперпараметры
Таким образом, в нормальном распределении у нас есть два параметра: среднее значение и дисперсия . В книге « Распознавание образов и машинное обучение» внезапно появляется гиперпараметр в терминах регуляризации функции ошибок.μμ\muσ2σ2\sigma^2λλ\lambda Какие гиперпараметры? Почему они названы таковыми? И как они интуитивно отличаются от параметров в целом?

2
Перекрестная проверка и оптимизация параметров
У меня есть вопрос об оптимизации параметров, когда я использую 10-кратную перекрестную проверку. Я хочу спросить, должны ли параметры фиксироваться во время обучения модели каждого сгиба, т.е. (1) выбрать один набор оптимизированных параметров для средней точности каждого сгиба. или же (2) Я должен найти оптимизированный параметр для каждого сгиба, а …

2
Случайный лес: что если я знаю, что переменная важна
Насколько я понимаю, случайный лес выбирает случайным образом переменные mtry для построения каждого дерева решений. Таким образом, если mtry = ncol / 3, то каждая переменная будет использоваться в среднем на 1/3 деревьев. И 2/3 деревьев не будут их использовать. Но что, если я знаю, что одна переменная, вероятно, очень …

2
Определитель информационной матрицы Фишера для сверхпараметрической модели
Рассмотрим случайную переменную Бернулли с параметром (вероятность успеха). Функция правдоподобия и информация Фишера ( матрица ):θ 1 × 1X∈{0,1}X∈{0,1}X\in\{0,1\}θθ\theta1×11×11 \times 1 L1(θ;X)I1(θ)=p(X|θ)=θX(1−θ)1−X=detI1(θ)=1θ(1−θ)L1(θ;X)=p(X|θ)=θX(1−θ)1−XI1(θ)=detI1(θ)=1θ(1−θ) \begin{align} \mathcal{L}_1(\theta;X) &= p(\left.X\right|\theta) = \theta^{X}(1-\theta)^{1-X} \\ \mathcal{I}_1(\theta) &= \det \mathcal{I}_1(\theta) = \frac{1}{\theta(1-\theta)} \end{align} Теперь рассмотрим «слишком параметризованную» версию с двумя параметрами: вероятность успеха θ1θ1\theta_1 и вероятность отказа …

1
Параметризация распределений Беренса – Фишера
«О проблеме Беренса-Фишера: обзор» Сео-Хо Кима и Аллена С. Коэна Журнал образовательной и поведенческой статистики , том 23, номер 4, зима, 1998, стр. 356–377 Я смотрю на эту вещь, и она говорит: Фишер (1935, 1939) выбрал статистику [гдеti- обычнаяt-статистика дляодной выборкидляi=1,2], гдеθберется в первом квадрант иtanθ=s1/ √τ= δ- ( х¯2- …

1
Учет дискретных или двоичных параметров в байесовском информационном критерии
BIC штрафует в зависимости от количества параметров. Что если некоторые из параметров являются своего рода переменными двоичного индикатора? Они считаются полными параметрами? Но я могу объединить двоичных параметров в одну дискретную переменную, которая принимает значения в . Они должны учитываться как параметров или как один параметр?{ 0 , 1 , …
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.