Какая разница в значении между обозначениями и которые обычно используются во многих книгах и статьях?
Какая разница в значении между обозначениями и которые обычно используются во многих книгах и статьях?
Ответы:
Я полагаю, что источником этого является парадигма правдоподобия (хотя я не проверил фактическую историческую правильность приведенного ниже, это разумный способ понять, как это произошло).
Допустим, в настройке регрессии у вас будет распределение: p (Y | x, бета), что означает: распределение Y, если вы знаете (при условии) значения x и бета.
Если вы хотите оценить бета-версии, вы хотите максимизировать вероятность: L (бета; y, x) = p (Y | x, бета) По сути, теперь вы смотрите на выражение p (Y | x, бета) как функция бета, но кроме этого, нет никакой разницы (для математически правильных выражений, которые вы можете правильно вывести, это необходимо - хотя на практике это никому не мешает).
Затем, в байесовских настройках, разница между параметрами и другими переменными вскоре исчезает, поэтому вы начали смешивать обе записи.
Итак, по сути: нет фактической разницы: они оба указывают на условное распределение вещи слева, условно на вещь (вещи) справа.
- плотность случайной величины X в точке x , где θ является параметром распределения. f ( x , θ ) является совместной плотностью X и Θ в точке ( x , θ ) и имеет смысл, только если Θ случайная величина. f ( x | θ ) является условным распределением X, заданным Θ , и, опять же, имеет смысл, только если случайная величина. Это станет намного понятнее, когда вы углубитесь в книгу и посмотрите на байесовский анализ.
- это то же самое, что , просто означает, что является фиксированным параметром, а функция является функцией от . , OTOH, является элементом семейства (или набора) функций, где элементы индексируются с помощью . Тонкое различие, возможно, но важное, особенно когда приходит время оценить неизвестный параметр на основе известных данных ; в это время меняется ификсируется, в результате чего «функция правдоподобия». Использование чаще встречается среди статистиков, в то время как среди математиков.
Хотя так было не всегда, в наши дни обычно используется, когда d , w не являются случайными переменными (что вовсе не означает, что они известны, обязательно). P ( z | d , w ) указывает обусловленность на значения d , w . Обусловливание - это операция со случайными переменными, и использование этой записи, когда d , w не являются случайными переменными, сбивает с толку (и трагически распространено).
Как указывает @Nick Sabbe, является общим обозначением для распределения выборки наблюдаемых данных y . Некоторые пользователи часто используют эту запись, но настаивают на том, что Θ не является случайной величиной, что является злоупотреблением IMO. Но у них там нет монополии; Я видел, что байесовцы тоже это делают, добавляя фиксированные гиперпараметры в конце условных выражений.