Является ли ожидание таким же, как среднее?


11

Я делаю ML в моем университете, и профессор упомянул термин «ожидание» (E), в то время как он пытался объяснить нам некоторые вещи о гауссовских процессах. Но по тому, как он это объяснил, я понял, что E - это то же самое, что и среднее значение μ. Я правильно понял?

Если это то же самое, то знаете ли вы, почему используются оба символа? Также я увидел, что E можно использовать как функцию, например, E ( ), но я не видел этого для μ.Икс2

Может ли кто-нибудь помочь мне лучше понять разницу между ними?


Для непрерывного , Е [ Х ] = - F ( х ) х д х = μ ( х ) , где F ( х ) является функцией плотности вероятности. Так что это верно только тогда, когда X является аргументом. Однако это также может быть правдой, если мы имеем E [ g ( X ) ] = E [ X ] = μ ( X ) , гдеИксЕ[Икс]знак равно-е(Икс)ИксdИксзнак равноμ(Икс)е(Икс)ИксЕ[грамм(Икс)]знак равноЕ[Икс]знак равноμ(Икс) - это нечто иное, чем функция тождества. грамм
Jase

1
@ Джейс ? Почему правая часть является функцией от x , которая должна была исчезнуть после замены пределов при оценке интеграла? μ(Икс)Икс
Дилип Сарвэйт

1
@DilipSarwate была опечаткой. Имею ввиду, чтобы сказать μ = μ ( X ) . μ(Икс)μзнак равноμ(Икс)
Jase

2
Джон: на вашем месте я бы изучал базовую вероятность, прежде чем посещать занятия по машинному обучению / гауссовским процессам. Взгляните на эту книгу: math.uiuc.edu/~r-ash/BPT.html
Zen

Большое спасибо, ребята, за вашу помощь! Я не ожидал так много отзывов. @Zen Большое спасибо за ваш совет. Я абсолютно согласен с вами. Я взял модуль в качестве старшекурсника по вероятностям и статистике. Однако у нас просто было простое введение в распределения и вероятности, и, к сожалению, мы не сделали их подробно. Кроме того, мы не упомянули термин «ожидание». Сейчас я пытаюсь самостоятельно покрыть свои пробелы в статистике и вероятностях.
Джим Блюм

Ответы:


10

Ожидаемое / ожидаемое значение - это оператор, который можно применить к случайной переменной. Для дискретных случайных величин (например , биномиальное) с возможных значений она определяется как Е K я х я р ( х я ) . То есть это среднее из возможных значений, взвешенных по вероятности этих значений. Непрерывные случайные величины можно рассматривать как обобщение этого: х д Р . Среднее значение случайной величины является синонимом ожидания.kikxip(xi)xdP

Гауссово (нормальное) распределение имеет два параметра и σ 2 . Если X нормально распределен, то E ( X ) = µ . Таким образом, среднее значение гауссовской распределенной переменной равно параметру μ. Это не всегда так. Возьмем биномиальное распределение, которое имеет параметры n и p . Если X биномиально распределено, то E ( X ) = n p .μσ2ИксЕ(Икс)знак равноμμNпИксЕ(Икс)знак равноNп

Как вы видели, вы также можете применить ожидание к функциям случайных величин, так что для гауссова вы можете найти, что E ( X 2 ) = σ 2 + μ 2 .ИксЕ(Икс2)знак равноσ2+μ2

Страница Википедии об ожидаемых значениях довольно информативна: http://en.wikipedia.org/wiki/Expected_value


2
«... так что для гауссовского вы можете найти, что E ( X 2 ) = σ 2 + μ 2 ». Абсолютно необходимо, чтобы X по Гауссу для этого отношения сохранялось? ИксЕ(Икс2)знак равноσ2+μ2Икс
Дилип Сарвэйт

Отношение всегда будет выполняться, но я ожидаю, что ответ будет записан в терминах параметров распределения. Поэтому, если бы я спросил кого-то, что E ( X 2 ) было для распределенного бинома X ( n , p ) , я бы ожидал ответа n p ( 1 - p ) + ( n p ) 2 , а неЕ(Икс2)знак равноВ(Икс)+Е(Икс)2Е(Икс2)Икс(N,п)Nп(1-п)+(Nп)2σ2+μ2
Джереми Койл

Но если бы вы спросили, что такое для биномиальной случайной величины со средним значением μ и дисперсией σ 2 , ответ будет σ 2 + μ 2 . Конечно, биномиальные случайные величины обычно параметризуются с использованием n и p , но что с того? Из среднего значения и дисперсии мы можем легко найти p = 1 - дисперсиюЕ(Икс2)μσ2σ2+μ2Nп ип=среднее
пзнак равно1-дисперсияжадный
Nзнак равножадныйпзнак равножадный2жадный-дисперсия,
Дилип Сарвейт

1
Весь смысл примера состоял в том, чтобы провести различие между параметрами распределения и моментами распределения. Да, можно перепараметризовать распределения с точки зрения их моментов, но, поскольку OP спрашивал о взаимосвязи между и μ , кажется важным продолжать проводить это различие. Есть ли причина, по которой вы решили быть педантичным в этом вопросе? Е(Икс)μ
Джереми Койл

1
Большое спасибо, Джереми! Отличный ответ. Вы были очень полезны!
Джим Блум

7

Ожидание с операторской нотацией E () (найдены различные предпочтения хороших шрифтов, римского или курсивного, простого или причудливого) подразумевает принятие среднего значения его аргумента, но в математическом или теоретическом контексте. Термин восходит к Христиану Гюйгенсу в 17 веке. Идея очевидна в большей части теории вероятностей и математической статистики, и, например, книга Питера Уиттла « Вероятность через ожидание» ясно показывает, как ее можно сделать еще более центральной.

По сути, это просто вопрос соглашения, что средние (средние) также часто выражаются довольно по-разному, в частности, единичными символами, особенно когда эти средние значения рассчитываются на основе данных. Тем не менее, Уиттл в только что приведенной книге использует обозначение A () для усреднения, а угловые скобки вокруг переменных или выражений, подлежащих усреднению, широко распространены в физической науке.

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.