WIP: работа в процессе
После р. 370 из 1946 математических методов статистики Крамера , определите Ξn=n(1−Φ(Zn)).
ЗдесьΦ - кумулятивная функция распределения стандартного нормального распределения,N(0,1) . Как следствие его определения, мы гарантируем, что0≤Ξn≤n почти наверняка.
Рассмотрим данную реализацию ω∈Ω нашего выборочного пространства. Тогда в этом смысле Zn является функцией от n и ω , а Ξn является функцией от Zn,n и ω . Для фиксированного ω мы можем считать Zn детерминированной функцией n , а Ξn детерминированной функцией Zn и n , что упрощает задачу. Мы стремимся показать результаты, которые почти наверняка справедливы для всех ω∈Ω , что позволяет нам переносить наши результаты из недетерминированного анализа в недетерминированный сеттинг.
После р. 374 из Крамерских математических методов статистики 1946 года , предположим на данный момент (я собираюсь вернуться и предоставить доказательство позже), что мы можем показать, что (для любого заданного ω∈Ω ) справедливо следующее асимптотическое разложение (используя интегрирование по частям и определение Φ ):
2π−−√nΞn=1Zne−Z2n2(1+O(1Z2n)) as Zn→∞.(~)
Ясно, что Zn+1≥Zn для любого n , и Zn почти наверняка является возрастающей функцией n при n→∞ , поэтому в дальнейшем мы утверждаем, что для (почти наверняка всех) фиксированных ω : Zn→∞⟺n→∞.
Отсюда следует, что имеем (где ∼ обозначает асимптотическую эквивалентность ):
2π−−√nΞn∼1Zne−1Z2n as Zn→∞n→∞.
То, как мы поступим в дальнейшем, по существу равнозначно методу доминирующего баланса , и наши манипуляции будут формально оправданы следующей леммой:
Лемма. Предположим, что f(n)∼g(n) при n→∞ и f(n)→∞ (таким образом, g(n)→∞ ). Тогда, учитывая любую функцию h которая формируется с помощью композиций, сложений и умножений логарифмов и степенных законов (по существу, любой функции « полилога »), мы также должны иметь это при n→∞ : h(f(n))∼h(g(n)).
Другими словами, такие функции «полилога»сохраняют асимптотическую эквивалентность.
Истинность этой леммы является следствием теоремы 2.1. как написано здесь . Также обратите внимание, что ниже приводится в основном расширенная (более подробная) версия ответа на похожий вопрос, найденный здесь .
Взяв логарифмы обеих сторон, получим, что:
log(2π−−√Ξn)−logn∼−logZn−Z2n2.(1)
Это где Крамер несколько ловкий; он просто говорит , что «при условии , Ξn ограничена», мы можем заключить , бла - бла - бла. Но показывая, что Ξn соответственно ограничен, почти наверняка кажется немного нетривиальным. Кажется, что доказательство этого, по сути, может быть частью того, что обсуждается на стр. 265-267 Галамбоса, но я не уверен, учитывая, что я все еще работаю над пониманием содержания этой книги.
Во всяком случае, предполагая , можно показать , что logΞn=o(logn) , то из этого следует (так как −Z2n/2 Термин доминирует −logZn термин) , что:
−logn∼−Z2n2⟹Zn∼2logn−−−−−√.
Это несколько приятно, так как это уже большая часть того, что мы хотим показать, хотя, опять же, стоит отметить, что это, по сути, только пинает банку в будущем, так как теперь мы должны показать некоторую определенную почти наверняка ограниченность Ξn , С другой стороны, Ξn имеет одинаковое распределение для любого максимума iid непрерывных случайных величин, так что это может быть отслеживаемым.
Во всяком случае, если Zn∼2logn−−−−−√ как, то ясно также можно сделать вывод, чтоZn∼2logn−−−−−√(1+α(n))для любогоα(n)который равенo(1)приn→∞. Используя нашу лемму о функциях полилога, сохраняющих асимптотическую эквивалентность выше, мы можем подставить это выражение обратно в(1)чтобы получить:
log(2π−−√Ξn)−logn∼−log(1+α)−12log2−12loglogn−logn−2αlogn−α2logn.
⟹−log(Ξn2π−−√)∼log(1+α)+12log2+12loglogn+2αlogn+α2logn.
Здесь мы должны пойти еще дальше и предположить, что logΞn=o(loglogn) as n→∞ почти наверняка . Опять же , все Крамер говорит, «предполагая , Ξn ограничена». Но поскольку все, что можно априори сказать о Ξn состоит в том, что 0≤Xin≤n as, то вряд ли кажется очевидным, что Ξn=O(1) почти наверняка следует иметь , что, по-видимому, является сущностью утверждения Крамера.
But anyway, assuming one believes that, then it follows that the dominant term which does not contain α is 12loglogn. Since α=o(1), it follows that α2=o(α), and clearly log(1+α)=o(α)=o(o(αlogn)), so the dominant term containing α is 2αlogn. Therefore, we can rearrange and (dividing everything by 12loglogn or 2αlogn) find that
−12loglogn∼2αlogn⟹α∼−loglogn4logn.
Therefore, substituting this back into the above, we get that:
Zn∼2logn−−−−−√−loglogn22logn−−−−−√,
again, assuming we believe certain things about Ξn.
We rehash the same technique again; since Zn∼2logn−−−−−√−loglogn22logn√, then it also follows that
Zn∼2logn−−−−−√−loglogn22logn−−−−−√(1+β(n))=2logn−−−−−√(1−loglogn8logn(1+β(n))),
when β(n)=o(1). Let's simplify a little before substituting directly back into (1); we get that:
logZn∼log(2logn−−−−−√)+log(1−loglogn8logn(1+β(n)))log(O(1))=o(logn)∼log(2logn−−−−−√).
Z2n2∼logn−12loglogn(1+β)+(loglogn)28logn(1β)2o((1+β)loglogn)∼logn−12(1+β)loglogn.
Substituting this back into (1), we find that:
log(2π−−√Ξn)−logn∼−log(2logn−−−−−√)−logn+12(1+β)loglogn⟹β∼log(4πΞ2n)loglogn.
Therefore, we conclude that almost surely
Zn∼2logn−−−−−√−loglogn22logn−−−−−√(1+log(4π)+2log(Ξn)loglogn)=2logn−−−−−√−loglogn+log(4π)22logn−−−−−√−log(Ξn)2logn−−−−−√.
This corresponds to the final result on p.374 of Cramer's 1946 Mathematical Methods of Statistics except that here the exact order of the error term isn't given. Apparently applying this one more term gives the exact order of the error term, but anyway it doesn't seem necessary to prove the results about the maxima of i.i.d. standard normals in which we are interested.
Given the result of the above, namely that almost surely:
Zn∼2logn−−−−−√−loglogn+log(4π)22logn−−−−−√−log(Ξn)2logn−−−−−√⟹Zn=2logn−−−−−√−loglogn+log(4π)22logn−−−−−√−log(Ξn)2logn−−−−−√+o(1).(†)
2. Then by linearity of expectation it follows that:
EZn=2logn−−−−−√−loglogn+log(4π)22logn−−−−−√−E[log(Ξn)]2logn−−−−−√+o(1)⟹EZn2logn−−−−−√=1−E[logΞn]2logn+o(1).
Therefore, we have shown that
limn→∞EZn2logn−−−−−√=1,
as long as we can also show that
E[logΞn]=o(logn).
This might not be too difficult to show since again Ξn has the same distribution for every continuous random variable. Thus we have the second result from above.
1. Similarly, we also have from the above that almost surely:
Zn2logn−−−−−√=1−log(Ξn)2logn+o(1),.
Therefore, if we can show that:
log(Ξn)=o(logn) almost surely,(*)
then we will have shown the first result from above. Result (*) would also clearly imply a fortiori that E[log(Ξn)]=o(logn), thereby also giving us the first result from above.
Also note that in the proof above of (†) we needed to assume anyway that Ξn=o(logn) almost surely (or at least something similar), so that if we are able to show (†) then we will most likely also have in the process needed to show Ξn=o(logn) almost surely, and therefore if we can prove (†) we will most likely be able to immediately reach all of the following conclusions.
3. However, if we have this result, then I don't understand how one would also have that EZn=2logn−−−−−√+Θ(1), since o(1)≠Θ(1). But at the very least it would seem to be true that EZn=2logn−−−−−√+O(1).
So then it seems that we can focus on answering the question of how to show that Ξn=o(logn) almost surely.
We will also need to do the grunt work of providing a proof for (~), but to the best of my knowledge that is just calculus and involves no probability theory, although I have yet to sit down and try it yet.
First let's go through a chain of trivialities in order to rephrase the problem in a way which makes it easier to solve (note that by definition Ξn≥0):
Ξn=o(logn)⟺limn→∞Ξnlogn=0⟺∀ε>0,Ξnlogn>ε only finitely many times⟺∀ε>0,Ξn>εlogn only finitely many times.
One also has that:
Ξn>εlogn⟺n(1−F(Zn))>εlogn⟺1−F(Zn)>εlognn⟺F(Zn)<1−εlognn⟺Zn≤inf{y:F(y)≥1−εlognn}.
Correspondingly, define for all n:
u(ε)n=inf{y:F(y)≥1−εlognn}.
Therefore the above steps show us that:
Ξn=o(logn) a.s.⟺P(Ξn=o(logn))=1⟺P(∀ε>0,Ξn>εlogn only finitely many times)=1⟺P(∀ε>0,Zn≤u(ε)n only finitely many times)=1⟺P(∀ε>0,Zn≤u(ε)n infinitely often)=0.
Notice that we can write:
{∀ε>0,Zn≤u(ε)n infinitely often}=⋂ε>0{Zn≤u(ε)n infinitely often}.
The sequences u(ε)n become uniformly larger as ε decreases, so we can conclude that the events {Zn≤u(ε)n infinitely often}
are decreasing (or at least somehow monotonic) as ε goes to 0. Therefore the probability axiom regarding monotonic sequences of events allows us to conclude that:
P(∀ε>0,Zn≤u(ε)n infinitely often)=P(⋂ε>0{Zn≤u(ε)n infinitely often})=P(limε↓0{Zn≤u(ε)n infinitely often})=limε↓0P(Zn≤u(ε)n infinitely often).
Therefore it suffices to show that for all ε>0,
P(Zn≤u(ε)n infinitely often)=0
because of course the limit of any constant sequence is the constant.
Here is somewhat of a sledgehammer result:
Theorem 4.3.1., p. 252 of Galambos, The Asymptotic Theory of Extreme Order Statistics, 2nd edition. Let X1,X2,… be i.i.d. variables with common nondegenerate and continuous distribution function F(x), and let un be a nondecreasing sequence such that n(1−F(un)) is also nondecreasing. Then, for un<sup{x:F(x)<1}, P(Zn≤un infinitely often)=0 or 1
according as
∑j=1+∞[1−F(uj)]exp(−j[1−F(uj)])<+∞ or =+∞.
The proof is technical and takes around five pages, but ultimately it turns out to be a corollary of one of the Borel-Cantelli lemmas. I may get around to trying to condense the proof to only use the part required for this analysis as well as only the assumptions which hold in the Gaussian case, which may be shorter (but maybe it isn't) and type it up here, but holding your breath is not recommended. Note that in this case ω(F)=+∞, so that condition is vacuous, and n(1−F(n)) is εlogn thus clearly non-decreasing.
Anyway the point being that, appealing to this theorem, if we can show that:
∑j=1+∞[1−F(u(ε)j)]exp(−j[1−F(u(ε)j)])=∑j=1+∞[εlogjj]exp(−εlogj)=ε∑j=1+∞logjj1+ε<+∞.
Note that since logarithmic growth is slower than any power law growth for any positive power law exponent (logarithms and exponentials are monotonicity preserving, so loglogn≤αlogn⟺logn≤nα and the former inequality can always be seen to hold for all n large enough due to the fact that logn≤n and a change of variables), we have that:
∑j=1+∞logjj1+ε≤∑j=1+∞jε/2j1+ε=∑j=1+∞1j1+ε/2<+∞,
since the p-series is known to converge for all p>1, and ε>0 of course implies 1+ε/2>1.
Thus using the above theorem we have shown that for all ε>0, P(Zn≤u(ε)n i.o.)=0, which to recapitulate should mean that Ξn=o(logn) almost surely.
We need to show still that logΞn=o(loglogn). This doesn't follow from the above, since, e.g.,
1nlogn=o(logn),−logn+loglogn≠o(logn).
However, given a sequence xn, if one can show that xn=o((logn)δ) for arbitrary δ>0, then it does follow that log(xn)=o(loglogn). Ideally I would like to be able to show this for Ξn using the above lemma (assuming it's even true), but am not able to (as of yet).