На странице Википедии, которую вы предоставили, на самом деле не используется термин «преобразование, стабилизирующее дисперсию». Термин «стабилизирующее дисперсию преобразование» обычно используется для обозначения преобразований, которые делают дисперсию случайной величины постоянной. Хотя в случае с Бернулли это именно то, что происходит с трансформацией, это не совсем то, что является целью. Цель состоит в том, чтобы получить равномерное распределение, а не просто дисперсию, стабилизирующую.
Напомним, что одна из главных целей использования Jeffreys перед том, что она инвариантна относительно преобразований. Это означает, что если вы повторно параметризовали переменную, предыдущая не изменится.
1.
(1/2,1/2)
pγ(γ)∝1γ(1−γ)−−−−−−−√.
γ=sin2(θ)θθ=arcsin(γ−−√)0<γ<10<θ<π/2sin2(x)+cos2(x)=1
Fθ(x)fθ(x)=P(θ<x)=P(sin2(θ)<sin2(x))=P(γ<sin2(x))=Fγ(sin2(x))=dFγ(sin2(x)dx=2sin(x)cos(x)pγ(sin2(x))∝sin(x)cos(x)1sin2(x)(1−sin2(x))−−−−−−−−−−−−−−−−√=1.
Thus θ is the uniform distribution on (0,π/2). This is why the sin2(θ) transformation is used, so that the re-parametrization leads to a uniform distribution. The uniform distribution is now the Jeffreys prior on θ (since Jeffreys prior is invariant under transformation). This answers your first question.
2.
Often in Bayesian analysis one wants a uniform prior when there is not enough information or prior knowledge about the distribution of the parameter. Such a prior is also called a "diffuse prior" or "default prior". The idea is to not commit to any value in the parameter space more than other values. In such a case the posterior is then completely dependent on the data likelihood. Since,
q(θ|x)∝f(x|θ)f(θ)∝f(x|θ).
If the transformation is such that the transformed space is bounded, (like (0,π/2) in this example), then the uniform distribution will be proper. If the transformed space is unbounded, then the uniform prior will be improper, but often the resulting posterior will be proper. Although, one should always verify that this is the case.