Lei dos grandes números

Existem duas versões diferentes da lei dos grandes números, que são descritos abaixo. Eles são chamados a lei forte de grandes números e a lei fraca de grandes números. Indicado para o caso em que X1, X2, … é uma sequência infinita de variáveis aleatórias independentes e identicamente distribuídas (I. I. I. D.) Lebesgue integráveis com valor esperado E(X1) = e (X2)=…,= µ, ambas as versões da lei de estado que – com certeza virtual – a amostra média

X n = 1 n ( X 1 + ⋯ + X n ) {\displaystyle {\overline {X}}_{n}={\frac {1}{n}}(X_{1}+\cdots +X_{n})}

converge para o valor esperado:

X n → m n → ∞ . {\displaystyle {\overline {X}}_{n} \ to \mu \quad {\textrm {as}}}\ n\to \infty .,}

(law., 1)

(de Lebesgue integrabilidade de Xj significa que o valor esperado E(Xj) existe, de acordo com integração de Lebesgue e é finito. Não significa que a medida de probabilidade associada seja absolutamente contínua em relação à medida de Lebesgue.)

Independência mútua das variáveis aleatórias pode ser substituída por independência em pares em ambas as versões da lei.

a diferença entre a versão forte e fraca está relacionada com o modo de convergência sendo afirmado., Para a interpretação destes modos, veja a convergência de variáveis aleatórias.

Fraco lawEdit

Simulação ilustrando a lei dos grandes números. Cada moldura, uma moeda que é vermelha de um lado e azul do outro é invertida, e um ponto é adicionado na coluna correspondente. Um gráfico circular mostra a proporção de vermelho e azul até agora. Observe que, embora a proporção varie significativamente no início, ela se aproxima de 50% à medida que o número de ensaios aumenta.,

O fraco lei dos grandes números (também chamado de Khinchin lei) indica que a amostra média converge em probabilidade para o valor esperado

isto é, para qualquer número positivo ε,

lim n → ∞ Pr ( | X n − µ | > ε ) = 0. {\displaystyle \lim _{n\to \infty }\Pr \!\left(\,|{\overline {X}}_{n}-\mu |>\varepsilon \,\right)=0., interpretando este resultado, a lei fraca afirma que para qualquer margem não-zero especificada, não importa quão pequena, com uma amostra suficientemente grande haverá uma probabilidade muito alta de que a média das observações estará próxima do valor esperado; ou seja, dentro da margem.

Como mencionado anteriormente, a lei fraca se aplica no caso de variáveis aleatórias, mas também se aplica em alguns outros casos. Por exemplo, a variância pode ser diferente para cada variável aleatória na série, mantendo o valor esperado constante., Se as variâncias são limitadas, então a lei se aplica, como mostrado por Chebyshev já em 1867. (Se os valores esperados mudarem durante a série, então podemos simplesmente aplicar a lei ao desvio médio dos respectivos valores esperados. A lei então afirma que isso converge em probabilidade para zero.) De fato, a prova de Chebyshev funciona desde que a variância da média dos primeiros valores n vá para zero enquanto n vai para o infinito., Como exemplo, assumir que cada variável aleatória na série segue uma distribuição gaussiana com zero médio, mas com variância igual a 2 n / log ⁡ (n + 1 ) {\displaystyle 2n/\log (n+1)} , que não é delimitada. Em cada fase, a média será normalmente distribuída (como a média de um conjunto de variáveis normalmente distribuídas). A variância da soma é igual à soma das variâncias, que é assintótica para n 2 / log ⁡ n {\displaystyle n^{2}/\log n} . A variância da média é, portanto, assintótica para 1 / log ⁡ n {\displaystyle 1 / \log n} e vai para zero.,

existem também exemplos da lei fraca que se aplica, embora o valor esperado não exista.

lavedit forte

a lei forte de grandes números afirma que a média da amostra converge quase certamente para o valor esperado

isto é,

Pr ( lim n → ∞ X N = μ ) = 1. \ \ displaystyle \Pr \!\left (\lim _{n\to \infty } {\overline {X}}_{n}= \ mu \right) = 1.}

O que isto significa é que a probabilidade de que, à medida que o número de ensaios n vai para o infinito, a média das observações converge para o valor esperado, é igual a um.,

A prova é mais complexa do que a da lei fraca. Esta lei justifica a interpretação intuitiva do valor esperado (apenas para a integração de Lebesgue) de uma variável aleatória quando amostrada repetidamente como a “média de longo prazo”.

quase certeza convergência também é chamada de forte convergência de variáveis aleatórias. Esta versão é chamada de lei forte porque variáveis aleatórias que convergem fortemente (quase certamente) são garantidas para convergir fracamente (em probabilidade)., No entanto, sabe-se que a lei fraca se mantém em certas condições em que a lei forte não se mantém e, em seguida, a convergência é apenas fraca (na probabilidade). Veja # diferenças entre a lei fraca e a lei forte.

a lei forte dos números grandes pode ser vista como um caso especial do teorema ergódico ponteiro.

a lei forte aplica-se a variáveis aleatórias independentes identicamente distribuídas com um valor esperado (como a lei fraca). Isto foi provado por Kolmogorov em 1930. Pode também aplicar-se noutros casos., O teste de Kolmogorov também mostrou, em 1933, que, se as variáveis são independentes e identicamente distribuídos, em seguida, para a média converge quase certamente em alguma coisa (isso pode ser considerado outra declaração do forte da lei), é necessário que eles tenham um valor esperado (e é claro que a média converge quase certamente no que).

Se os sumários forem independentes mas não forem distribuídos de forma idêntica, então

X n-e ⁡ → a. s. 0, {\displaystyle {\overline {X}}_{n}- \ operatorname {e} {\big }\ {\xrightarrow {\text{a. s.,}}}\ 0,}

desde que cada Xk tenha um segundo momento finito e

∑ k = 1 ∞ 1 k 2 Var Var < ∞ . {\displaystyle \sum _{k=1}^{\infty }{\frac {1}{k^{2}}}\operatorname {Var} <\infty .}

Esta afirmação é conhecida como a lei forte de Kolmogorov, ver por exemplo Sen & Singer (1993, Teorema 2.3.10).,

um exemplo de uma série onde a lei fraca se aplica, mas não a lei forte é quando Xk é mais ou menos k / log ⁡ log log log log k {\displaystyle {\sqrt {k/\log \log \log \ log K}}} (começando com k suficientemente grande para que o denominador seja positivo) com probabilidade 1/2 para cada um. A variância de Xk é então k / log ⁡ log ⁡ log ⁡ K. {\displaystyle k / \log \log \log k.} a lei forte do Kolmogorov não se aplica porque a soma parcial do seu critério até k=n é assintótica até log ⁡ n / log ⁡ log ⁡ log ⁡ n {\displaystyle \log n/\log \log \log n} E isto não está limitado.,

se substituirmos as variáveis aleatórias por variáveis Gaussianas com as mesmas variâncias, nomeadamente k / log ⁡ log log log log k , {\displaystyle {\sqrt {k/\log \log \log \ log k}}}, então a média em qualquer ponto também será normalmente distribuída. A largura da distribuição de média tendem a zero (desvio padrão assintótico para 1 / 2 log ⁡ log ⁡ log ⁡ n {\displaystyle 1/{\sqrt {2\log \log \n log n}}} ), mas, para um dado ε, há probabilidade de que não ir a zero com n, enquanto que a média algum tempo após o n-ésimo ensaio vai voltar para ε., Uma vez que a largura da distribuição da média não é zero, ela deve ter um limite inferior positivo P(ε), o que significa que há uma probabilidade de pelo menos P(ε) Que a média atingirá ε após n ensaios. Isso vai acontecer com probabilidade P (ε) / 2 antes de algum m que depende de N. Mas mesmo depois de m, ainda há uma probabilidade de pelo menos P(ε) Que isso vai acontecer. (Isto parece indicar que P (ε)= 1 e a média atingirá ε um número infinito de vezes.,)

diferenças entre a lei fraca e o forte lavedit

a lei forte não é válida nos seguintes casos, mas a lei fraca é.1. Deixe X ser uma variável aleatória exponencialmente distribuída com o parâmetro 1.,)e^{X}X^{-1}} não tem nenhum valor esperado de acordo com integração de Lebesgue, mas usando convergência condicional e interpretar a integral como uma integral de Dirichlet, que é inadequado integral de Riemann, podemos dizer que:

E ( pecado ⁡ ( X ) e X X ) = ∫ 0 ∞ pecado ⁡ ( x ) e x x e − x d x = π 2 {\displaystyle E\left({\frac {\sin(X)e^{X}}{X}}\right)=\ \int _{0}^{\infty }{\frac {\sin(x)e^{x}}{x}}e^{-x}dx={\frac {\pi }{2}}} E ( 2 X ( − 1 ) X, X ) = ∑ 1 ∞ 2 x ( − 1 ) x x 2 − x = − ln ⁡ ( 2 ) {\displaystyle E\left({\frac {2^{X}(-1)^{X}}{X}}\right)=\ \sum _{1}^{\infty }{\frac {2^{x}(-1)^{x}}{x}}2^{-x}=-\ln(2)}

3., Se a função de distribuição acumulada de uma variável aleatória é

1 − F ( x ) = e 2 x ln ⁡ ( x ) , x ≥ e {\displaystyle 1-F(x)={\frac {e}{2x\ln(x)}},x\geq e} F ( x ) = e − x 2) ln ⁡ ( − x ) , x ≤ − e {\displaystyle F(x)={\frac {e}{-2x\ln(-x)}},x\leq -e}, então ele não tem nenhum valor esperado, mas o fraco lei é verdadeira. a Lei Uniforme dos grandes números estabelece as condições em que a convergência acontece uniformemente em θ. If

Then E is continuous in θ, and

sup θ θ Θ 1 1 n ∑ i = 1 N f (X i, θ ) − e ⁡ ‖ → A. s . 0., {\displaystyle \sup _{\theta \in \Theta }\left\|{\frac {1}{n}}\sum _{i=1}^{n}f(X_{i},\theta )-\operatorname {E} \right\|{\xrightarrow {\mathrm {a.s.} }}\ 0. este resultado é útil para derivar consistência de uma grande classe de estimadores (ver estimador Extremo).,

Borel da lei dos grandes numbersEdit

Borel da lei dos grandes números, chamado depois de Émile Borel, afirma que se um experimento é repetido um grande número de vezes, de forma independente, sob condições idênticas, em seguida, a proporção de vezes que qualquer evento especificado ocorre aproximadamente igual a probabilidade do evento a ocorrência de qualquer prova em particular; quanto maior o número de repetições, melhor a aproximação tende a ser., Mais precisamente, se E denota o evento em questão, P sua probabilidade de ocorrência, e Nn(e) o número de vezes E ocorre nos primeiros ensaios n, então com probabilidade um,

n ( e ) n → P Como n → ∞ . {\displaystyle {\frac {N_{n} (e)} {n}}\to p{\text{ as}}} n\to \infty .}

este teorema torna rigorosa a noção intuitiva de probabilidade como a frequência relativa de longo prazo da ocorrência de um evento. É um caso especial de qualquer uma das várias leis mais gerais de grandes números na teoria das probabilidades.a desigualdade de Chebyshev., Seja X uma variável aleatória com valor esperado finito μ e variância finita não-zero σ2. Em seguida, para qualquer número real k 0, Pr (|X − μ / ≥ k σ ) ≤ 1 k 2 . {\displaystyle \Pr (/X – \mu / \ geq k\sigma) \leq {\frac {1}{k^{2}}}}.}

Deixe uma resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *