Legge dei grandi numeri

Esistono due diverse versioni della legge dei grandi numeri descritte di seguito. Sono chiamati la legge forte dei grandi numeri e la legge debole dei grandi numeri. Indicato per il caso in cui X1, X2,… è una sequenza infinita di variabili casuali integrabili indipendenti e identicamente distribuite (i.i.d.) di Lebesgue con valore atteso E(X1) = E(X2) = …,= µ, in entrambe le versioni, la legge dello stato che – con la virtuale certezza – la media del campione

X n = 1 n ( X 1 + ⋯ + X n ) {\displaystyle {\overline {X}}_{n}={\frac {1}{n}}(X_{1}+\cdots +X_{n})}

converge al valore atteso:

X n → µ per n → ∞ . Il nostro sito utilizza cookie tecnici e di terze parti per migliorare la tua esperienza di navigazione .,}

(law., 1)

(L’integrabilità di Lebesgue di Xj significa che il valore atteso E(Xj) esiste secondo l’integrazione di Lebesgue ed è finito. Ciò non significa che la misura di probabilità associata sia assolutamente continua rispetto alla misura di Lebesgue.)

L’indipendenza reciproca delle variabili casuali può essere sostituita dall’indipendenza a coppie in entrambe le versioni della legge.

La differenza tra la versione forte e quella debole riguarda il modo di convergenza che viene affermato., Per l’interpretazione di queste modalità, vedere Convergenza di variabili casuali.

Debole lawEdit

Simulazione che illustra la legge dei grandi numeri. Ogni fotogramma, una moneta che è rossa su un lato e blu dall’altro viene capovolta, e un punto viene aggiunto nella colonna corrispondente. Un grafico a torta mostra la proporzione di rosso e blu finora. Si noti che mentre la proporzione varia significativamente all’inizio, si avvicina al 50% all’aumentare del numero di prove.,

La legge debole dei grandi numeri (chiamata anche legge di Khinchin) afferma che la media del campione converge in probabilità verso il valore atteso

Cioè, per qualsiasi numero positivo ε,

lim n → ∞ Pr ( | X n − μ | > ε ) = 0. {\displaystyle\lim _{n \a\infty} \Pr\!\left ( \ , / {\overline {X}}_{n}- \ mu / >\varepsilon \,\right)=0.,}

Interpretando questo risultato, la legge debole afferma che per qualsiasi margine diverso da zero specificato, non importa quanto piccolo, con un campione sufficientemente grande ci sarà una probabilità molto alta che la media delle osservazioni sarà vicina al valore atteso; cioè, all’interno del margine.

Come accennato in precedenza, la legge debole si applica nel caso di variabili casuali IID, ma si applica anche in alcuni altri casi. Ad esempio, la varianza può essere diversa per ogni variabile casuale nella serie, mantenendo costante il valore atteso., Se le varianze sono limitate, allora si applica la legge, come mostrato da Chebyshev già nel 1867. (Se i valori attesi cambiano durante la serie, allora possiamo semplicemente applicare la legge alla deviazione media dai rispettivi valori attesi. La legge afferma quindi che questo converge in probabilità a zero.) Infatti, la dimostrazione di Chebyshev funziona finché la varianza della media dei primi n valori va a zero come n va all’infinito., Ad esempio, supponiamo che ogni variabile casuale della serie segua una distribuzione gaussiana con media zero, ma con varianza uguale a 2 n / log ⁡ ( n + 1 ) {\displaystyle 2n/\log(n+1)} , che non è limitata. In ogni fase, la media sarà normalmente distribuita (come la media di un insieme di variabili normalmente distribuite). La varianza della somma è uguale alla somma delle varianze, che è asintotica a n 2 / log n n {\displaystyle n^{2}/\log n} . La varianza della media è quindi asintotica a 1 / log n n {\displaystyle 1 / \ log n} e va a zero.,

Ci sono anche esempi della legge debole che si applica anche se il valore atteso non esiste.

Strong lawEdit

La legge forte dei grandi numeri afferma che la media del campione converge quasi sicuramente al valore atteso

Cioè

Pr ( lim n → ∞ X n = μ ) = 1. {\displaystyle \ Pr\!\left (\lim _ {n \ to \ infty } {\overline {X}} _ {n}= \ mu \ right)=1.}

Ciò significa che la probabilità che, come il numero di prove n va all’infinito, la media delle osservazioni converge al valore atteso, è uguale a uno.,

La dimostrazione è più complessa di quella della legge debole. Questa legge giustifica l’interpretazione intuitiva del valore atteso (solo per l’integrazione di Lebesgue) di una variabile casuale se campionata ripetutamente come “media a lungo termine”.

La convergenza quasi sicura è anche chiamata forte convergenza di variabili casuali. Questa versione è chiamata la legge forte perché le variabili casuali che convergono fortemente (quasi sicuramente) sono garantite per convergere debolmente (in probabilità)., Tuttavia è noto che la legge debole regge in determinate condizioni in cui la legge forte non regge e quindi la convergenza è solo debole (in probabilità). Vedi # Differenze tra la legge debole e la legge forte.

La legge forte dei grandi numeri può essere vista come un caso speciale del teorema ergodico puntuale.

La legge forte si applica a variabili casuali indipendenti identicamente distribuite aventi un valore atteso (come la legge debole). Ciò fu dimostrato da Kolmogorov nel 1930. Può anche applicarsi in altri casi., Kolmogorov ha anche mostrato, nel 1933, che se le variabili sono indipendenti e identicamente distribuite, allora perché la media converga quasi sicuramente su qualcosa (questa può essere considerata un’altra affermazione della legge forte), è necessario che abbiano un valore atteso (e quindi ovviamente la media convergerà quasi sicuramente su quello).

Se i sommatori sono indipendenti ma non distribuiti in modo identico, allora

X n − E → → a.s. 0 , {\displaystyle {\overline {X}}_{n}-\operatorname {E} {\big }\ {\xrightarrow {\text{a.s.,}}} \ 0,}

a condizione che ogni Xk abbia un secondo momento finito e

k k = 1 ∞ 1 k 2 Var Var < ∞ . Il nostro sito utilizza cookie tecnici e di terze parti per migliorare la tua esperienza di navigazione .}

Questa affermazione è nota come legge forte di Kolmogorov, vedi ad esempio Sen & Singer (1993, Teorema 2.3.10).,

Un esempio di una serie in cui si applica la legge debole ma non la legge forte è quando Xk è più o meno k / log log log log log k k {\displaystyle {\sqrt {k/\log \log \log k}}} (a partire da k sufficientemente grande in modo che il denominatore sia positivo) con probabilità 1/2 per ciascuna. La varianza di Xk è quindi k / log log log log log k k . {\displaystyle k/\log \log\log k.} La legge forte di Kolmogorov non si applica perché la somma parziale nel suo criterio fino a k=n è asintotica per log log n / log log log log log log n {\displaystyle\log n/\log \log \ log n} e questo è illimitato.,

Se sostituiamo le variabili casuali con variabili gaussiane aventi le stesse varianze, ovvero k / log log log log log k k , {\displaystyle {\sqrt {k/\log \log \log k}},} allora anche la media in qualsiasi punto sarà normalmente distribuita. La larghezza della distribuzione della media tenderà verso lo zero (deviazione standard asintotica a 1 / 2 log log log log log n n {\displaystyle 1/{\sqrt {2\log \log \log n}}} ), ma per un dato ε, c’è probabilità che non va a zero con n, mentre la media qualche tempo dopo l’ennesima prova tornerà a ε., Poiché la larghezza della distribuzione della media non è zero, deve avere un limite inferiore positivo p(ε), il che significa che c’è una probabilità di almeno p(ε) che la media raggiungerà ε dopo n prove. Accadrà con probabilità p(ε)/2 prima di qualche m che dipende da n. Ma anche dopo m, c’è ancora una probabilità di almeno p (ε) che accadrà. (Questo sembra indicare che p (ε)=1 e la media raggiungerà ε un numero infinito di volte.,)

Differenze tra la legge debole e la legge forte

La legge forte non vale nei seguenti casi, ma la legge debole lo fa.

1. Sia X una variabile casuale distribuita esponenzialmente con il parametro 1.,)e^{X}X^{-1}} non ha alcun valore atteso secondo Lebesgue integrazione, ma l’utilizzo di convergenza condizionale e interpretare l’integrale come un integrale di Dirichlet, che è un improprio integrale di Riemann, si può dire:

E ( peccato ⁡ ( X ) e X X ) = ∫ 0 ∞ peccato ⁡ ( x ) e x x e − x d x = π 2 {\displaystyle S\left({\frac {\sin(X)e^{X}}{X}}\right)=\ \int _{0}^{\infty }{\frac {\sin(x)e^{x}}{x}}e^{-x}dx={\frac {\pi }{2}}} E ( 2 X ( − 1 ) X, X ) = ∑ 1 ∞ 2 x ( − 1 ) x x 2 − x = − ln ⁡ ( 2 ) {\displaystyle S\left({\frac {2^{X}(-1)^{X}}{X}}\right)=\ \sum _{1}^{\infty }{\frac {2^{x}(-1)^{x}}{x}}2^{-x}=-\ln(2)}

3., Se la funzione di distribuzione cumulativa di una variabile casuale è

1 − F ( x ) = e 2 x ln ⁡ ( x ) , x ≥ e {\displaystyle 1-F(x)={\frac {e}{2x\ln(x)}} x\geq e} F ( x ) = e − 2 x ln ⁡ ( − x ) , x ≤ − e {\displaystyle F(x)={\frac {e}{-2x\ln(-x)}} x\leq -e} quindi non ha alcun valore atteso, ma la legge debole è vero.

Legge uniforme di grandi numerimodifica

La legge uniforme di grandi numeri indica le condizioni in cui la convergenza avviene uniformemente in θ. Se

Allora E è continuo in θ, e

sup θ Θ Θ 1 1 n i i = 1 n f ( X i , θ ) − E → → a . s . 0., In questo caso, il sistema di gestione dei dati non è in grado di gestire i dati personali, ma è in grado di gestire i dati personali e|o i dati personali degli utenti……………………………}

Questo risultato è utile per ricavare la coerenza di una grande classe di stimatori (vedi Estimatore estremo).,

Borel la legge dei grandi numbersEdit

Borel legge dei grandi numeri, che prende il nome di Émile Borel, afferma che se un esperimento è ripetuto un gran numero di volte, in modo indipendente in condizioni identiche, quindi la percentuale di volte che un determinato evento si verifica è pari a circa la probabilità dell’evento occorrenza di un particolare processo; maggiore è il numero di ripetizioni, la migliore approssimazione tende ad essere., Più precisamente, se E denota l’evento in questione, p la sua probabilità di occorrenza, e Nn(E) il numero di volte in cui E si verifica nei primi studi n, quindi con probabilità uno,

N n ( E ) n → p come n → ∞ . Il nostro sito utilizza cookie tecnici e di terze parti per migliorare la tua esperienza di navigazione .}

Questo teorema rende rigorosa la nozione intuitiva di probabilità come la frequenza relativa a lungo termine dell’occorrenza di un evento. È un caso speciale di una qualsiasi delle leggi più generali dei grandi numeri nella teoria della probabilità.

Disuguaglianza di Chebyshev., Sia X una variabile casuale con valore atteso finito μ e varianza finita diversa da zero σ2. Quindi per qualsiasi numero reale k > 0,

Pr (/X-μ / ≥ k σ) ≤ 1 k 2 . Per maggiori informazioni clicca qui.}

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *