Pitanje:
Konvergencija vjerojatnosti naspram gotovo sigurne konvergencije
raegtin
2010-08-31 08:57:21 UTC
view on stackexchange narkive permalink

Nikad zapravo nisam napipao razliku između ove dvije mjere konvergencije. (Ili, zapravo, bilo koji od različitih tipova konvergencije, ali ovo dvoje posebno spominjem zbog slabih i jakih zakona velikih brojeva.)

Svakako, mogu citirati definiciju svakog od njih i navedite primjer gdje se razlikuju, ali još uvijek ne razumijem.

Koji je dobar način da se razumije razlika? Zašto je razlika bitna? Postoji li posebno pamtljiv primjer gdje se razlikuju?

Također odgovor na ovo: http://stats.stackexchange.com/questions/72859/is-there-a-statistic-application-that-requires-strong-consistentity
Mogući duplikat [Postoji li statistička aplikacija koja zahtijeva jaku dosljednost?] (Https://stats.stackexchange.com/questions/72859/is-there-a-statistic-application-that-requires-strong-consistentity)
šest odgovori:
#1
+77
Robby McKilliam
2010-08-31 11:53:32 UTC
view on stackexchange narkive permalink

S mog gledišta razlika je važna, ali uglavnom iz filozofskih razloga. Pretpostavimo da imate neki uređaj koji se s vremenom poboljšava. Dakle, svaki put kada koristite uređaj vjerojatnost da će otkazati manja je nego prije.

Konvergencija vjerojatnosti kaže da šansa za neuspjeh ide na nulu jer broj korištenja ide u beskonačnost. Dakle, nakon što ste uređaj upotrebljavali veći broj puta, možete biti vrlo sigurni da ispravno radi, još uvijek može zakazati, vrlo je malo vjerojatno.

Konvergencija je gotovo sigurno nešto jača. Kaže da je ukupan broj kvarova konačan . Odnosno, ako broj neuspjeha računate kako broj navika ide u beskonačnost, dobit ćete konačan broj. Učinak ovoga je sljedeći: Kako sve više upotrebljavate uređaj, iscrpit ćete, nakon određenog broja upotreba, sve kvarove. Od tada će uređaj raditi savršeno .

Kao što Srikant ističe, zapravo ne znate kada ste iscrpili sve neuspjehe, tako da s čisto praktičnog gledišta nema velike razlike između dva načina konvergencije.

Međutim, osobno mi je jako drago što, na primjer, postoji jak zakon velikih brojeva, za razliku od samo slabog zakona. Jer sada je znanstveni eksperiment za dobivanje, recimo, brzine svjetlosti, opravdan u uzimanju prosjeka. Barem u teoriji, nakon dobivanja dovoljno podataka, možete se proizvoljno približiti stvarnoj brzini svjetlosti. U procesu usrednjavanja neće biti nikakvih grešaka (ma koliko nevjerojatnih).

Dopustite mi da pojasnim što mislim pod pojmom "neuspjesi (koliko god nevjerojatni bili) u postupku usrednjavanja". Odaberite neku $ \ delta> 0 $ proizvoljno malu. Dobivate $ n $ procjene $ X_1, X_2, \ dots, X_n $ brzine svjetlosti (ili neke druge količine) koja ima neku `istinsku 'vrijednost, recimo $ \ mu $. Izračunavate prosjek $$ S_n = \ frac {1} {n} \ sum_ {k = 1} ^ n X_k. $$ Kako dobivamo više podataka ($ n $ se povećava), možemo izračunati $ S_n $ za svaki $ n = 1,2, \ dots $. Slabi zakon kaže (pod nekim pretpostavkama o $ X_n $) da vjerojatnost $$ P (| S_n - \ mu |> \ delta) \ rightarrow 0 $$ jer $ n $ odlazi na $ \ infty $. Jaki zakon kaže da je broj puta koji je $ | S_n - \ mu | $ veći od $ \ delta $ konačan (s vjerojatnošću 1). Odnosno, ako definiramo funkciju indikatora $ I (| S_n - \ mu |> \ delta) $ koja vraća jednu kada $ | S_n - \ mu | > \ delta $ i nula u suprotnom, tada $$ \ sum_ {n = 1} ^ {\ infty} I (| S_n - \ mu |> \ delta) $$ konvergira. To vam daje znatno povjerenje u vrijednost $ S_n $, jer jamči (tj. S vjerojatnošću 1) postojanje nekih konačnih $ n_0 $, takvih da $ | S_n - \ mu | < \ delta $ za svih $ n> n_0 $ (tj. Prosjek nikad ne uspije za $ n> n_0 $). Imajte na umu da slab zakon ne daje takvo jamstvo.

Hvala, sviđa mi se konvergencija gledišta beskonačnih nizova!
Mislim da ste mislili na brojivo, a ne nužno na konačno, jesam li u krivu? Ili se miješam s integralima.
Da bismo bili precizniji, skup događaja koji se događaju (ili ne) je s mjerom nule -> vjerojatnost nule da se dogodi.
Nisam siguran da razumijem argument koji vam gotovo siguran daje "poprilično povjerenje".Samo zato što $ n_0 $ postoji ne govori vam jeste li ga već dosegli.Konačno ne znači nužno malo ili praktično ostvarivo.Čini se da vam sam po sebi jak zakon ne govori kada ste dosegli ili kada ćete doseći $ n_0 $.
#2
+33
user1108
2011-05-20 07:47:18 UTC
view on stackexchange narkive permalink

Znam da je na ovo pitanje već odgovoreno (i po meni prilično dobro), ali bilo je drugo pitanje ovdje koje je imalo komentar @NRH u kojem se spominje grafičko objašnjenje, a ne stavi slike tamo, činilo bi se prikladnije staviti ih ovdje.

Dakle, evo. Nije cool kao R paket. Ali samostalan je i ne zahtijeva pretplatu na JSTOR.

U nastavku govorimo o jednostavnom slučajnom hodu, $ X_ {i} = \ pm 1 $ s jednakom vjerojatnosti, i izračunavamo tekuće prosjeke, $$ \ frac {S_ {n}} {n} = \ frac {1} {n} \ sum_ {i = 1} ^ {n} X_ {i}, \ quad n = 1, 2, \ ldots. $$

Strong Law of Large Numbers

SLLN (konvergencija gotovo sigurno) kaže da možemo biti 100% sigurni da se ovo rastezanje krivulje s desne strane će na kraju, u neko ograničeno vrijeme, zauvijek nakon toga zauvijek pasti unutar opsega (udesno).

R kôd koji se koristi za generiranje ovog grafa je dolje (naljepnice crteža izostavljene su zbog kratkoće).

  n <- 1000; m <- 50; e <- 0,05s <- cumsum (2 * (rbinom (n, veličina = 1, prob = 0,5) - 0,5)) parcela (s / seq.int (n), type = "l", ylim = c (- 0,4, 0,4)) abline (h = c (-e, e), lty = 2)  

Weak Law of Large Numbers

WLLN (konvergencija u vjerojatnost) kaže da će se velik udio putova uzorka nalaziti u opsezima s desne strane, u trenutku $ n $ (za gore navedeno izgleda oko 48 ili 9 od 50). Nikad ne možemo biti sigurni da će neka određena krivulja biti unutra u bilo koje određeno vrijeme, ali gledajući masu jufki iznad nje bila bi prilično sigurna oklada. WLLN također kaže da udio jufki unutar možemo učiniti što bližim 1 čineći plohu dovoljno širokom.

Slijedi R kod za graf (opet preskakanje oznaka).

  x <- matrica (2 * (rbinom (n * m, veličina = 1, prob = 0,5) - 0,5), ncol = m) y <- primijeni (x, 2, funkcija (z ) cumsum (z) / seq_along (z)) matplot (y, type = "l", ylim = c (-0.4,0.4)) abline (h = c (-e, e), lty = 2, lwd = 2 )
 
#3
+6
user28
2010-08-31 09:39:45 UTC
view on stackexchange narkive permalink

Shvaćam kako slijedi,

Konvergencija vjerojatnosti

Vjerojatnost da je slijed slučajnih varijabli jednak ciljanoj vrijednosti asimptotski se smanjuje i približava se 0, ali zapravo nikada ne postiže 0.

Gotovo sigurna konvergencija

Slijed slučajnih varijabli jednak će ciljnoj vrijednosti asimptotski, ali ne možete predvidjeti u kojoj točki dogodit će se.

Gotovo je sigurno da je konvergencija jači uvjet ponašanja niza slučajnih varijabli jer navodi da će se "nešto sigurno dogoditi" (samo ne znamo kada). Suprotno tome, konvergencija vjerojatnosti kaže da se „dok se nešto vjerojatno događa“ vjerojatnost da se „nešto ne dogodi“ asimptotski smanjuje, ali zapravo zapravo ne doseže 0. (nešto $ \ equiv $ niz slučajnih varijabli koji se konvergiraju u određenu vrijednost).

wiki wiki sadrži nekoliko primjera koji bi mogli pomoći u razjašnjenju gore navedenog (posebno vidjeti primjer strijelca u kontekstu konvergencije u prob i primjer dobročinstva u kontekst gotovo sigurne konvergencije).

S praktičnog stajališta, konvergencija vjerojatnosti je dovoljna jer nam nije osobito stalo do vrlo nevjerojatnih događaja. Kao primjer, dosljednost procjenitelja u osnovi je konvergencija vjerojatnosti. Stoga, kada koristimo konzistentnu procjenu, implicitno priznajemo činjenicu da u velikim uzorcima postoji vrlo mala vjerojatnost da je naša procjena daleko od prave vrijednosti. Živimo s tim "nedostatkom" konvergencije vjerojatnosti jer znamo da je asimptotski vjerojatnost procjenitelja daleko od istine nestajuće mala.

Pokušavajući urednik tvrdi da bi ovo trebalo glasiti: "Vjerojatnost da slijed slučajnih varijabli * nije jednak * ciljanoj vrijednosti ...".
"Vjerojatnost da je niz slučajnih varijabli jednak ciljanoj vrijednosti asimptotski se smanjuje i približava se 0, ali zapravo nikada ne doseže 0." Zar ne bi trebalo biti SVIBANJ da zapravo nikad ne postigne 0?
@gung Vjerojatnost da je jednaka ciljanoj vrijednosti približava se 1 ili vjerojatnost da nije jednaka ciljanim vrijednostima približava se 0. Trenutna definicija nije točna.
#4
+5
Kingsford Jones
2010-09-01 05:00:39 UTC
view on stackexchange narkive permalink

Ako uživate u vizualnim objašnjenjima, o ovoj je temi u američkom Statističaru objavljen lijep 'Učiteljski kutak' (citirajte dolje). Kao bonus, autori su uključili R paket za olakšavanje učenja.

  @article {lafaye09, title = {Razumijevanje koncepata konvergencije: vizualno razmišljanje i grafička simulacija -Osnovni pristup}, autor = {Lafaye de Micheaux, P. i Liquet, B.}, časopis = {The American Statistician}, svezak = {63}, broj = {2}, stranice = {173--178}, godina = {2009}, izdavač = {ASA}}  
#5
+1
Tim Brown
2012-09-14 13:10:29 UTC
view on stackexchange narkive permalink

Ovaj posljednji tip to vrlo dobro objašnjava. Ako uzmete niz slučajnih varijabli Xn = 1 s vjerojatnošću 1 / n, a u suprotnom nuli. Lako je vidjeti kako se uzimaju ograničenja da se to vjerojatnost približava nuli, ali ne uspijeva se gotovo sigurno približiti. Kao što je rekao, vjerojatnost nije briga što ćemo možda spustiti s puta. Gotovo sigurno.

Gotovo sigurno podrazumijeva konvergenciju vjerojatnosti, ali ne i obrnuto, da?

Dobrodošli na stranicu, @Tim-Brown,, cijenimo vašu pomoć u odgovaranju na ovdje postavljena pitanja. Treba napomenuti da je najbolje identificirati ostale odgovore prema korisničkom imenu odgovornika, "ovaj posljednji tip" neće biti vrlo učinkovit. Npr., Popis će se s vremenom preuređivati ​​dok ljudi budu glasali. Možda ćete htjeti pročitati naš [FAQ] (http://stats.stackexchange.com/faq).
#6
  0
Sebastian
2018-01-23 13:52:04 UTC
view on stackexchange narkive permalink

Jedna stvar koja mi je pomogla da shvatim razliku je sljedeća ekvivalencija

$ P ({\ lim_ {n \ to \ infty} | X_n-X | = 0}) = 1 \ Leftarrow \ Rightarrow \ lim_ {n \ to \ infty} ({\ sup_ {m> = n} |X_m-X | > \ epsilon}) = 0 $ $ \ forall \ epsilon > 0 $

U usporedbi sa stohastičkom konvergencijom:

$ \ lim_ {n \ to \ infty} P (| X_n-X | > \ epsilon) = 0 $ $ \ forall \ epsilon >0 $

Kada uspoređujem desnu stranu gornje ravnoteže sa stohastičkom konvergencijom, mislim da je razlika jasnija.



Ova pitanja su automatski prevedena s engleskog jezika.Izvorni sadržaj dostupan je na stackexchange-u, što zahvaljujemo na cc by-sa 2.0 licenci pod kojom se distribuira.
Loading...