Pitanje:
Postoje li primjeri da su Bayesovi vjerodostojni intervali očito inferiorni od frekventnih intervala povjerenja
Dikran Marsupial
2010-09-03 23:23:44 UTC
view on stackexchange narkive permalink

Nedavno pitanje o razlici između pouzdanosti i vjerodostojnih intervala natjeralo me na ponovno čitanje članka Edwina Jaynesa na tu temu:

Jaynes, ET, 1976. `Intervali povjerenja vs Bayesovi intervali, ' u Temelji teorije vjerojatnosti, statističkog zaključivanja i statističkih teorija znanosti, WL Harper i CA Hooker (ur.), D. Reidel, Dordrecht, str. 175; ( pdf)

U sažetku, Jaynes piše:

... izlažemo Bayesova i pravovjerna rješenja šest uobičajenih statističkih problema koji uključuju intervali povjerenja (uključujući testove značajnosti na temelju istog obrazloženja). U svakom slučaju nalazimo da je situacija upravo suprotna, tj. Bayesova metoda je jednostavnija za primjenu i daje iste ili bolje rezultate. Zapravo, ortodoksni su rezultati zadovoljavajući samo kada se usko (ili točno) slažu s Bayesovim rezultatima. Još nije izveden nijedan suprotan primjer.

(naglasak moj)

Rad je objavljen 1976., pa su možda stvari krenule dalje . Moje pitanje glasi: postoje li primjeri u kojima je frekventistički interval povjerenja očito bolji od Bayesova vjerodostojnog intervala (prema izazovu koji je implicitno iznio Jaynes)?

Primjeri na temelju netočnih prethodnih pretpostavki nisu prihvatljivi kako kažu ništa o unutarnjoj dosljednosti različitih pristupa.

Pod prilično blagim pretpostavkama, (a) Bayesovi postupci procjene su prihvatljivi i (b) svi ili gotovo svi prihvatljivi procjenitelji su Bayesovi u odnosu na neke prethodne. Stoga ne čudi da Bayesov interval pouzdanosti "daje iste ili bolje rezultate". Imajte na umu da su moje izjave (a) i (b) dio * frekvencijske * analize racionalne teorije odlučivanja. Tamo gdje se frekventisti udružuju s Bayesovcima, matematika ili čak statistički postupci ne prevladavaju, već se tiču ​​značenja, opravdanja i ispravne upotrebe prioriteta za bilo koji određeni problem.
Dakle, implicira li gornji komentar da je odgovor na pitanje OP-a "Takvi se primjeri ne mogu konstruirati."? Ili možda postoji neki patološki primjer koji krši pretpostavke prihvatljivosti?
@Srikant: Dobro pitanje. Mislim da je mjesto za početak istrage situacija u kojoj postoje ne-Bayesovi prihvatljivi procjenitelji - ne nužno "patološki", ali barem oni koji pružaju priliku za pronalaženje "suprotnog primjera".
Dodao bih malo jasnoće u "netočne prethodne pretpostavke ..." navodeći da se Bayesov odgovor i frekventistički odgovor moraju služiti * istim informacijama *, inače samo uspoređujete odgovore na dva različita pitanja. Izvrsno pitanje (+1 od mene)
Mislim da sam vidio takav primjer u knjizi Larry Wassermana nazvanoj "Sve statistike" u kojoj daje primjer gdje korištenje Bayesova CI _ nije_ razumna stvar. Međutim, to je patološki primjer.
patologija ili ne, vjerojatno bi bila prva takve vrste. Jako mi je drago vidjeti ovaj primjer, jer ove "patologije" obično imaju dobar element učenja
@suncoolsu - je li primjer u Wassermanu gdje navodno "pokrivanje" pada na nulu?
@probabilityislogic. Mislim da jesam, ali moram provjeriti. Uskoro ćemo vam se javiti na ovo uskoro!
@suncoolsu - ovaj primjer Wassermana nije primjer "neispravnog Bayesa". Budući da je $ \ theta \ sim N (0,1) $ i pokrivenost za $ \ theta <2 $ dobra, imajte na umu da je $ Pr (| \ theta | <2) \ približno 0,977 $, pa je navodna "slaba pokrivenost "dobiva se samo u malom djeliću mogućnosti, ako je prioritet istinit. Ako biste prosječno izračunali ovo pokriće s obzirom na stražnji dio $ \ theta $, to bi bilo oko 95%, jer bi većina stražnjih vjerojatnosti bila u rasponu $ \ theta <2 $. (više kasnije)
@suncoolsu - rekao bih da je to dobar primjer ne-robusnih svojstava konjugiranih prethodnika. Jer ako je stvarna vrijednost $ \ theta $ recimo 4 $, ali vaš prior kaže $ \ theta \ sim N (0,1) $, tada će gotovo sigurno prior i podaci doći u sukob. Ako je prior konjugiran, ono što zapravo govorite je da su prethodne informacije * jednako uvjerljive kao i podaci *. Ako je prethodnik umjesto toga $ \ theta \ sim St (0,1,10) $ (T s 10 df), tada, budući da je vjerojatnost normalna, kažete da su podaci uvjerljiviji od prethodnika ... još)
... nastavak ... i da u slučaju sukoba želite da podaci "pobjede". Ako je situacija obrnuta (vjerojatnost studenta i uobičajeni prethodnik), ako bi se podaci sukobili s prethodnikom, prethodnik bi "pobijedio". Pogledajte [Ovaj post] (http://stats.stackexchange.com/questions/6493/mildly-informative-prior-distributions-for-scale-parameters/6506#6506) za neke poveznice kako to funkcionira. Sumnjam da bi pokrivenost bila bolja za velike $ \ theta $ (ali možda i gore za male $ \ theta $) ako bi se kao uobičajena raspodjela student-t koristila umjesto uobičajene.
Mislim da ću ovo detaljnije iznijeti kao odgovor, jer je to izvrsni primjer onoga o čemu Jaynes govori u svom radu. Wasserman pokazuje problem, pokazuje da Bayesov način daje naoko kontraintuitivan rezultat, upozorava na "opasnost od Bayesovih metoda", bez ikakve istrage o tome * zašto * Bayesovo rješenje daje rezultat koji daje. Drugo, * Interval povjerenja frekventista nije naveden u ekvivalentnom problemu! * Pokazat ću u svom odgovoru da se primjer može formulirati u ekvivalentnim frekventističkim terminima * koji daju potpuno jednak odgovor kao i Bayesov! *
Sedam odgovori:
#1
+56
Dikran Marsupial
2011-01-21 17:21:13 UTC
view on stackexchange narkive permalink

Rekao sam ranije da ću odgovoriti na pitanje, pa evo ...

Jaynes je bio pomalo nestašan u svom radu jer frekvencijski interval povjerenja nije definiran kao interval u kojem bismo mogli očekivati ​​da stvarna vrijednost statistike leži s velikom (specificiranom) vjerojatnošću, pa nije pretjerano iznenađujuće da proturječja nastaju ako se tumače kao da jesu. Problem je što se to često koristi u praksi s intervalima pouzdanosti, jer interval koji vrlo vjerojatno sadrži istinsku vrijednost (s obzirom na ono što možemo zaključiti iz uzorka podataka) često želimo.

Ključno pitanje za mene je da je, kad se postavi pitanje, najbolje imati izravan odgovor na to pitanje. Jesu li Bayesovi vjerodostojni intervali lošiji od frekventističkih intervala povjerenja, ovisi o tome koje je pitanje zapravo postavljeno. Ako je postavljeno pitanje glasilo:

(a) "Dajte mi interval u kojem je stvarna vrijednost statistike vjerojatnost p", tada se čini da frekvent na to pitanje zapravo ne može odgovoriti izravno (a ovo uvodi vrsta problema o kojima Jaynes govori u svom radu), ali Bayesovski to može, zbog čega je Bayesov vjerodostojni interval superiorniji od frekventističkog intervala povjerenja u primjerima koje je dao Jaynes. Ali ovo je samo zato što je to "pogrešno pitanje" za frekventistu.

(b) "Dajte mi interval u kojem bi, kad bi se eksperiment ponovio veći broj puta, istinska vrijednost statistike ležati unutar p * 100% takvih intervala "tada je frekvencijski odgovor upravo ono što želite. Bayesian bi također mogao biti u mogućnosti dati izravan odgovor na ovo pitanje (iako to ne mora biti samo očigledni vjerodostojni interval). Whuberov komentar na pitanje sugerira da je to slučaj.

Dakle, u osnovi je stvar ispravne specifikacije pitanja i pravilnog tumačenja odgovora. Ako želite postaviti pitanje (a), tada upotrijebite Bayesov vjerodostojni interval, ako želite postaviti pitanje (b), onda upotrijebite frekventni interval povjerenja.

Dobro rečeno, posebno o tome na koje pitanje CI zapravo odgovara. U Jaynesovom članku, međutim, spominje da su CI-ovi (i najfrekventniji postupci) dizajnirani da rade dobro "dugoročno" (npr. Koliko često vidite $ n \ rightarrow \ infty $ ili "za velike n raspodjela je približno ... "pretpostavke u frekventističkim metodama?), ali postoji mnogo takvih postupaka koji to mogu učiniti. Mislim da se tu mogu koristiti frekventističke tehnike (dosljednost, pristranost, konvergencija, itd.) Za procjenu različitih Bayesovih postupaka između kojih je teško odlučiti.
"Jaynes je bio pomalo nestašan u svom radu ..." Mislim da je poanta koju je Jaynes pokušavao iznijeti (ili poantu koju sam iz nje uzeo) u tome što se intervali povjerenja koriste za odgovor na pitanje a) u velikom broju slučajevi (pretpostavio bih da će svatko tko * ima samo frekventističku obuku * koristiti CI-je da odgovori na pitanje a) i smatrat će da su odgovarajući frekventistički odgovor
da, pod "pomalo zločestim" mislio sam samo na to da je Jaynes iznosio poantu na prilično nevaljao sukobljen (ali i zabavan) način (ili sam ga barem tako pročitao). Ali da nije, vjerojatno to ne bi imalo utjecaja.
#2
+25
probabilityislogic
2011-01-31 12:44:48 UTC
view on stackexchange narkive permalink

Ovo je "detaljno razrađen" primjer naveden u knjizi koju je napisao Larry Wasserman Sve statistike na stranici 216 ( 12.8 Snage i slabosti BayesianInference-a ). U osnovi pružam ono što Wasserman ne čini u svojoj knjizi 1) objašnjenje onoga što se zapravo događa, umjesto bacanja linije; 2) frekventni odgovor na pitanje, koji Wasserman povoljno ne daje; i 3) demonstracija da ekvivalentno pouzdanje izračunato pomoću istih podataka pati od istog problema.

U ovom primjeru navodi sljedeću situaciju

  1. Opažanje, X, s distribucijom uzorka: $ (X | \ theta) \ sim N (\ theta, 1) $
  2. Prethodna raspodjela $ (\ theta) \ sim N (0 , 1) $ (on zapravo koristi općeniti $ \ tau ^ 2 $ za varijansu, ali njegov se dijagram specijalizirao za $ \ tau ^ 2 = 1 $)

Zatim odlazi pokazati da upotreba Bayesova 95% vjerodostojnog intervala u ovoj postavci na kraju ima 0% frekventističkog pokrića kada prava vrijednost $ \ theta $ postane proizvoljno velika. Na primjer, daje graf pokrivenosti (p218) i provjeravajući očima, kada je stvarna vrijednost $ \ theta $ 3, pokrivenost je oko 35%. Zatim nastavlja:

... Što bismo iz svega ovoga trebali zaključiti? Važno je razumjeti da frekventističke i bajesove metode odgovaraju na različita pitanja. Da biste na principijelan način kombinirali prethodna vjerovanja s podacima, poslužite se Bayesovim zaključivanjem. Da biste konstruirali postupke s zajamčenim dugoročnim performansama, poput intervala pouzdanosti, koristite frekventne metode ... (p217)

I onda ide dalje bez ikakvog razaranja ili objašnjenja zašto Bayesova metoda djelovala je očito tako loše. Dalje, on ne daje odgovor iz frekventističkog pristupa, već samo široku izjavu o "dugoročnoj perspektivi" - klasičnoj političkoj taktici (naglasite svoju snagu + slabosti drugih, ali nikad ne uspoređujte slično).

Pokazat ću kako se problem kako je navedeno $ \ tau = 1 $ može formulirati u frekventističkim / pravoslavnim terminima, a zatim ću pokazati da rezultat koji koristi intervale pouzdanosti daje potpuno isti odgovor kao ona Bayesova . Stoga se bilo koji nedostatak Bayesovca (stvaran ili opažen) ne ispravlja korištenjem intervala pouzdanosti.

Dobro, evo i ovdje. Prvo pitanje koje postavljam je koje je stanje znanja opisano prethodnim $ \ theta \ sim N (0,1) $? Ako je netko bio "neuk" oko $ \ theta $, tada je prikladan način da se to izrazi $ p (\ theta) \ propto 1 $. Sad pretpostavimo da smo bili neuki i promatrali smo $ Y \ sim N (\ theta, 1) $, neovisno o $ X $. Kakav bi bio naš stražnji dio za $ \ theta $?

$$ p (\ theta | Y) \ propto p (\ theta) p (Y | \ theta) \ propto exp \ Big (- \ frac {1} {2} (Y- \ theta) ^ 2 \ Big) $$

Dakle, $ (\ theta | Y) \ sim N (Y, 1) $. To znači da je prethodna distribucija dana u primjeru Wassermans, ekvivalentna promatranju iid kopije od $ X $ jednake $ 0 $. Frekvencijske metode ne mogu se nositi s prethodnikom, ali može se smatrati da su izvršile 2 opažanja iz distribucije uzorka, jedno jednako $ 0 $, a jedno jednako $ X $. Oba su problema potpuno jednaka i na pitanje zapravo možemo dati frekventistički odgovor.

Budući da imamo posla s normalnom raspodjelom s poznatom varijancom, srednja vrijednost je dovoljna statistika za izgradnju intervala pouzdanosti za $ \ theta $. Srednja vrijednost jednaka je $ \ overline {x} = \ frac {0 + X} {2} = \ frac {X} {2} $ i ima distribuciju uzorka

$$ (\ overline { x} | \ theta) \ sim N (\ theta, \ frac {1} {2}) $$

Dakle, $ (1- \ alpha) \ text {%} $ CI daje :

$$ \ frac {1} {2} X \ pm Z _ {\ alpha / 2} \ frac {1} {\ sqrt {2}} $$

Ali , koristeći rezultate primjera 12.8 za Wassermana, pokazuje da stražnji $ (1- \ alpha) \ text {%} $ vjerodostojni interval za $ \ theta $ daje:

$$ cX \ pm \ sqrt {c} Z _ {\ alpha / 2} $$.

Gdje je $ c = \ frac {\ tau ^ {2}} {1+ \ tau ^ {2}} $. Dakle, uključivanjem vrijednosti na $ \ tau ^ {2} = 1 $ dobije se $ c = \ frac {1} {2} $ i vjerodostojni interval postaje:

$$ \ frac {1} {2} X \ pm Z _ {\ alpha / 2} \ frac {1} {\ sqrt {2}} $$

Koji su potpuno jednaki intervalu pouzdanosti! Dakle, bilo koji nedostatak pokrivenosti izložen Bayesovom metodom ne ispravlja se primjenom frekventističkog intervala pouzdanosti! [Ako se frekvent odluči zanemariti prethodnika, a radi poštene usporedbe, Bayesian bi također trebao zanemariti ovog priorca i upotrijebiti neznanje prije $ p (\ theta) \ propto 1 $, a dva intervala i dalje će biti jednaka - oba $ X \ pm Z _ {\ alpha / 2}) $].

Pa, koji se vrag ovdje događa? Problem je u osnovi jedan od ne-robusnosti normalne distribucije uzorkovanja. jer je problem ekvivalentan već uočenoj kopiji iid-a, $ X = 0 $. Ako ste primijetili $ 0 $, tada se to krajnje vjerojatno dogodilo ako je prava vrijednost $ \ theta = 4 $ (vjerojatnost da $ X \ leq 0 $ kada je $ \ theta = 4 $ 0,000032). To objašnjava zašto je pokrivenost toliko loša za velike "istinske vrijednosti", jer oni implicitno promatranje sadržano u prethodnom tekstu čine outlier . U stvari možete pokazati da je ovaj primjer u osnovi ekvivalentan pokazivanju da aritmetička sredina ima neograničenu funkciju utjecaja.

Općenito. Neki ljudi sada mogu reći "ali vi ste uzeli u obzir samo $ \ tau = 1 $, što može biti poseban slučaj ". To nije istina: bilo koja vrijednost $ \ tau ^ 2 = \ frac {1} {N} $ $ (N = 0,1,2,3, \ dots) $ može se protumačiti kao promatranje $ N $ iid kopija $ X $ koji su svi bili jednaki $ 0 $, uz $ X $ pitanja. Interval pouzdanosti imat će ista svojstva "lošeg" pokrivanja za velike $ \ theta $. Ali to postaje sve malo vjerojatnije ako nastavite promatrati vrijednosti od $ 0 $ (a niti jedna racionalna osoba ne bi se i dalje brinula zbog velikih $ \ theta $ kad i dalje vidite $ 0 $).

Hvala na analizi. AFAICS ovo je samo primjer problema uzrokovanog netočnom (informativnom) prethodnom pretpostavkom i ne govori ništa o unutarnjoj dosljednosti Bayesova pristupa?
Ne, prethodnik nije nužno netočan, osim ako prije provođenja eksperimenta zapravo nije primijetio vrijednost od 0 USD (ili stekao neko ekvivalentno znanje). To u osnovi znači da, kako istinski $ \ theta $ postaje proizvoljno velik, vjerojatnost promatranja ovih implicitnih opažanja postaje proizvoljno mala (poput dobivanja "nesretnog uzorka").
možete vidjeti napominjući da se uzorak sastoji od promatranja na $ 0 $ i drugog na $ X $. $ 0 $ je fiksno (jer je primijećeno), ali $ X $ će u većini slučajeva biti "blizu" $ \ theta $. Dakle, kako $ \ theta $ postaje velik, prosjek uzorka se sve više udaljava i od $ X $ i od $ 0 $, a budući da je varijansa fiksna, širina CI-a je fiksna, tako da na kraju neće sadržavati ni $ X $ ili $ 0 $, i stoga ne smije biti blizu niti jedne od dvije vjerojatne vrijednosti $ \ theta $ (za jednu od njih je odstupanje kad se međusobno razdvoje, za fiksne $ \ theta $)
Pogriješili ste u opisu intervala pouzdanosti koji bi trebao biti: $$ X \ pm Z _ {\ alpha / 2} $$ a to se * ne * poklapa s vjerodostojnim intervalom $$ cX \ pm c Z _ {\ alpha / 2} $$ To vrijedi za bilo koju vrijednost $ \ tau> 0 $ za koju je $ c = \ frac {\ tau ^ 2} {\ tau ^ 2 + 1} <1 $
@sextus empiricus - to vrijedi samo ako zanemarite podatke implicitne u prethodnom (tj. Postavite $ \ tau ^ 2 \ na \ infty $).Da bi problemi postali jednaki u smislu korištenih informacija, postupak CI mora dodati točke pseudo podataka prije izračuna statistike.Kada to učinite, intervali se podudaraju.
Čini se da navodite da će informacije / podaci koji implicitno stvaraju prioritet dati jednak rezultat u frekventističkom pristupu.Ali što ako su ti podaci $ Y $ i $ X $ uzorkovani za i.i.d $ \ theta_Y, \ theta_X $ umjesto $ \ theta_Y = \ theta_X $?Ako ste iz ranijih opažanja / procjena $ \ theta_1, \ theta_2, ..., \ theta_k $ otkrili da $ \ theta \ sim N (0, \ tau ^ 2) $ tada nije točno / pouzdanopovećati nove promatrane podatke / uzorak (za procjenu novog $ \ theta_ {k + 1} $) s 'umjetnim' podacima (to bi značilo da stopa uspješnosti za CI nije neovisna od $ \ theta_ {k + 1} $)
@sextus empiricus - sada se bavite drugim problemom.Ovaj problem s višestrukim $ \ theta_k $ nije primjer koji ovdje razmatram.Postoji samo jedna jedina vrijednost $ \ theta $ (tj. Ista kao i freq problem).Pdf opisuje nesigurnost njegove vrijednosti.
@probabiltyislogic zašto smatrate samo onim okusom Wassermanova problema gdje se vjerodostojni interval i intervali pouzdanosti podudaraju?Je li praktična situacija da se prior uvijek može zamijeniti podacima + neinformativni prior?Vjerujem da to često nije slučaj.(praktični slučaj problema koji sam uzimao je, na primjer, kada je $ \ theta $ IQ osobe, a $ X $ rezultat IQ testa; često ti testovi uzimaju u obzir intervale pouzdanosti umjesto vjerodostojnih intervala i MLE umjesto maksimalnih stražnjihvjerojatnost pri izražavanju predviđanja IQ-a)
@sextus empiricus - ovaj slučaj razmatram samo zato što je to bilo u članku o kojem sam raspravljao - nisam želio stvoriti "slamnatog čovjeka" govoreći o drugom problemu.Ako možete iznijeti primjer za koji mislite da je Bayes gori, trebali biste ga objaviti.
@probabilityislogic I Wasserman na slici 12.1 "Sve statistike" i Jaynes u "Intervalima povjerenja u odnosu na Bayesove intervale" opisuju slučajeve kada se * ne * podudaraju.Svakako ako upotrebljavate neinformativni prethodnik u Bayesovoj metodi (kao što je Jaynes pokazao) ili ako podatke uzorka povećavate pristranim podacima u frekventističkoj metodi (kao što ste pokazali), tada se dvije metode podudaraju.Ali i Jaynes i Wasserman opisuju slučajeve kada vi (iz bilo kojeg razloga) to ne činite ...
.... Nedostatak / prednost Bayesova / frekvencijskog tretmana je u tome što pristranost poboljšava / smanjuje točnost / preciznost ovisno o ispravnosti / netočnosti pristranosti.Ono što Jaynes tvrdi je da je Bayesova metoda bolja (kada pametno koristi prethodne informacije / znanje) ili je barem ista (kada se koristi uniformirani prethodnik), a kao bonus je i jednostavnija za izračunavanje i intuitivnija.Ali problem je u tome što bi mogao zloupotrijebiti metodu i pogrešno koristiti prioritete, što metodu učini subjektivno netočnom (na suprotnom je mjestu učestala metoda subjektivno previše konzervativna) ....
.... Vjerujem da je ovaj kontrast / razlika između prednosti i nedostataka korištenja prethodnih informacija poanta koju Wasserman želi opisati.(vjerujem da osim činjenice možete smatrati da metodu frekvencije možete učiniti sličnom dodavanjem pristranosti uzorkovanim podacima).
#3
+11
Joris Meys
2010-09-04 01:24:52 UTC
view on stackexchange narkive permalink

Problem započinje s vašom rečenicom:

Primjeri zasnovani na netočnim prethodnim pretpostavkama nisu prihvatljivi jer ne govore ništa o unutarnjoj dosljednosti različitih pristupa.

Da, kako znate kako je vaš prethodnik točan?

Uzmimo slučaj Bayesova zaključivanja u filogeniji. Vjerojatnost barem jedne promjene povezana je s evolucijskim vremenom (duljina grane t) formulom

$$ P = 1-e ^ {- \ frac {4} {3} ut} $$

pri čemu je u stopa zamjene.

Sada želite napraviti model evolucije, zasnovan na usporedbi sekvenci DNA. U osnovi pokušavate procijeniti stablo u kojem pokušavate što bliže modelirati količinu promjene između sekvenci DNA. Gore navedeni P je šansa za barem jednu promjenu na određenoj grani. Evolucijski modeli opisuju šanse za promjenu između bilo koja dva nukleotida, a iz tih evolucijskih modela izvedena je funkcija procjene, bilo s p kao parametar ili s t kao parametar.

Nemate razumnog znanja i izabrali ste stan prior za str. To u sebi implicira eksponencijalno opadajući prio za t. (Postaje još problematičnije ako želite postaviti flat prior na t. Podrazumijevani prior na p jako ovisi o tome gdje ste odsjekli raspon t.)

U teoriji, t može biti beskonačno , ali kad dopustite beskonačni domet, područje pod njegovom funkcijom gustoće jednako je beskonačnom, tako da morate definirati točku krnje za prethodnika. Sad kad ste odabrali dovoljno veliku točku krnje, nije teško dokazati da se oba kraja vjerodostojnog intervala povećavaju, a u određenom trenutku istinska vrijednost više nije sadržana u vjerodostojnom intervalu. Ako nemate dobru predodžbu o prethodnom, Bayesovim metodama nije zajamčeno da će biti jednake ili superiornije od drugih metoda.

ref: Joseph Felsenstein: Inferring Filogenies, poglavlje 18

Uz napomenu, muka mi je od te svađe Bajesa / Frekvenca. Oboje su različiti okviri, a nije ni Apsolutna istina. Klasični primjeri pro Bayesovih metoda invarijantno dolaze iz izračuna vjerojatnosti, a niti jedan frekventist neće im proturječiti. Klasični argument protiv Bayesovih metoda invarijantno uključuje proizvoljan izbor priorja. A razumni prioriteti su definitivno mogući.

Sve se svodi na ispravnu upotrebu bilo koje metode u pravo vrijeme. Vidio sam vrlo malo argumenata / usporedbi gdje su obje metode ispravno primijenjene. Pretpostavke bilo koje metode vrlo su podcijenjene i prečesto se zanemaruju.

UREDITI: da pojasnimo, problem leži u činjenici da se procjena temeljena na p razlikuje od procjene temeljene na t u Bayesovom okviru kada rad s neinformativnim priorima (što je u brojnim slučajevima jedino moguće rješenje). To nije točno u okviru ML za filogenetsko zaključivanje. Nije stvar u pogrešnom prethodniku, to je svojstveno metodi.

Moguće je da vas zanimaju razlike između Bayesove i frekventističke statistike, a da to nije svađa. Važno je znati nedostatke, kao i koristi od preferiranog pristupa. Izuzetno sam isključio priore jer to sam po sebi nije problem s okvirom, već je samo stvar GIGO-a. Ista stvar odnosi se na statistiku frekvencija, na primjer pretpostavkom i pogrešnom parametarskom raspodjelom podataka. To ne bi bila kritika frekvencijske metodologije, samo određene metode.BTW, nemam posebnih problema s nepropisnim prioritetima.
Jaynesov prvi primjer: Nijedan statističar pri zdravoj pameti nikada neće koristiti F-test i T-test na tom skupu podataka. Osim toga, uspoređuje dvostrani test s P (b> a), što nije ista provjerena hipoteza. Dakle, njegov primjer nije pravedan, što u biti priznaje kasnije. Pored toga, ne možete usporediti "okvire". O čemu onda razgovaramo? ML, REML, LS, kaznene metode, ...? intervali za koeficijente, statistiku, predviđanja, ...? Možete postaviti i pitanje je li luteranska usluga jednaka ili superiornija šiitskim uslugama. Oni govore o istom Bogu.
Možete li pojasniti koji su vaši podaci i koji su parametri koje biste procijenili u svom modelu? Malo sam zbunjen po ovom pitanju. Također, možete li koristiti $$ umjesto $ za centriranje formule? Veličina fonta trenutno je vrlo mala.
@Srikant: Primjer u knjizi Felsensteins zasnovan je na Jukes-Cantor modelu za evoluciju DNA. Podaci su DNA sekvence. Želite procijeniti vjerojatnost promjene u vašem slijedu, koja je povezana s duljinom vaše grane na temelju spomenute formule. Duljine grana definirane su kao vrijeme evolucije: što je veća šansa za promjene, to je više vremena prošlo između pretka i trenutnog stanja. Oprostite, ali ne mogu u jednom postu sažeti cijelu teoriju koja stoji iza ML-a i Bayesova filogenetskog zaključivanja. Za to je Felsensteinu trebalo pola knjige.
Pretpostavljam da sam samo želio da pojasnite koje su varijable u vašoj jednadžbi podaci, a koje parametri, jer to iz vašeg posta nije bilo jasno posebno nekome poput mene koji je autsajder. Još uvijek sam izgubljen, ali pretpostavljam da bih morao pročitati knjigu da bih saznao više.
@Srikant: Pokušao sam pojasniti malo više. Zapravo, P je parametar koji se koristi u funkciji vjerojatnosti za optimizaciju, a formula samo daje svoj odnos prema t, koji se alternativno može koristiti u funkciji vjerojatnosti. Žao mi je što ne mogu biti jasniji. Ako vas Filogenija zanima, sigurno mogu preporučiti knjigu Felsensteins, to je dragulj. http://www.sinauer.com/detail.php?id=1775
Nije mi jasno zašto je problem što flat prior na p podrazumijeva eksponencijalno opadajući prior na t. Ako je to u suprotnosti s biološkim znanjem, to jednostavno znači da stan ispred na p ne odražava stvarno predznanje. Također ne vidim zašto je problem koristiti nepravilan stan prije t (osim što bih mislio to je u suprotnosti s prethodnim znanjem; vrijeme grana ne može se reći milijardu godina, da ga još ne bismo bili ovdje, pa je neprimjereno koristiti stan prior). Imajte na umu da ravni prior ne mora nužno značiti neznanje .
@Dikran: nije problem. To je činjenica. Problem je u tome što su p i t strogo povezani i stoga bi trebali dati potpuno isti model. To se događa u ML pristupu, ali to se ne događa u Bayesovom pristupu. U primjeru Felsensteinsa, skraćivanje t-priorja na 700 ili veće čini da vjerodostojni interval više ne pokriva pravu vrijednost. U ovom konkretnom slučaju, tj. Nedostatku predznanja, Bayesov zaključak jednostavno nije izvediv. Ne postoji razumni "neinformativni" prethodnik koji se može koristiti.
@Dikran: U vezi s ravnim t-priorom: prior se skraćuje. Kad se skrati na 5 (!), Većina mase priora na p koncentrira se oko maksimalne vrijednosti p. S većim vrijednostima krnje taj je učinak još izraženiji. Poanta je - opet - da je nemoguće pronaći razumnog prethodnika kada nemate predznanja o filogenetskom zaključivanju.
Joris, mislim da promašuješ poantu, flat prior nije nužno neinformativan. Potpuno je razumno da se isto stanje znanja / neznanja izražava ravnim priorom na p i (recimo) ravnim priorom na log (t) (što je vrlo uobičajeni Jeffreyjev prior), a ne ravnim priorom na t. Istražuje li knjiga ideje MAXENT-a i transformacijske skupine za ovaj problem? U vašem primjeru nema dovoljno detalja, ali prema onome što mogu reći, čak i krnji stan prije t vjerojatno neće biti u skladu s prethodnim znanjem o t.
@Joris, također u svom izvornom komentaru predlažete da stan prije t mora biti skraćen, jer je u suprotnom područje pod funkcijom gustoće beskonačno. To nije istina, ima dosta problema kada nepropisni prioriteti rade vrlo dobro, tako da ne mora nužno biti skraćen stan prije.
@Dikran: Izgleda da ste propustili poantu: upotreba istog neinformativnog prioriteta daje dva različita modela s Bayesovom statistikom na istom skupu podataka. S ML-om nije tako. Bayesovčanin može biti vrlo pristran zbog prirode modela i nespojivosti tog modela s beskonačnim prioritetima. Ne moraš mi vjerovati. Felsenstein je autoritet za filogenetsko zaključivanje i njegova vam knjiga objašnjava bolje nego što ću ja moći. Referenca u prethodnom komentaru.
@Joris,, kao što sam rekao, flat prior NIJE POTREBNO NEINFORMATIVAN. Uzmite u obzir ovo, ako dva priora daju različite rezultate, tada mošt logično predstavlja različito stanje predznanja (vidi rana poglavlja Jaynesove knjige koja izlažu desiderata za Baysianov zaključak). Stoga prioritet "ravnog p" i "ravni t" ne može biti neinformativan. Felsenstein je možda stručnjak za filogenetsko zaključivanje, ali moguće je da nije stručnjak za Bayesov zaključak. Ako izjavi da su dva priora koja daju različite rezultate neinformativna, on se kosi s Jaynesom (koji je bio certaljni).
@Dikran: Nije poanta u tome je li flat prior neinformativan. Poanta je u tome da zadovoljavajući neinformativni prethodnik ne može biti definiran zbog prirode modela. Stoga je cijela metoda neupotrebljiva ako nemate prethodne informacije, što dovodi do zaključka da je Bayesov zaključak u ovom slučaju inferioran u odnosu na pristup ML. Felsenstein nikada nije rekao da je flat prior neinformativan. Upravo je ilustrirao zašto se neinformativni prior ne može odrediti na primjeru ravnog priorja.
@Joris - može se dogoditi da se u ovom slučaju ne može stvoriti neinformativni prior, ali ništa što ste do sada napisali ne utvrđuje da je to slučaj. Što Felsenstein piše o MAXENT-u i transformacijskim skupinama (dvije glavne tehnike korištene za određivanje neinformativnog prioriteta za određeni problem)? Ako nije istražio te metode, kako može znati da je neinformativni prior nemoguć? Čini mi se da ravni prior na p odgovara ravnom prioru na log (t), što je dobro poznati Jeffreysov prior. Možete li pokazati da je ravan trupac (t) prior informativan?
Nedavno sam dobio primjerak Felsensteinove knjige. U 18. poglavlju ne govori zašto ne možete koristiti neprikladan stan prije 0-beskonačnosti. Ni on ne spominje MaxEnt ili transformacijske grupe u svojoj kritici uniformativnih prioriteta. Iako je ostatak knjige možda vrlo dobar; to sugerira neadekvatnu učenost po tom pitanju. Lektor - samo zato što se nešto pojavi u udžbeniku ili časopisu, ne znači da je to točno.
@Dikran: maksimizacija entropije bez provjerljivih informacija dobiva samo jedno ograničenje: vjerojatnosti se zbrajaju do jednog. Tu se najčešće uzima jednolična raspodjela. Ne prihvaćam to kao odobreno, ali slažem se s izračunima i obrazloženjima Felsensteinsa. Dakle, ne slažemo se, poput više ljudi na tom polju. Felsensteina ako ga svi daleko prihvaćaju, a ja ne prihvaćam sve što on kaže. Ali po ovom pitanju, slijedim ga. Ponekad Bayesov pristup nije superiorniji od drugog. A slučaj koji opisuje po meni je jedan takav slučaj. YMMV.
Ne pretpostavljam da je Bayesov pristup ništa bolji od čestog - konji za tečajeve. U ovom slučaju ključ su vjerojatno skupine za transformaciju. Sasvim je moguće da je prioritet o duljini grane koji je nepromjenjiv prema korištenim jedinicama ekvivalentan ravninskom prioritetu o vjerojatnosti promjene - u tom je slučaju kritika Felsensteinsa pogrešno provedena. Neinformativni priori nisu nužno paušalni i neprikladno je kritizirati neinformativne priore bez spominjanja standardnih postupaka za njihovo pronalaženje! Ne znači da to znači da je Bayesian bolji, naravno.
Ovo je vrlo loš primjer "inferiornosti" Bayesovih metoda, potpuno istog tipa o kojem Jaynes govori u svom radu iz 1976. godine. Morate zapisati što * numerička / matematička jednadžba * čini ML (ili neka druga frekventistička metoda), * i odgovarajuća Bayesova metoda i njezin numerički odgovor! * Zapisali ste model, ali nema rješenja za procjenu bilo što s tim! Ostatak vašeg odgovora uvelike bi se poboljšao ako biste zapisali što je zapravo frekventni odgovor koji koristi ML.
@probabilityislogic: Dao sam reference. Ovo je mjesto za raspravu, a ne znanstveni časopis. Molimo pročitajte komentare i referencu koju sam dao za više informacija. i prije nego što to nazovete lošim primjerom.
@joris - Razumijem da ste dali referencu, ali vaša rasprava ne govori o tome kako je * rješenje intervala povjerenja superiornije od Bayesova vjerodostojnog intervala. To znači da u osnovi interval pouzdanosti u osnovi mora biti * neproračunljiv * pomoću Bayesovih metoda. Pokazujući Bayesovo rješenje koje daje isti interval, možete pokazati koje su prethodne informacije implicitno sadržane u postupku generiranja intervala pouzdanosti.
@probabilityislogic: cijela se rasprava vrti oko tvrdnje Felstensteina da je nemoguće postaviti prioritet bez da se naprave nemoguće pretpostavke o vremenu ili stopi mutacije. Ne zaboravite da govorimo o filogenetskim stablima. Ovaj koncept čini sasvim drugačiji okvir, jer nije klasični model izjednačavanja u prostoru realnih brojeva. Predložio bih vam da pročitate poglavlje njegove knjige kako biste vidjeli njegov argument o tome kako se pod određenim uvjetima može dokazati da je Bayesov pristup pogrešan. Želio bih naglasiti da je ovo JEDAN primjer. Ne govori ništa o Bayesianu općenito.
@probabilityislogic: Da bismo pokazali razliku u prirodi problema: govorite o intervalima povjerenja. Pokušajte sada definirati interval pouzdanosti oko filogenetskog stabla ...
@Joris Meys - Cijenim referencu na knjigu (ali čini se da bez veze moram kupiti njegovu knjigu kako bih pročitao vašu referencu), tu su svi argumenti. Jednadžba koju ste predstavili za model je dovoljno jednostavna (0

0, u> 0 s relacijom između svake), zapravo bi se mogla izraziti kao $ P = Pr (Y

Ispričavam se (opet), frakciju sam napisao pogrešno (danas mi jednostavno nije dan!). Dakle, trebalo bi napisati $ P = Pr (Y <\ frac {4u} {3}) $ gdje $ Y \ sim Expo (t) $ tako da $ E (Y) = \ frac {1} {t } $. Ako ne promatramo $ u $ ili $ t $, tada model nije moguće identificirati (tj. Postoji beskonačna količina vrijednosti $ u $ i $ t $ koje daju iste $ P $).
@probabilityislogic - Imam Felsensteinovu knjigu, nažalost njegovo je obrazloženje pogrešno jer izgleda da misli da su svi ravni prioriteti neinformativni i obrnuto, pa stoga činjenica da dva ravna prioriteta na različitim parametrizacijama iste stvari daju različite zaključke pokazatelj je tamo je problem. Pretpostavka je pogrešna, a zaključak iznenađujući za svakoga tko je upoznat s idejom transformacijskih skupina. U osnovi neinformativni prior po duljini grane trebao bi biti neosjetljiv na odabir jedinica, što bi dalo prioru koji je ravan na logaritamskoj skali.
@Joris, možete li dati određeni broj stranice?
komentar uklonjen - što god ...
@Dikran: Potražit ću to večeras. Tu pokazuje učinak skraćivanja na t priora. Zapravo je velika gotovo stranica, trebali ste je vidjeti kad ste čitali poglavlje. To je prilično središte njegove priče ...
@probabilityislogic: cijela poanta koju Felstenstein iznosi jest da su t i u povezani. To znači da ravan prioritet na t daje jako pristran prioritet na u i obrnuto. Morat ćete upotrijebiti prior koji favorizira određene vrijednosti za bilo koji od njih kako biste imali priora koji zapravo ima ** biološki ** smisao. Dakle, morate znati barem nešto o stopi transformacije ili vremenu mutacije da biste koristili npr. MrBayes u filogeniji.
@Joris, prošlo je neko vrijeme otkako sam pročitao dotično poglavlje, ali problem IIRC-a Felseneteins bio je taj što je stan na dužini grane biološki nevjerojatan. Slažem se, ali ravni prior na duljini grane nije nužno neinformativni prior. Čini se da Felsensteing misli (netočno) da su samo ravni prioriteti neinformativni i stoga nisu svjesni drugih izbora koji mogu biti neinformativni i biološki vjerojatni. Ipak bih trebao naglasiti da, ako imate znanje o tome što jest, a što nije biološki vjerodostojno, tada niste u potpunosti neinformirani i ne biste trebali biti vaš prethodnik!
@Joris "cijela poanta koju Felstenstein iznosi je da su t i u povezani. To znači da ravni prioritet na t daje vrlo pristran prioritet na u i obrnuto." Može se dogoditi da ovu pristranost dobijete ako napravite minimalno informativni prethodnik koji uključuje prethodno znanje da mjerne jedinice ne bi trebale imati utjecaja na zaključak (skupine transformacija).
@joris Mogu razumjeti što pokušavaš reći, postavljanjem prioriteta opisuješ * stanje znanja *, baš kao da postavljaš distribuciju uzorka. Sada u uniformi prije na $ P $ opisujete * stanje znanja * da je moguće da se na datoj grani dogodi "bez promjene" i "jedna ili više promjena". Teorija vjerojatnosti govori vam kako * koherentno * to pretvoriti u * isto stanje znanja * oko $ t $, s obzirom na vaše znanje o odnosu između $ P $ i $ t $. Dakle, "ravni" prior za $ t $ nužno opisuje * različito stanje znanja *.
Da su rješenja različita, nije ni manje ni manje iznenađujuće nego da ste koristili drugačiji model između P i t.
Malo sam znatiželjan, kako ML rješenje funkcionira za $ t $ ako samo uključite $ P $ u svoju vjerojatnost. Izvod će biti (prema pravilu lanca) $ \ frac {dL} {dt} = \ frac {dL} {dP} \ frac {dP} {dt} = 0 $, ali iz funkcije za $ P $ to znači $ \ frac {dP} {dt} = \ frac {4u} {3} e ^ {- \ frac {4} {3} ut} $, pa postavljanje $ u \ rightarrow 0 $ i $ t \ rightarrow \ infty $ tako da $ P $ je nepromijenjen (i jednak $ P_ {MLE} $) bi li riješio jednadžbu ML? Ili postoji nešto o $ u $ što nije navedeno u informaciji?
@Dikran: grafikon o skraćivanju T prikazan je na stranici 305 (slika 18.7)
@probabilityislogic: govorimo o drveću. Vjerojatnost stabla množenje je svih vjerojatnosti na svakom mjestu (čvoru) stabla, što se definira kao zbroj vjerojatnosti svakog scenarija od svih mogućih nukleotida koji su mogli postojati u unutarnjim čvorovima stabla. događaja. A ta je vjerojatnost definirana modelom koji uključuje T (ili u), a Jukes-Cantor model je najlakši. Kao što je rečeno, filogenija se ne uklapa ni u jedan klasični okvir.
@probabilityislogic: Do sada su izgrađeni brojni okviri oko Bayesovih stražnjih vjerojatnosti kao alternativa vrijednostima podrške za bootstrap, ali većina studija zaključuje - s pravom - da se oba ne mogu uspoređivati. A za procjene prethodnih oba procesa rođenja i smrti (temeljenih na podacima) kao teorijske raspodjele duljina grana opsežno su korištene. Bayesove aplikacije poput mrBayesa mogu značajno smanjiti vrijeme izračuna, ali ostaje rasprava o tome rade li bolje ili lošije, a svaka strana argumenta donosi "dokaz" za tvrdnju.
@probabilityislogic: Ali opet, većina studija ispravno zaključuje da se ne mogu uspoređivati. I dalje slijedim Felsensteina da je, u slučaju da nema daljnjeg znanja, rizik od pristranosti daleko veći kod bajesovca nego kod procjene ML za filogenetsko stablo. Ako zaronite u literaturu o filogeniji (i provjerite radove koji također nisu na mreži, znanost nije započela 1998. godine), vidjet ćete da se o ovoj kontroverzi intenzivno raspravljalo posljednjih 50 godina. Vi i @Dikran možda se ne slažete, ali ovdje su komentari daleko od pravog mjesta da se o tome pravilno razgovara. Živjeli
@Joris, Slika 18.7 na stranici 305 samo pokazuje da se korištenjem informativnog (ne neinformativnog) prethodnog procjena najveće vjerojatnosti nalazi izvan Bayesova vjerodostojnog intervala. U tome nema ni najmanje iznenađujuće. Kao što je već istaknuto, stan koji ima dužinu grane vjerojatno neće biti neinformativan (skupine transformacije), posebno kada je nepotrebno skraćen (moguće je koristiti neprikladne prethodnike).
Mislim da je nešto što je možda zanemareno u gornjoj raspravi (uključujući i mene) da je otopina ML točno jednaka maksimumu stražnje gustoće zgloba pomoću jednolike prethodne (tako $ p (\ theta | X) \ propto p (X | \ theta) $ ($ \ theta $ je vektor parametara). Dakle, ne možete * tvrditi da je ML dobro, a Bayes nije, jer je ML matematički ekvivalent Bayesovom rješenju (flat prior i 0- 1 funkcija gubitka). Morate pronaći rješenje koje * se ne može * proizvesti Bayesovim metodama.
#4
+11
probabilityislogic
2011-01-19 14:05:54 UTC
view on stackexchange narkive permalink

Keith Winstein,

EDIT: Samo da pojasnim, ovaj odgovor opisuje primjer u Keith Winstein Odgovor na kralja s okrutnom statističkom igrom. Oba odgovora Bayesian i Frequentist koriste iste podatke, a to je zanemarivanje podataka o broju poštenih i nepravednih kovanica prilikom izrade intervala. Ako se ove informacije ne zanemare, frekvent bi trebao koristiti integriranu beta-binomnu vjerojatnost kao distribuciju uzorka u konstrukciji intervala povjerenja, u kojem slučaju Clopper-Pearsonov interval povjerenja nije prikladan i treba ga modificirati. Slična bi se prilagodba trebala dogoditi i u Bayesovom rješenju.

EDIT: Također sam pojasnio početnu upotrebu Pearsonovog intervala klopera.

UREDI: nažalost, moja je alfa pogrešno, a moj interval slagača nije točan. Moje najniže isprike @whuberu, koji je to ispravno istaknuo, ali s kojim se u početku nisam složio i ignorirao.

CI koji koristi metodu Clopper Pearson vrlo je dobar

Ako dobijete samo jedno opažanje, tada se Clopper Pearsonov interval može procijeniti analitički. Pretpostavimo da se novčić pojavi kao "uspjeh" (glave) trebate odabrati $ \ theta $ tako da

$$ [Pr (Bi (1, \ theta) \ geq X) \ geq \ frac {\ alpha} {2}] \ cap [Pr (Bi (1, \ theta) \ leq X) \ geq \ frac {\ alpha} {2}] $$

Kad je $ X = 1 $ ove vjerojatnosti su $ Pr (Bi (1, \ theta) \ geq 1) = \ theta $ i $ Pr (Bi (1, \ theta) \ leq 1) = 1 $, pa Clopper Pearson CI implicira da $ \ theta \ geq \ frac {\ alpha} {2} $ (i trivijalno uvijek istinito $ 1 \ geq \ frac {\ alpha} {2} $) kada je $ X = 1 $. Kad je $ X = 0 $, te su vjerojatnosti $ Pr (Bi (1, \ theta) \ geq 0) = 1 $ i $ Pr (Bi (1, \ theta) \ leq 0) = 1- \ theta $, pa Clopper Pearson CI podrazumijeva da $ 1- \ theta \ geq \ frac {\ alpha} {2} $ ili $ \ theta \ leq 1- \ frac {\ alpha} {2} $ kada je $ X = 0 $. Dakle, za 95% CI dobivamo $ [0,025,1] $ kada je X X = 1 $, a [0,0,975] $ kada je X X = 0 $.

Stoga, onaj tko koristi Clopper Pearsonov interval povjerenja, nikada nikada neće biti odrubljen. Nakon promatranja intervala, to je u osnovi cijeli prostor parametara. Ali C-P interval to čini davanjem 100% pokrića navodno 95% intervalu! U osnovi, frekventisti "varaju" dajući 95% intervala pouzdanosti veće pokrivenost nego što je od njega / nje traženo (iako tko ne bi varao u takvoj situaciji? Da sam ja, dao bih cijelu [0, 1] interval). Kad bi kralj zatražio točan 95% CI, ova frekventistička metoda ne bi uspjela bez obzira što se zapravo dogodilo (možda postoji i bolja?).

Što je s Bayesovim intervalom? (konkretno Bayesov interval između najviših stražnjih desnitija (HPD))

Budući da a priori znamo da se mogu pojaviti i glave i repovi, odori uniforme razuman je izbor. To daje stražnju raspodjelu $ (\ theta | X) \ sim Beta (1 + X, 2-X) $. Sada sve što trebamo sada je stvoriti interval s 95% stražnjom vjerojatnosti. Slično kao clopper pearson CI, i kumulativna beta distribucija je ovdje analitička, tako da je $ Pr (\ theta \ geq \ theta ^ {e} | x = 1) = 1 - (\ theta ^ {e}) ^ {2 } $ i $ Pr (\ theta \ leq \ theta ^ {e} | x = 0) = 1- (1- \ theta ^ {e}) ^ {2} $ ako ih postavite na 0,95 daje $ \ theta ^ {e } = \ sqrt {0,05} \ približno 0,224 $ kada je $ X = 1 $ i $ \ theta ^ {e} = 1- \ sqrt {0,05} \ približno 0,776 $ kada je $ X = 0 $. Dakle, dva vjerodostojna intervala su $ (0,0,776) $ kada je $ X = 0 $ i $ (0,224,1) $ kada je $ X = 1 $

Tako će Bayesovcu biti odrubljena glava za njegov HPD vjerodostojan interval u slučaju kada dobije loš novčić i Loš novčić dođe do repova koji će se dogoditi s vjerojatnošću $ \ frac {1} {10 ^ {12} +1} \ times \ frac {1} {10} \ približno 0 $.

Prvo opažanje, Bayesov interval je manji od intervala pouzdanosti. Druga stvar je da bi Bayesian bio bliži navedenoj pokrivenosti, 95%, nego frekventist. Zapravo, Bayesian je otprilike približno 95% pokrivenosti koliko se može dobiti u ovom problemu. I suprotno Keithhovoj izjavi, ako se odabere loš novčić, 10 Bayesiansa od 100 u prosjeku će izgubiti glavu (ne svi, jer loš novčić mora doći glave da interval ne sadrži 0,1 $ $).

Zanimljivo je da ako se CP-interval za 1 promatranje koristio više puta (tako da imamo N takvih intervala, svaki se temelji na 1 promatranju), a stvarni udio bio je između 0,025 i 0,975 američkih dolara, tada je pokrivenost od 95% CI uvijek će biti 100%, a ne 95%! To očito ovisi o stvarnoj vrijednosti parametra! Dakle, ovo je barem jedan slučaj kada ponovljena upotreba intervala pouzdanosti ne dovodi do željene razine pouzdanosti.

Da citiramo izvorni 95% interval pouzdanosti, onda po definiciji trebali bi postojati neki slučajevi (tj. barem jedan) promatranog intervala koji ne sadrže istinsku vrijednost parametra . Inače, kako se može opravdati oznaka od 95%? Ne bi li bilo samo valjano ili nevaljano nazvati ga intervalom od 90%, 50%, 20% ili čak 0%?

Ne vidim kako jednostavno izjašnjavanje "zapravo znači 95% ili više "bez besplatnih ograničenja zadovoljava. To je zato što je očito matematičko rješenje cijeli prostor parametara, a problem je trivijalan. pretpostavimo da želim 50% CI? ako ograničava samo lažne negative, tada je cijeli prostor parametara valjani CI koji koristi samo ove kriterije.

Možda je bolji kriterij (i to je ono što vjerujem da je podrazumijevano u Kieth-ovoj definiciji) "što je moguće bliže 95%, a da ne padne ispod 95%". Bayesov interval imao bi pokrivenost bližu 95% od frekvencije (iako ne puno) i ne bi išao ispod 95% pokrivenosti ($ \ text {100%} $ pokrivenost kad je X X = 0 $, i 100 USD \ times \ frac {10 ^ {12} + \ frac {9} {10}} {10 ^ {12} +1} \ text {%} > \ text {95%} $ pokrivenost kada $ X = 1 $) .

Za kraj, čini se pomalo čudnim tražiti interval nesigurnosti, a zatim taj interval procijeniti pomoću prave vrijednosti oko koje nismo bili sigurni. "Poštenija" usporedba, kako za pouzdanost, tako i za vjerodostojne intervale, čini mi se kao istinitost izjave o neizvjesnosti datoj s intervalom .

Čini se da ste u prvom glavnom odlomku pobrkali $ \ alpha $ i $ 1- \ alpha $. Gdje dolazi vrijednost 10 ^ 12 + 1? Što podrazumijevate pod "obezglavljenim" ?? Ovaj tekst izgleda kao da je potreban lektura i revizija.
$ 10 ^ {12} $ odnosi se na bilijun poštenih kovanica, a 1 na nepravedne kovanice. I nisam zbunio $ \ alpha $ i $ 1- \ alpha $ naveden interval Clopper Pearson [ovdje] [1]
[oprosti s greškom u kucanju] $ 10 ^ {12} $ (TeX fiksno) odnosi se na bilijun poštenih kovanica, a 1 na nepravedne kovanice, jedan preko ovog je otprilike cca. na vjerojatnost da imate "lošu" kovanicu. Odrubljivanje glave posljedica je davanja pogrešnog intervala povjerenja. I nisam zbunio $ \ alpha $ i $ 1- \ alpha $ Clopper Pearsonov interval naveden na wiki stranici (interval pouzdanosti binomnog proporcija). Ono što se događa je jedan dio intervala C-P tautologija $ 1 \ geq \ frac {\ alpha} {2} $ kada jedno 1 promatranje. Stranica se "okreće" kada je X = 1 do X = 0, zbog čega postoje $ 1- \ theta $ i $ \ theta $.
Mislite li na odgovor @Keith Winsteina?
@whuber, da, stvarno mislim na odgovor Keitha Winsteina.
#5
+9
Keith Winstein
2010-09-04 09:22:52 UTC
view on stackexchange narkive permalink

Intervali povjerenja liječnika ograničavaju stopu lažno pozitivnih rezultata (pogreške tipa I) i jamče da će njihova pokrivenost biti ograničena parametrom pouzdanosti, čak iu najgorem slučaju. Bayesovi intervali vjerodostojnosti ne vrijede.

Dakle, ako vam je stalo do lažno pozitivnih rezultata i morate ih vezati, intervali povjerenja pristup su koji ćete htjeti koristiti.

Na primjer, recimo da imate zlog kralja sa dvorom od 100 dvorjana i kurtizana i on želi igrati okrutnu statističku igru ​​s njima. Kralj ima vreću s bilijun poštenih kovanica, plus jedan nepravedan novčić čija je vjerojatnost glava 10%. Izvest će sljedeću igru. Prvo će nasumično iz vreće izvući novčić.

Zatim će novčić biti proslijeđen po sobi od 100 ljudi i svaki će od njih biti prisiljen na privatni eksperiment i tada će svaka osoba navesti interval nesigurnosti od 95% za ono što misli da je vjerojatnost glava novčića.

Svatko tko da interval koji predstavlja lažno pozitivno - tj. interval koji ne pokriva pravu vrijednost vjerojatnosti glava - bit će odrubljene glave.

Ako smo željeli izraziti / a posteriori / funkciju raspodjele vjerojatnosti težine novčića, to je naravno interval vjerodostojnosti. Odgovor će uvijek biti interval [0,5, 0,5], bez obzira na ishod. Čak i ako okrenete nula glava ili jednu glavu, i dalje ćete reći [0,5, 0,5], jer je puno vjerojatnije da je kralj izvukao poštenu kovanicu, a vi ste imali 1/1024 dana da biste dobili deset glava u nizu , nego da je kralj izvukao nepravedan novčić.

Dakle, ovo nije dobra ideja za dvorjane i kurtizane! Jer kad se izvuče nepravedni novčić, cijela će soba (svih 100 ljudi) pogriješiti i svima će odrubiti glavu.

U ovom svijetu u kojem su najvažnije lažno pozitivne stvari, ono što trebamo je apsolutno jamstvo da će stopa lažno pozitivnih rezultata biti manja od 5%, bez obzira na to koji je novčić izvučen. Tada trebamo upotrijebiti interval pouzdanosti, poput Blyth-Still-Casella ili Clopper-Pearson, koji djeluje i pruža najmanje 95% pokrića bez obzira na stvarnu vrijednost parametra, čak i u najgorem slučaju . Ako svi koriste ovu metodu, bez obzira na to koji novčić bude izvučen, na kraju dana možemo jamčiti da očekivani broj pogrešnih ljudi neće biti veći od pet.

Dakle, poanta je: ako vaš kriterij zahtijeva ograničavanje lažnih pozitivnih rezultata (ili što je jednako jamstvu pokrića), morate ići s intervalom pouzdanosti. To rade. Intervali vjerodostojnosti mogu biti intuitivniji način izražavanja nesigurnosti, mogu se pokazivati ​​prilično dobro iz frekventističke analize, ali neće pružiti zajamčeno ograničenje lažnih pozitivnih rezultata koje ćete dobiti kad to zatražite.

(Naravno, ako vam je stalo i do lažnih negativa, trebat će vam metoda koja jamči i za njih ...)

Hrana za razmišljanje, međutim, određeni je primjer nepravedan, jer frekventistički pristup smije uzeti u obzir relativne troškove lažno pozitivnih i lažno negativnih troškova, ali Bayesov pristup nije. Ispravno što treba učiniti prema Bayesovoj teoriji odluke jest dati interval od [0,1] jer ne postoji kazna povezana s lažnim negativima. Tako u usporedbi okvira sličnih sličnim, niti jedan Bayesovčanin nikada neće biti odrubljen. Pitanje ograničavanja lažno pozitivnih rezultata mi daje smjer u kojem bih tražio odgovor na Jaynesov izazov.
Također imajte na umu da će se, ako se odabrani novčić prevrće dovoljno često, Bayesov interval pouzdanosti na kraju usredotočiti na dugotrajnu frekvenciju glava za određeni novčić, a ne na prethodnu. Da mi život ovisi o intervalu koji sadrži pravu vjerojatnost glave, ne bih bacio novčić samo jednom!
Iako o ovome malo više, ovaj je primjer nevaljan jer kriterij koji se koristi za mjerenje uspjeha nije isti kao onaj koji podrazumijeva pitanje koje je postavio kralj. Problem je u "neovisno o tome koji je novčić izvučen", klauzuli koja je stvorena da spotira bilo koju metodu koja koristi prethodno znanje o rijetkosti pristranog novčića. Kako to biva, Bayesaini mogu izvući i granice (npr. Granice PAC-a), a ako bi to pitali, to bi i učinili, a pretpostavljam da bi odgovor bio jednak intervalu Clopper-Pearson. Da bi bili pošten test, oba se pristupa moraju dati iste informacije.
Dikran, ne trebaju biti "Bayesians" i "Frequentist". Oni nisu nekompatibilne filozofske škole na koje se može pretplatiti samo jedna! Oni su matematički alati čija se djelotvornost može pokazati u zajedničkom okviru teorije vjerojatnosti. Moja poanta je da AKO je zahtjev apsolutno vezan za lažno pozitivne vrijednosti bez obzira na pravu vrijednost parametra, ONDA je interval pouzdanosti metoda koja to postiže. Naravno, svi se slažemo oko istih aksioma vjerojatnosti i isti se odgovor može izvesti na više načina.
Slažem se s prvom točkom, riječ je o "konjima za tečajeve", ali primjeri koji pokazuju gdje su granice zanimljivi su i pružaju uvid u "tečajeve" koji najbolje odgovaraju svakom "konju". Međutim, primjeri moraju biti pošteni, tako da se kriterij uspjeha podudara s postavljenim pitanjem (Jaynes možda nije u potpunosti imun na tu kritiku, na što ću se osvrnuti u odgovoru koji ću objaviti kasnije).
Interval pouzdanosti pruža samo ograničenje na * očekivani * broj lažno pozitivnih rezultata, nije moguće staviti apsolutnu granicu na broj lažno pozitivnih rezultata za određeni uzorak (zanemarujući trivijalni interval od [0,1]). Bayesian bi odredio interval takav da vjerojatnost za više od pet odsijecanja glave bude manja od neke vrijednosti praga (npr. 10 ^ -6). To se čini barem jednako korisno kao veza na očekivani broj odrubljivanja glave i ima prednost što je (vjerojatnosno) vezano za ono što se događa sa stvarnim uzorkom dvorjana. Rekao bih da je ovaj bio jasan izvlačenje.
Po mom su mišljenju intervali povjerenja * potpuno i krajnje beskorisni * OSIM DA se eksperiment ne ponovi umjeren broj puta (10 ili više). Jer sadrži li CI na razini $ \ alpha $ istiniti parametar u osnovi je $ Bernouli (\ alpha) $ slučajna varijabla koja je "pomiješana" tako da ne znamo jesmo li primijetili "uspjeh" ili ne greska". Također je ovom problemu nemoguće dati "točan" CI, jer $ 1 ^ {12} $ pomnoženo s 0,5 i 1 puta njegovo 0,1. Pokazati mi 95% ovog kompleta? ne postoji! Ne biste li jednostavno dali skup dva broja {0.5,0.1}?
Postavljeno pitanje pomalo je dvosmisleno, jer nije jasno navedeno kojim * informacijama * raspolaže 100 ljudi. Znaju li raspodjelu u vrećici? jer ako to učine, "eksperiment" je beskoristan, samo bi se dao interval $ [0,1,0,5] $ ili čak samo dvije vrijednosti $ 0,1 $ i 0,5 $ $ (daje traženi $ \ text {100%} \ geq \ tekst {95%} $ pokrivenost). Ako samo znamo da postoji vreća novčića iz koje se može izvući, Bayesian bi odredio cijeli interval [0,1], jer je lažno pozitivno * sve * što je bitno u ovom pitanju (i * veličina * intervala) ne).
Pomislio bih da gornji argument vrijedi jednako i za frekventistu. Gornji se argument (koliko mogu primijetiti) ne poziva na neka posebna Bayesova ili frekventirska načela (iako se poziva na načelo * razuma *).
Interval pouzdanosti ne ograničava stopu lažno pozitivnih rezultata - pogledajte moj odgovor u nastavku za kontra primjer za sigurnosno kopiranje mog zahtjeva.
Bok - da, vjerojatnost pokrivanja intervala pouzdanosti ograničena je dolje parametrom pouzdanosti. Dakle, interval pouzdanosti od 95% imat će pokrivenost od najmanje 95%, bez obzira na stvarnu vrijednost parametra. Interval vjerodostojnosti ne daje ovo jamstvo i može imati pokrivenost manju od vjerojatnosti - može imati čak 0% pokrivenosti za neke vrijednosti parametra, kao u primjeru "kralj". Potpunije objašnjenje potražite na http://stats.stackexchange.com/questions/2272/whats-the-difference-bet Between-a-confidence-interval-and-a-credible-interval.
@Keith - ako je istina ono što kažete, trebali biste ukazati na pogrešku koju sam počinio u svom odgovoru (u vezi s Wassermanovim primjerom). Budući da CI u tom slučaju nema 95% pokrivenosti za sve vrijednosti parametra. Dakle, ako ste u pravu, onda logično, sigurno sam pogriješio negdje u izračunima.
#6
+4
Sextus Empiricus
2020-01-09 21:08:46 UTC
view on stackexchange narkive permalink

U ovom odgovoru želim na intuitivan način opisati razliku između intervala povjerenja i vjerodostojnih intervala.

Nadam se da će vam ovo možda pomoći da shvatite:

  • zašto / koliko su vjerodostojni intervali bolji od intervala povjerenja.
  • o kojim uvjetima ovisi vjerodostojni interval i kad nisu uvijek bolji.

Vjerodostojni intervali i intervali pouzdanosti grade se na različite načine i mogu biti različiti

također pogledajte: Osnovna logika konstrukcije intervala pouzdanosti i Ako vjerodostojni interval ima ravan prethodnik, je li interval pouzdanosti 95% jednak 95% vjerodostojnom intervalu? a>

U pitanju vjerojatnostilogic dat je primjer Larryja Wassermana, kojeg je u komentarima spomenuo suncoolsu.

$$ X \ sim N (\ theta, 1) \ quad \ text {gdje} \ quad \ theta \ sim N (0, \ tau ^ 2) $$

Svaki eksperiment sa slučajnim vrijednostima za $ \ theta $ i $ X $ mogli bismo vidjeti kao zajednička varijabla. Ovo je dolje ucrtano za 20.000 simuliranih slučajeva kada $ \ tau = 1 $

Wasserman example

Ovaj se eksperiment može smatrati zajedničkom slučajnom varijablom u kojoj su i promatranje $ X $ i neopaženi parametar $ \ theta $ imaju multivarijantnu normalnu distribuciju.

$$ f (x, \ theta) = \ frac {1} {2 \ pi \ tau} e ^ {- \ frac {1} {2} \ lijevo ( (x- \ theta) ^ 2 + \ frac {1} {\ tau ^ 2} \ theta ^ 2 \ desno)} $$

$ \ alpha \% $ interval pouzdanosti i $ \ alpha \% $ - vjerodostojni interval crta granice na takav način da $ \ alpha \% $ mase gustoće $ f (\ theta , X) $ pada unutar granica. Kako se razlikuju?

  • Vjerodostojni interval crta granice procjenjujući $ \ alpha \% $ masu u vodoravnom smjeru tako da za svaku fiksnu $ X $ $ \ alpha \% $ mase pada između granica za uvjetnu gustoću $$ \ theta_X \ sim N (cX, c) \ quad \ text {with} \ quad c = \ frac {\ tau ^ 2} {\ tau ^ 2 + 1} $$ pada između granica.

  • Interval pouzdanosti crta granice procjenjujući $ \ alpha \% $ masu u okomitom smjeru tako da za svaki fiksni $ \ theta $ $ \ alpha \% $ mase pada između granica za uvjetnu gustoću $$ X_ \ theta \ sim N (\ theta, 1) \ hphantom {\ quad \ text {with} \ quad c = \ frac {\ tau ^ 2} {\ tau ^ 2 + 1}} $$

Što je drugačije?

T Interval pouzdanosti je ograničen na način da crta granice. Interval pouzdanosti postavlja ove granice uzimajući u obzir uvjetnu raspodjelu $ X_ \ theta $ i pokrivat će $ \ alpha \% $ neovisno od stvarne vrijednosti $ \ theta $ (ova neovisnost je i snaga i slabost intervala pouzdanosti) .

TVjerodostojan interval čini poboljšanje uključivanjem podataka o marginalnoj raspodjeli $ \ theta $ i na taj će način moći napraviti manje intervale bez odustajanja na prosječnoj pokrivenosti koja je i dalje $ \ alpha \% $ . (Ali postaje manje pouzdan / zakazuje kad dodatna pretpostavka o prethodnoj nije istinita)

U primjeru je vjerodostojni interval manji za faktor $ c = \ frac {\ tau ^ 2} {\ tau ^ 2 + 1} $ i poboljšanje pokrivenosti, iako manjih intervala, postiže se pomakom pomicanja intervala prema $ \ theta = 0 $ , što ima veću vjerojatnost pojave (što je gdje se koncentrira prethodna gustoća).

Zaključak

Možemo reći da će *, ukoliko su pretpostavke istinite, onda će za određeno opažanje $ X $ vjerodostojni interval uvijek izvršiti bolje (ili barem isti). Ali da, iznimka je nedostatak vjerodostojnog intervala (i prednost intervala pouzdanosti) što je uvjetna vjerojatnost pokrića $ \ alpha \% $ pristrana, ovisno o prava vrijednost parametra $ \ theta $ . To je posebno štetno kada pretpostavke o prethodnoj distribuciji $ \ theta $ nisu pouzdane.

* također pogledajte dvije metode u ovom pitanju Osnovna logika izgradnje intervala pouzdanosti. Na slici mog odgovora ilustrirano je da interval pouzdanosti može postaviti granice s obzirom na stražnju raspodjelu za dano promatranje $ X $ , na različitim 'visinama' '. Stoga možda nije uvijek optimalno odabrati najkraći interval, a za svako promatranje $ X $ možda će biti moguće smanjiti duljinu intervala pomicanjem granica dok zatvaramo isti $ \ alpha \% $ iznos mase vjerojatnosti.

Za zadani temeljni parametar $ \ theta $ uloge su obrnute, a interval pouzdanosti je bolji (manji interval u okomitom smjeru) od vjerodostojni interval. (iako ovo nije izvedba koju tražimo jer nas zanimaju intervali u drugom smjeru, intervali $ \ theta $ zadani $ X $ , a ne intervali $ X $ dani $ \ theta $ )


O iznimci

Primjeri na temelju netočnih prethodnih pretpostavki nisu prihvatljivi

Ovo izuzeće netočnih pretpostavki čini pomalo opterećenim pitanjem. Da, pod određenim uvjetima, vjerodostojni interval je bolji od intervala pouzdanosti. Ali jesu li ti uvjeti praktični?

I vjerodostojni intervali i intervali pouzdanosti daju izjave o određenoj vjerojatnosti, poput $ \ alpha \% $ slučajeva kada je parametar pravilno procijenjen. Međutim, ta je "vjerojatnost" samo vjerojatnost u matematičkom smislu i odnosi se na konkretan slučaj da su temeljne pretpostavke modela vrlo pouzdane.

Ako su pretpostavke nesigurne, ta bi se nesigurnost trebala proširiti u izračunatu nesigurnost / vjerojatnost $ \ alpha \% $ . Stoga su vjerodostojni intervali i intervali pouzdanosti u praksi prikladni samo kada su pretpostavke dovoljno pouzdane tako da se širenje pogrešaka može zanemariti. Vjerodostojne intervale možda je u nekim slučajevima lakše izračunati, ali dodatne pretpostavke otežavaju primjenu vjerodostojnih intervala (na neki način) nego intervale pouzdanosti, jer se izrađuje više pretpostavki i to će utjecati na 'true' vrijednost $ \ alpha \% $ .


Dodatno:

Ovo se pitanje malo odnosi na Zašto 95% interval povjerenja (CI) ne podrazumijeva 95% šanse za zadržavanje srednje vrijednosti?

Pogledajte na slici ispod izraz uvjetne vjerojatnosti / šanse da sadrži parametar za ovaj određeni primjer

Why does a 95% Confidence Interval (CI) not imply a 95% chance of containing the mean?

Interval pouzdanosti $ \ alpha \% $ ispravno će procijeniti / sadržavati pravi parametar $ \ alpha \% $ vremena, za svaki parametar $ \ theta $ . Ali za dano opažanje $ X $ interval $ \ alpha \% $ pouzdanosti neće procjena / sadrži pravi parametar $ \ alpha \% $ vremena. (pogreške tipa I pojavit će se jednakom brzinom $ \ alpha \% $ za različite vrijednosti osnovnog parametra $ \ theta $ . Ali za različita opažanja $ X $ stopa pogrešaka tipa I bit će različita. Za neka zapažanja interval pouzdanosti može biti više / rjeđe pogrešan od za ostala zapažanja).

Vjerodostojni interval $ \ alpha \% $ ispravno će procijeniti / sadržavati pravi parametar $ \ alpha \% $ vremena, za svako promatranje $ X $ . Ali za zadani parametar $ \ theta $ vjerodostojni interval $ \ alpha \% $ će not procjena / sadrži pravi parametar $ \ alpha \% $ vremena. (pogreške tipa I pojavit će se jednakom brzinom $ \ alpha \% $ za različite vrijednosti promatranog parametra $ X $ . Ali za različite temeljne parametre $ \ theta $ stopa pogrešaka tipa I bit će različita. Za neke temeljne parametre vjerodostojni interval može biti češće / rjeđe pogrešno nego za ostale temeljne parametre).


Kôd za izračunavanje obje slike:

  # parametar
set.seed (1)
n <- 2 * 10 ^ 4
perc = 0,95
za <- qnorm (0,5 + perc / 2,0,1)

# model
tau <- 1
theta <- rnorm (n, 0, tau)
X <- rnorm (n, theta, 1)

# dijagram raspršenja dijagrama raspodjele
zaplet (theta, X, xlab = izraz (theta), ylab = "uočeni X",
     pch = 21, col = rgb (0,0,0,0.05), bg = rgb (0,0,0,0.05), cex = 0,25,
     xlim = c (-5,5), ylim = c (-5,5)
    )

# interval pouzdanosti
t <- seq (-6,6,0,01)
crte (t, t-za * 1, col = 2)
crte (t, t + za * 1, col = 2)

# vjerodostojan interval
obsX <- seq (-6,6,0,01)
linije (obsX * tau ^ 2 / (tau ^ 2 + 1) + za * sqrt (tau ^ 2 / (tau ^ 2 + 1)), obsX, col = 3)
linije (obsX * tau ^ 2 / (tau ^ 2 + 1) -za * sqrt (tau ^ 2 / (tau ^ 2 + 1)), obsX, col = 3)

# dodavanje kontura za gustoću zglobova
conX <- seq (-5,5,0,1)
SADRŽAJ <- seq (-5,5,0.1)
u <- duljina (conX)

z matrica <- (rep (0, ln ^ 2), ln)
za (i u 1: ln) {
  za (j u 1: ln) {
    z [i, j] <- dnorm (conT [i], 0, tau) * dnorm (conX [j], conT [i], 1)
  }
}
kontura (conT, conX, -log (z), dodaj = TRUE, razine = 1:10)

legenda (-5,5, c ("interval pouzdanosti", "vjerodostojni interval", "gustoća zgloba trupaca"), lty = 1, col = c (2,3,1), lwd = c (1,1,0,5 ), cex = 0,7)
naslov (izraz (na vrhu ("raspršeni plan i kontura",
                      zalijepite ("X ~ N (", theta, ", 1) i", theta, "~ N (0,", tau ^ 2, ")")))))




# izraz uspijeva kao funkcija X i theta
# Zašto 95% interval povjerenja (CI) ne podrazumijeva 95% šanse za zadržavanje srednje vrijednosti?
izgled (matrica (c (1: 2), 1))
nominalno (mar = c (4,4,2,2), mgp = c (2,5,1,0))
pX <- seq (-5,5,0,1)
pt <- seq (-5,5,0,1)
cc <- tau ^ 2 / (tau ^ 2 + 1)

ploha (-10, -10, xlim = c (-5,5), ylim = c (0,1),
     xlab = izraz (theta), ylab = "šansa za sadržavanje parametra")
linije (pt, pnorm (pt / cc + za / sqrt (cc), pt, 1) -pnorm (pt / cc-za / sqrt (cc), pt, 1), col = 3)
crte (pt, pnorm (pt + za, pt, 1) -pnorm (pt-za, pt, 1), col = 2)
naslov (izraz (zalijepi ("za različite vrijednosti", theta)))

legenda (-3,8,0,15,
       c ("interval pouzdanosti", "vjerodostojni interval"),
       lty = 1, col = c (2,3), cex = 0,7, box.col = "bijelo")


ploha (-10, -10, xlim = c (-5,5), ylim = c (0,1),
     xlab = izraz (X), ylab = "šansa za sadržavanje parametra")
linije (pX, pnorm (pX * cc + za * sqrt (cc), pX * cc, sqrt (cc)) - pnorm (pX * cc-za * sqrt (cc), pX * cc, sqrt (cc)), col = 3)
linije (pX, pnorm (pX + za, pX * cc, sqrt (cc)) - pnorm (pX-za, pX * cc, sqrt (cc)), col = 2)
naslov (izraz (zalijepi ("za različite vrijednosti", X)))


tekst (0,0,3,
     c ("95% interval pouzdanosti \ nne podrazumijeva \ n95% šanse da sadrži parametar"),
     cex = 0,7, poz = 1)

knjižnica (oblik)
Strelice (-3,0,3, -3,9,0,38, dužina arr = 0,2)
 
Kad napišem * "Dakle, možda nije uvijek optimalno odabrati najkraći interval, a za svako promatranje $ X $ možda će biti moguće smanjiti duljinu intervala pomicanjem granica uz zatvaranje iste α% količine mase vjerojatnosti."* Mora se napomenuti da je ovaj α% promjenljiv kao funkcija X za interval pouzdanosti ...
.... Dakle, ako koristite istu varijabilnost, intervale uvijek možete učiniti kraćim ili barem jednakim.Ali kada napravite konstantnu ovisnost α% o X, kao kod tipičnog vjerodostojnog intervala, tada bi moglo biti moguće da vjerodostojni interval * nije * manji od intervala pouzdanosti za * svaki * X. To znači da vjerodostojni interval činine dominiraju uvijek intervalom pouzdanosti.(Nemam na umu jasan primjer, ali pretpostavljam da to mora biti moguće)
samo na vaš komentar na netočne prethodne pretpostavke - ako to opustimo, onda bismo također trebali uzeti u obzir da je model $ p (X | \ theta) $ također "pogrešan".Ali to obično nikome nije korisno - rješenje je obično implicitna verzija "promjene modela" (npr. Neparametarski testovi itd.)
@probabilityislogic Kada se konstruira interval pouzdanosti, tada se koristi model $ p (X \, \ vert \, \ theta) $.Kada se konstruira vjerodostojan interval, tada se ima i * dodatni * model / pretpostavka / vjerovanje za graničnu raspodjelu $ p (\ theta) $.Zapravo, za * obje * pretpostavke / modele trebali bismo uzeti u obzir koliko su pouzdani i koliko se pogreške u pretpostavkama šire u idealistički izraz Bayesove / frekventističke vjerojatnosti.Srećom izraz za $ p (X \, \ vert \, \ theta) $ često je vrlo razuman, ali $ p (\ theta) $ nije uvijek tako jasan.
Ovdje se ne slažem - često su vjerojatnost stvarni problemi (npr. Pretpostavka stalne varijance).Zašto postoji ogromna literatura o "izvanrednim situacijama" i "robusnosti" ako su vjerojatnosti razumne?Uz to, 'problem' s priorom može se lako riješiti upotrebom t-raspodjele s malim df umjesto uobičajenog.Za velike "istinske vrijednosti" $ \ theta $ prethodnik bi se ignorirao sa stražnjom koncentracijom oko $ X $, a ne $ cX $.
@probabiltyislogic u pravu ste, vjerojatnost nije uvijek najmanje problematična.Trebao sam reći da je ponekad $ p (\ theta) $ najveći problem, ponekad je $ p (X \, \ vert \, \ theta) $ ponekad to oboje.Ali osim toga, vjerojatno nije ono što ljude tjera da se, dobro ili krivo, odluče za frekventističku metodu (bitna je razlika u tome kako crtaju granice intervala i odlučuju da vjerojatnost da je interval točan ovise o drugim parametrima;dva grafikona koja sam izradio na temelju slike iz Wassermana).
@probabiltyislogic Slažem se s vama da se netko može ismijavati * "95% interval povjerenja (CI) ne podrazumijeva 95% šanse da sadrži srednju vrijednost" * kao što to čini Jaynes u članku.Često nije zabrinjavajuća vjerojatnost (osim ako se test ne izvrši mnogo puta na velikoj skupini koja usredotočuje na učestalost uspjeha, npr. Ispitivanje kvalitete ili procjena dionica ili kada funkcija gubitka ovisi o stvarnom $ \ theta$ a ne na promatranom $ X $).Međutim, stvaranje izjave o stražnjoj vjerojatnosti nije stvarno rješenje kada prior nije točan.
#7
  0
Stéphane Laurent
2012-04-07 00:30:16 UTC
view on stackexchange narkive permalink

postoje li primjeri u kojima je frekvencijski interval pouzdanosti očito bolji od Bayesova vjerodostojnog intervala (prema izazovu koji je implicitno iznio Jaynes).

Evo jednog primjer : istiniti $ \ theta $ jednak je 10 $, ali prioritet na $ \ theta $ koncentriran je oko 1 $. Radim statistiku za kliničko ispitivanje, a $ \ theta $ mjeri rizik od smrti, tako da je Bayesov rezultat katastrofa, zar ne? Ozbiljnije, što je "Bayesov vjerodostojni interval?" Drugim riječima: što je odabrani prior? Možda je Jaynes predložio automatski način odabira prioriteta, ne znam!

Bernardo je predložio "referentni prioritet" koji će se koristiti kao standard za znanstvenu komunikaciju [pa čak i "referentni vjerodostojni interval" ( Bernardo - objektivno vjerodostojne regije)]. Pod pretpostavkom da je to "Bayesov pristup", sada se postavlja pitanje: kada je interval superiorniji od drugog? Frekventistička svojstva Bayesova intervala nisu uvijek optimalna, ali nisu ni Bayesova svojstva "" frekvencijskog intervala
(usput, što je "frekvencijski interval?"

Nagađam, ali sumnjam da će ovaj odgovor zasigurno dobiti isti tretman kao i drugi. Netko će jednostavno tvrditi da je ovo pitanje lošeg izbora prethodnih, a ne neke urođene slabosti Bayesovih postupaka, koji po mom mišljenju djelomično pokušava izbjeći valjanu kritiku.
Komentar @cardinal's je sasvim u pravu. Ovdje je prior isključen za red veličine, što kritike čini vrlo slabima. Prethodne informacije bitne su i za frekventologe; ono što se zna _a priori_ treba odrediti na pr. koje se procjene i statistika ispitivanja koriste. Ako se ovi izbori temelje na informacijama koje su reda veličine pogrešne, treba očekivati ​​loše rezultate; biti Bayesov ili frekventist ne ulazi u to.
Moj "primjer" nije bio važan dio mog odgovora. Ali što je dobar izbor prior? Lako je zamisliti priora čija podrška sadrži pravi parametar, ali stražnja ne, pa je frekventistički interval superioran?
Kardinal i gost su točni, moje je pitanje izričito uključivalo "Primjeri zasnovani na netočnim prethodnim pretpostavkama nisu prihvatljivi jer ne govore ništa o unutarnjoj dosljednosti različitih pristupa." s dobrim razlogom. Frekvencijski testovi mogu se temeljiti na pogrešnim pretpostavkama kao i na Bayesovim (Bayesov okvir pretpostavke izričito navodi); pitanje je ima li * okvir * slabosti. Također ako je prava vrijednost bila u prethodnom, ali ne i stražnjem dijelu, to bi značilo da su opažanja isključila mogućnost da je istinska vrijednost točna!
@cardinal ne izbjegava kritiku Bayesovih metoda, naravno da je problem odabir prioriteta. Jednostavno pitanje nije relevantno za ovo određeno pitanje. Teškoća izvođenja integrala je još jedna slabost Bayesovih metoda. Konji za tečajeve, trik je znati koji konj za koji tečaj, otuda i moje zanimanje za pitanje.
Možda bih trebao urediti svoj odgovor i izbrisati svoj "primjer" - ovo nije ozbiljan dio mog odgovora. Moj se odgovor uglavnom odnosio na značenje "Bayesova pristupa". Kako vi nazivate Bayesov pristup? Ovaj pristup zahtijeva izbor subjektivnog prioriteta ili koristi automatski način odabira neinformativnog prioriteta? U drugom je slučaju važno spomenuti Bernardovo djelo. Drugo, niste definirali odnos "superiornosti" između intervala: kada kažete da je interval superiorniji od drugog?
Imajte na umu da prethodno isključivanje reda veličine nije važno sve dok su repovi prethodnika "masniji" od repova vjerojatno. Na primjer, ako imate $ p (x_i | \ mu) \ sim N (\ mu, 1) $ za $ i = 1, \ dots, n $, a svoj ste prioritet postavili kao $ p (\ mu) \ sim Cauchy (m, v) $. Tada stražnja srednja vrijednost ne može biti veća od neke fiksne udaljenosti od srednje vrijednosti uzorka. Nadalje, udaljenost teži nuli dok $ | m- \ overline {x} | \ do \ infty $ - tj. Kako naša prethodna pretpostavka postaje sve više u sukobu s podacima.
Problem o kojem govorite više se odnosi na prethodnu specifikaciju nego na pogrešku. Želimo da prethodnik precizno opiše koje podatke imate. Gornji je primjer onaj za koji smatramo da je funkcija vjerojatnosti pouzdanija od prethodne.


Ova pitanja su automatski prevedena s engleskog jezika.Izvorni sadržaj dostupan je na stackexchange-u, što zahvaljujemo na cc by-sa 2.0 licenci pod kojom se distribuira.
Loading...