Kursens hemsida   schema
Aktuell Information Harald
 

Tentan 1/6/2011 var idenstisk med den här för sf1901

Tentan 12/1/2011 med lösningar

Tentan 13/1-10 med svar.

Tentan (22/10-09) är REDAN rättad!

Det var 118 skrivande. Bra resultat:

A: 15%,   B: 11%,   C: 20%,   D: 15%,   E: 10%,   F: 29%.

Tentan med svar

Onsdag 14/10

Jag fotrsatte att göra hypotes­prövning med olika varianter av χ2-test (t.ex. kontingens­tabell). Jag gjorde bl.a. övningarna 13.29 (korri­gerad och kommen­terad), 13.32, 13.35 och ett par egen­producerade exempel.

Slutligen babblade jag litet om bristerna och svag­heterna i konceptet "hypotes­prövning" och visade litet snabbt hur en Bayesian kunde se på saken.

Tisdag 13/10

Jag visade med några exempel hur man gör konfidens­intervall för poisson-intensi­teter. Därefter talade jag om hypotes­prövning med hjälp av klonfidens­intervall.

Andra timmen ägnade jag åt att definiera χ2-fördel­ningen, och antydde med ett enkelt exempel hur test­variabeln Q uppstår när man gör χ2-test. Därefter visade jag med ett par exempel hut man testar om poisson-intensi­teter är lika med hjälp av χ2-test. Jag har skrivit en kortfattad beskriv­ning här: Hypote­stest av lika poisson­intensi­teter, eftersom detta inte står i boken (ni behöver inte kunna konfidensintervall för förhållandet, som står nederst på sidan). Jag antydde också snabbt varför upp­gift 13:29 är fel­aktig, såvida man inte antar att antalet utlånade böcker under en dag är poisson-fördelat (vilket är tvivel­aktigt). Jag återkommer till detta i morgon.

Onsdag 7/10

Till övningslärarna: Jag tar inte upp konfidens­intervall för skillnad i andel. Det finns inte heller i formel­samlingen. Ändra därför övning 12.33 till att bara bestämma konfidens­intervall för andelen borgerliga sympatisörer vi de två intervju­till­fällena. Vi åter­kommer till övningen senare (sista gången) då vi gör hypotes­prövningen om andelarna är lika. Då med χ2-test.

Jag gick igenom här­ledningen för konfidens­intervall för vänte­värde av normal­fördelning, både då standard­avvikelsen är känd och då den är okänd. Sedan gjorde jag konfidens­intervall för andel (sannolikhet), fast jag hoppade över en del av formel­manipula­tionerna på slutet.

Därefter visade jag bara hur man gör konfidens­intervall för skillnad i vänte­värden utan här­ledning, och påpekade skillnaden mellan "två oberoende stickprov" och "observa­tioner i par".

Det som återstår angående konfidens­intervall är nu inter­vall för Poisson­intensitet. Men jag kommer nog inte att göra någon närmare här­ledning, utan hänvisa till att det går till på samma sätt som i fallet binomial­fördelning (andel, sannolikhet).

Tisdag 6/10

Jag pratade om regression och multipel regression. Jag påpekade att tolkningen av en regressionsmodell som prediktionsekvation är oproblematisk, med att en tolkning som strukturekvation (orsak — verkan) kan vara knepig och att det finns många fällor. Jag illustrerade med några exempel.

projektuppgiften skall vara inlämnad, enligt reglerna i peket, till övningsläraren senast vis sista övningstillfället. Om ni inte hinner tills dess får ni förhandla med övningsläraren om att lämna i till denne senare, men det måste absolut ske innan tentan.

Här är en länk till Ian Ayres' sida med prediktions-script (Han som skrev "Super Crunchers"). Här finns t.ex scriptet för prediktion av vinkvalitet, som jag berättade om.

Tisdag 29/9

Jag fortsatte med "moment­skatting" som är samma sak som MK-skattning om man inte får över­bestämda system. Enda exemplet på det senare i boken är exempel 11.19 (alltså exempel i texten). Det finns ingen övning på denna situation. Jag tycker det räcker om studenterna kan hantera det vanliga fallet med antal parametrar = antal väntevärden.

Jag tog exemplen Poisson, Exponential och uniform fördel­ning, I det sista fallet på­pekade jag att det bästa är att ta max-värdet av observa­tionerna som test­variabel (dvs. jag fick "korri­gerade ML-skatt­ningen.)

Sedan tog jag upp ML-skattning. Jag utgår från Log-Likelihood-funktionen, som skall maximeras. Jag tog Poisson som exempel på diskret fördel­ning, och Exponen­tial som exempel på kontinu­erlig fördel­ning. Slutligen påpekade jag att i övning 7.14 får vi en ML-skattning av θ som skiljer sig från den "naturliga; MK-skattningen (moment-skatt­ningen). Men om man i stället tar vänte­värdet av ln(X) som utgångs­punkt, så ger MK-skatt­ningen (moment-skatt­ningen) samma skatt­ning som ML.

Fredag 25/9

Kapitel 10 och början på kapitel 11.

I kapitel 10 tog jag upp begreppen median, 1.a och tredje kvartil, kvartil­avstånd, medel­värde, (stickprovs-)varians och standard­avvikelse.

Sedan defini­erade jag "punkt­skattning" och exempli­fierade med medel­värdet som punkt­skattning av vänte­värde. Jag visade att denna skatt­ning var vänte­värdes­riktig och att dess RMSE (Root Mean Squared Error, som i detta fall är detsamma som standard­avvikelse, eftersom skattningen är vänte­värdes­riktig) går mot noll då antalet data­punkter går mot oändlig­heten, skatt­ningen är således konsistent (jag tog detta som definition!).

Jag införde sedan begreppet moment­skattning, dvs. vi skattar ett vänte­värde med mot­svarande medel­värde, och löser för para­metern av intresse. Exempel: E[X2] = μ2 + σ2. Alltså kan vi skatta μ2 + σ2 med Σ xi2. Eftersom vi redan har en skatt­ning av μ får vi en skattning av σ2, som visar sig vara stick­provs-variansen, fast med n i nämnaren istf. n-1. Jag påpekade att man brukar ha n-1 eftersom skatt­ningen av variansen då blir vänte­värdes­riktig.

Jag löste slutligen uppgift 11.18 med moment­skatt­ning. Man skattar θ11 med medel­värdet av x1, x2 och x3, och skattar θ1 med medel­värdet av x4 och x5. Klart!

Jag nämnde inte att medelvärde och standardavvilekse av data finns inbyggt i miniräknarna. Jag glömde också att deginiera "effektivare än". Dvs en skattning är effektivare än en annan om dess RMSE är mindre.

Onsdag 23/9

Kapilel 7. Jag definierade Binomial­fördel­ningen genom summan av oberoende Bernoulli-variabler; se boken formel (7.2) och texten omkring. Jag exempli­fierade med uppgift 7.7 i boken. Därefter illus­trerade jag Normal­approxima­tion med uppgift 7.13 i boken. Observera att normalapproximation står i formelsamlingen under rubriken "Normal­fördel­ning". Därefter tog jag uppgift 7.20 som exempel på Hyper­geometriska fördel­ningen. Slutligen presen­terade jag Poisson-fördel­ningen, och försökte beskriva i vilka situationer man kan anta att en stokastisk variabel har denna fördel­ning. Jag talade också om "dualiteten" mellan Poisson-fördel­ningen och expo­nential­fördel­ningen.

Slutligen löste jag problem 7.23, med exakt beräkning (c gjorde jag i Excel), men illus­trerade också normal­approxima­tion genom att använda den i c). Observera att normal­approxima­tion står i formel­samlingen under rubriken "Normal­fördel­ning".

Vi bryr oss inte om att approxi­mera Binomial med Poisson, inte heller att approxi­mera Hyper­geomet­riska fördel­ningen.

Ni skall alltså känna till

Vi läser inte kapilet 7.5.

Tisdag 21/9

Tisdag: Jag gick igenom kapitel 4 och 6.

Kapitel 4: Egentligen bara fyra saker:

Jag illu­strerade dessa fyra metoder med enkla exempel. Det här räcker vad gäller kapitel 4.

Kapitel 5: Jag definierade Standard Normal­fördelning N(0,1) genom täthets­funktionen (6.1). Därefter Generella Normal­fördel­ningen med att X är Normal­fördelad N(μ,σ) om (X-μ)/σ är Standard Normal­fördelad. Då är E[X]=μ och D[X]= σ.

Jag visade hur man använder tabellen för normal­fördel­ningen, och upp­manade er att hitta normal­fördel­ningen på era mini­räknare. Sats 6.5 och korollarium 6.5.1 är viktiga! Kapilel 6.6 läser vi inte. Kapilet 6.7 — Centrala GränsvärdesSatsen — är viktig!

Nu kan ni anmäla er till tentan

Senast 1:a oktober kl 24. (Tiden kanske förlängs, men det är inte säkert!) Några av er — åtta stycken — kunde vi inte kursregistrera eftersom ni inte har kursval. Ni måste se till att få kursval av ert kansli och därefter kontakta Viviana Wallin på matematisk statistik så att hon kan kursregistrera er, så att ni därefter kan anmäla er till tentan! Ni får stå ert kast om ni inte fixar detta! Observera att jag inte gör detta åt er, det är ingen idé att skicka e-post till mig om anmälan till tentan!

Tisdag 15/9-09

Jag gick igenom kapitel 5, väntevärden. Tills vidare hoppar vi över kapitel 5.6 och 5.7

Sedan gick jag till kapitel 5.4

Sedan tog jag upp varians och standardavvikelse, kapitel 5.3 och 5.5. Räknereglerna i kapitel 5.5 kommer man lättast ihåg genom att man kan reglerna för kovarians, och observerar att

V(X) = Cov(X,X)

Fredag 11/9-09

Jag gick igenom kapitel 3, stokastiska variabler. Viktiga begrepp är

Jag visade också "minneslösheten" hos exponential­fördelningen, och jag visade med ett exempel hur man kan ta fram täthetsfunktionen för t.ex. ln(X) om man känner täthetsfunktionen för X.

Onsdag 9/9-09

Jag har kommit efter med de här kommentarera. Nu har vi iaf. gått igenom och övat på kapitel 2 i boken, dvs förjandde begrepp:

I morgon tar vi upp stokastiska variabler, Kapilet 3.

Valid HTMLvalid css