Aktuell information
Här ges fortlöpande information om schemaändringar, vad som gåtts igenom på föreläsningar etc.

Kontrollskrivning 18/09 2012

Kontrollskrivning KS gavs den 18 september kl:13.30-14:30 och de rättade skrivningarna finns på matte-expeditionen.

Tentamen 18/10 2012

Tentamen är nu rättad och detaljer finns här Tenta.

Kompletteringstentamen 15/11 2012

Kompletteringstentamen får de som fick Fx på ordinarie tentamen i SF1901 och SF 1905 ges den 15e november kl. kl:17.00-18.00 i D32. Vid kompletteringsskrivning gäller samma regler för hjälpmedel som vid vanliga tentamenstillfällen.

Föreläsningsinformation

Föreläsningarna ges gemensamt för SF1901 för T och M, och SF1905 för CL. För kursen SF1901 finns tre övningsgrupper, och för kursen SF1905 finns en övningsgrupp.

2012-10-10 Under föreläsning 15 minsta kvadrat-metoden illustrerades med några exempel. Vidare talade jag om enkel linjär regression. Jag beskrev modellen och de antaganden som görs: (i) linjärt samband mellan oberoende variabel (x) och väntevärde för beroende variabel (y), (ii) oberoende variation/mätfel i y-led med konstant varians, och ibland (iii) normalfördelad sådan variation. Jag skrev upp uttryck för punktsskattningar och konfidensintervall för regressionsparametrar och regressionslinje. Som avslutning tryckte jag på att man skall, när man arbetar med data, kontrollera att modellens antaganden är rimligt uppfyllda, och hur det kan göras med residualanalys (t ex normalfördelningsplot av residualer).

2012-10-08 Föreläsning 14 leddes av vikarien Gunnar Englund.

Om χ2-test. Inledningsvis om test av tärning i enlighet med exempel 13.17 i läroboken (sid 343).

Illustrerade vidare med exempel 13.18 sid 344 där man testade om data från en lustig och klassisk illustration om antalet ihjälsparkade kavallerister vid 14 tyska armékårer under en 20-årsperiod kom från en Poissonfördelning.. Det sista med utgångspunkt från (den något förvirrade och okunniga) boken "The roots of coincidence" av Arthur Koestler - finns också ett OBS-inlägg från SR om Arthur Koestler. Förklaringen av att antalet kan antas vara Poissonfördelat är t ex att Bin(n,p) väl approximeras av Po(np). Man kan också göra en feluppskattning av denna typ av approximationer.

Behandlade vidare homogenitetstest (kontingenstabell) med två exempel. Det första ett fiktivt om blodgruppsfördelningen (A, B, AB 0) bland svenskar, somalier och japaner där man ville undersöka om det fanns några skillnader.

Det andra exemplet var baserat på verkliga data om analys av skillnaden mellan nyfödda pojkar och flickor vad gäller intresse för ansikten. Se tabell 1 i bifogade vetenskapliga artikel Sex differences in human neonatal social perception. där analysen sammanfattas som "χ2=8.3, df.=2, p=0.016", dvs värdet på teststorheten Q, antalet frihetsgrader (degrees of freedom) och p-värdet. p-värdet är sannolikheten att en χ2(2)-fördelad variabel är större än det observerade Q-värdet 8.3. Slutsatsen var alltså att nyfödda pojkar och flickor skiljde sig åt vad gäller intresset för ansikten om vi testar på en signifikansnivå (felrisk) över 0.016, t ex 5%.

Maximum likelihoodmetoden (avsnitt 11.5 i läroboken) illustrerades med ett exempel med Poisson-fördelade mätdata. ML-metoden ger i princip de effektivaste skattningarna. För den (särskilt) intresserade ges här en (ganska svår) genomgång av teoretisk statistik.

2012-10-01 Föreläsning 12 ägnades helt åt statistiska test, med grundbegrepp som nollhypotes, mothypotes eller alternativ hypotes, teststorhet, p-värde, signifikansnivå och styrka eller styrkefunktion. Det är många nya begrepp, men kom ihåg att när man konstruerar ett test så utgår man nästan alltid från samma storhet (teststorheten) som man använder när man konstruerar konfidensintervall för den parameter som man undersöker. Det finns två huvudmetoder för att utföra ett test: antingen beräknar man ett p-värde, eller så sätter man en signifikansnivå i förväg och beräknas kritiska gränser för teststorheten. Jag hann inte tala om att konfidensintervall och test är nära relaterade. Vi återkommer till detta under nästa föreläsning.

2012-09-26 Föreläsning 11 inleddes med en repetition av den generella arbetsgången för att ta fram ett konfidensintervall. Detta användes sedan för att konstruera ett konfidensintervall för varians, standardavvikelse samt skillnaden mellan väntevärdena i två normalfördelningar med samma varians, den situation som ofta kallas "två stickprov". Den gemensamma okända variansen skattas då med en s k polad variansskattning, och jag berättade varför den ser ut som den gör. Vidare beskrev jag modellen stickprov i par (eller parvisa observationer), dvs då man har data från två behandlingar e dyl på ett antal objekt/individer. Skilj noga på denna situation, kontra modellen ''två stickprov''!

Därefter talade jag om konfidensintervall baserade på normalapproximation, med exempel som skattning av sannolikheten p i Bin(n,p).

2012-09-24 Föreläsning 10 inleddes med en repetition av egenskaper av punskattning. Sedan introducerade jag begreppet konfidensintervall, illustrerat på skattning av väntevärde i normalfördelnig med känd varians. Sedan berättade jag om fallet med okänd standardavvikelse, som då måste skattas (med stickprovsstandardavvikelsen). Då får den standardiserade skattaren en t-fördelning, och konfidensintervallet konstrueras mha kvantiler för denna fördelning.

Den generella arbetsgången för att ta fram ett konfidensintervall är som följer: (i) skriv upp den parameter som skall skattas, (ii) hitta en (punkt)skattare av denna parameter, (iii) beräkna fördelningen för skattaren (denna fördelning innehåller parameterar, speciellt den som skall skattas), (iv) hitta en transformation av skattaren (i regel en subtraktion av och/eller division med parameterar, stickprovsstorlek o dyl) till en ny stokastisk variabel vars fördelning inte innehåller några parametrar, (v) stäng in denna nya s.v. mellan kvantliler uppåt och nedåt, en händelse som inträffar med en viss stor sannolikhet (som blir konfidensgraden), och (vi) skriv om olikheterna för att få parametern som skall skattas i mitten, och på så sätt ett konfidensintervall.

2012-09-20 Temat för föreläsning 9 var punktskattning. Huvudbudskapet var att när man (upp)skattar en parameter (t ex väntevärde, varians eller proportion) i en statistisk fördelning, så kan man se det (i) som att man beräknar ett numeriskt värde (skattningen) utifrån de (numeriska) data man har, men också (ii) som att de data man har är observationer av stokastiska variabler och att den funktion man bildar av dessa (stickprovsvariabeln, eller skattaren) med syftet att skatta parametern också då också kan ses som en stokastisk variabel. Det numeriska värde (skattningen) i (i) är då en observation av denna stokastiska variabel (skattaren). Just detta synsätt (eller insikt) att en skattare är en stokastisk variabel är grundpelaren för hela den statistiska delen av kursen. Tänk igenom detta, och också de viktiga begreppen väntevärdesriktighet och medelfel, som är en uppskattning av standardavvikelsen hos en skattare.

2012-09-18 Under föreläsning 8 fortsätter vi diskutera egenskaper av summor av oberoende, lika fördelade s.v. Vi sade att en summa av många oberoende likafördelade s.v. är approximativt normalfördelad, oavsett fördelningen för de s.v. som ingår i summan (centrala gränsvärdessatsen). Jag diskuterade också normalapproximation av binomialfördelningen med exempel. Jag skulle också ha tagit upp normalapproximation av Poissonfördelningen (avsnitt 7.4c), men hann tyvärr inte med det. Läs själva i boken!

Kapitel 10 om beskrivande statistik tas upp på slutet där vi diskuterade grafisk presentation av datamaterial, bl a histogram, empirisk fördelningsfunktion och normalfördelningsplot. Läs själva om medelvärde, stickprovsvarians och -standardavvikelse som kommer att användas flitigt som skattningar av motsvarande parametrar i fördelningar. Nästa föreläsning kommer helt att handla om puntskattning.

2012-09-12 Under föreläsning 7 fortsätter vi diskutera det aritmetiska medelvärde och dess egenskaper. Vi tittade på stora talens lag, och ett bevis. Sedan gick vi igenom räkningar med normalfördelningen, både den standardiserade (v.v. 0, varians 1), som man kan hantera med tabeller om man inte har dess fördelningsfunktion på miniräknaren, och allmänna normalvariabler som man ofta standardiserar (subtrahera v.v., dela med standardavvikelse) för att komma tillbaka till grundfallet med standardiserad normalfördelning. Vi sade också att en linjärkombination av oberoende normalfördelade s.v. är normalfördelad. Jag skulle också ha tagit upp centrala gränsvärdessatsen, vi återkommer till detta under nästa föreläsning.

2012-09-10 Under föreläsning 6 fortsätter vi diskutera två-dimensionella s.v., diskreta och kontinuerliga. Viktigt är att "se igenom" alla formler, och se att det fortfarande är samma grundidéer som i en dimension: sannolikheter för att en två-dimensionell s.v. ligger i ett område fås genom att summera två-dim sannolikhetsfunktion, eller integrera två-dim täthetsfunktion, över området; väntevärdet av en funktion av en två-dim s.v. fås genom att beräkna funktionsuttrycket för alla (två-dim) utfall av de s.v., sedan vikta med sannolikhetsfunktion eller täthet, och slutligen summera eller integrera över alla utfall. Vi gick också igenom hur man får fram fördelningen för summor av oberoende s.v.

Jag visade också att väntevärdet är linjärt, dvs att väntevärdet av en linjärkombination av s.v. alltid är lika med motsvarande linjärkombination av väntevärdena av de olika s.v. Jag definierade också begreppet kovarians, som är ett mått på linjärt beroende mellan två s.v. Jag visade också att kovariansen är bilinjär (dvs har linjäritetsegenskapen i båda argumenten; tänk på multiplikation av summor av termer inom paranteser), och att variansen av en s.v. är kovariansen av denna med sig själv (V(X)=C(X,X)). Vet man och kan använda detta så klarar man alla beräkningar med väntevärden och (ko)varianser!

Vi härledde att oberoende s.v. också är okorrelerade, dvs har kovarians 0.

Avslutningsvis diskuterade jag det aritmetiska medelvärde och dess egenskaper. Läs gärna i boken själva om stora talens lag; jag återkommer också till den på nästa föreläsning.

2012-09-05 Temat för föreläsning 5 var två-dimensionella stokastiska variabler, vilket helt enkelt betyder att man betraktar två stycken stokastiska variabler på en gång. Naturligtvis kan det också vara fler än två. Viktigt att veta är hur sannolikhetsfunktion, täthetsfunktion och väntevärden fungerar för flerdimensionella variabler. Definitionerna är uppenbara generaliseringar av de som gäller i en dimension; t ex får man sannolikheten att en kontinuerlig variabel tar ett värde i en viss mängd genom att integrera dess täthet över mängden. Med marginalisering menas att man "plockar bort" den ena variabeln; t ex får man tätheten för X genom att integrera tätheten för (X,Y) över y-variabeln. Ett annat viktigt begrepp är oberoende stokastiska variabler. Vi diskuterade några olika funktioner av oberoende variabler som maxima och minima. Vad jag inte hann tala om är fördelning för summa av oberoende s.v. och faltningsformeln. Läs själva i boken, avsnitt 4.7! Vi kommer också tillbaka till dessa begrepp under nästa föreläsning.

2012-09-03 Föreläsning 4 handlade om kontinuerliga stokastiska variabler. En sådan stokastisk variabel kan anta alla värden på tallinjen, eller ett intervall av reella tal. Man kan säga att den totala sannolikhetsmassan 1 är kontinuerligt utsmetat på tallinjen (eller ett intervall). Precis hur sannolikhetsmassan är fördelad beskrivs av täthetsfunktionen, som är det viktigaste begreppet för kontinuerliga stokastiska variabler, och motsvarar sannolikhetsfunktionen för diskreta dito. En grundprincip är att sannolikheten att en kontinuerlig stokastisk variabel faller i en viss delmängd av tal (t ex ett intervall), fås genom att integrera täthetsfunktionen över denna mängd. Viktigt är också hur väntevärdet av (en funktion av) en kontinuerlig stokastisk variabel definieras/beräknas. Notera att definitionen är analog med motsvarande för en diskret stokastisk variabler, men vi byter sannolikhetsfunktion mot täthet och summa mot integral. Begreppet fördelningsfunktion är användbart t ex när man vill beräkna täthetsfunktionen för en stokastisk variabel som är en funktion av en annan kontinuerlig stokastisk variabel. Begreppet kvantil hann jag men ganska hastigt på slutet. Läs själva i boken! Vi återkommer också till kvantiler under statistikavsnittet av kursen.

2012-08-29 Föreläsning 3 handlade om diskreta stokastiska variabler. En stokastisk variabel är helt enkelt ett numeriskt resultat från ett slumpmässigt experiment. Med en diskret stokastisk variabel menar vi (i regel) en sådan variabel som antar heltalsvärden 0,1,2,...Viktiga begrepp är sannolikhetsfunktion (som egentligen bara är en beteckning), fördelningsfunktion (som kan bestämmas ur sannolikhetsfunktionen genom summering), väntevärde, samt hur väntevärde definieras/beräknas. Jag gick igenom ett antal viktiga diskreta fördelningar: den s k för första gången-fördelningen, binomialfördelning och Poissonfördelningen. Jag också diskuterade väntevärde i samband med Poisson och binomial fördelning men men ganska hastigt på slutet. Viktigt är också hur väntevärdet av en funktion av en diskret stokastisk variabel definieras/beräknas. Läs själva i boken om begreppet varians och standardavvikelse. Vi kommer också tillbaka till dessa begrepp under nästa föreläsning.

2012-08-27 Föreläsning 2 hade som huvudtema betingad sannolikhet. Viktiga räkneprinciper är total sannolikhet och, för att "vända på betingning", Bayes sats. Begreppet oberoende händelser fanns också med, men ganska hastigt på slutet. Läs gärna igenom avsnitt 2.7 i boken extra ordentligt! Observera t ex att om A1, A2, ... An är n stycken oberoende händelser så gäller att P(minst en av A1,A2,...,An inträffar) = 1 - P(alla av A1*,A2*,...,An* inträffar) = 1-P(A1*)P(A2*)...P(An*). Varför?

2012-08-24 Föreläsning 1 innehöll en introduktion till kursen, begreppen union, snitt, komplement och disjunkta händelser, den klassiska sannolikhetsdefinitionen, samt en del kombinatorik för att beräkna antalet möjliga och gynnsamma utfall i olika problem (avsnitt 2.4-2.5 i kursboken). Läs själva avsnitt 2.5, a) och b) i boken där två urnmodeller använd för att illusterera dragning utan och med återläggning.

[Kursförteckning]     [Avdelningen Matematisk statistik]
Sidansvarig: Tatjana Pavlenko
Uppdaterad: 2012-08-16