KTH Mathematik


Matematisk statistik
SF1901 Sannolikhetsteori och statistik för E och F.

Aktuell information.
[Till huvudsidan]

Laboration 1

De som önskar redovisa laboration 1 måste boka en redovisningstid senast torsdag 2/3 kl 23.59. Tryck på knappen för att boka redovisningstid:

Se till att komma till labbsalen minst tio minuter före redovisningstiden så att ni hinner logga in på datorn och öppna Matlab samt ta fram era redovisningsuppgifter.

Ni behöver också ha med er en utskrift av labbspecifikationen som ni har skrivit era personnummer på förstasidan på. Denna utskrift undertecknar labbassistenten efter att hen har godkänt labben och utskriften fungerar sedan som ert kvitto på resultatet.

OBS: Tiderna fredag 3/3 är framförallt för studenter från E-programmet då den andra tiden inte passar deras schema. Ni som inte går E får därför gärna vänta några dagar med att boka en tid den dagen (den 6:e är fritt fram att boka); tyvärr kan vi inte styra vem som kan boka vilka tider.

Tisdag 14/3

Lösningsförslag till dagens tentamen finns tillgängliga här: 1703-sos.pdf.

Vidare är nu en kursutvärdering öppen; information har även skickats ut via KTH Social. Utvärderingen är öppen till 28:e mars - återkopplingen är viktig och vi uppskattar om ni ägnar några minuter åt att svara på frågorna.

Tisdag 27/2

Viktigt: Som nämndes på föreläsningen kommer vi inte att gå igenom regressionsanalys på sista föreläsningen och därmed ingår det inte i vad som kan komma på tentan 14/3. Dock ingår fortfarande uppgifterna om regression på Lab 1.

Måndagens föreläsning täckte avsnitt 13.3-13.5; jag nämnde kort att normalapproximation kan användas (avsnitt 13.7-13.8), liknande hur vi gör för konfidensintervall. Mer specifikt diskuterade vi ffa de tre metoderna för hypotesprövning - signifikansmetoden, konfidensmetoden och p-värdesmetoden - samt styrkefunktionen av ett test. Som ett exempel på det senare gavs uppmätningen av alkoholhalten i blodet vid utandningsprov och hypotesprövning av huruvida försökspersonen är rattfull eller ej. Vi nämnde även kort hur vi via styrkefunktionen kan definiera signifikansnivån för test med sammansatt nollhypotes.

Lördag 25/2

En uppsättning anteckningar som täcker huvudpunkterna från onsdagens föreläsning hypothesisTest.pdf. Notera att det intervall som vi skrev upp mot slutet av föreläsningen faktiskt var komplementet av det kritiska området för exemplet i fråga; se anteckningarna för detaljer.

Fredag 24/2

Dagens demoföreläsning finns tillgänglig här. Ni uppmuntras att testa några av funktionerna/numeriska experimenten som togs upp under föreläsningen på egen hand. Ändra parametrar, föredelningar osv. för att se hur det påverkar resultaten. En del av matlab-koden finns i föreläsningsanteckningarna, andra delar kan ni försöka replikera på egen hand. Än mer intressant kan vara att göra experiment liknande de för konfidensintervall men för hypotestest.

Anteckningar från onsdagens föreläsning om hypotesprövningar kommer läggas upp kommande dagar - håll utkik här på hemsidan. Anteckningarna från 2016 (se nedan) täcker också onsdagens material.

Måndag 20/2

Info: Hanna hittade efter förra övningen en laddare till en Apple-dator. Kan återfås vid nästa övningstillfälle alt. tidigare om berörd teknolog kontaktar Hanna.

I och med dagens föreläsning har vi avslutat avsnittet om konfidensintervall. Vi behandlade i dag konfidensintervall för två stickprov, stickprov i par samt approximativa konfidensintervall via användning av normalapproximation. Det senare illustrerades med ett exempel rörande opinionsundersökningar (binomialfördelningen; samma exempel som vi tittade på när vi introducerade punktskattningar). Se gärna kursboken för flera exempel på två stickprov vs. stickprov i par samt hur normalapproximationen kan användas i andra fall.
Nästa föreläsning påbörjar vi kaptiel 13: Hypotesprövningar.
Föreläsningsanteckningar från VT2016: Föreläsning 12.

Torsdag 16/2
Dagens föreläsning behandlade konfidensintervall. Vi började med exempel på konfidensintervall för väntevärde i normalfördelningen med känd resp. okänd varians (avsnitt 12.3a). Därefter diskuterade vi "femstegsmetoden" - ett allmänt tillvägagångssätt för att ta fram ett konfidensintervall. Därefter tittade vi på konfidensintervall för standardavvikelsen i en normalfördelning (avsnitt 12.3b). Vi diskuterade även kort t- och chi-2-fördelningen (något mer kommer nämnas om dem nästa föreläsning).
Nästa föreläsning avslutar vi avsnittet om konfidensintervall med att prata om: Konfidensintervall för två stickprov från normalfördelning samt approximativa konfidensintervall via normalapproximation (avsnitt 12.3 c & d samt 12.4).
Föreläsningsanteckningar från VT2016: Föreläsning 11.

Tisdag 14/2
Gårdagens föreläsning (13/2) började med maximum likelihood- och minsta kvadrat-metoden för punktskattningar. Vi visade att ML- och MK-skattningen för sannolikhetsparametern i en binomialfördelning är lika och överensstämmer med den punktskattning vi tidigare valt utan att hänvisa till några statistiska begrepp. Vi gick därifrån vidare till konfidensintervall (kapitel 12): Vi definierade ett konfidensintervall med given konfidensgrad, samt diskuterade vad de två begreppen betyder. Hittills har presentationen varit abstrakt och täckt (ungefär) avsnitt 12.1, 12.2. Nästa föreläsning tar vid i avsnitt 12.3 och vi kommer börja med att betrakta konkreta exempel på konstruktion av konfidensintervall för parametrar i normalfördelningen.
Föreläsningsanteckningar från VT2016: Föreläsning 10.

Fredag 10/2
Följande tider är besökstider kommande veckor: Måndag 10:00-11:30 och Onsdag 13:00-14:30. Alla studenter är då välkomna att komma till mitt (Pierre) kontor med eventuella frågor, utan att på förhand boka tid eller dylikt.

Viktigt: Vidare vill jag påminna om att ni måste anmäla er till tentan. Det sker på vanligt sätt - om några problem uppstår vänligen kontakta matematiks studentexpedition.

Torsdag 9/2
Dagens föreläsning startade med en kort repetition av egenskaper för binomial- och Poissonfördelningen (svarande mot avsnitt 7.2 a och c samt 7.4b i boken). Vi diskuterade speciellt normalapproximationen till Bin(n,p), specifikt hur den motiveras av CGS och varför samspelet mellan n och p, i form av storheten np(1-p), avgör hur bra approximationen är. Det senare illustrerades med några enkla simuleringar i R.
Vi påbörjade därefter kursens statistikdel. Efter ett motiverande exempel (opinionsundersökning, avsnitt 11.2) definierade och diskuterade vi stickprov, punktskattning och stickprovsvariabel. Vi gav några simpla exempel - återkoppling till opinionsundersökning, medellängd för en KTH-student - och definierade sedan väntevärdesriktighet och konsistens för en punktskattning, samt hur vi kan jämföra två väntevärdersriktiga punktskattningar av samma parameter. Avslutningsvis definierade vi stickprovsmedelvärde och stickprovsvarians; i stora drag svarade föreläsningen mot avsnitt 11.1-11.5.
Nästa föreläsning avslutar vi kaptiel 11 - maximum-likelihood-metoden och minsta-kvadrat-metoden - för att sedan påbörja kaptiel 12: Konfidensintervall.
Föreläsningsanteckningar från VT2016: Föreläsning 9.
Här finns ett intressant exempel rörande användningen av statistiska test vid arbetet med av avkoda meddelanden krypterade med Enigma-maskinen (Turings grupp) under andra världskriget.

Onsdag 8/2
Svar och lösningsförslag till kontrollskrivningen onsdag 8/2 kl 10.30-12.00 finns här.


Måndag 6/2

Började med att definiera Binomialfördelningen och härleda dess sannolikhetsfunktion. Visade sedan utgående från Bernoullifördelningen att villkoret np(1-p)>10 för Normalapproximation egentligen är ett C.G.S.-villkor. Gick sedan igenom halvkorrektion och tog som exempel på detta sannolikheten att få mer än 13 sexor när vi kastar en tärning 60 gånger. Definierade  därefter hypergeometriska fördelningen och skrev upp dess sannolikhetsfunktion. Jämförde dess väntevärde och varians med Binomialfördelningens. Talade om att Hyp(N,n,p)~ Bin(n,p) om n/N<0.1. Definierade efter detta Poissonfördelningen och berättade hur den hör ihop med exponentialfördelningen.Genom att kombinera satsen om att summan av oberoende Poissonfördelade stokastiska variabler är Poissonfördelad med att dela upp intervallet där X är Poissonfördelad i många delintervall visades sedan att  villkoret µ>15  för normalapproximation  egentligen är ett C.G.S.-villkor. Avslutade kap 7 att  med att visa hur sannolikhetsdefinitionen för Binomialfördelningen övergår i sannolikhetsfunktionen för Poissonfördelningen om p är litet, vilket motiverar att om p<0.1 så gäller att Bin(n,p)~Po(np). Fortsatte med kap 10 och definierade medelvärde, stickprovsvarians,variationskoefficient,median,kovarians och korrelationskoefficient.Gick till sist igenom begreppen grupperade data,absolut och relativ frekvens, klassindelade data, och histogram.
Föreläsningsanteckningar från VT2016: Föreläsning 8


Torsdag 2/2
Det finns nu en kort text om skillnaderna mellan de två övningsuppläggen på övningssidan. För mer detaljer kring övningsuppläggen fråga er övningsassistent alt. kontakta Pierre.

Torsdag 2/2
Började med att gå igenom beviset för Markovs olikhet. Använde sedan Markovs olikhet för att bevisa Stora talens lag och Tjebysjevs olikhet. Skrev sedan upp täthetsfunktionen och fördelningsfunktionen för normalfördelningen. Skrev efter det upp täthetsfunktionen och fördelningsfunktionen för standardiserade normalfördelningen N(0,1). Visade sedan att om X är N(E[X],D[X]) så gäller att Y=(X-E[X])/D[X] är N(0,1). Berättade sedan om när och hur man använder Tabell 1 och Tabell 2 i formelsamlingen och vad alfa-kvantilen är. Tog fram P(E[X]-D[X] < X < E[X]+D[X]) när X är N(E[X],D[X]) som exempel på hur Tabell 1 används, och skrev sedan även upp sannolikheterna för att ett utfall hamnar högst två respektive tre standardavvikelser ifrån väntevärdet. Skrev sedan upp att varje linjärkombination av oberoende N-fördelade slumpvariabler är normalfördelad. Gick därefter igenomom den viktiga Centrala Gränsvärdessatsen (CGS), som säger att summan av n oberoende likafördelade stokastiska variabler är approximativt normalfördelad om n är stort. Detta medför även att medelvärdet är approximativt normalfördelat. Avslutade med att göra Exempel 6.6 som exempel på Centrala Gränsvärdessatsen.
Föreläsningsanteckningar från VT2016: Föreläsning 7

Onsdag 1/2
Började med att definiera systematiskt fel och slumpmässigt fel och redogjorde för skillnaden mellan noggrannhet och precision. Repeterade sedan definitionerna för väntevärde och varians i det diskreta och det kontinuerliga fallet i en dimension. Gick sedan över till två dimensioner och definierade E[g(X,Y)] i det diskreta och det kontinuerliga fallet. Definierade sedan begreppet kovarians och visade att V(X)=C(X,X). Definerade sedan begreppet korrelationskoefficient och berättade om dess egenskaper. Visade att om X och Y är oberoende så leder det till att E(XY)=E(X)E(Y) vilket i sin tur leder till att C(X,Y)=0, d.v.s. att X och Y är okorrelerade. Visade sedan att omvändningen inte behöver vara sann genom att göra exempel 5.13. Som övning på att räkna ut en kovarians gjorde jag sedan övningsuppgift 5.18. Gick sedan igenom räkneregler för kovarianser och skrev upp att C(aX+bY,cZ+dW)=acC(X,Z)+adC(X,W)+bcC(Y,Z)+bdC(Y,W) vilket bl.a. leder till den viktiga regeln att V(X+Y)=V(X)+V(Y)+2C(X,Y) och att V(X+Y)=V(X)+V(Y) om X och Y är oberoende. Tog efter detta fram väntevärdet och standardavvikelsen för medelvärdet och avslutade med att skriva upp Stora talens lag.
Föreläsningsanteckningar från VT2016: Föreläsning 6

Fredag 27/1
Började med kapitel 5 och startade med att berätta att väntevärdet är vad man får i genomsnitt om man gör oändligt många försök. T.ex. blir ju det genomsnittliga värdet av ett tärningskast 3.5. Gjorde sedan exempel 5.1 i boken. Skrev sedan upp definitionen för E(X) resp. E(g(X)) i det diskreta fallet och det kontinuerliga fallet. Tog sedan och räknade ut E(X²) i Ex. 5.1 i boken. Definierade därefter variansen för X och standardavvikelsen D(X). Sedan använde jag mig även här av ex 5.1 i boken för att räkna ut variansen m.h.a. definitionen. Härledde sedan ur definitionen formeln V(X)=E(X²)-(E(X))² och räknade till sist ut samma varians m.h.a. denna formel. Definierade sedan även variationskoefficienten R(X)=D(X)/E(X). Härledde sedan väntevärdet och variansen för Poissonfördelningen och exponentialfördelningen. Gick därefter igenom följande viktiga räkneregler för väntevärden och varianser: E(aX+bY+c)=aE(X)+bE(Y)+c V(aX+b)=V(aX)=a²V(X) samt om X och Y är oberoende V(X+Y)=V(X)+V(Y) Avslutade därefter med att utgående från Bernoullifördelningen m.h.a. räknereglerna ovan härleda väntevärdet och variansen för Binomialfördelningen.
Föreläsningsanteckningar från VT2016: Föreläsning 5

Torsdag 26/1
Började med att berätta att Pierre ersätts av mig (Bos) 4-6 föreläsningar framåt. Fortsatte med att visa att tiden mellan två händelser är exponentialfördelad om antalet händelser är Poissonfördelat. Visade även att exponentialfördelningen saknar minne. Avslutade genomgången av exempel på kontinuerliga fördelningar genom att skriva upp täthetsfunktionen för Normalfördelningen.Började sedan med att gå igenom funktioner av stokastiska variabler. Tog som exempel i det diskreta fallet en kortversion av exempel 3.16 i Blom och som kontinuerligt exempel tog jag exempel 3.20 i Blom. Efter detta gick jag igenom flerdimensionella diskreta ock kontinuerliga stokastiska variabler och begreppen simultan sannolikhetsfunktion repektive simultan täthetsfunktion och hur man ur dessa får fram den marginella sannolikhetsfunktionen respektive den marginella täthetsfunktionen och hur man vid oberoende även kan gå åt andra hållet. Som exempel på flerdimensionell fördelning tog jag ett exempel med den multivariata fördelningen. Visade sedan hur man tar fram Fördelningsfunktionen för max(X,Y) och min(X,Y). Avslutade med att som exempel på summa visa att summan av ober Poisonfördelade stok.var. är Poissonfördelad.
Föreläsningsanteckningar från VT2016: Föreläsning 4

Måndag 23/1
Dagens föreläsning behandlade oberoende händelser (avsnitt 2.7) och stokastiska variabler. Mer specifikt definierade vi: Diskreta och kontinuerliga stokastiska variabler, fördelningsfunktion, sannolikhetsfunktion, täthetsfunktion, samt diskuterade vissa av deras egenskaper. Följande exempel på diskreta fördelningar togs upp: Tvåpunktsfördelning, likformig fördelning, binomialfördelning och Poissonfördelning. För kontinuerliga variabler hann vi endast diskutera likformig fördelning.
Föreläsningsanteckningar från VT2016: Föreläsning 3

Fr.o.m. torsdag ges föreläsningarna av Bos. Detta är endast tillfälligt och jag finns tillgänglig via epost (svar kan dröja något och komma på udda tider). För hjälp med uppgifter eller dylikt bör ni därför i första hand vända er till övningsassistenterna.

Måndag 23/1
En kort redogörelse för hur valet att räkna - med eller utan hänsyn till ordning osv. - är kopplat till valet av utfallsrum, och därmed påverkar huruvida vi kan använda den klassiska sannolikhetsdefinitionen, finns här. Rubriken "Födelsedagsproblemet" är något missvisande då det endast är ett specialfall; exemplet med ett år med endast tre blir något artificiell men den underliggande principen är lätt att förstå när det är möjligt att lista alla möjliga kombinationer (ej praktiskt när vi har 365 dagar).

Torsdag 19/1
Efter en kort repetition av tisdagens föreläsning diskuterade vi aspekter av valet av utfallsrum och kombinatoriska beräkningar. Vidare gick vi igenom urnmodeller (del av avsnitt 2.5) samt betingade sannolikheter: definitionen, lagen om total sannolikhet och Bayes sats (avsnitt 2.6). Avslutningsvis definierade vi oberoende händelser; nästa föreläsning avslutar vi kaptel 2, specifikt avsnitt 2.7.
Gällande kombinatorik och olika sätt att räkna - med eller utan hänsyn till ordning, med eller utan återläggning - finns här en genomgång av de fyra alternativen. Man går speciellt igenom fallet med återläggning utan hänsyn till ordning (förekommer sällan i kursen).
Föreläsningsanteckningar från VT2016: Föreläsning 2

Onsdag 18/1
Registrering till KS: Öppen 19/1 - 28/1. Se gärna till att anmäla er så snart som möjligt; registrering krävs för att få skriva.

Tisdag 17/1
Dagens föreläsning började med en genomgång av allmän kursinformation; presentationen finns tillgänglig här: Intro. Därefter pratade vi om sannolikhetsteorins grunder: Definition av utfall, utfallsrum, händelser, Kolmogorovs axiomsystem. Vi repeterade även de begrepp från mängdlära som vi kommer använda oss av. Föreläsningen avslutades med den "klassiska sannolikhetsdefinitionen".
Föreläsningsanteckningar från VT2016: Föreläsning 1

Tisdag 17/1
Välkomna till SF1901! Kurshemsidan håller fortfarande på att uppdateras med diverse information men det mesta finns redan nu tillgängligt, alternativt kommer endast ändras på mindre punkter. Speciellt kan ni nu se (preliminära) planer för föreläsningar och övningar. Information om laboration och demonstrationsföreläsning saknas nu men kommer under kursens första vecka.
Information om kursregistrering och dylikt finns på huvudsidan; alla administrativa frågor sköts av matematiks studentexpedition.
Föreläsningsanteckningar från årets omgång kommer inte läggas. Däremot finns förra årets - gjorda av Timo Koski - tillgängliga och kommer efter varje föreläsning länkas till på den här sidan.


[Kurshemsidan]     [Kursförteckning]     [Avdelningen Matematisk statistik]
Sidansvarig: Pierre Nyquist
Skapad: 2017-01-17