SF1924 Sannolikhetsteori och
statistik för D.
Aktuell information.
Här ges fortlöpande information om schemaändringar, vad som gåtts igenom på föreläsningar etc.
Alla
administrativa frågor sköts av
matematiks studentexpedition.
Anmälan till kontrollskrivningen är obligatorisk för de
som önskar skriva denna och skall ske via Mina
sidor. Anmälningstiden är 20/3-3/4
Kontrollskrivningen omfattar kap 2-5.Tillåtet
hjälpmedel:miniräknare.
Mån 7 maj Tekniken krånglade vilket gjorde att
föreläsningen blev 10 min försenad. Berättade först om när
homogenitetstest används och tog som exempel på detta en
forskningsrapport där man ville undersöka huruvida det var någon
skillnad mellan 36 timmar gamla pojkar och flickor vad gällde vad
de föredrog att titta på. Berättade efter detta att man vid
oberoendetest kan använda sig av identiskt samma numerik som
man gör vid homogenitetstest. Gjorde uppgift 5 på tentan
2017-01-09 som exempel på detta.
Gick sedan igenom linjär regression och vad beteckningarna i
formelsamlingens §13 betyder. Gick sedan på OH igenom exempel 14.7
i läroboken som exempel på hur man med hjälp av multipel
regression går tillväga för att avgöra vilka storheter xi
man ska förkasta eller inte när man antagit att y beror av xi:na.
Avslutade med att skissa några exempel där man med hjälp av
residualanalys kan avgöra huruvida det är troligt att y beror
linjärt av x.
Fre 4 maj Började med exempel 13.4 i läroboken där man tar
fram styrkan hos testet i exempel 13.1 för alternativet p=0.9, och
tog även fram styrkefunktionen h(p) i detta fall. Fortsatte med
att berätta när CHI-2-test används och tog som inledande exempel
på detta exempel 13.17 i läroboken. Andra timmen ägnades sedan
helt åt att grundligt gå igenom exempel 13.18 i läroboken som
exempel på test av given fördelning där man dels måste skatta
minst en parameter ur data (i detta fall μ) för att skatta p1,p2,..
pr, dels slå ihop grupper för att villkoret npi≥5
skall gälla för alla i.
Ons 2 maj Började från början med exempel 13.8 igen och
gjorde hypotesprövning i fallet tvåsidigt test, dels med
kofidensintervallmetoden dels med testvariabelmetoden. Detta
gjordes med olika värden på risknivån α och m.h.a. detta visades
också i vilket intervall p-värdet måste ligga. Gjorde sedan
hypotesprövning i fallet ensidigt test, dels med
kofidensintervallmetoden dels med testvariabelmetoden. Även här
gjordes detta med olika värden på risknivån α och m.h.a. detta
visades också här i vilket intervall p-värdet måste ligga. Gjorde
sedan övningsuppgift 13.21a för att visa hur man tar fram styrkan
hos ett test när man har använt sig av konfidensintervallmetoden.
Utifrån detta visades även hur man tar fram styrkefunktionen - i
detta fall h(θ) där θ =μ1-μ2.
Fre 27 april Började med att härleda konfidensintervallet
för standardavvikelsen och för variansen utgående från att summan
av kvadrerade N(0,1)-variabler tillhör CHI2-fördelningen. Visade
även hur de ensidiga konfidensintervallen ser ut i detta fall.
Fortsatte med att berätta lite om felfortplantning och härledde
felfortplantningsformlerna i § 9.4a m.h.a. Taylorutveckling.
Räknade övningsuppgift 11.13b som exempel på detta.Skrev sedan upp
en lista på viktiga definitioner och begrepp som används inom
hypotesprövning såsom nollhypotes,mothypotes, risknivå, p-värde,
och styrka. Gick därefter igenom exempel 13.1 i läroboken som
exempel på ett fall där man inte använder konfidensintervall för
att testa sin nollhypotes. Införde i samband med detta begreppen
signifikant*, signifikant**, och signifikant***, samt begreppen
testvariabel och kritiskt område. Som exempel på hypotesprövning
m.h.a. konfidensintervall-metoden använde jag mig därefter av
exempel 13.8 i läroboken. Hann dock bara fallet tvåsidigt test.
Ons 25 april Började med att repetera härledninatt
det ägen av det tvåsidiga konfidensintervallet för väntevärdet när
mätdata kommer från en Normalfördelning där standardavvikelsen är
känd.
Visade utgående från detta hur man generellt bildar ensidigt nedåt
begränsade och ensidigt uppåt begränsade konfidensintervall.
Visade sedan utgående från det första konfidensintervallet
hur det tvåsidiga konfidensintervallet för väntevärdet ser ut när
mätdata kommer från en Normalfördelning där standardavvikelsen är
okänd. Därefter visades konfidensintervallet för skillnaden mellan
väntevärdena hos två Normalfördelade stickprov där
standardavvikelserna är kända. Sedan visades hur man bildar ett
konfidensintervall med approximativ konfidensgrad för skillnaden
mellan väntevärdena hos två Normalfördelade stickprov där
standardavvikelserna är okända och olika. Därefter visades
konfidensintervallet för skillnaden mellan väntevärdena hos två
Normalfördelade stickprov där standardavvikelserna är okända och
lika och hur man m.h.a.§11.2viktar ihopde två
stickprovsvarianserna för att få en skattning s av
standardavvikelsen. Efter detta visades det viktiga fallet när man
har parvisa observationer-"stickprov i par"- och att
konfidensintervallet för väntevärdet av de parvisa skillnaderna då
tas fram som om man har ett stickprov av parvisa skillnader.
Visade att om stickproven är så stora så att C.G.S. kan användas,
så kan man bilda konfidensintervall med approximativ konfidensgrad
för väntevärden och skillnader mellan väntevärden även om
observationerna inte kommer från en Normalfördelning. Visade
avslutningsvis konfidensintervall med approximativ konfidensgrad
för p när X tillhör Bin(n,p),; för py- px när Y tillhör Bin(ny,py)
och X tillhör Bin(nx,px) samt för my i Poisson-fördelningen och
att det i alla dessa fall förutsätter att Normalapproximation är
möjlig enligt §5.
Tis 24 april Började med att repetera begreppen TÄTA,TÄTA*
,TÄTA*obs samt väntevärdesriktighet, effektiv skattning och
medelfel. Presenterade därefter Maximum-Likelihood-metoden och
räknade exempel 11.10 i läroboken som exempel på denna. Fortsatte
med att gå igenom Minsta-kvadrat-metoden. Som exempel visades hur
man kunde göra MK-skattningen av arean hos en kvadrat där 2
mätdata var sidans längd, och 1 mätdata var diagonalens längd Tog
sedan exempel 11.19 i läroboken som exempel på hur
Minsta-kvadrat-skattning går till när två saker ska skattas.
Definierade sedan begreppen konfidensintervall och konfidensgrad i
allmänna fallet och visade även hur ensidiga konfidensintervall
ser ut. Härledde därefter det tvåsidiga konfidensintervallet för
väntevärdet när mätdata kommer från en Normalfördelning där
standardavvikelsen är känd.
Fre 20 apr Fortsatte med kapitel 10 och gick igenom
begreppen grupperade data,absolut och relativ frekvens,
klassindelade data,histogram och boxplott.Avslutade kapitel 10 med
att visa hur man tar fram kvartiler och percentiler. Började sedan
kap 11 med att redogöra för skillnaden mellan det riktiga
värdet TÄTA,stickprovsvariabeln TÄTA* och
punktskattningenTÄTA*obs. Tog som exempel på skattning hur man
brukar skatta väntevärdet my och standardavvikelsen sigma vid
okänd fördelning. Tog sedan som ytterligare exempel på
skattningar hur man skattar p i
Binomialfördelningen,Hypergeometriska fördelningen och
ffg-fördelningen,my i Poissonfördelningen, lambda i
exponentialfördelningen samt my och sigma i Normalfördelningen.
Definierade efter detta begreppet medelfel och tog fram
medelfelet för skattningen av väntevärdet my allmänt , medelfelet
för skattningen av p i binomialfördelningen och medelfelet för
skattningen av parametern my i Poissonfördelningen. Definerade
därefter begreppen väntevärdesriktighet och effektivitet och tog
ett par enkla exempel på dessa. Definierade även begreppet
konsistens.
Mån 16 apr Började med att repetera den viktiga Centrala
Gränsvärdessatsen (CGS), som säger att summan av n oberoende
likafördelade stokastiska variabler är approximativt
normalfördelad om n är stort, och att detta även medför att
medelvärdet är approximativt normalfördelat. Avslutade kapitel 6
med att göra Exempel 6.6 som exempel på Centrala
Gränsvärdessatsen. Definierade sedan Hypergeometriska
fördelningen och skrev upp dess sannolikhetsfunktion. Definierade
sedan Binomialfördelningen och skrev upp dess
sannolikhetsfunktion. Talade om att Hyp(N,n,p)~ Bin(n,p) om n/N<0.1.
Visade sedan utgående från Bernoullifördelningen att villkoret
np(1-p)>10 för Normalapproximation egentligen är ett
C.G.S.-villkor. Fortsatte med att gå igenom halvkorrektion
och tog som exempel på detta sannolikheten att få mer än 13 sexor
när vi kastar en tärning 60 gånger. Definierade efter detta
Poissonfördelningen. Genom att kombinera satsen om att summan av
oberoende Poissonfördelade stokastiska variabler är
Poissonfördelad med att dela upp intervallet där X är
Poissonfördelad i många delintervall visades sedan att
villkoret µ>15 för normalapproximation
egentligen är ett C.G.S.-villkor. Avslutade kap 7 med att berätta
om att sannolikhetsdefinitionen för Binomialfördelningen övergår i
sannolikhetsfunktionen för Poissonfördelningen om p är litet,
vilket motiverar att om p<0.1 så gäller att
Bin(n,p)~Po(np). Avslutade med att komma in på kap 10 och
definierade medelvärde, stickprovsvarians, populationsvarians,
variationskoefficient, median, kovarians och
korrelationskoefficient.
Ons 11 apr Gick först igenom beviset för Markovs olikhet.
Använde sedan Markovs olikhet för att bevisa Stora talens lag och
Tjebysjevs olikhet. Skrev sedan upp täthetsfunktionen och
fördelningsfunktionen för normalfördelningen. Skrev efter det upp
täthetsfunktionen och fördelningsfunktionen för standardiserade
normalfördelningen N(0,1). Skrev sedan upp att om X är
N(E[X],D[X]) så gäller att Y=(X-E[X])/D[X] är N(0,1). Berättade
sedan om när och hur man använder Tabell 1 och Tabell 2 i
formelsamlingen och vad alfa-kvantilen är. Tog fram P(E[X]-kD[X]
< X < E[X]+kD[X]) för k=1,2,3 när X är N(E[X],D[X]) som
exempel på hur Tabell 1 används, och skrev sedan även upp
sannolikheterna för att ett utfall hamnar minst två respektive tre
standardavvikelser ifrån väntevärdet. Avslutade med att ta fram k
när P(E[X]-kD[X]<X<E[X]+kD[X])=0.95 som exempel på hur
Tabell 2 används och pekade på tabell 2 för att visa vad k ungefär
blir när sannolikheterna är 0.99 och 0.999. Skrev sedan upp att
varje linjärkombination av oberoende N-fördelade slumpvariabler är
normalfördelad. Räknade exempel 6.2a,b som exempel på detta. Gick
till sist igenom den viktiga Centrala Gränsvärdessatsen (CGS), som
säger att summan av n oberoende likafördelade stokastiska
variabler är approximativt normalfördelad om n är stort och att
detta även medför att medelvärdet är approximativt normalfördelat.
Tis 10 apr Började med att repetera definitionerna för
väntevärde och varians i det diskreta och det kontinuerliga fallet
i en dimension. Gick sedan över till två dimensioner och
definierade E[g(X,Y)] i det diskreta och det kontinuerliga fallet.
Fortsatte med att definiera systematiskt fel och slumpmässigt fel
och redogjorde för skillnaden mellan noggrannhet och
precision.Gick därefter igenom följande viktiga räkneregler för
väntevärden och varianser: E(aX+bY+c)=aE(X)+bE(Y)+c
V(aX+b)=V(aX)=a²V(X) samt om X och Y är oberoende
V(X+Y)=V(X)+V(Y). Definierade sedan begreppet kovarians och visade
att V(X)=C(X,X). Definerade sedan begreppet
korrelationskoefficient och berättade om dess egenskaper. Visade
att om X och Y är oberoende så leder det till att E(XY)=E(X)E(Y)
vilket i sin tur leder till att C(X,Y)=0, d.v.s. att X och Y är
okorrelerade. Visade sedan att omvändningen inte behöver vara sann
genom att göra exempel 5.13 i läroboken. Som övning på att räkna
ut en kovarians gjorde jag sedan övningsuppgift 5.18. Gick sedan
igenom räkneregler för kovarianser och skrev upp att
C(aX+bY,cZ+dW)=acC(X,Z)+adC(X,W)+bcC(Y,Z)+bdC(Y,W) vilket bl.a.
leder till den viktiga regeln att V(X+Y)=V(X)+V(Y)+2C(X,Y) och att
V(X+Y)=V(X)+V(Y) om X och Y är oberoende.Avslutade med att ta fram
väntevärde och standardavvikelse för medelväret av n st ober
stokastiska variabler.
Tis 27 mars Började med att visa hur man tar fram
Fördelningsfunktionen för max(X,Y) och min(X,Y) utgående från
Fördelningsfunktionerna för X respektive Y. Avslutade kapitel 4
med att som exempel på summa visa att summan av ober
Poisonfördelade stok.var. är Poissonfördelad.Började med kapitel 5
och startade med att berätta att väntevärdet är vad man får i
genomsnitt om man gör oändligt många försök. T.ex. blir ju det
genomsnittliga värdet av ett tärningskast 3.5. Gjorde sedan
exempel 5.1 i boken. Skrev sedan upp definitionen för E(X) resp.
E(g(X)) i det diskreta fallet och det kontinuerliga fallet. Tog
sedan och räknade ut E(X²) i Ex. 5.1 i boken. Definierade därefter
variansen för X och standardavvikelsen D(X). Sedan använde jag mig
även här av ex 5.1 i boken för att räkna ut variansen m.h.a.
definitionen. Härledde sedan ur definitionen formeln
V(X)=E(X²)-(E(X))² och räknade ut samma varians m.h.a. denna
formel. Gick avslutningsvis igenom följande viktiga räkneregler
för väntevärden och varianser: E(aX+bY+c)=aE(X)+bE(Y)+c,
V(aX+b)=V(aX)=a²V(X), samt om X och Y är oberoende:
V(X+Y)=V(X)+V(Y). Glömde att definiera variationskoefficienten
R(X)=D(X)/E(X).
Mån 26 mar Började med kontinuerliga stokastiska
variabler. Definierade täthetsfunktionen och gick igenom hur man
ur den får fram Fördelningsfunktionen och vice versa. Gick sedan
igenom den likformiga fördelningen och tog som exempel på denna
exempel 3.8 och exempel 3.9 i läroboken. Gick därefter igenom
exponentialfördelningen.Fortsatte med att visa att tiden mellan
två händelser är exponentialfördelad om antalet händelser är
Poissonfördelat. Visade även att exponentialfördelningen saknar
minne.Berättade att eftersom hela kapitel 6 ägnas åt
Normalfördelningen gås den igenom då. Tog sedan exempel 3.14 i
läroboken som exempel på en blandad fördelning av diskreta och
kontinuerliga stokastiska variabler. Fortsatte sedan med att gå
igenom funktioner av stokastiska variabler. Tog som exempel i det
diskreta fallet en kortversion av exempel 3.16 i Blom och som
kontinuerliga exempel gjorde jag en kortvariant av exempel 3.21,
samt exempel 3.20 och exempel 3.19 i Blom. Avslutade med att gå
igenom flerdimensionella diskreta och kontinuerliga stokastiska
variabler. Gick igenom begreppen simultan sannolikhetsfunktion
repektive simultan täthetsfunktion och hur man ur dessa får fram
den marginella sannolikhetsfunktionen respektive den marginella
täthetsfunktionen och hur man vid oberoende även kan gå åt andra
hållet. Visade till sist hur man räknar ut sannolikheter i det
två-dimensionella diskreta och kontinuerliga fallet.
Fre 24 mar Började med att visa ex 2.20 som en intressant
tillämpning av Bayes sats. Inledde sedan kapitel 3 med att gå
igenom begreppet stokastisk variabel och definera
sannolikhetsfunktionen. Tog som exempel på denna ex 3.1 i
läroboken och ritade även upp stolpdiagrammet. Definierade sedan
Fördelningsfunktionen och berättade om dess egenskaper. Tog som
exempel på denna ex 3.1 i läroboken och ritade även upp den. Gick
sedan igenom ett antal viktiga diskreta fördelningar. Började med
tvåpunktsfördelningen och då speciellt Bernouillyfördelningen.
Fortsatte med den likformiga fördelningen och
för-första-gången-fördelningen och den snarlika geometriska
fördelningen. Fortsatte med att gå igenom binomialfördelningen,
hypergeometriska fördelningen och Poissonfördelningen. Avslutade
med att härleda Poissonfördelningen utgående från
Binomialfördelningen.
Ons 22 mar Började med att repetera de tre fallen:
Dragning med återläggning med hänsyn till ordning, dragning utan
återläggning med hänsyn till ordning, dragning utan återläggning
utan hänsyn till ordning. Gick därefter igenom sannolikheten att
vid n dragningar utan återläggning utan hänsyn till ordning dra k
vita kulor från k vita och s svarta kulor. Utvidgade sedan detta
till sannolikheten att dra v vita och; s svarta och g gula o.s.v
när man har r färger. Fortsatte med att gå igenomsannolikheten att
vid n dragningar med återläggning utan hänsyn till ordning dra k
vita kulor från k vita och s svarta kulor. Utvidgade sedan även;
detta till sannolikheten att dra v vita och; s svarta och g gula
o.s.v när man har r färger. Började sedan med betingad
sannolikhet. Illustrerade betingningsformeln m.h.a. exemplet på
sid 26 i läroboken. Visade lagen om total sannolikhet m.h.a.
Venndiagram och tog exempel 2.17 som exempel på denna. Visade även
Bayes sats m.h.a. Venndiagram och tog exempel 2.19 som exempel på
denna. Visade sedan definitionen för oberoende utgående från
betingningsformeln. Avslutade med exempel 2.23 som exempel på
oberoende.(Misslyckades till sist att visa ex 2.20 på väggen som
en intressant tillämpning av Bayes sats.)
Tis 20 mar Presenterade först kursens hemsida som hittas
på http://www.math.kth.se/matstat/gru och visa olika länkar och
dess innehåll. Fortsatte sedan med att muntligen ge exempel på
olika användningsområden som ämnet matematisk statistik har och
denna kurs ger en introduktion till. Började sedan med att gå
igenom utfall,utfallsrum,händelser. Gick sedan igenom snitt,
union, komplement och visade hur man med hjälp av Venndiagram
räknar ut sannolikheter. Definierade i samband med detta
disjunkthet.Skrev upp Kolmogorovs axiomsystem.Förklarade därefter
skillnaden mellan diskret och kontinuerlig fördelning. Tog
övningsuppgift 2.1a och b som exempel på diskreta
utfallsrum.Resten av tiden ägnades åt kombinatorik. Började med
multiplikationsprincipen och den klassiska
sannolikhetsdefinitinen. Gick igenom draging med återläggning med
hänsyn till ordning och tog som exempel att antal pinkoder blir
10^4 eftersom antal kombinationer när man drar k ggr från n
element blir n^k.Som exempel på dragning utan återläggning med
hänsyn till ordning tog jag en förening med 8 medlemmar som skulle
välja ordförande,sekreterare och kassör vilket ger 8ggr 7ggr 6
kombinationer .Allmänna fallet n!/(n-k)! kombinationer. Som
exempel på dragning utan återläggning utan hänsyn till ordning tog
jag antalet pokergivar som ju blir 52 över 5. Allmänt n över k
kombinationer.
Laboration 2
|