Kursens hemsida   schema
Aktuell Information Harald
 

Kursen är från ht 2010 ersatt av SF1901 som vad gäller innehåll är mycket lik SF1908. Det kommer att ges 2 omtentor per läsår i SF1908 med början i januari 2011. Om man i stället vill tentera SF1901 måste man kontakta studievägledare för att ändra sin studieplan där man alltså byter ut SF1908 mot SF1901. I själva verket är det en fördel att göra så, eftersom tentamina för SF1901 ges många fler gånger varje läsår.

Omtentamen 30/5 2013

Anmälan skall ske på ”Mina Sidor”, 22/4 - 15/5 2013. Salar kommer att anslås här.

Har du problem, så kontakta kurssekreteraren Viviana Wallin.

Tentan den 7/6/2012 var identisk med den här för sf1901.

Tentan 12/1/2011 med lösningar

Omtentamen 12/1/2011

Anmälan skall ske på ”Mina Sidor” senast 19:e december 2010. Salar kommer att anslås här.

Har du problem, så kontakta kurssekreteraren Viviana Wallin.

Tentan den 3/6–10

med lösningar.

Det var inte alls något tryckfel, som jag skrev tidigare. Allt är OK.

Tentan är nu rättad och finns på student­expedi­tionen.

72% godkända. Bra resultat för att vara en om­tenta.

Skön sommar!

Harald

Decembertentan

är nu rättad, och resultaten bör vara införda i LADOK. Det gick bra, av dem som var anmälda till tentan blev 76% godkända, om jag räknat rätt. Det gick betydligt sämre för den grupp som inte var anmälda (30% godkända).

Fem stycken fick FX, dvs. har möjlighet att "komplettera" till betyget E. Kompletteringen äger rum onsdagen 3/2 klockan 13-15 i sal 3424 här på matte-institutionen. Om du vill göra kompletteringen skall du anmäla detta till mig senast fredagen 29/1. Du kan ringa eller maila. Se min hemsida. Uppgifterna du får är anpassade till vad du klarade dåligt på tentan.

Tentan med lösningar

Reservation för brister (fel) i lösningarna.

1/12-09

I morgon håller jag den sista före­läsningen. Då blir det hypotes­prövning med varianter av χ2-test; kapitel 13.10. En varning för uppgift 13.29 i boken. Metoden där är ogiltig. Om man vill genom­föra ett test enligt upp­giften skall data samlas in på annat sätt: man kan ta t.ex 623 böcker (om man nu vill ha lika många som i exemplet) ur biblio­teket och notera vilken vecko­dag de senast lånades ut. Då blir fördel­ningen multi­nomial-fördelad, och testet OK.

Man kan göra som i boken också om man förut­sätter Poisson­fördel­ning för antalet ut­lånade böcker under en dag. Detta vill jag skall ingå i den här kursen, jag har skrivit ett litet "godis" om det här. Men konfi­dens­inter­vallet för kvot av Poisson­intensi­teter, som också står där, tar vi inte upp.

30/11-09

Jag gjorde enligt nedan, men hann inte med uppgift 13.5

30/11-09

Jag planerar att i em ta upp konfidens­intervall för skillnad mellan två vänte­värden (normal­fördelningar), dels "stickprov i par", dels "två oberoende stick­prov". Sedan tar jag upp hypotes­prövning med konfidens­intervall. Jag planerar att göra uppgifterna 13.4 och 13.5 med (ensidiga) konfidens­intervall. Det gör inget att 13.5 också kommer på övningen i morgon. Min tanke är att jag skall hålla mig till två metoder för hypotes­prövning: konfidens­intervall och (några varianter av) χ2-test. Det täcker alla situa­tioner vi studerar. Men det är inte nöd­vändigt att övnings­lärarna håller sig strikt till detta; det är OK om studen­terna får se litet varianter.

Jag får se vad jag hinner mer.

Projektuppgiften

När man gör en regression rappor­teras också ett värde som kallas R2. Om man tar kvadrat­roten ur R2 får man (en skattning) av korrela­tionen mellan y och predik­tionen av y, dvs. om regres­sions­ekva­tionen är

y = a + b1x1 + b2x2 + b3x3 + ε

så är predik­tionen av y

a + b1x1 + b2x2 + b3x3

och det är givetvis bra om denna korrela­tion är hög, så en modell som ger ett högt värde på R2 är alltså en modell som kan för­väntas ge bra predik­tioner.

25/11-09

Jag gick igenom intervall­skattning, i stort sett som planerat (se nedan). Jag roddade till formlerna på slutet när det gäller Poisson-fördel­ningen. Om man gör rätt – som det står i formel­samlingen – så blir siffrorna i det sista exemplet

4.60 +/- 0.63

inte det jag skrev på tavlan.

Jag visade hur man kan bestämma ett exakt konfidensintervall för en Poisson-intensitet μ om man har en enda obser­vation. Sedan visade jag hur man gör om man har flera obser­vationer (test­variabel = summan, som också kommer från en Poisson-fördel­ning).

Därefter kom konfidens­intervall för vänte­värdet av en normal­fördelad variabel, både då σ är känt och då det inte är känt (punkt­skattning av σ med s; t-fördelning).

Slutligen visade jag (fast slarvade med formlerna) i princip hur man får ett approxi­mativt konfiden­sinter­vall för Poisson-intensitet genom att använda normal-approxi­mation.

Alla formler finns i formel­samlingen.

Ränkestugor.

Johan Nykvist har räknestuga enligt följande

fredag 20 nov kl. 10.15-11 sal V34

Onsdag 25 nov kl. 10.15-11 sal E31

Onsdag 2 dec kl. 10.15-11 sal E51

Onsdag 9 dec kl. 10.15-11 sal Q31

Nu assisterar även Mårten Marcus eller Ali Hamdi.

Anmälan till tentan

den 18/12 kan ni göra på Mina sidor tom. 2/12. Observera att jag inte tar emot tentamens­anmälningar, varken via mail eller på annat sätt. Har ni problem, så kontakta Viviana Wallin.

Intervallskattning

I morgon (onsdag 25/11) planerar jag att ta upp intervall­skattning. Idén är den här: Vi har ett antal observa­tioner x1,...,xn ur en fördelning som beror på en para­meter θ. Vi har tidigare gjort en punkt­skattning av θ. Denna punkt­skattning θ*kommer natur­ligtvis nästan alltid att något skilja sig från det sanna värdet på θ. Nu vill vi ha en metod som ger ett inter­vall så att med sannolik­heten 1-α ligger det sanna värdet på θ i detta inter­vall. Här är α något litet tal, t.ex. 0.01. Vi får då ett konfidens-inter­vall med konfidens­graden 99%. Vi gör så här:

Låt t vara ett lämpligt uttryck i x1,...,xn, oftast låter vi t vara summan av xi:na. Detta är då ett ut­fall av en sto­kastisk variabel T, vars sanno­likhets­fördel­ning vi för­söker räkna ut, ut­tryckt i para­metern θ. Vi beräknar nu de två sannolik­heterna

P(T ≥ t) ≥ α/2     och     P(T ≤ t) ≥ α/2.

Ur dessa två olik­heter löser vi ut de ekviva­lenta olik­heterna för θ. Nu har vi fått ett symmetriskt konfidens­inter­vall för θ, dvs. sannolik­heten för att vårt inter­vall skall hamna till vänster respektive höger om det sanna värdet på θ är α/2.

Jag skall försöka motivera den här proce­duren och fram­ställa den litet mindre mystisk i morgon. Och vi skall natur­ligtvis titta på flera exempel.

Måndag 23/11-09

Jag gick igenom "multipel regression" som behandlas i kapitel 14. Jag gav flera exempel på hur koeffici­enterna i en regres­sions­modell skall tolkas, och fra­mhöll att tolk­ningen av en koefficient för en ko­variat (dvs. x-variabel) beror på vilka de övriga ko­variaterna är.

Förutom koeffici­enterna är p-värdet av intresse. Det är sanno­likheten att man skall få en koefficient vars absolut­belopp är minst lika med absolut­beloppet av det skattade värdet OM den "sanna" koeffici­enten är noll. Litet knepigt att tolka, men i prak­tiken betyder det att om p-värdet är litet (säg mindre än 5%, eller mindre än 2%, eller vad man nu vill ha för "felrisk") så kan man vara någor­lunda över­tygad om att åt­minstone den skattade koeffici­enten har rätt tecken. Är p-värdet stort, kan man inte dra den slut­satsen.

Vi kommer att ta upp de här aspekterna senare; det vi gör är exempel på hypotesprövning

Slutligen pratade jag litet om hur man gör regres­sioner i EXCEL. Eventuellt måste man först aktivera "Analysis ToolPak"

Här är en snabb­guide till EXCEL för er som inte har någon som helst erfarenhet av EXCEL. Använd också de utförliga hjälp­funktioner som finns i programmet.

Onsdag 18/11

Jag avslutate kapitel 11, punktskattningar. Jag gick igenom ML-skattning och MK skattning och visade flera exempel.

Alldeles efter Definition 11.8 står litet undanskymt att om alla μi är identiska (och vi bara har en parameter θ att skatta), så är MK-metoden ekvivalent med "momentmetoden", dvs vi löser ut θ ut μ(θ) = (stickprovsmedelvärdet).

Jag påpekade att samma sak gäller så snart man har lika många μ:n som θ:n.

Kapitel 11.7 tar vi inte upp — det täcks av kapitel 11.4, där jag använde MK-metoden (momentmetoden) för att motivera skattningarna. Kapitel 11.8 tog jag väsentligen upp förra gången. Kapitel 11.9 tar vi upp i samband med kapitel 12. Kapitel 11.10 och 11.11 hoppar vi över.

Måndag 16/11-09

Jag höll planen nedan i stort sett: Jag definierade percentiler i allmänhet, inte bara kvartiler och median. p-percentilen (0 < p < 1) definierade jag så här: Låt x1,...,xn vara data sorterade i storleksorsning. Då är p-percentilen observationen xk, där k är det heltal som uppfyller n*p ≤ k ≤ n*p+1. Om det finns två sådana heltal tar vi medelvärdet av motsvarande två observationer.

Jag exemplifierade "momentmetoden" med att skatta p då observationerna kommer från Bin(N, p) med känt N, λ från Po(λ) och λ från Exp(λ). Slutligen skattade jag också standardavvikelsen för en godtycklig fördelning (med s), och motiverade litet hastigt varför man brukar ha n-1 i nämnaren i stället för n.

Föreläsning 7

Jag planerar att ta upp en del aspekter i kapitel 10.3 (data):

Sedan går jag till kapitel 11. Kapitel 11:3;

Kapitel 11:4;

11/11-08

Jag gick igenom kapitel 7 i stort sett enligt nedanstående, men jag tog inte upp den viktiga satsen 7.8 om summor av Poissonfördelade s.v. Tag gärna upp den på övningen (övningslärarna), och läs och begrunda och memorera (studenterna). Detta står inte i formelsamlingen.

Kapitel 7

Binomial­fördel­ningen. Ett bra (tycker jag) sätt att hålla reda på när en s.v. är binomial­fördelad är rela­tionen (7.2). Observera att I:na skall vara oberoende. "Normal­approxima­tionen" står i formel­samlingen under Normal­fördelning. Vi använder inte Poisson­approxima­tion. Kumula­tiva binomial­fördel­ningen finns på mini­räknaren, och heter nå't i stil med binomcdf. På min frus (gamla) räknare fungerar den med n≤999.

Hyper­geometrisk fördel­ning. Jag tänker inte på den som en fördel­ning, mer som klassiska sanno­likheter med ganska enkel kombina­torik. Observera att även hyper­geo­metriska fördel­ningen upp­kommer som en summa som i (7.2), men eftersom vi an­vänder UÅ så blir I:na inte obe­roende! Approxi­mationen med binomial­fördel­ningen behövs sällan, eftersom mini­räknaren har bimomial­koeffici­enter inbyggt. Men om N är mycket stort kan man natur­ligtvis approxi­mera UÅ med MÅ, och då får man binomial­fördel­ningen.

Poisson-fördel­ningen. Viktig! Sats 7.8 är viktig. (Obser­vera att skill­naden mellan två Poison-förde­lade s.v. inte är Poisson­förde­lad. Inte helt ovan­ligt miss­tag på tentor att tro att den är det.) "Normal­approxima­tion" står i f.s. under Normal­fördel­ning.

9/11-09

Jag gick igenom kapitel 4 och 6 enligt nedanstående. Jag löste också uppgift 3 i den här tentan, men glömde faktorn "kvadratroten ur 1'000" eftersom jag tyvärr glömde faktorn "kvadratroten ur n" när jag skrev ner CGS. Men det står rätt i formelsamlingen.

Kapitel 4 och 6.

Min plan är att inte ta upp simultana fördel­ningar alls (kap. 4). Jag tar upp "största och minsta värde" (kap. 4.6) för oberoende och lika­fördelade s.v. och exempli­fierar med kontinu­erlig uniform fördel­ning. Jag tar också upp "Lagen om totlal för­väntan" (sats 5.15 i kap. 5) och "Lagen om total sanno­likhet" i samma tappning, (dvs. jag byter ut E mot P, väsentligen, i sats 5.15.) Jag illus­trerar med följande exempel:

Låt X vara uniformt fördelad på [0,1]. När vi obser­verat ett utfall av X, låt Y vara uniformt fördelad på [0,X].

a) Bestäm E[Y]

b) Bestäm sannolik­heten P(1/3≤Y≤1/2).

Det får räcka med detta i kapitel 4.

Normal­fördelningen, kapitel 6. Jag definierar standardi­serade normal­fördel­ningen med dess täthets­funktion. Jag påpekar att de har den kumu­lativa fördel­ningen (för­delnings­funktionen) på mini­räknaren, men visar ändå hur tabellen i f.s. fungerar. Jag definierar N(μ, σ) så att X har denna fördel­ning om X = μ + σZ där Z är standard normal­fördelad. Jag tar alltså inte upp den all­männa täthets­funktionen.

Jag påpekar att linjär­kombina­tioner av obe­roende normal­fördelade s.v. är normal­fördelad, men skriver inte upp alla formler i kap. 6.5 — det skulle bli för mastigt. I stället nöjer jag mig med den viktiga "följdsats 6.5.1" på före­läsningan.

Jag påpekar också naturligt­vis CGS som jag formu­lerar som i f.s.

4/11-09

Jag gick igenom i stort sett enligt nedanstående.

Kapitel 5, Väntevärden

Jag planerar att motivera och definiera begreppet väntevärde E[X] för en s.v. X och för en funktion f(X) av en s.v.; E[f(X)]. Jag exemplifierar med

E[2X]   då X är Bin(10; 0.4)

E[X]   då X är Exp(2)

E[eX]   då X är Exp(2)

Sats 5.3 är viktig, liksom sats 5.4, som jag generali­serar till

E[f(X)*g(Y)] = E[f(X)]*E[g(Y)]   om X och Y är oberoende.

Sedan tar jag upp varians och standard­av­vikelse (defini­tionerna 5.2 och 5.3) men hoppar över definition 5.4.

Räkne­reglerna för varians formu­lerar jag helst så att ko­variansen är bi­linjär (begreppet för­klaras) och att ko­variansen med en konstant är noll. Enklast att komma ihåg så, tror jag. Ett viktigt special­fall som man bör kunna utan­till är att variansen för medel­värdet av n lika­fördelade och oberoende (okorrelerade) s.v. Xi är V(X)/n och följ­aktligen att standard­av­vileksen är D(X)/sqrt(n). Detta är alltså "förlj­dsats 5.11.3".

Jag tar också upp ko­varians och korrela­tions­koefficient och satserna 5.8 och (special­fallet) sats 5.6.

Jag hoppar över "stora talens lag" tills vidare; jag tror den är svår att upp­skatta så här tidigt. Jag hoppar också över kapitel 5.7. Möjligen tar jag upp begreppet betingat vänte­värde på en mer intuitiv grund senare, om och när jag tar upp "lagen om total för­väntan". Vi får se.

2/11-09

Jag gick igenom kapitel 3, stokastiska variabler (s.v.). Jag gav en informell definition av "stokastisk variabel" och beskrev vad som nenas med diskret och kontinuerlig s.v.. Jag definierade sannolikhetsfunktion (för diskret s.v.) och täthetsfunktion (för kontinuerlig s.v.).

Jag beskrev sannolikhetsfunktionen för

Ni får själva läsa om "för-första-gången-fördelningen" i boken.

Jag beskrev täthetsfunktionen för

Slutligen definierade jag fördelningefunktionen för kontinuerliga s.v., definition 3.16, formel (3.10), sats 3.3 samt det viktiga sambandet Sats 3.1.

Lär känna din miniräknare.

Som jag påpekat tidigare så finns  nPr  och  nCr  på era mini­räknare. Använd dem!

Använd dessutom inte tabellerna i formel­samlingen eller boken. Lär er i stället att hitta mot­svarande värden med mini­räknaren. På TI83 trycker man på [2nd] [DISTR] och får upp en lista med fördel­ningar. De av intresse är i första hand

På andra räknare finns mot­svarande, ni får leta litet. Om ni vill kolla i bruks­anvis­ningen men slarvat bort den före­slår jag att ni surfar in på till­verkarens websida och kollar där. Jag kan inte visa er hur era mini­räknare fungerar.

Kapitel 3; Endimensionella stokastiska variabler

Vi tar inte upp alla exempel på kontinuerliga fördelningar; vi hoppar över Weibull-fördelningen och gamma-fördelningan (kap. 3.5 d och e).

Fördelningsfunktionen (kap. 3.7) använder vi bara för kontinuerliga fördelningar; definition 3.16, formel (3.10), sats 3.3 samt det viktiga sambandet Sats 3.1 som finns i det tidigare avsnittet kap. 3.5.

Kapitel 3.8 (Intensitet) och 3.9 (Blandning av stokastiska variabler) hoppar vi över. Kapitel 3.10 tar vi upp genom ett par exempel som ni gör på övningarna; övning 3.29 och 3.32.

28/10-09

Jag gick igenom resten av kapitel 2, dvs

LOTS tog jag bara upp i fallet H1 = A, H2 = A*, dvs bara två H:n. Det generella fallet får ni läsa själva, sats 2.9.

Jag visade också några egna påhittade exempel på LOTS och Bayes, och även 2.37 i boken (oberoende). Jag bevisade också att om A och B är oberoende, så är också A och B* oberoende (boken överst sid. 34).

Jag visade också hur man kan använda Bayes formel på ett litet enklare sätt i fallet H1 = A, H2 = A*, genom att beräkna oddset istf. sannolikheten. Det är inget ni måste lära er, men ni får använda det om ni vill.

26/10-09

Jag gick väsentligen igenom kapitel 2.1–2.5, dvs

Jag pratade bara om "händelser" som förstått begrepp; begreppen "utfallsrum" och "händelser" som delmängder tar vi upp bara upp i den mån det behövs i något sammanhang,.

Se till att ni hittar  nPr  och  nCr  på era miniräknare!

Valid HTMLvalid css