Aktuell information, SF2941 2009.
  • Välkomna till kursen SF2941 Sannolikhetsteori och linjära modeller!

    Här kommer aktuell information att finnas under kursens gång./GJ

    090316
    FL1:
    Kap. 1 i kursboken.
    Sanningsfunktioner (diskreta fördelningar)
    Fördelningsfunktioner och täthetsfunktioner (kontinuerliga fördelningar).
    Stokastisk variabel, väntevärde och varians.
    Marginella täthetsfunktioner.
    Transformationsteoremet (Thm 2.1)
    Oberoende och beroende stok. variabler.
    Några formler för väntevärde och varians med och utan oberoende variabler.

    090317
    FL2:
    Problem I.17 löstes som exempel på likformiga fördelningar, oberoende stok. variabler, transformationsteoremet, marginella funktioner och sannolikhetsbestämning genom integrering av simultan täthetsfunktion.
    Kap2. Betingade fördelningar. Täthetsfunktion för betingad stok. variabel.
    Täthetsfunktionen då variablerna är oberoende.
    Väntevärde för betingad stok. variabel.
    Dubbla väntevärdessatsen (Th II.2.1)
    E(Y|X) kan ses som en funktion av X , h(X).
    Vikten av att se ett väntevärde som resultatet av en integrering där det är väsentligt att veta vilken/vilka variabel/variabler som är integrationsvariabel.
    Början på Ex. 2.1, ett första exempel på länkade fördelningar, dvs fall då en fördelningsparameter tolkas som en stokastisk variabel.

    090323
    FL3
    Kap 2.2. Definition av Var(Y|X). Teorem 2.3 med korollarium 2.3.1 (formel för Var(Y) i termer av betingade varianser) formulerades. Variansformeln tillämpades genom bestämningen av Var(Y) i Exempel 2.1,

    Kap 2.3. Exemplen 3.1 och 3.2 genomgicks och löstes med hjälp av Lagen om total sannolikhet. Några av de vanligaste fördelningarna ( Po(m), Bin(n,p) och Exp(a) ) introducerades. De rekommenderade hemuppgifterna kommenterades. I problem II.7.19 är den erhållna fördelningen täthetsfunktion (p(1/a)^p)/(x+1/a)^(p+1). Nästa föreläsning genomgås avsnitten 2.4 och 2.5 kort.

    090326
    FL4

    Uppgift I.21 löstes halvvägs. Skriftlig lösning har Daniel utlovat till måndagsövningen.
    Kort genomgång av de vanligaste problemtyperna i Kap. I och II.
    II.4, Bayes approach, genomgicks i form av läsanvisningar till de två exemplen i avsnittet. Hänvisning till övn.uppg. II. 24
    II.5 Prediktion och regression. Begreppen regressionsfunktion och korrelationskoefficient definierades. Hänvisning till övn.uppg. II.25.
    Kap. III.
    De tre generarande funktionerna (sannolikhetsgenererande g(t), momentgenererande ψ(t) och karakteristiska funktionen φ(t)) definierades. Några viktiga egenskaper presenterades, bl.a g(1) = ψ(0) = φ(0) = 1.
    gX(t), som huvudsakligen används på diskreta fördelningar, visades också kunna hantera summor av n st. oberoende stokastiska variabler Xj.
    Vidare visades hur hur MacLaurinutveckling av gX(t) ger sannolikheterna för X, pX(n), som koefficienter. Även beräkning av EX, VarX och högre moment av X ur derivator av gX(t) genomgicks.
    Slutligen visades hur gX(t) beräknas i fallet Poissonfördelning.

    090330
    FL5

    Kap. III forts. Entydighetssatserna 2.1, 3.1 och 4.2 som säger att de tre transformerna g, ψ och φ är 1-1 (entydiga och omvänt entydiga).
    Def 4.2 av transformfunktionerna i flera variabler.
    Beräkning av ψ(t) i fallet N(0,1) genomfördes som ett exempel på typisk matstat-integration.
    Noterades att App2 också fungerar som en lista på bestämda integraler över tätheterna existensområde.
    Inversformler: Påpekades att för g-funktionen löstes problemet förra föreläsningen ((MacLaurinkoefficienterna för g(t)). .
    I fallet φ hänvisades till formeln i Thm 4.4 som ger täthetsfunktionen när φ(t) är känd. Visade att för Cauchy-fördelningen existerar inte ψ(t) i något öppet intervall, vilket däremot φ(t) gör.

    Hantering av variabelsummor Sn = X1 + ... + Xn, där Xj är i.i.d.:
    För givet n-värde erhålles gSn(t) = (gX(t))n.
    I fördelningslistan, ( App. 2) kan man finna flera exempel på par av fördelningar X,Y som uppfyller (φX(t))n = φY(t), vilket indikerar att Y kan bildas som en n-summa av i.i.d. X-variabler. (Ex: X är Be(p), Y är Bin(n,p) samt X är Exp(a) och Y är Γ(n,a))
    Om istället termantalet är en stokastisk variabel N, erhålls (Thm 5.1) gSn(t) = gN((gX(t)) . Viktigt att förstå beviset!

    Som exempel på användning av transformering tillsammans ned dubbla väntevärde-formeln visades första exemplet i avsnitt III.7.

    Tips till hemtalen (som inte hanns med):
    III.5 Eftersom EXn är givna är det naturligt att bilda ψ(t) som summerbar MacLaurinserie. Ur ψ(t) fås fördelningen. Lite trixande med ut-och inflyttning av variabeln t från summasymbolen kan krävas.

    III.13. Typiskt SN-problem (Thm5.1). Den trunkerade Po-fördelningen fordrar försiktighet. Bäst att bestämma gX direkt ur g:s definition. 'without using (a)' i (b) betyder förmodligen att Thm 5.2(a) och (b) får användas.

    III.14. Z kan bildas som summan X1+ ... + Xr där varje Xj har fördelningen Fs(p).

    III.20. Typisk Thm5.1-uppgift. Ur gZ(0), g'Z(1) och g''Z(1) bestäms det efterfrågade.

    090415
    FL6

    Kap. III forts. Kvarvarande material från Kap. III:
    Exempel på hur högre moment bestäms via MacLaurin-utveckling av ψ-funktioner (flervariabelfallet.)

    Thm 5.3 och 5.4 omnämndes tillsammans med Thm 5.1 som resultat om hantering av stokastiska variabelsummor med stokastiskt antal termer.
    Thm 5.2 a) (väntevärde för variabelsumma) formulerades och bevisades.
    Exempel på konstruktion av g-funktion för ändlig, diskret fördelning.

    Avsnitt III.7 rekommenderades för läsning. Lösningsmönstret för denna typ av problem (stokastiska fördelningsparametrar) presenterades:
    1. Identifiering av väntevärdet h(N) som g-funktion.
    2. Försök att bilda väntevärdet för h(N), ofta med hjälp av identifiering av typ E(QNt) = gN(Q) eller motsvarande för φ- eller ψ-fknerna.

    Thm 4.8 (Hantering av φaX+b(t) ) formulerades och visades.

    Kap. V inleddes med avsnitt 1, repetition av relevant linjär algebra.

    090416
    FL7

    Kap. V forts.

    V.2 Covarians-matrisen definierades och den viktiga linjära transformationssatsen Thm2.2 formulerades.
    V.3 Definition nr. 1 av normalfördelad stokastisk vektor presenterades.
    Ex. 3.1 som visar effekten av för svag definition omnämndes.

    V.4 Karakteristiska funktionen φ(t) för en normalfördelad vektor presenterades och motiverades. Def. nr. 2 av normalfördelad vektor formulerades (i termer av karakteristiska funktionen).

    V5.5. Täthetsfunktionen för en normalfördelad vektor presenterades. Visades att inversmatrisen Λ-1 definierade kvadratiska formen i exponenten.
    Definition nr. 3.
    Metoder för invertering av matriser presenterades.

    V.6. Betingade fördelningar.
    Tvåvariabelfallet presenterades enligt kursboken.
    Ett exempel räknades. Tyvärr blev svaret felaktigt pga av fel vid matchningen mellan formelns och problemets parametrar.
    Rätt svar: N(7/3,20/3).

    Tips till några hemtal från Kap. V (s. 144-145):
    V.4. En motsvarande uppgift har ännu inte genomgåtts. Tentauppgift 2007.05.25:3 kan ge tips tillsammans med 'Remark' i uppgiften.
    Beräkning av VarXY verkar svårare och kan hoppas över. (För entusiaster: Pröva ψ-funktionen)

    V.9. Sätt Cov för varje par av oberoende variabelkombinationer till 0. Inför Cov(X1,X2) och de två övriga covarianserna som obekanta och visa att för det erhållna ekvationssystemet är 0-lösningen unik. (det(A) skild från 0).

    V.11 Efter variabelbytet blir problemet ett tvåvariabelproblem och kan lösas som Ex 6.2 i kursboken s.131.

    090421
    FL8

    Exemplet från förra gången löstes, denna gång med covariansmetoden.
    Ytterligare ett exempel, med tre stok. variabler gjordes med samma metod.
    Visades hur lösningen till ett sannolikhetsproblem ,typ P(X>3) , för en viss normalfördelad variabel X , kan formuleras i termer av den standardiserade fördelningsfunktionen Φ(x), svarande mot fördelningen N(0,1).

    Efter pausen talade Harald Lang om Projektuppgiften. Han förklarade bl.a. punkt 1. i uppgiften i detalj, kommenterade resten och hann bevisa Thm 9.1 i kap V i Gut i samband med uppgiftens sista del.
    Vi glömde nämna att uppgifterna, som är individuella, skall lämnas in senast på föreläsningen den 4 maj.

    Några tips till de sista hemuppgifterna i Kap V.
    Hemuppgifterna V.10,12 och 13 är ganska lika. I samtliga fall använder man Thm 3.1 för att transformera covariansmatriserna. Man behöver två nya variabler för att bilda de efterfrågade betingade fördelningarna. Därmed kan alltså formlerna (6.2) s.130 användas. Men även covariansmetoden fungerar.
    I alla tre fallen är de gamla variablernas Λ-matris = I, identitetsmatrisen. Notera att de gamla variablernas väntevärden är 1 i uppg. 12.
    I uppg. 13 spar man tid om man transformerar direkt från Y-variablerna till U=X2, V= X1 + X3.
    V.20. Man kan få fram covariansmatrisen för de gamla variablerna genom att studera den momentgenererande funktionen Ψ. Notera att inga förstagradstermer förekommer i Ψ. Detta betyder att de tre variablernas väntevärden är 0.
    Här behövs tre nya variabler, vilket innebär att formlerna (6.2) inte kan användas. Covariansmetoden fungerar. Något tungräknad uppgift.

    090423
    FL9

    Kap. V avslutades.
    Visade hur man får information om täthetsfunktionerna, inkl. de marginella täthetsfunktionerna ur covariansmatrisen. Förekomst av nollor där visar också vilka variabelpar som är oberoende.
    I V.7 visades diagonaliseringsteoremet 8.1.
    Slutligen genomgicks Χ2(n)-fördelningens uppträdande i samband med kvadratsummor.
    Det visades bl.a.att X2 är Χ2(1)-fördelad om X är N(0,1)-fördelad och att summor av oberoende sådana kvadrater är Χ2(n)-fördelade.
    V.9 genomgicks inte.

    Kap. VI, gränsvärden. p-gränsvärdet och d-gränsvärdet (sannolikhets- resp. fördelningsgränsvärdet) definierades och exemplifierades. Tjebysjevs olikhet togs upp i samband med p-gränsvärdet.
    Omnämnande av r-medelvärdes-gränsvärdet.

    Slutligen hänvisades till FS 11.1-3 där användbar matematik listas.

    090428
    FL10

    Kap. VI fortsättning.
    Noterades utan bevis att de givna gränsvärdena är entydiga.(VI.2).
    VI.3: Teorem 3.1 (p-gränsvärde => d-gränsvärde) och Teorem 3.2 (p- och d-gränsvärdena är ekvivalenta då gränsfördelningen är degenererad dvs. = konstant) formulerades. Kort utredning om dirac-funktionens roll som täthetsfunktion till konstanter. VI.4 hoppades över.
    VI.5 transformer. Med tonvikt på karakteristiska funktionen φ visades transformernas användbarhet i samband med gränsvärden.
    Konti
    Kontinuitetssatsen 5.3 för φ formulerades liksom Cor 5.3.1 för fallet konstant gränsfördelning.
    Ex 5.2 genomgicks.
    VI.6 Stora talens lag (LLN) och Centrala gränsvärdessatsen (CLT) bevisades båda m.hj.a. φ-transformer. Visades också hur LLN med starkare antaganden (Var(Xj) existerar) lätt bevisas med Tjebysjevs olikhet.
    VI.7 Räkneregler för gränsvärden. Teorem 7.2 och 7.4 samt sammanfattningen 7.5 (Cramér-Slutsky) formulerades. Ovanstående satser gäller utan antagande om oberoende variabler. Om oberoende krävs fås något starkare resultat för d-gränsvärdet (Teorem 7.6). Teorem 7.7 formulerades: p-gränsvärdet fungerar inuti kontinuerliga funktioner då gränsfördelningen är konstant.

    Tips till hemtalen i Kap. VI:
    OBS. De påståenden som görs i tipsen ska förklaras/motiveras i lösningarna.

    5. Bilda FYn enl. Kap IV.1.
    OBS FYn-logn(x)=FYn(x+logn).

    9c och 10.
    är ganska lika. Räcker kanske att göra ett av dem.
    Använd φ(t) (jfr beviset av CLT). MacL-utveckliong av logφ(t) ger svaret efter lite räkningar.
    Genväg för 10: Betrakta Xn som n-summa av Yj ∈ Bin(n,m/n).
    Man får då en följd som är lika med den i CLT gånger en faktor som går mot 1.
    (Kolla EYj och VarYj.) Cramér-Slutsky behövs.

    18. Sätt Xn = den givna summan. Bilda φXn(t) som en produkt av ickeidentiska faktorer.
    MacL-utveckla logφ(t) (dvs utveckla den erhållna summan) med u=eit-1 som variabel och visa att koefficienterna för um -> 0 (för m>1) då n->∞. Använd den givna informationen om pk,n.

    22..Sätt Xn ∈ Po(1). Man får Sn ∈ Po(n). CLT ger (Sn - n)/√n ->N(0,1). Observationen att P(Sn≤n)->1/2 ger beviset.

    24. Notera att Xn kan ses som en n-summa av Uj ∈ Γ(1,1)=Exp(1). Detta gör att CLT kan användas på täljaren (gör en förlängning först).
    I nämnaren hittar man en följd under ett rottecken. Under rottecknet kan LLN användas.
    Använd sedan Thm VI.7.7 och Cramér-Slutsky (7.5).

    25 CLT i täljaren. För Zn=MaxYk behövs fördelningfunktionen
    FZn(x) genom vilken man kan visa via Tjebysjev att Zn->1. EZn och VarZn fås ur FZn (via F'Zn = fZn) efter ett par integreringar.

    27. Bestäm fördelningsfunktionerna för Zn och nVn .
    Zn->Exp(1) (d-gränsvärde) eftersom FZn -> 1-e-x.
    nVn kan visas gå mot 1 (p-grvärde) via Tjebysjev. Till slut Cramér-Slutsky.

    090428
    FL11

    Kap. VII.
    Poissonprocesser genomgicks med tonvikt på avsnitt VII.1: Definition I av Poissonprocess X(t).
    Bl.a: X(t) - X(s) är Po((t-s)λ)-fördelad.
    X(t)/t ->(p) λ då t-> ∞.
    Thm 1.2 (Lack of memory).
    Def av händelsetiderna Tk och dessas differenser τk.
    Thm 1.3. : τk är oberoende och Exp(1/λ)-fördelade. Tk är Γ(k,1/λ)-fördelade.
    Thm 1.3 bevisades delvis varvid hantering av oberoende sannolikheter illustrerades.
    (VII.2) Thm 2.1 och 2.2 formulerades (Exempel på Poissonprocesser definierad via translation av konstant (2.1) och den stokastiska variabeln Tk (2.2).
    Bevisidé till Thm 2.2.
    Ex. 2.1 där villkor på godkända τ-differenser (tillräckligt långa för att tillåta vägövergång) inducerar en Bin-fördelad variabel N (= antal passerande bilar innan vägövergången kan ske).
    Den totala väntetiden före övergången bestämdes som
    T = EN·Eτk
    Betingning (VII.3)
    Thm 3.1 P(T1≤t | X(1)=1) är U(0,1)-fördelad. Teoremet bevisades.
    VII.5 (Flera oberoende processer). Den superponerade processen Y(t) definierades.
    Thm 5.1 Y(t) har intensiteten λ = summan av de givna processernas intensiter.
    Observation i VII.5.2: P(Första händelsen i Y(t) inträffar i process k) = λk/λ.
    VII.6 Förtunning (thinning) av Poissonprocess. Hänvisades till Ex. 3.2 s. 40.42,94.

    Tips till hemtalen i Kap. VII:
    Endast de tipsade hemtalen rekommenderas (viss reduktion av antalet).

    3. De två processerna generar en graf i xy-planet som kan beskrivas av sviter av typ xxyxyyy osv. (x:ett steg i x-riktn. y: ett steg i y-riktn.) Tiderna behöver man inte behandla, endast ordningsföljderna. Enl. VII.5.2 är sannolikheterna för x- resp. y-steg = 1/2.
    Försök se hur passage av punkt (i,j) sker med en sannolikhet som är Bin-fördelade med p=1/2.

    5. Användning av VII.5.2 + sunt förnuft ger svaret (2/3)2.

    7. Kan lösas med Kap.I-metoder (simultan täthetsfunktion fX,Y för en U(0,a)- och en Exp-fördelad variabel. Den sökta sannolikheten fås som en dubbelintegral av fX,Y över lämpligt område.

    10. Påminner om Ex. VII.2.1 s. 209.

    13. Udda problem. Man får försöka bilda gM(u) för M=totala antalet jobb. Använd dubbla väntevärdes-satsen och knepet i Thm III.5.1.

    17. Bilda Var(X(t+s) - X(t)) som ju kan bestämmas via def. av Po-process. M.hj.a. allmänna formeln för Var(U-V) får man indirekt den covarians som behövs vid bestämningen av ρ .

    18. Problemet anknyter till Wiener-processer (s.k. Brownsk rörelse). Betrakta St som en summa av N(0,σ2)-fördelade variabler. Bestämning av Var(St) öppnar upp för användning av CLT.

    Ny rekommenderad uppgift:
    VII.2 i Harald Langs problemsamling. Använd metoden att finna oberoende sannolikheter som i bevisen till Thm.1.3 och 3.1 i Kap. VII.