Kursens hemsida schema övningar kommentarer
![]() | |
![]() | |
![]() | |
![]() | |
![]() ![]() | Aktuell Information |
Tentan den 8/6 är nu rättad.
Av fem giltiga skrivande (en saknade kursval och får inte tentera) blev en underkänd, två fick trea och två fick fyra. Ingen komplettering.
Måndag 11/6
Ursäkta, jag missade att lägga ut den här sidan i fredags. Här kommer alltså sent omsider:
Fredag 8/6: Svaren till tentan
Måndag 12/3: Svaren till tentan
Här är svaren:
β1 = cov(z,y) / cov(z,x)
Tisdag 27/2
Jag svek er igen. Det är mitt eländiga mag-problem som slog till igen. Jag hade planerat att göra två övningsuppgifter, dels övning 34, dels härleda Theorem 4.6.1. (Firsch-Waugh-Lovell; det är Theorem 3.7.1 i nya upplagan). Denna härledning är inte en del av teorin i kursen, jag tänker mig den i stället som en ren övning i att manipulera regressionsekvationer. I övrigt hade jag bara tänkt att göra nå'n slags snabb översikt över kursen, men det har ni ju om ni kollar den här sidan (Aktuellt) och kommentarerna.
De två övningarna skriver jag ner som en pdf-fil här.
Tack för ert deltagande, och jag hoppas givetvis det går bra på tentan.
Måndag 26/2
Jag har korrigerat ett fel i kommentarerna; jag nämnde det på undervisningen.
Vi repeterade en del om censurerade data och självselektion. Vi tog upp
Vad skall ni kunna utantill (igen)
Jag fick litet kalla fötter när jag läste igenom vad jag skrivit om utantill-kunskaper. Det jag syftade på var formler för skattningar, som ju kan vara rätt invecklade, och det är inte rimligt — eller ens påkallat — att man kan alla utantill. Men givetvis förväntar jag mig att ni vet vad en logit-specifikation är, hur en enkel Tobit modell ser ut osv.
Fredag 23/2
Jag gick igenom Tobit-modeller och selektions-modeller, motsvarande kapitel 14.3 och 14.4 i Hansen (12.3 och 12.4 i nya upplagan.) Jag nämnde också att ML är en alternativ skattningsmetod till Heckmans lambda-metod. Vi skall också ta upp durations-modeller, men det står inte i Hansen. Jag skriver litet om dem i kommentarerna, så tar vi upp dem på måndag. Sedan tar vi inte upp fler modeller — om ni är intresserade kan ni läsa i Hansen om paneldata-modeller, men formellt ingår de alltså inte i den här kursen.
Onsdag 21/2
Vi löste ytterligare några problem, nämligen 31 och 33, med litet runsdnack omkring dem.
Häromdagen delade jag ut ett utdrag ut Peter Kennedys "A Guide to Econometrics". Några av punkterna under "21.4 Common Mistakes" är inte relevanta för kursen. Det gäller punkterna
1. Det här handlar om autokorrelation (DW) och är relevant för tidsserier, vilket inte ingår i den här kursen.
6. Jag tror inte någon skulle komma på att göra detta misstag.
8–9. Inte aktuellt.
11. Detta är tidsserieanalys.
I övrigt är det mycket tänkvärda påpekanden och råd!
Vad skall ni kunna?
Jag har fått den naturliga frågan om vilka formler jag förväntar mig att ni kan utantill på tentan. Här är vad jag förväntar mig vad gäller formelkunskap:
I övrigt skall ni naturligtvis känna till Wald-testet och hur det används och så vidare, men de exakta formlerna förväntar jag mig inte att ni lärt utantill.
Tisdag 20/2
Vi löste problem. Uppgift 30 och 32. Uppgift 30 innebar att vi gjorde hela härledningen av "NNLS with Instrumental Variables" som jag beskrivit i kommentarerna. Uppgift 32: a) var bara en tillämpning på Lagen om Upprepad Förväntan, i b) var svaret att 2SLS ger samma skattning som OLS, och vi visade mer generellt att det gäller alltid om alla x-variablerna ingår som instrumentvariabler. Svaret på c) är att det inte ger samma resultat — man kan alltså förbättra skattningarna om man har fler instrumentvariabler utöver x-variablerna.
Måndag 19/2
Första timmen ägnade vi åt projektuppgiften. Jag tycker det gick bra, vi hade en bra diskussion, och ni hade litet olika sätt att angripa problemet, vilket jag också tycker var bra.
Andra timmen pratade jag litet allmänt om modellval: hur man kan tänka sig att transformera variabler som inte kan anta alla reella värden (t.ex. alltid är positiva eller alltid ligger mellan noll och ett, som t.ex. en andel). Jag tog också upp "interaktions-termer", dvs. produkten av två ingående variabler. Flera av er hade en sådan i projektuppgiften: (dummy för "black")x("education"). På slutet tog jag upp litet grand om "bootstrap". Bootstrap används framför allt vid icke-linjära modeller för att skatta osäkerheten i punktskattningarna. Ibland används det ochså för hypotestest av ett icke-linjärt samband mellan koefficienterna i en modell. Anledningen till att man gärna använder bootstrap i dessa fall är att man undviker att lita på asymptotiska resultat som förmodligen är goda aproximationer bara då man har väldigt många observationer. Detta är extra känsligt vid icke-linearitet, eftersom man då också gör Taylor-approximationer som kan vara rätt grova.
Bootstrap behandlas i kap. 8 (6 i nya uppl.) i Hansen, men tyvärr är det rätt hopplöst att läsa. Man kan hoppa till kapitel 8.12 (6.12) och sedan titta litet bakåt för att se vad han syftar på. Det bästa är naturligtvis att gå Gunnar Englunds kurs i "Datorintensiva Metoder"
Fredag 16/2
Idag tittade vi bara på övningsuppgifter. Vi gjorde klart "modelltentan", och sedan också 9.1 (7.1 i nya uppl.) i Hansen (dvs. övning 29).
Onsdag 14/2
Första timmen härledde jag ML-estimatorn av en Logit- eller Probit-ekvation. Det visade sig vara ekvivalent med GNLLS-estimatorn, som jag pratade om igår.
Andra timmen tittade vi på de första uppgifterna i "modelltentan". I uppgift ett tänkte jag mig att man skulle mistänka multikolinearitet: Ålder – studietid bör vara ungefär konstant (=multipel av interceptet). Åtgärden kan då vara att ta bort "ålder" ur ekvationen.
I andra uppgiften är problemet "självselektion" — det är frivilligt att deltaga i "åtgärd" vilket gör att gruppen som är i åtgärd kan ha andra karakteristika än de som inte deltar. En metod att komma tillrätta med detta är att utnyttja en instrumentvariabel (väl korrelerad med dummyvariabeln "deltagit" men okorrelerad med residualen). Men en sådan hittar man knappast, så åtgärden skulle väl snarast vara en "Heckit", som vi ännu inte berört på undervisningen.
I tredje uppgiften kan vi helt enkelt införa en ny parameter a = β1 + β2, och substitutera β2 = a – β1.
Tisdag 13/2
Jag repeterade först snabbt "momentmetoden" eftersom jag tycker att jag inte lyckats förklarat den tydligt tidigare. Därefter tog jag upp NLLS med instrumentvariabler — detta står inte i Hansen; jag har skrivit litet om det i kommentarerna. Syftet är bara att ni skall känna till att man kan använda tekniken med instrumentvariabler även vid icke-linjär regression.
Därefter tog jag upp generaliserad NLLS (GNLLS). Detta står inte heller i Hannsen (!), men jag tycker det är rätt centralt. Jag har skrivit kortfattat om det i kommentarerna, men jag tog upp det mer detaljerat på undervisningen.
Andra timmen visade jag hur man kan skatta Logit- och Probit-modeller med GNLLS. Det visar sig vara ekvivalent med att skatta med Maximum Likelihood (ML); det tar jag upp i morgon. Logit- och Probit-modeller behandlar Hansen i kapitel 14.1 (12.1 i nya upplagan).
Måndag 12/2
Jag löste först uppgift 7.7 i Hansen (5.7 i nya upplagan). Därefter gick jag igenom Non Linear Least Squares (NLLS), litet noggrannare än i kommentarerna; se också Hansen kap. 7.4 (5.4 i nya upplagan). Jag kom inte in på instrumentvariabler med NLLS, jag tar upp det litet grand i morgon.
Glöm inte projektuppgiften som skall redovisas nästa måndag!
Fredag 9/2
Jag har fått påpekat av Gunnar Englund att det var ett tryckfel under måndagen 17/1. Det gällde "Lagen om Upprepad Förväntan". Det är rättat nu.
Idag tog jag upp uppgift 21 i övningarna. Jag lämnade som övning:
Sedan visade jag lemmat
Med hjälp av danna sats visade jag sedan satsen
Wald-testet (t.ex övning 21) bygger på satserna 1 och 2. På samma sätt som jag visade sats 2 kan man lösa uppgift 7.5 i Hansen (5.5 i nya versionen). Gör det!
Sedan tog jag upp prediktion. Tyvärr blev det litet hafsigt, eftersom jag var stressad av att tiden var knapp. Hansen behandlar det här i kapitel 7.3 (5.3 i nya upplagan), och jag har skrivit en kort sammanfattning. (något uppdaterad kl. 20.10)
Onsdag 7/2
Först pratade jag litet om asymptotiska egenskaper hos OLS och instrumentvariabel-skattningar. Det står i Hansen kapitel 6 (kapitel 4 i nya); relevant sannolikhetsteori finns i kapitel 5 (appendix C i nya). Jag tog bara upp det här litet översiktligt, det är inte meningen att ni skall gå in i tekniska detaljer!
Andra timmen tog jag upp problem 11.7 i Hansen (9.7 i nya). Jag pratade en del om det som står i k1p. 11.0–11.3 (9.1–9.3 i nya), dvs. "strukturekvationer", "reducerad form" och "identifikation". Det är viktigt att ni har hört talas om dessa saker, eftersom det hör till allmänbildningen, men jag förordar en-ekvations-metoder (dvs. instrumentvariabler) framför system-metoder (skatta reducerade formen och sedan identifiera strukturekvationerna), så i stället för problem med identifikation gäller det att hitta bra instrument. Vi löste problem 23 i övningarna. Slutligen löste vi också övning 25.
Tisdag 6/2
Jag gick igenom GLS (Hansen kap. 7.1 (5.1 i nya uppl.)). Se också mina sammanfattningar. Andra timmen löste jag uppgift 26 i övningarna, dvs övning 7.8 i Hansen (5.8 i nya upplagan).
I morgon går jag bl.a. igenom övningarna 21, 23 och 25.
Måndag 5/2
Jag gick först igenom "Adjusted R2" (R2 med streck över — går inte i HTML). Jag har skrivit om det kortfattat i sammanfattningen, men det står också bra i Hansen — där står också formlerna för uträkning.
Sedan pratade jag om kraven på instrumentvariabler. De måste
För att kontrollera om krav 2 är uppfyllt föreslog jag att man kan göra en OLS av x (den endogena variabeln) på instrumenten (z1, ..., zm plus intercept) och titta om justerade R2 är någorlunda stor. Om den är alltför liten kan man inte vänta sig annat än skräp.
Slutligan diskuterade vi uppgift 11.8 i Hansen (9.8 i nya upplagan), se uppgift 22 och 24
Vi kom också överens om att undervisningen måndag den 19/2 är obligatorisk närvaro för dem som vill ha 1p. för projektuppgiften! Då skall ni som har gjort uppgiften skriva upp er på en lista, och sedan lottar jag ut en person på listan som skall redovisa sin rapport för oss andra, och vi ställer frågor och kommenterar. Det behöver inte vara någon långdragen historia, kanske 10–15 minuter plus diskussion. Sedan får alla på listan sina 1p. Läs mer om projektuppgiften här.
Fredag 2/2
Jag fortsatte med instrumentvariabel-metoden, då man har fler instrument är x-variabler. Det visade sig ta hela lektionen. Det jag gick igenom finns sammanfattat i mina kommentarer. (Jag gick inte igenom GLS som står i slutet av kommentarerna — det kommer vi till senare.) Det är tyvärr svårt att extrahera det här ur Hansens kompendium; det står i kapitel 11 (9 i nya upplagan) men syftar också tillbaks till kapitel 9 (7 i nya upplagan).
Onsdag 31/1
Jag tog först upp situationen med förklaringsvariabler som är korrelerade med residualen. Orsakerna kan grovt delas upp i: 1. Simultanitet, 2. Utelämnad relevant variabel, 3. Mätfel i förklaringsvariabeln. Det här osakerna tar Hansen upp på olika ställen i kompendiet.
Sedan gick vi igenom övningarna 17–20. Uppgift 20 var litet lurig: det rätta svaret är att det är bra att välja 50–50, eftersom man då får ett bättre konditionerat problem — mindre tendens till kolinearitet. Det kan också vara bra att se till att både bra och dåliga gymnasiebetyg finns med, blandat bland män och kvinnor. Om t.ex. alla i samplet har exakt samma betyg så blir den variabeln proportionell mot interceptet, och då har vi singularitet. Samma sak om alla män har ett betyg och alla kvinnor ett annat. Då kan betygs-variabeln skrivas som en linjärkombination av "1" (interceptet) och "kvinna"; dvs. vi har multikolinearitet.
På slutet tog jag upp en åtgärd mot "edogena variabler": instrumentvariabler. Jag tog bara upp fallet då man har lika många instrument som förklaringsvariabler. Tyvärr står det här fallet litet begravt i Hansen; kap. 11.0, 11.1 och 11.5 (9.0, 9.1 och 9.5 i senaste upplagan). Jag har en kort sammanfattning i mina kommentarer. Där finns också uttrycket för Whites kovariansmatris i fallet med instrumentvariabler — jag kan inte finna det i Hansen! Stanna vid lemmat, resten har jag inte gått igenom ännu.
Fundera gärna till på fredag på vad som eventuellt skulle kunna fungera som instrumentvariabler i övningarna vi gått igenom där vi har problem med endogenitet. Titta också på uppgift 11.8 (9.8 i senaste upplagan). Försök inte lösa uppgiften, men fundera över om de föreslagna instrumentvariablerna är lämpliga, eller om de kan vara problematiska ur någon synpunkt.
Tisdag 30/1
Vi gick igenom övningarna 1, 2 och 9–16. "Problemet" är i något fall multikolinearitet, i de flesta fall korrelation mellan en x-variabel och residualen av olika anledningar.
Vi tog också något fall upp specifikationsproblem av typen att en variabel kanske skall tas med kvadrerad, e.d.
Ni kan nu börja fundera över projektuppgiften. Den ger 1p (separat moment), det står om den längst ner på den här sidan. Om ni vill ha ett exempel på hur man kan skriva en artikel kan ni titta på den här. Det är en artikel jag skrev tillsammans med Stefan Lundgren 1991 för Economics Letters. Vi kanske tittar på den igen litet senare som exempel på modellering och skattningsmetod, men ni kan ju också ta den som ett exempel på hur man kan skriva en kort rapport — den är på bara tre sidor. (Detta är naturligtvis ingen obligatorisk läsning, jag kommer givetvis inte att ge nå'n tentauppgift som syftar på denna artikel.) Er projektrapport kan naturligtvis vara kortare.
Jag har skrivit några korta kommentarer till Hansens kompendium, eftersom ett par formler kan vara svåra att hitta. Det är hittills Whites kovariansmatris och Walds teststatistika. Det blir kanske mer senare.
Måndag 29
Jag pratade om T-test och Wald-test. Hansen skriver om det här i kapitel 6.8–6.10 (4.7–49 i nya upplagan.) Med mina beteckningar ser det ut så här:
Låt β vara kolonnmatrisen (β0 ... βk)' och b = (b0 ... bk)' kolonnmatrisen av skattningen av β. Vi skattar kovariansmatrisen Ω för b med Whites metod. Låt R vara en r x (k+1)-matris och μ en r x 1-matris. Vi vill nu testa nollhypotesen Ho: Rβ = μ. Då utnyttjar vi att under Ho gäller approximativt
(Rb-μ)'(RΩR')-1(Rb-μ) är chi-2 med r frihetsgrader.
Detta är Wald-testet. Alternativa test är F-testet och LM-testet (Lagrange-Multiplyer test). Ni bör känna till att de finns, dvs. känna igen namnen, men vi tar bara upp Wald-testet — alla tre gör ungefär samma sak.
Sista kvarten pratade jag om modellproblemet då någon x-variabel är korrelerad med residualen. Detta problem har många namn; "endogeneity", "omitted relevant variable", "simultaniety", "unobserved heterogeneity". Matematiskt är problemet detsamma, men benämningen varierar med tolkningen. Hansen tar upp det här på flera olika ställen, men väsentligen bara som tekniskt problem. Vi skall också diskutera problemen ur modell-synpunkt. Ni kan tänka på övningarna 14–20, så tar vi upp dem i morgon.
Fredag 26/1
Jag ser att Hansen uppdaterat kompendiet den 18/1. Det verkar som han korrigerat enligt mina kommentarer — det var ju trevligt att se! Jag får nu hänvisa både till gamla och nya upplagan i fortsättningen.
Idag var bara ungefär hälften av studenterna på undervisningen. Nå't obligatoriskt var visst på gång i nå'n annan kurs.
Jag gick igenom en del om kvadratiska former (linjär algebra, alltså) och kovariansmatriser. Ni som inte var där kan läsa i kapitel 2 i Hansen (Appendix A i nya upplagan). Därefter visade jag att OLS är BLUES (Best Linear Unbiased EStimator) om man har homoskedasticitet. Har man heteroskedasticitet är OLS fortfarande konsistent (om än ineffektiv), och Whites kovariansmatris är också OK, medan den "klassiska" kovariansmatrisen är felaktig — den skall man aldrig använda. Detta motsvarar ungefär kapitel 3.8, Gauss–Markovs Sats, i Hansen (3.9 och beviset för sats 3.9.1 i avsnitt 3.13 i nya upplagan)
Precis på slutet nämnde jag kortfattat problemet med multikolinearitet; kapitel 4.11 i Hansen (kap. 3.11 i nya upplagan.)
Ni kan nu pröva på de tretton första övningarna!
Onsdag 24/1
Jag ville nu beräkna kovariansmatrisen för skattningen av parametrarna (β0, ... ,βk). Jag gör detta under förutsättningen att E(e | x) = 0, dvs. att vi åtminstone approximativt lyckats få x'β = E(y | x). Jag beräknade kovariansen betingat x-observationerna!, och jag pladdrade en hel del om varför jag väljer att göra så (observera att Hansen betraktar x-variablerna som stokastiska, och inte betingar map. dessa).
Jag tog först upp fallet med homoskedastisk residual. Detta är det klassiska sättet att skatta kovariansmatrisen — detta står i kap. 4.7 i Hansen.
Sedan beskrev jag Whites heteroskedasticitetskorrigerade skattning. Detta står i kapitel 6.3 och 6.4, men det är framställt på ett sätt som gör det svårläst, tyvärr. Resultatet är iaf. att kovariansmatrisen kan skattas med
(X'X)-1X'D(e)X(X'X)-1
där D(e) är den stora diagonalmatris (n x n-matris där n=antalet observationer) som har kvadraterna på de skattade residualerna i huvud-diagonalen och nollor för övrigt, alltså samma matris som högerledet i formel (4.20), sid 31, i Hansen, men där man i stället för σ12 har e12, där e1 är den skattade residualen för observation ett, osv.
Man skall alltid avnända denna senare kovariansmatris! Den är korrekt även om man har heteroskedasticitet (trots att OLS då inte är effektiv), medan den klassiska metoden då ger felaktiga värden. Tyvärr lever den klassiska formeln kvar i t.ex. EXCEL. White kom på sin metod redan 1980, och den är numera standard.
Nu kan ni göra övningarna 11 och 12 till på fredag!
Tisdag 23/1
Jag repeterade det vi hittils gått igenom, och räknade också på ett litet numeriskt exempel, för att det skulle bli lättare att tolka matrisbeteckningarna. Jag visade också att MME-skattningen av en linjär regression (Hansen kallar det "linjär projektion") också är OLS-skattningen. Slutligen gick vi snabbt igenom övningarna 4–7. Svaren är
Vi har nu klarat av kapitel 1, 3, 4.0, 4.1, huvuddelen av 4.2, och 4.4.
Måndag 22/1
Lektionen fick ställas in pga. min opasslighet. Men jag har återhämtat mig, så i morgon fortsätter vi.
Fredag 19/1
Det blev tyvärr ganska rörigt idag. Jag repeterade snabbt betingat väntevärde och tog sedan upp linjär regression. Jag gav en definition som påminner om den för betingat väntevärde, och till slut fann vi följande sätt att karakterisera en regression:
om y och x0,...,xk är stokastiska variabler, så är
x0β0 + ... + xkβk
regressionen av y på x0,...,xkom
y = x0β0 + ... + xkβk+ e (1)
där
E(exi) = 0 för alla i.
I praktiken sätter vi alltid x0 = 1, så E(e) = 0. Vi skattar koefficienterna βi genom att sätta sample-medelvärdena av exi = 0 för i = 0,...,k i ekvation (1). Detta ger ett ekvationssystem med k+1 ekvationer ur vilket vi löser de k+1 parametrarna βi, i=0,...,k.
Vi hann inte längre än så, eftersom vi hade litet besvär med att parsa matrisbeteckningarna. Läs följande avsnitt i Hansens kompendium: 3, 4.0, 4.1, 4.4. Beteckningen xi är definierad i (3.1) på sidan 11. Observera alltså att X på sidan 26 är en n x k-matris! Ni kan också titta övningarna 4–8
Torsdag 18/1
Jag har gjort en länk härifrån (gråa fältet högst upp) och från kurssidan till en sida med övningar. Jag samlar övningarna där efter hand. Till i morgon kan ni titta litet på uppgifterna 4 – 8.
Onsdag 17/1
Jag tog först upp ett indedande exempel där vi frågade om kvinnor får lägre lön än män. Vi observerade att frågan inte är precist ställd, och efter att vi perciserat frågan skrev vi upp en regressonsmodell
ln(wage) =
β0 +
β1(eduction) +
β2(south) +
β3(nonwhite) +
β4(hispanic) +
β5(female) +
β6(experience) +
β7(experience)2 +
β8(union)
där vi diskuterade modellen och tolkningarna av den. (Jag gav också punktskattningarna av parametrarna och deras skattade standardavvikelser.)
Andra timmen ägnade jag åt begreppet betingat väntevärde. Låt Y och X=(X1,...,Xk) vara stokastiska variabler. Vi definierar E[Y | X] = g(X) den funktion av X som minimerar E[(Y - g(X))2], dvs. som uppfyller att
E[(Y - h(X))2] ≥ E[(Y - g(X))2] för alla funktioner h(X).
Vi fann att detta var ekvivalent med "ortogonalitetsegenskapen"
E[(Y - g(X)) h(X)] = 0 för alla funktioner h(X).
Jag härledde ur detta uttryck det vanliga integral-uttrycket för g(X) = E[Y | X] (för en given täthetsfunktion) som man finner i läroböckerna. Vi tog också fram den extremt viktiga regeln "Lagen om Upprepad Förväntan":
E[Y] = E(E[Y | X]) och
E[h(X)Y | X] = h(X) E[Y | X] för alla funktioner h(X).
Måndag 15/1
Kursen börjar på onsdag. Jag planerar att (efter ett inledande exempel och litet kringsnack) gå igenom den del matriskalkyl (en del repetition, men också en del nytt) och prata om betingade väntevärden och linjär regression. Jag återkommer om onsdagens lektion när den har varit.
Projektuppgift (Obs! obligatorisk närvaro må. 19/2)
En poäng i kursen utgörs av en projektuppgift. Den gör ni två och två (eller ensam, om någon föredrar det; en grupp kan vara tre personer om det inte går jämnt upp annars.) Den skall sedan redovisas på ett sätt som jag återkommer till.
Uppgiften är följande: Här är ett dataset med löner år 1976 för 2215 personer i USA (nedladdat från Bruce Hansens hemsida; se övning 8 sidan 134 i hans kompendium (sidan 100 i nya upplagan)) och beskrivning av datasetet. Här finns också uppgift om utbildning (education). Högre utbildning ger högre lön — ett års extra utbildning höjer lönen. Den fråga som ni skall studera i första hand är följande: Är denna effekt på lönen av mer utbildning densamma för svarta som för icke-svarta? Lönar det sig mer eller mindre i form av högre lön för en svart person, jämfört med en icke-svart, att utbilda sig mer, och hur stor är skilnaden. Att jag skriver "icke-svart" och inte "vit" beror på att i data finns en dummy-variabel för "black", men det framgår inte om alla andra är vita eller om där ingår asiater, indier, osv. Tyvärr framgår inte heller om alla är män, kvinnor eller om det är blandat.
Ni skall gärna ställa och belysa även andra frågor som ni finner av intresse.
Ni skall skriva en liten rapport — den behöver inte vara speciellt lång — där ni
Allt detta skall med, men ni behöver inte göra några långrandiga utläggningar: fatta er kort och koncist.
Om ni vill ha ett exempel på hur man kan skriva en artikel kan ni titta på den här. Det är en artikel jag skrev tillsammans med Stefan Lundgren 1991 för Economics Letters. Vi kanske tittar på den så småningom som exempel på modellering och skattningsmetod, men ni kan ju också ta den som ett exempel på hur man kan skriva en kort rapport — den är på bara tre sidor. (Detta är naturligtvis ingen obligatorisk läsning, jag kommer givetvis inte att ge nå'n tentauppgift som syftar på denna artikel.) Er projektrapport kan naturligtvis vara kortare.