Hvor stor en risiko tager du egentlig, når du investerer? Det spørgsmål holder både private investorer, porteføljeforvaltere og bankernes risk managers vågne om natten. Én af de mest udbredte – og omdiskuterede – målestokke er Value-at-Risk (VaR): et enkelt tal, der indkapsler det maksimale forventede tab på et givet konfidensniveau over en given tidshorisont. Men bag det tilsyneladende enkle tal gemmer der sig et helt arsenal af metoder, antagelser og faldgruber.
I denne artikel guider vi dig gennem syv centrale metoder til at beregne VaR – fra den klassiske Delta-Normal-model til avancerede teknikker som Extreme Value Theory. Undervejs får du indblik i:
- Hvilke antagelser de enkelte metoder bygger på, og hvornår de bryder sammen
- Hvordan du omsætter historiske data og følsomheder til et meningsfuldt risikomål
- Fordele, ulemper og praktiske overvejelser, der hjælper dig med at vælge den rigtige tilgang til netop din portefølje
Uanset om du vil lyn-beregne risikoen i en simpel aktieportefølje eller modellere de mest ekstreme tabsscenarier i en derivatbog, klæder denne guide dig på til opgaven. Læn dig tilbage, og lad os dykke ned i tallene, teorien – og ikke mindst faldgruberne – bag VaR.
1) Varians–kovarians (Delta‑Normal) VaR
Varians-kovarians-metoden – ofte kaldet Delta-Normal VaR – er den klassiske “lommeregner” inden for risikostyring. Tilgangen antager to ting:
- Lineær portefølje: Værdien ændrer sig cirka liniært med de underliggende faktorer (dvs. ingen udtalte optionseffekter).
- Multivariat normalfordeling: Enkeltaktivernes afkast r ~ N(μ, Σ), hvor μ er middelværdivektoren, og Σ er varians-kovarians-matricen.
Input der skal estimeres
| Symbol | Forklaring | Typisk metode |
|---|---|---|
| μ (middel) | Forventet dagsafkast for hver risikofaktor/aktiv | Historisk gennemsnit eller sat lig 0 for korte horisonter |
| Σ (varians-kovarians) | Sammenhængen mellem afkast | Historisk kovarians, EWMA, shrinkage m.fl. |
| w | Vektor med porteføljens positioner/vægte | Hentes fra positions- eller holdingssystem |
Sådan beregnes var
- Porteføljens forventede afkast:
μp = wᵀ · μ - Porteføljevolatilitet:
σp = √(wᵀ · Σ · w) - Find z-score for konfidensniveauet c (fx 99 % ⇒ z ≈ 2,33).
- VaR (en-dags):
VaRc = -μp + z · σp
Ofte sættes μp=0, så VaR er blot z·σp. - Skalering til T dage (hvis uafhængige dage):
VaRc,T = √T · VaRc,1
Fordele
- Hurtig & let at implementere – blot en matrixmultiplikation.
- Skalerbar til tusindvis af positioner (Σ estimeres én gang, uanset porteføljestørrelse).
- Intuitiv – direkte kobling til volatilitet og korrelationer.
Ulemper
- Ignorerer skævhed og kurtosis; reelle markedsafkast har ofte “fat tails”.
- Sårbar ved regimeskift; kovariansantagelsen kan bryde sammen i stressperioder.
- Uegnet til optionstunge porteføljer; lineær approximering negligerer gamma/vega-effekter.
- Modelrisiko; ét forkert element i Σ kan forvrænge hele VaR-tallet.
På trods af begrænsningerne er Varians-kovarians-VaR stadig et nyttigt benchmark og et godt udgangspunkt, især når man hurtigt skal foretage risikomålinger på store, lineære porteføljer.
2) Historisk simulering (HS)
Historisk simulering (HS) er den mest intuitive måde at beregne Value-at-Risk på: man spørger ganske enkelt fortiden, hvor store tab der tidligere er forekommet, og bruger svarene som prognose for fremtiden.
Trin-for-trin-proces
- Indsaml historiske markedskurser for alle porteføljens risikofaktorer (aktier, renter, valutaer, råvarer m.m.).
- Genafspil P&L: Rul gennem de seneste N handelsdage og genberegn den fulde porteføljeværdi for hver dag. Differencen til dags dato giver et historisk dags-P&L-output.
- Sorter P&L-observationerne fra værst til bedst resultat.
- Aflæs percentilen: Ved et 99 % konfidensniveau er VaR den 1 % største negative P&L (dvs. nummer ceil(0,01 × N) i sorteringslisten).
- Rapportér VaR (positivt tal) som forventet maks. tab over én handelsdag – og skaler evt. med √t for længere horisonter (forudsætter uafhængighed).
Vigtige designvalg
- Vindueslængde (N)
- Kort vindue (f.eks. 250 dage) reagerer hurtigt på markedsændringer, men giver støj.
- Langt vindue (f.eks. 1.000+ dage) giver stabile estimater, men risikerer at udvande seneste regimeskift.
- Datakvalitet
- Bruger du closing prices, intradag mid quotes eller realiserede P&L?
- Håndtering af manglende data, corporate actions, illikvide priser og valuta-håndtering er kritisk.
- Vægtning af observationer
- Lige vægt: alle dage tæller ens – simpelt og gennemsigtigt.
- Forfaldsvægtning (f.eks. eksponentiel): nylige observationer vejer tungere; bedre ved regimeskift, men øger modelleringen.
Fordele
- Ikke-parametrisk – ingen antagelse om normalfordeling eller andet formvalg.
- Fanger ikke-linearitet – hele porteføljen revalueres; optioner, konveksitet og diskontinuerlige payoff håndteres automatisk.
- Transparens – let at forklare for ledelse og regulatorer: “Dette er de værste faktiske tab i data”.
- Ingen behov for kovariansmatrix – alle afhængigheder ligger implicit i de historiske bevægelser.
Ulemper
- Manglende tilpasning til regimeskift – hvis fremtidens volatilitet/korrelation adskiller sig fra vinduet, bliver VaR misvisende.
- Datasparsitet i halen – især for høje konfidensniveauer (99,5 % eller 99,9 %) kan kun ganske få observationer drive estimatet.
- Stationaritets-antagelse – metoden forudsætter, at den statistiske fordeling er stabil inden for vinduet.
- Stor hukommelse & beregning ved mange risk-faktorer og lange vinduer (dog stadig mindre end Monte Carlo).
Sammenfattende giver historisk simulering en brugervenlig og modeluafhængig VaR-beregning, men kræver omhu i vinduesvalg og datahygiejne for at undgå at “køre i fortiden” med forældede risikobilleder.
3) Monte Carlo‑simulering
Monte Carlo-tilgangen bygger på at gensimulere fremtidige markedsstier et stort antal gange og genprissætte hele porteføljen for hver sti. VaR findes derefter som det α-percentil af det simulerede P&L-fordelingsudfald. Fremgangsmåden kan skitseres i fire trin:
- Kalibrér en stokastisk model til de underliggende risikofaktorer.
Typiske valg er:- Geometric Brownian Motion (GBM) → enkelt, lukket form, men overser volatilitetsskift.
- GARCH / EGARCH → indfanger klyngevis volatilitet og “fat tails”.
- Copula-baserede modeller → separat kalibrering af marginals (f.eks. GARCH) og afhængighedsstruktur (t- eller vine-copula) for at håndtere asymmetrisk korrelation i halerne.
- Generér N → 104-106 scenarier for hvert risikofaktor-trin Δt = 1 dag (eller den ønskede horisont). Træk pseudo- eller quasi-tilfældige tal og skab konsistente multivariate stier.
- Pris porteføljen under hver sti. Lineære instrumenter evalueres direkte, mens optioner mv. kræver genprissættelse via Black-Scholes, trinvis trin-træ, Monte Carlo-under-Monte Carlo eller andre numeriske teknikker. Output er en P&L for hvert scenarie.
- Sorter P&L-fordelingen og aflæs percentilen. F.eks. den 1 % værste observation giver 99 %-VaR.
Fleksibilitet
Metoden kan håndtere ikke-lineære payoff-strukturer, diskontinuerlige cash-flows og path-dependency. Desuden muliggør den let inkorporering af market micro structure-effekter som jumps, time-varying correlation eller stochastic volatility, blot ved at udskifte eller udvide den underliggende model.
Model- og parameterrisiko
Frihedsgraderne er dog et tveægget sværd: hver ekstra modelantagelse (fordelingstype, dynamik, afhængighed) introducerer modelrisiko. Fejlkalibrering eller forkert valg af copula kan give misvisende VaR, selv med millioner af simuleringer.
Konvergens og scenariekrav
Standardfejlen falder med 1/√N. Ønskes f.eks. en konfidens på ±1 % omkring VaR-estimater kræves ofte hundredtusinder af scenarier, især i højdimensionelle porteføljer. Quasi-Monte Carlo (Sobol-sekvenser) eller antithetiske variationer kan skære antallet betragteligt ned.
Beregningsomkostning
- CPU-tid skalerer lineært med antal scenarier × prisninger.
- GPU-parallellisering og “bump-and-revalue”-optimering (for lineære greeks) bruges i praksis.
- Runtime er stadig væsentlig ved store OTC-porteføljer, hvorfor overnight batches eller intra-day incremental VaR ofte køres.
Variance-reduktionsteknikker
For at opnå hurtigere konvergens uden eksplosivt scenarieantal benyttes:
- Antithetic variates – træk både u og -u; reducerer variansen for symmetriske payoff.
- Control variates – brug et relateret payoff med kendt forventning (fx lineær portefølje) som korrektion.
- Importance sampling – oversample ekstreme bevægelser for bedre haleestimat.
- Stratified / Latin hypercube sampling – sikrer jævn dækning af input-rummet.
Fordele og ulemper
Fordele:
- Meget generaliserbar – samme ramme dækker alt fra simple aktier til exotiske optioner.
- Indbygget mulighed for stress-test og scenarieanalyse uden ekstra kode.
Ulemper:
- Tungt regnekrævende, især ved høje konfidensniveauer.
- Resultatet er kun så godt som den valgte model og kalibreringen.
- Estimatfejl: halerne (VaR 99,9 %) konvergerer langsomt og kan kræve 107+ scenarier.
Alt i alt er Monte Carlo-simulering guldstandarden for VaR på komplekse porteføljer, men kræver disciplineret model-governance, effektiv kode og kloge variance-reduktionsteknikker for at være operationel i en real-time risikostyringskontekst.
4) Filtered Historical Simulation (FHS)
Filtered Historical Simulation (FHS) er en hybrid metode, som kombinerer styrkerne fra historisk simulering og GARCH-baseret volatilitet modellering. Ideen er at filtrere de historiske afkast for deres tidsvaryende volatilitet, simulere på de “standardiserede” residualer og derefter reskalere dem med et fremadskuende volatilitetsestimat. Herved kan man fange både ikke-linearitet i P&L-fordelingen og de empirisk observerede volatilitetsskift.
Trin-for-trin-workflow
- Kalibrér en GARCH-model
Vælg f.eks. GARCH(1,1), EGARCH eller GJR-GARCH på et datasæt af daglige log-afkastrt. Estimér parametrene (typisk med Maximum Likelihood) under en forudsat innovationsfordeling som normal eller t-fordeling.
Formelt:rt = μ + εt,hvorεt = σt · ztogzt ~ i.i.d.(0,1). - Udtræk og standardisér residualer
ẑt = ε̂t / σ̂t. Disse standardiserede residualer skulle – hvis modellen er veltilpasset – være tilnærmelsesvis uafhængige og identisk fordelte. - Simulér fremtidige scenarier
a) Forecast én-dags (eller h-dages) betinget volatilitetσ̂t+1med den estimerede GARCH-model.
b) Træk et tilfældigt historisk residuumẑ(evt. med bootstrap med/uden forfaldsvægtning).
c) Konstruér scenarioscen‐afkastetr* = μ̂ + σ̂t+1 · ẑ.
Gentag processen N gange (typisk 10.000+). - Beregn P&L og VaR
Pris porteføljen under hvert scenarie, sorter P&L-fordelingen, og aflæs f.eks. det 1 % eller 5 % percentil som VaR.
Modelvalg: hvilken GARCH-familie?
- GARCH(1,1): simpelt og ofte tilstrækkeligt til finansielle afkast.
- EGARCH/GJR-GARCH: indbygger asymmetrisk “leverage-effekt”.
- Distribution: en t-fordeling eller GED kan bedre fange kraftige haler end den normale antagelse.
Praktiske kalibreringsdetaljer
- Datavindue: 3-5 års daglige data er almindeligt; for kort vindue giver ustabile parametre, for langt kan skjule regimeskift.
- Out-of-sample-tests: backtests (Kupiec, Christoffersen) på VaR-overskridelser bør foretages regelmæssigt.
- Parameter-reestimering: anbefalet dagligt eller ugentligt for volatile aktiver.
Fordele ved FHS
- Fanger volatilitetsklynger og regimeskift bedre end simpel historisk simulering.
- Beholder den ikke-parametriske fordel: ingen antagelse om residualernes form udover i.i.d.
- Skalerbar til optionstunge porteføljer, da man blot prissætter porteføljen under de simulerede afkast.
Ulemper og faldgruber
- Modelrisiko: resultater er følsomme over for valg af GARCH-specifikation og innovationsfordeling.
- Kompleksitet: flere lag (volatilitet + simulering) kræver mere beregning og ekspertise.
- Data-sparsitet i halerne: selv med filtrering kan der være få ekstreme residualer til at kalibrere de værste tab.
- Stabilitetsproblemer: små ændringer i kalibreringen kan give store udsving i VaR, især i stressede perioder.
Sammenfatningsvis giver FHS en bedre afvejning mellem fleksibilitet og realisme end både ren Delta-Normal og ren historisk simulering, men prisen er en højere grad af model- og implementeringskompleksitet.
5) Cornish–Fisher‑justeret parametrisk VaR
Den Cornish-Fisher-justerede VaR er en parametrisk metode, der bygger videre på den klassiske varians-kovarians-tilgang, men tillader asymmetri og tykke haler ved at justere z-scoren med porteføljens skævhed (S) og kurtosis (K). Resultatet er et mere fleksibelt haleestimat, uden at man behøver ty til fuld simulering.
Sådan beregnes cornish-fisher-var
- Beregn basisstatistikker
Estimér middelværdiμ, variansσ², excess-skævhed S og excess-kurtosis K for de daglige porteføljeafkast.
(Tip: Brugn(n-1)-korrektioner for skævhed/kurtosis for små samples.) - Find normal quantilet
Slå den ønskede percentil op i standardnormalfordelingen, fxz99%=-2,326. - Juster z-scoren via Cornish-Fisher-ekspansionen
z* = z + (1/6)(z²-1)·S + (1/24)(z³-3z)·K − (1/36)(2z³-5z)·S² - Omsæt til VaR
VaR = ‑(μ + z*·σ)·√Δt, hvorΔttypisk er 1 dag eller 10 dage.
Hvorfor (og hvornår) virker metoden?
- Fanger asymmetri: Positiv skævhed gør tabshalen “tyndere”, negativ skævhed gør den tykkere.
- Håndterer tykke haler: Overskydende kurtosis (K > 0) øger absolutværdien af
z*og dermed VaR. - Velegnet til aktie- og råvareporteføljer, hvor daglige afkast ofte udviser begge dele.
Opmærksomhedspunkter
- Følsomhed over for outliers: Da både S og K inddrager 3. og 4. potens af afkastet, kan enkelte ekstreme observationer dominere estimaterne. Robust trimming eller winsorisering kan være nødvendig.
- Stabilitet i små datasæt: Skævhed og kurtosis konvergerer langsomt. Som tommelfingerregel bør man have mindst 250-500 observationer for daglige data, gerne flere.
- Lineær porteføljeantagelse: Metoden forudsætter, at porteføljens P&L kan beskrives som et lineært (delta) forhold til de underliggende risk-faktorer. Optionstunge eller stærkt ikke-lineære bøger kræver delta-gamma- eller simuleringstilgange.
- Kun moderate forbedringer når S≈0 og K≈0: I perioder med nær-normal markedsadfærd kollapser justeringen næsten til den klassiske VaR; beregn først om det giver mening.
Praktiske råd til implementering
- Rullende moment-estimation: Opdater S og K løbende (fx 1-års rullende vindue) for at fange regimeskift.
- Extreme winsorisation: Begræns observationsværdier til fx ±4σ før moment-beregning for at dæmpe ekstrem outlier-indflydelse.
- Backtest separat: Sammenlign hit-rate for normal-VaR og Cornish-Fisher-VaR; accepter kun modellen hvis den giver færre overskridelser uden at øge falske alarmer.
- Stress-scenarier: Kombinér med historiske stressdage for at dække perioder hvor højere øjeblikke ændrede sig dramatisk.
Sammenfattende giver Cornish-Fisher-justeringen et hurtigt og relativt simpelt løft til den klassiske parametriske VaR, når porteføljens afkast afviger fra normalitet. Dens værdiskabelse topper, hvor vi har moderat skævhed og kurtosis, et rimeligt datagrundlag og en overvejende lineær risikoprofil. I andre tilfælde bør metoden suppleres med mere avancerede ikke-parametriske eller simuleringsteknikker.
6) Delta–Gamma (kvadratisk) VaR
Når porteføljen indeholder ikke-lineære instrumenter – typisk optioner og andre derivater – vil en simpel lineær (delta-baseret) tilnærmelse ofte undervurdere risikoen. Delta-Gamma-metoden (også kaldet kvadratisk VaR) udvider den lineære Taylor-ekspansion med andenordensled og kan derfor indfange krumningen i payoff-strukturen.
1. Taylor-ekspansion af porteføljens p&l
For en lille prisændring dS i underliggende aktiv(er) kan porteføljens ændring i værdi skrives som
ΔΠ ≈ Δ · dS + ½ · dST Γ dS
- Δ (delta-vektor): førsteordens følsomheder w.r.t. hvert underliggende.
- Γ (gamma-matrix): andenordens følsomheder. Diagonalelementer er egen-gamma; ikke-diagonalelementer måler krydsgamma mellem to underliggende.
- Vega kan indlemmes ved at udvide
S-vektoren med impl. volatilitet(er). Ofte behandles vega separat eller inkorporeres via et ekstra delta-gamma-blok.
2. Beregningsmetoder
- Varians-kovarians (analytisk)
AntagdSer multivariat normal med kovariansmatrix Σ. Den forventede P&L-varians bliverVar(ΔΠ) = ΔT Σ Δ + ½ · tr(Γ Σ Γ Σ)
hvor
tr()er spor-operatoren.
• Når variansen er kendt, fås VaR somzα · √Var(ΔΠ)for konfidensniveau α.
• Fordel: hurtig; ulempe: følsom over for normalantagelsen og kan give negative egenværdier, hvis Γ-estimatet er upålideligt. - Monte Carlo på delta-gamma overfladen
Træk et stort antaldS-vektorer fra den ønskede fordeling (normal, t, copula osv.), og beregnΔΠvia ovenstående formel for hver simulering. Sortér P&L-fordelingen og aflæs percentilen.
• Fordel: fleksibel, kan inkludere skævhed/kurtosis.
• Ulempe: kræver mange scenarier for at få konvergens, især hvis porteføljen har mange dimensioner.
3. Praktiske overvejelser
- Sensitivitetssæt: Delta og gamma beregnes ofte via bump-and-revalue eller analytiske grækere fra modelsystemet. Sørg for konsistens i valuta, datapunkter og tidspunkt.
- Krydstermer: I porteføljer med flere underliggende kan krydsgamma (∂²Π/∂Si∂Sj) være signifikant. Ignoreres den, undervurderes risici fra korrelerede markedsbevægelser.
- Lineariseringsfejl: Metoden er en lokal approksimation; store prisudsving eller instrumenter tæt på barrierer kan kræve højere-ordensled (delta-gamma-vega-VaR) eller fuld prissimulering.
- Input-kvalitet: Γ-matricen kan være støjende ved lave optionsejer eller tynde markeder. Regularisering (fx shrinkage) eller bucket-tilnærmelser kan forbedre stabiliteten.
- Tidsaggregation: Som i andre VaR-metoder skaleres én-dags VaR ofte til længere horisonter med √t. Dette er teoretisk korrekt kun under stationær, uafhængig P&L; gamma-leddet kan dog introducere tidsafhængigheder, der kræver kalibrering.
4. Fordele og begrænsninger
| Fordele | Begrænsninger |
|---|---|
| • Indfanger ikke-linearitet uden fuld revaluering • Mindre beregningstungt end fuld Monte Carlo • Gennemsigtigt: risiko bidrag kan spores til delta- og gamma-kilder |
• Validering af gamma-estimater kan være vanskelig • Forudsætter små markedsbevægelser • Optioner med diskontinuerte payoffs (knock-outs, digitals) modelleres dårligt |
Delta-Gamma-VaR udgør dermed et kompromis mellem hastighed og nøjagtighed: mere sofistikeret end ren varians-kovarians, men billigere end fuld porteføljesimulering. Den er særligt nyttig i porteføljer, hvor optioner udgør en betydelig (men ikke dominerende) eksponering, og hvor hurtige daglige VaR-tjek er nødvendige.
7) Extreme Value Theory (EVT) VaR
Traditionelle VaR-metoder bruger hele fordelingen af afkast, men finansielle tab distribueres ofte med tunge haler. Extreme Value Theory (EVT) er udviklet til netop at modellere de mest ekstreme observationer og giver derfor et mere fokuseret – og ofte mere konservativt – bud på VaR i yderområderne.
To populære evt-tilgange
- Peaks-Over-Threshold (POT)
Formod at tab u er stort nok til, at overskridelserne y = x – u kan beskrives af en Generalized Pareto-fordeling (GPD). - Blokmaksima
Del tidsrækken i lige store blokke (fx månedlige eller kvartalsvise) og modelér blokkenes maksimum/tab med en Generalized Extreme Value-fordeling (GEV).
Valg af threshold eller blokstørrelse
- Threshold (POT): Skal være højt nok til, at GPD-antagelsen holder, men lavt nok til at give tilstrækkelig data. Brug gerne Mean Excess Plot eller Stability Plot til at identificere et plateau i estimerede parametre.
- Blokstørrelse (GEV): En blok bør være lang nok til at indeholde ekstreme observationer, men kort nok til at sikre mange blokke (typisk 50-100 blokke er ønskværdigt for robust estimering).
Parameterestimation
| Metode | Fordele | Ulemper |
|---|---|---|
| Maximum Likelihood (MLE) | Asymptotisk effektiv, simpel implementering i de fleste statistiske pakker. | Kan være numerisk ustabil, især hvis prøven er lille eller shape-parameteren ligger tæt på nul. |
| Probability-Weighted Moments (PWM) | Stabil ved små samples, mindre influeret af outliers. | Lidt lavere effektivitet end MLE, giver ikke altid lukkede formeludtryk for usikkerhed. |
Diagnostik og validering
- QQ-plot af overskridelser mod den teoretiske GPD/GEV fordeling: lineær trend indikerer god pasform.
- Return Level Plot: Sammenlign observerede vs. forventede ekstreme tab ved forskellige konfidensniveauer.
- Back-testing: Sammenhold frekvensen af faktiske overskridelser med det teoretiske antal foruden Kupiec- og Christoffersen-tests.
Beregn var med evt
Når parametrene (shape ξ og scale β) er estimeret, beregnes VaR på et konfidensniveau p typisk som:
VaRp = u + (β/ξ) · [(Nexc / N) · (1 - p)]-ξ - β/ξ
hvor u er threshold, Nexc antallet af overskridelser, og N total antal observationer. For blokmaksima anvendes i stedet den inverse GEV-fordeling.
Fordele
- Fokuserer direkte på de tab, der virkelig driver risikobilledet.
- Teoretisk begrundet grænsefordeling uafhængig af bagvedliggende processer.
- Kan anvendes på både korte og lange tidshorisonter ved passende skalering.
Begrænsninger
- Datasparsitet: Ekstreme observationspunkter er få; små ændringer kan give store VaR-sving.
- Valg af threshold/blok: Subjektivt og har stor indflydelse på resultatet.
- Parameter-usikkerhed: Brede konfidensintervaller; bør rapporteres sammen med punktestimatet.
- Stationaritetskrav: EVT antager uændret distributionsform; regimeskift kan invalidere modellen.
Praktiske tips
- Kombinér EVT-VaR med andre metoder for et helhedsbillede, især i perioder med lav volatilitet.
- Rapportér altid konfidensintervaller eller conditional VaR (Expected Shortfall) for at supplere VaR-tallet.
- Automatisér et rolling window setup, så threshold, parametre og VaR opdateres løbende.