Spektrum der Wissenschaft: Februar 1998

-----    Risko-Managment    -----

Risikobewertung in Banken und Versicherungen

Von Christian Hipp

Aus Spektrum der Wissenschaft Februar 1998, Seite 105, Beitragstyp Entwicklung & Technologie

Die Basis jeglichen Versicherungsgeschäftes ist der Ausgleich im Kollektiv: Eine große Anzahl einzelner Verträge wird zu einem Portefeuille zusammengefaßt. Die Summe aller Zahlungen für Schäden aus diesem Vertragskollektiv schwankt von Jahr zu Jahr so wenig, daß man sie für die Zukunft mit verblüffend großer Genauigkeit durch das arithmetische Mittel der Zahlungen vergangener Jahre vorhersagen kann. Schwierig wird die Berechnung nicht dadurch, daß das einzelne Schadensereignis unvorhersagbar ist, sondern durch globale Effekte wie Preissteigerungen oder Veränderungen des Portefeuilles, etwa in der Kraftfahrversicherung, wenn das Diebstahlrisiko zunimmt.

Kapitalanleger im allgemeinen und Banken im besonderen stehen vor einer ähnlichen Situation. Dem Kollektiv der Versicherungsverträge entspricht ein breit gestreutes Sortiment an Wertpapieren, so daß beispielsweise Kursverluste bei einer Aktie durch Gewinne bei einer anderen kompensiert werden können: ein gut diversifiziertes Portefeuille. Allerdings ist dessen künftiger Wert viel schlechter einschätzbar als der oben erwähnte Gesamtschaden, weil er stark von der - nicht vorhersagbaren - Entwicklung des Gesamtmarktes abhängt.

Risikoübernahme ist das genuine Geschäft von Banken und Versicherungsunternehmen. Somit gehören Risikomessung und Risikomanagement zu den Grundtechniken dieser Unternehmen. In diesem Beitrag soll es um zwei neuere Methoden gehen: einerseits die Valueat-Risk-Methode (VaR), die vor allem die Banken zur Risikoeinschätzung in normalen Zeiten anwenden, andererseits die Peaksover-Threshold-Methode (PoT), die den Rückversicherungen zur Einschätzung seltener, aber katastrophal hoher Schäden - etwa durch Erdbeben oder Wirbelstürme in dicht besiedelten Gebieten - und damit zur Kalkulation ihrer Prämien dient (Bild 1).

Von beiden Ansätzen kann ich hier nur die Grundideen beschreiben. Sie basieren auf mathematischen Modellen, was bei der weiten Verbreitung und dem erfolgreichen Einsatz quantitativer Methoden in beiden Branchen nicht überraschen muß. Es ist allerdings bemerkenswert, daß Konzepte, die erst vor wenigen Jahren entwickelt wurden, bereits jetzt für die Lösung praktischer Probleme herangezogen werden.


Ein Risikoindikator für normale Zeiten

Value at Risk, auch manchmal Capital at Risk genannt, ist ein Sammelbegriff für Meßgrößen, die das Risiko von Finanzgeschäften quantifizieren. Seit das Bankhaus J. P. Morgan - benannt nach dem amerikanischen Finanzier John Pierpont Morgan (1837 bis 1913) - sie 1994 in dem Analyse-Programmpaket RiskMetrics verfügbar machte, werden sie intensiv diskutiert und kritisiert (siehe - vor allem zu den praktischen Aspekten - das Buch "Managing Bank Capital" von Chris Matten, J. Wiley/VCH, Weinheim 1996).

Ein Kapitalanleger möchte ein risikobehaftetes Geschäft eingehen, für das er der Aussicht auf höhere Rendite wegen einen Teil seines Geldes aufs Spiel zu setzen bereit ist. Diesen - in der Regel kleinen - Teil wird er so bemessen, daß er dessen Verlust zur Not verschmerzen kann. Nun ist es häufig unmöglich, eine Geldanlage auch nur gedanklich in einen sicheren und einen riskanten Teil zu zerlegen; es wäre beispielsweise unsinnig, bei einer an sich sehr soliden Anlage, deren einziges denkbares Risiko der Totalverlust ist, den Spekulationsanteil mit 100 Prozent anzusetzen.

Value at Risk (was wörtlich mit "Wert auf dem Spiel" zu übersetzen wäre) liefert eine Kennzahl für den Spekulationsanteil (den es in dieser reinen Form nicht gibt). Für ein einzelnes Geschäft sind VaR-Kennzahlen wenig aussagekräftig; sie eignen sich beispielsweise nicht für die Risikomessung bei langfristigen Kreditgeschäften. Interessant sind sie für Portefeuilles, also für Ansammlungen von so vielen Geschäften, daß eine statistische Betrachtung sinnvoll ist, und hier wiederum für kurze Zeitspannen: zwischen einem Tag und zwei Wochen. Typischer Anwendungsbereich ist der Handel mit liquiden Wertpapieren, Aktien, Bonds und derivativen Finanzinstrumenten (zum Beispiel Optionen).

Wieviel mein Portefeuille heute wert ist, weiß ich. Wieviel es morgen wert sein wird, darüber gibt es nur Wahrscheinlichkeitsaussagen, die man durch eine Dichtefunktion zu beschreiben pflegt (Kasten unten). Der morgige Wert des Portefeuilles wird am wahrscheinlichsten dort liegen, wo die Dichtefunktion ihre größten Werte hat. Eine risikoarme Anlage ist gekennzeichnet durch einen sehr hohen, schmalen Gipfel; große Chancen und große Risiken äußern sich in breiten Flanken zur Rechten beziehungsweise zur Linken. Man bestimmt nun den Value at Risk als den Verlust, der nur selten überschritten wird. Selten bedeutet beispielsweise: nicht öfter als durchschnittlich einmal in hundert Planungsabschnitten zu je zehn Tagen, entsprechend ungefähr drei Jahren.

Das eigentliche Problem besteht darin, die Dichtekurve für das jeweils individuelle Portefeuille festzulegen. Üblicherweise geht man von der Glockenkurve der Gaußschen Normalverteilung für den (relativen) Gewinn und Verlust aus (Bild 2); die davon abgeleitete Dichte für den Wert des Portefeuilles ist die der im Kasten genannten Lognormalverteilung. Die individuelle Situation des Portefeuilles wird durch die beiden Verteilungsparameter Erwartungswert und Varianz ausgedrückt.

Für die Annahme einer Normalverteilung spricht der zentrale Grenzwertsatz: Eine Größe, die von einer großen Zahl zufallsbestimmter kleiner Einflußfaktoren abhängt, ist annähernd normalverteilt. Die Normalverteilung liegt auch der Optionspreis-Theorie von Robert C. Merton, Fischer Black und Myron S. Scholes zugrunde, für die Merton und Scholes im vergangenen Jahr den Nobelpreis für Wirtschaftswissenschaften erhielten (Spektrum der Wissenschaft, Dezember 1997, Seite 24), sowie dem genannten Analyseprogramm RiskMetrics. Zwar paßt sie nicht besonders gut auf die Wirklichkeit; doch mehrere Gründe sprechen dafür, trotzdem bei diesem Modell zu bleiben.

Einer dieser Gründe ist, daß Zusammenhänge zwischen Marktwerten und -faktoren für Normalverteilungen einfach zu beschreiben sind, nämlich durch Kovarianzen. Für die Konstruktion der individuellen Gewinn-/Verlust-Dichte ist die richtige Modellierung dieser Zusammenhänge entscheidend. Für einen deutschen Anleger beispielsweise, der ein gut diversifiziertes Portefeuille US-amerikanischer Aktien hält, hängt dessen Wert in DM sowohl von der Entwicklung des amerikanischen Aktienmarktes als auch vom Dollarkurs ab. Zur Risikoberechnung genügt es aber nicht, wenn man Verteilungsparameter für beide Größen separat zur Verfügung hat; denn amerikanischer Aktienmarkt und Wechselkurs sind nicht unabhängig voneinander.

Tendenziell erwartet man steigende Aktienkurse, wenn der Wechselkurs fällt, weil die amerikanischen Exporteure dadurch konkurrenzfähiger werden. Dieser Zusammenhang ist jedoch nicht gesetzmäßig, sondern statistischer Natur. Das geeignete Mittel, Richtung und Stärke dieser gegenseitigen Abhängigkeit auszudrücken, ist die Kovarianz. Zusammen mit den Parametern der Größen Aktienmarkt und Wechselkurs liefert sie den vollständigen Satz an Eingangsgrößen für die Risikoberechnung.

In der Praxis wird die Bestimmung des VaR kompliziert durch Besonderheiten wie Optionen und Futures, nicht gut diversifizierte Portefeuilles, Dividenden- und Couponzahlungen sowie Wertpapiere, über die nicht ausreichend Information vorliegt, weil sie gar nicht, zu wenig oder noch nicht lange genug an der Börse gehandelt werden. Allerdings sind die daraus erwachsenden Schwierigkeiten eher technischer Natur.

Grundsätzlich problematisch hingegen ist die Beschränkung des VaR-Ansatzes auf normale Zeiten. Für Ereignisse wie die Börsenkräche am 17. Oktober 1987 und am 28. Oktober 1997 weicht die Normalverteilung allzu kraß von der Realität ab: Daß der DAX (der Deutsche Aktienindex) im Verlauf eines einzigen Handelstages um mehr als 13 Prozent (wenn auch nur vorübergehend) unter den Vortagesstand sinkt - wie an beiden genannten Tagen geschehen -, dürfte nach dem Modell im Durchschnitt nur einmal in rund 3 ? 1038 Jahren vorkommen. Ein weiterer Nachteil: Der VaR gibt nur ein Maß dafür, mit welcher Wahrscheinlichkeit eine gewisse Verlustmarke überschritten wird, macht aber keine Aussage über die Höhe des Verlustes, der in diesem Falle eintritt.


Verfahren zur Quantifizierung großer Katastrophen

Für katastrophale Ereignisse, die zwar selten eintreten, dafür aber fatale Schadenssummen produzieren, ist die PoT-Methode geeigneter. Vor etwa 25 Jahren zur Vorhersage von Überschwemmungen entwickelt, wird sie seit kurzem auch von der Versicherungswirtschaft eingesetzt.

Wenn man von einer zufallsbestimmten Größe - dem Wasserstand eines Flusses, dem Wert eines Aktienportefeuilles oder der Höhe von Versicherungsleistungen - immer nur die Werte notiert, die eine bestimmte Schranke überschreiten, dann folgt die Höhe der Werte über dieser Schranke (peaks over threshold heißt Gipfel oberhalb einer Schwelle) einer verallgemeinerten Pareto-Verteilung (Bild 3), benannt nach dem italienischen Nationalökonomen Vilfredo Pareto (1848 bis 1923), und zwar in um so besserer Näherung, je höher die Schranke liegt. Dieses Gesetz ist ebenso universell wie der zentrale Grenzwertsatz.

Dies ist ein Resultat der sogenannten Extremwerttheorie (siehe beispielsweise "Modelling Extremal Events" von Paul Embrechts, Claudia Klüppelberg und Thomas Mikosch, Springer, Heidelberg 1997, und "Statistical Analysis of Extreme Values" von Rolf-Dieter Reiss und Michael Thomas, Birkhäuser, Basel 1997). Mit ihrer Hilfe wurde beispielsweise die Höhe der Deiche berechnet, die Holland und Zeeland vor Überschwemmung schützen und damit eine Flutkatastrophe wie die vom 1. Februar 1953 verhindern sollen. Das Beispiel ist typisch für die Probleme, die bei der Modellierung extremer Ereignisse auftreten.

Für die Fluthöhen oberhalb von - beispielsweise - 3 Metern setzte man eine verallgemeinerte Pareto-Verteilung an. Deren Parameter bestimmte man jedoch nicht nur aus den Daten der seltenen Katastrophenereignisse (3,85 Meter 1953, höchste je beobachtete Flut 4 Meter im Jahre 1570), sondern aus den viel reichlicher vorliegenden Daten aus normalen Zeiten. Daraus ergab sich, daß ein Deich von 5,14 Metern Höhe eine Katastrophe mit großer Sicherheit verhindert: Mit einer derart hohen Flut ist nur einmal in 10000 Jahren zu rechnen. Dieser Wert stimmte recht gut überein mit jenen, die Ingenieure und Hydrologen mit anderen Methoden errechnet hatten.

Nach demselben Muster verwendet man Daten aus dem normalen Geschäftsverlauf, um Wahrscheinlichkeiten für extreme Börsenereignisse oder Großschäden zu kalkulieren. In jedem Falle muß man extrapolieren: Man macht Prognosen über Wertebereiche, für die keine Erfahrungen vorliegen.

Kann ein statistisches Verfahren, das Ergebnisse für noch nie beobachtete Situationen verspricht, mehr sein als reine Spekulation? Nun, alle statistischen Verfahren beruhen auf Modellannahmen, und die Ergebnisse dieser Verfahren sind brauchbar, wenn das gewählte Modell zur Wirklichkeit paßt. Bei der PoT-Methode wird angenommen, daß normale Ereignisse derselben Verteilung folgen wie extreme; unter dieser Annahme ist das Verfahren wissenschaftlich gerechtfertigt und begründet. Da extreme Ereignisse - glücklicherweise - zu selten sind, als daß man für sie statistische Modelle mit genügender Genauigkeit ableiten könnte, ist ein gewisser Anteil an Spekulation unvermeidbar. Unter allen denkbaren Spekulationen ist aber die nach dem PoT-Verfahren die zur Zeit fundierteste.


Zukunftsaussichten

Da sich Größe und Art der Risiken im Bank- und Versicherungswesen im Laufe der Zeit verändern, werden die beiden beschriebenen Techniken noch an Bedeutung gewinnen. Neue Produkte und Investitionsmöglichkeiten wie die aktienindexgebundene Lebensversicherung oder die schadenabhängige Wandelanleihe, die beide seit kurzem auf dem deutschsprachigen Markt angeboten werden, verlangen zur Preisbestimmung eine zuverlässige Messung des Risikos. Die beiden Verfahren VaR und PoT sind generell für jeden der Bereiche Banken und Versicherungen einsetzbar. Sie spielen zusammen bei der Berechnung eines Value at Risk, bei der die Modellierung nicht auf Normalverteilungen basiert.


Kasten: Berechnung des Value at Risk

Ein Portefeuille enthalte Aktien zu den gleichen Anteilen, wie sie in die Berechnung des Deutschen Aktienindex (DAX) eingehen. Man möchte wissen, wie sich sein Wert S(t) in Abhängigkeit von der Zeit t wahrscheinlich entwickeln wird; der Wert S am Anfang der Periode ist bekannt. Gesucht ist also eine Wahrscheinlichkeitsdichte für S(t). Aus theoretischen Erwägungen - die durch die Erfahrung bestätigt werden - nimmt man an, daß nicht S(t) selbst einer Normalverteilung genügt, sondern sein Logarithmus: Es kommt nicht auf die absoluten, sondern auf die relativen Veränderungen des Wertes an. Im einzelnen unterstellt man, daß log(S(t)/S) eine normalverteilte Größe mit dem Mittelwert

-v2t/2 und der Varianz v2t ist. Dabei ist die Volatilität v ein Maß für die Heftigkeit, mit welcher der betrachtete Wert zu schwanken pflegt. Für den DAX und damit für das gedachte Portefeuille ist v=0,2 auf Jahresbasis ein realistischer Wert.

Die Verteilung von S(t), die sogenannte Lognormalverteilung (links für S=1 und v=0,2 dargestellt), ist schief: Sie steigt links steiler, als sie rechts fällt. Vor allem aber fällt sie beiderseits langsamer gegen null als eine Normalverteilung.

Man setzt nun den Value at Risk VaR so an, daß die Wahrscheinlichkeit, am Ende der Periode (beispielsweise nach t=10 Tagen) den Betrag VaR oder mehr zu verlieren, gerade 1 Prozent ist:

P( S(t)-S <= - VaR ) = 0,01

Dem entspricht die Forderung, daß die Fläche unter der Kurve links von S-VaR (rot) ein Hundertstel der Gesamtfläche sein soll. Unter den genannten Modellannahmen errechnet sich VaR zu 0,074628S. Von einem Aktienportefeuille mit einem aktuellen Marktwert von einer Million DM stünden also im Sinne der VaR-Theorie 74628 DM auf dem Spiel.


Autor: Christian Hipp


Zurück
Zum Inhaltsverzeichnis
Zum Jahresverzeichnis


© Spektrum der Wissenschaft 1997-2000