Sie durchleben einen tiefgreifenden Wandel, der durch den technologischen Fortschritt vorangetrieben wird. Diese Veränderungen betreffen alle Branchen, insbesondere den Bankensektor. Datenexperten müssen sich schnell anpassen, um effizienter, produktiver und wettbewerbsfähiger zu werden.

Für erfahrene Fachkräfte mit fundierten Kenntnissen in Mathematik, Statistik und betrieblicher Praxis kann dieser Übergang selbstverständlich sein. Für Anfänger, die diese grundlegenden Fähigkeiten noch nicht vollständig beherrschen, kann es jedoch eine größere Herausforderung sein.

Im Bereich des Kreditrisikos erfordert die Entwicklung dieser Fähigkeiten ein klares Verständnis der Bankengagements und der Mechanismen zur Steuerung der damit verbundenen Risiken.

Meine nächsten Artikel werden sich hauptsächlich auf das Kreditrisikomanagement innerhalb eines regulatorischen Rahmens konzentrieren. Die Europäische Zentralbank (EZB) ermöglicht es Banken, interne Modelle zur Bewertung des Kreditrisikos ihrer verschiedenen Engagements zu verwenden. Zu diesen Engagements können Kredite gehören, die Unternehmen zur Finanzierung langfristiger Projekte gewährt werden, oder Kredite, die privaten Haushalten zur Finanzierung von Immobilienprojekten gewährt werden.

Diese Modelle zielen darauf ab, mehrere Schlüsselparameter abzuschätzen:

  • PD (Ausfallwahrscheinlichkeit): die Wahrscheinlichkeit, dass ein Kreditnehmer seinen Zahlungsverpflichtungen nicht nachkommen kann.
  • EAD (Publicity at Default): der Forderungsbetrag zum Zeitpunkt des Ausfalls.
  • LGD (Verlust bei Ausfall): ist die Schwere des Schadens im Falle eines Zahlungsausfalls.

Wir können daher zwischen PD-Modellen, EAD-Modellen und LGD-Modellen unterscheiden. In dieser Serie werde ich mich hauptsächlich auf PD-Modelle konzentrieren. Diese Modelle werden verwendet, um Kreditnehmern Rankings zuzuordnen und zur Berechnung der regulatorischen Kapitalanforderungen beizutragen, die Banken vor unerwarteten Verlusten schützen.

In diesem ersten Artikel werde ich mich auf die Definition und Konstruktion des Modellierungsumfangs konzentrieren.

Definition von Commonplace

Der Aufbau einer Datenmodellierung erfordert ein klares Verständnis des Modellierungsziels und eine genaue Definition des Standardwerts. Zur Beurteilung der Ausfallwahrscheinlichkeit einer Gegenpartei gehört die Beobachtung des Übergangs von einem gesunden Zustand zu einem Ausfallzustand über einen bestimmten Horizont h. Im Folgenden gehen wir davon aus, dass dieser Horizont auf ein Jahr (h = 1) festgelegt ist.

Die Definition des Ausfalls wurde nach der Finanzkrise 2008 harmonisiert und unter aufsichtsrechtliche Aufsicht gestellt. Ziel warfare es, eine einheitliche Definition zu etablieren, die für alle Bankinstitute gilt.

Diese Definition basiert auf mehreren Kriterien, darunter:

  • eine wesentliche Verschlechterung der finanziellen Scenario der Gegenpartei,
  • das Vorhandensein überfälliger Beträge,
  • Situationen der Nachsicht,
  • Ansteckungseffekte innerhalb einer Gruppe von Expositionen.

Historisch gesehen gab es die frühere Ausfalldefinition (ODOD), die sich nach und nach zur derzeit geltenden neuen Ausfalldefinition (NDOD) entwickelte.

Beispielsweise wird eine Gegenpartei in Betracht gezogen Commonplace wenn der Schuldner mit einer wesentlichen Kreditverpflichtung mehr als 90 Tage im Rückstand ist.

Sobald die Definition des Ausfalls klar festgelegt ist, kann das Institut sie auf alle seine Kunden anwenden. Es könnte dann mit einem potenziell heterogenen Portfolio konfrontiert sein, das sich aus großen Konzernen, kleinen und mittleren Unternehmen (KMU), Privatkunden und staatlichen Stellen zusammensetzt.

Für ein effektiveres Risikomanagement ist es unerlässlich, diese verschiedenen Kategorien zu identifizieren und homogene Teilportfolios zu erstellen. Diese Segmentierung ermöglicht dann eine relevantere und genauere Modellierung jedes Portfolios.

Definition von Filtern

Durch die Definition von Filtern ist es möglich, den Modellierungsumfang zu bestimmen und nur homogene Kontrahenten für die Analyse einzubeziehen. Filter sind Variablen, die zur Begrenzung dieses Bereichs verwendet werden.

Diese Variablen können durch statistische Methoden wie Clustering-Techniken identifiziert oder von Fachexperten auf der Grundlage von Geschäftskenntnissen definiert werden.

Wenn man sich beispielsweise auf große Unternehmen konzentriert, kann der Umsatz als relevante Größenvariable zur Festlegung eines Schwellenwerts dienen. Es besteht die Möglichkeit, nur Kontrahenten einzubeziehen, deren Jahresumsatz über 30 Millionen Euro liegt.

Zur weiteren Charakterisierung dieses Segments können dann weitere Variablen herangezogen werden, etwa Branchensektor, geografische Area, Finanzkennzahlen oder ESG-Indikatoren.

Ein anderer Modellierungsrahmen könnte sich ausschließlich auf Privatkunden konzentrieren, die Kredite zur Finanzierung persönlicher Projekte aufgenommen haben. In diesem Fall kann das Einkommen als Filtervariable verwendet werden, während andere relevante Merkmale der Beschäftigungsstatus, die Artwork der Sicherheit und die Kreditart sein können.

Sobald das Ziel klar definiert, die Standarddefinition genau spezifiziert und der Umfang durch geeignete Filter ordnungsgemäß strukturiert wurde, wird die Erstellung des Modellierungsdatensatzes zum natürlichen nächsten Schritt.

Aufbau des Modellierungsdatensatzes

Da das Ziel darin besteht, die Ausfallwahrscheinlichkeit über einen Zeithorizont von einem Jahr vorherzusagen, müssen wir für jedes Jahr (N) alle gesunden Kontrahenten behalten, d.

Am 31. Dezember N werden die Merkmale dieser gesunden Gegenparteien beobachtet und aufgezeichnet. Wenn wir uns beispielsweise auf Unternehmenseinheiten konzentrieren, werden zum 31.12.N die Werte der folgenden Variablen für jede Gegenpartei erfasst: Umsatz, Branche und Finanzkennzahlen.

Um die Standardvariable für jede dieser Gegenparteien zu erstellen, betrachten wir dann das Jahr (N+1). Die Variable nimmt den Wert 1 an, wenn die Gegenpartei mindestens einmal im Jahr (N+1) ausfällt, andernfalls 0.

Diese Variable wird mit Y oder bezeichnet defist die Zielvariable des Modells. Die folgende Grafik veranschaulicht den oben beschriebenen Prozess.

Zusammenfassend erhalten wir für jedes feste Jahr (N) einen rechteckigen Datensatz, wobei:

  • Jede Zeile entspricht einer Gegenpartei, die am 31.12.N gesund warfare.
  • Die Spalten enthalten alle zu diesem Zeitpunkt gemessenen erklärenden Variablen, bezeichnet mit (Xich) für Gegenpartei (i),
  • Die letzte Spalte entspricht der Zielvariablen (Yich), die angibt, ob die Gegenpartei (i) mindestens einmal im Jahr ausfällt (N+1) (1) oder nicht (0).

Wenn beispielsweise (N = 2015), werden die erklärenden Variablen zum 31.12.2015 gemessen und die Zielvariable wird über das Jahr 2016 beobachtet.

Die Regulierungsbehörde verlangt, dass Modellierungsdatensätze unter Verwendung historischer Daten aus mindestens fünf Jahren erstellt werden, um verschiedene Wirtschaftszyklen zu erfassen. Da die Modelle über mehrere Zeiträume kalibriert werden, verlangt die Regulierungsbehörde außerdem, dass Regulierungsmodelle By way of-the-Cycle (TTC) sein müssen, was bedeutet, dass sie relativ unempfindlich gegenüber kurzfristigen makroökonomischen Schwankungen sein sollten.

Angenommen, wir verfügen über Kundendaten für sechs Jahre, vom 01.01.2015 bis zum 31.12.2020. Durch die Anwendung des oben beschriebenen Verfahrens für jedes Jahr (N) zwischen 2015 und 2019 können fünf aufeinanderfolgende Datensätze erstellt werden.

Der erste Datensatz, der dem Jahr 2015 entspricht, umfasst alle Kontrahenten, die vom 01.01.2015 bis zum 31.12.2015 weiterhin leistungsfähig waren. Ihre erklärenden Variablen ( Xich…, Xok ) werden zum 31.12.2015 gemessen, während die Ausfallvariable ( Y ) über das Jahr 2016 beobachtet wird. Sie nimmt den Wert 1 an, wenn die Gegenpartei im Jahr 2016 mindestens einmal ausfällt, andernfalls 0.

Der gleiche Vorgang wird für die folgenden Jahre bis zum Datensatz 2019 wiederholt. Dieser endgültige Datensatz umfasst alle Kontrahenten, die vom 01.01.2019 bis zum 31.12.2019 weiterhin leistungsfähig waren. Ihre erklärenden Variablen (X1…, Xok) werden zum 31.12.2019 gemessen und die Ausfallvariable (Y) wird im Jahr 2020 beobachtet. Sie nimmt den Wert 1 an, wenn die Gegenpartei zu irgendeinem Zeitpunkt im Jahr 2020 ausfällt, andernfalls 0.

Der endgültige Modellierungsumfang entspricht der vertikalen Verkettung aller Datensätze, die zum 31.12.N erstellt wurden. In unserem Beispiel reicht N von 2015 bis 2019. Der resultierende Datensatz kann durch die rechteckige Tabelle unten veranschaulicht werden.

Jede statistische Beobachtung wird durch ein Paar identifiziert, das aus der Kennung der Gegenpartei und dem Jahr (ID x Jahr) besteht, in dem die erklärenden Variablen gemessen werden (Stand: 31.12.2019). Und die Anzahl der Zeilen gibt die Anzahl der Beobachtungen an.

Beispielsweise kann die Gegenpartei mit der Kennung (ID = 1) sowohl im Jahr 2015 als auch im Jahr 2018 vorkommen. Diese entsprechen zwei unterschiedlichen und unabhängigen Beobachtungen im Datensatz, die jeweils durch die Paare (1 x 2015) und (1 x 2018) identifiziert werden.

Dieser Ansatz bietet mehrere Vorteile. Insbesondere verhindert es zeitliche Überschneidungen zwischen Schuldnern und reduziert die implizite Autokorrelation zwischen Beobachtungen, da jeder Datensatz durch das Paar (ID x Jahr) eindeutig identifiziert wird.

Darüber hinaus erhöht es die Wahrscheinlichkeit, einen robusteren und repräsentativeren Datensatz zu erstellen. Durch die Bündelung von Beobachtungen über mehrere Jahre hinweg wird die Anzahl der Ausfallereignisse ausreichend groß, um eine zuverlässige Modellschätzung zu unterstützen. Dies ist besonders wichtig bei der Analyse von Portfolios großer Unternehmen, bei denen Ausfallereignisse oft relativ selten sind.

Schließlich muss das Finanzinstitut geeignete organisatorische Maßnahmen ergreifen, um eine effektive Datenverwaltung und -sicherheit über den gesamten Datenlebenszyklus hinweg zu gewährleisten. Zu diesem Zweck verlangt die EZB von Finanzunternehmen die Einhaltung gemeinsamer Regulierungsstandards, wie etwa des Digital Operational Resilience Act (DORA).

Institutionen sollten einen umfassenden strategischen Rahmen für das Informationssicherheitsmanagement sowie einen speziellen Datensicherheitsrahmen schaffen, der speziell die in internen Modellen verwendeten Daten abdeckt.

Darüber hinaus muss die menschliche Kontrolle bei diesen Prozessen weiterhin im Mittelpunkt stehen. Daher sollten Verfahren gründlich dokumentiert werden und es müssen klare Richtlinien festgelegt werden, die erklären, wie und wann menschliches Urteilsvermögen angewendet werden sollte.

Abschluss

Die Definition der Modellentwicklung und des Anwendungsbereichs sowie deren ordnungsgemäße Dokumentation sind wesentliche Schritte zur Reduzierung des Modellrisikos, nicht nur in der Entwurfsphase, sondern während des gesamten Modelllebenszyklus.

Das Hauptziel besteht darin, sicherzustellen, dass der Entwicklungsumfang repräsentativ für das geplante Portfolio ist, und bei Bedarf alle Erweiterungen, Einschränkungen oder Annäherungen klar zu identifizieren, die bei der Anwendung des Modells im Vergleich zu seinem ursprünglichen Entwurf vorgenommen wurden.

Die Erstellung eines standardisierten Dokuments, das die zur Festlegung des Anwendungsbereichs verwendeten Variablen klar definiert, gilt als bewährte Vorgehensweise. Zumindest die folgenden Informationen sollten leicht identifizierbar sein: der technische Title der Variablen, ihr Format und ihre Quelle.

In meinem nächsten Artikel werde ich anhand eines Kreditrisikodatensatzes veranschaulichen, wie die Ausfallwahrscheinlichkeit für verschiedene Gegenparteien vorhergesagt werden kann. Ich erkläre die Schritte, die zum richtigen Verständnis des verfügbaren Datensatzes erforderlich sind, und beschreibe, soweit möglich, den Umgang und die Verarbeitung der verschiedenen Variablen.

Referenzen

Europäische Zentralbank. (2025). Aufsichtsleitfaden: Leitfaden zum SSM Supervisory Overview and Analysis Course of (SREP). Europäische Zentralbank. https://www.bankingsupervision.europa.eu/ecb/pub/pdf/ssm.supervisory_guide202507.en.pdf

Bildnachweise

Alle Bilder und Visualisierungen in diesem Artikel wurden vom Autor mit Python (Pandas, Matplotlib, Seaborn und Plotly) und Excel erstellt, sofern nicht anders angegeben.

Haftungsausschluss

Ich schreibe, um zu lernen, daher sind Fehler die Norm, auch wenn ich mein Bestes gebe. Bitte lassen Sie es mich wissen, wenn Ihnen etwas auffällt. Auch für Vorschläge zu neuen Themen bin ich offen!

Von admin

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert