Informelle Insolvenzprognoseverfahren

(Weitergeleitet von Kreditexperte)

Mit informellen Insolvenzprognoseverfahren werden Insolvenzprognoseverfahren bezeichnet, bei denen menschliche Kreditanalysten Insolvenzprognosen auf Basis ihrer Intuition und persönlichen Erfahrung erstellen. Dabei stehen ihnen gegebenenfalls Checklisten bzw. (mehr oder weniger detaillierte und präzise) Leitfäden bzw. Verfahrensvorschriften zur Verfügung.[1]

Empirische Befunde zur Schätzgüte

Bearbeiten

Unbestritten ist zunächst, dass Kreditnehmer billiger, schneller und transparenter durch standardisierte Verfahren bewertet werden können als im Rahmen individueller Analysen durch menschliche Bewerter.[2] Aus diesem Grund sind bei den meisten Banken die Bewertungen von Kleinkrediten weitgehend standardisiert bzw. sogar automatisiert.[3]

Darüber hinaus herrscht bei Banken und Ratingagenturen jedoch die Meinung vor, dass – stellt man ihnen genügend Zeit und Ressourcen zur Verfügung – erfahrene Analysten jedes statistische Modell schlagen könnten.[4][5] Schließlich beschränkten sich deren Analysen nicht nur auf die Auswertung einiger weniger Finanzkennzahlen, sondern umfassten sämtliche als relevant erachteten Aspekte des Unternehmens und seines Umfelds.[6][7] Dies wird nicht zuletzt auch von aufsichtsrechtlicher Seite eingefordert.[8] Bei der Kreditrisikoanalyse natürlicher Personen ist die ausschließliche Verwendung statistischer Modelle sogar gesetzlich verboten (auch wenn dieses Verbot häufig nicht beachtet wird).[9]

In einer Metaanalyse von über 100 Studien aus verschiedenen Wissenschaftsgebieten zeigt sich zwar, dass Individuen mit geringem Fachwissen erheblich genauere Prognosen als nichtinformierte Individuen erstellen können, dass aber darüber hinaus zusätzliches Fachwissen zu keinem Zuwachs der Prognosegenauigkeit führt[10] und dass die Güte selbst sachkundiger menschlicher Entscheider einfachen statistischen Prognoseverfahren unterlegen ist.[11][12]

Auch vergleichbare Studien speziell zum Thema Insolvenzprognose zeigen, dass menschliche Kreditanalysten, denen die Jahresabschlussinformationen von zu beurteilenden Unternehmen zur Verfügung gestellt wurden, mit Hilfe der darin enthaltenen Informationen Insolvenzprognosen abgeben können, die mit den späteren Insolvenzereignissen korrelieren. Allerdings liegt die Qualität der Analystenprognosen nicht nur deutlich unter der Qualität einfacher statistischer Verfahren (siehe beispielsweise Diskriminanzanalyse, Logistische Regression oder Entscheidungsbaumverfahren), sondern sogar noch unter der univariaten Trennschärfe einzelner Finanzkennzahlen.[13] Zur Erklärung dieser enttäuschenden Befunde lassen sich zwei grundlegende Theorien zur Beschreibung menschlichen Verhaltens heranziehen:

Beide Punkte werden in den folgenden Abschnitten erläutert. Es ist aber anzunehmen, dass zumindest bei den zitierten Studien Anreizprobleme keine wesentliche Rolle spielten, sondern dass die durch Irrationalitäten ausgelösten Beeinträchtigungen der Prognosefähigkeit menschlicher Entscheider bereits hinreichend groß sind, um die Unterlegenheit gegenüber einfachen statistischen Verfahren zu erklären.

Irrationale Informationsverarbeitung

Bearbeiten

Da keine umfassende, bewährte Theorie zur Erklärung und Prognose von Unternehmensinsolvenzen existiert und da menschliche Entscheider nicht über die Speicherfähigkeit und Verarbeitungskapazität moderner Computer verfügen, um zumindest empirisch fundierte Prognosen zu treffen, sind Kreditanalysten bei der Abgabe von Insolvenzprognosen stets auch auf ihre eigene Intuitionen, Erfahrungen und Erinnerungen angewiesen. Es ist jedoch bekannt, dass die unter diesen Umständen abgegebenen Prognosen menschlicher Entscheider systematischen Fehlern unterliegen.[15]

Im Kontext der Kreditrisikoanalyse von besonderer Relevanz sind hier die Überinterpretation zufälliger Ereignisse (law of small numbers), das Ignorieren allgemeinerer Statistiken bei Vorliegen besonders einprägsamer individueller Erinnerungen (Verfügbarkeitsheuristik, availability heuristic) und die Beharrlichkeit einmal vorgefasster Meinungen (belief perseverance, anchoring), welche unter anderem durch die selektive Wahrnehmung neuer Informationen verursacht wird (confirmatory bias). Dabei werden Informationen, die der vorgefassten Meinung des Analysten entsprechen als besonders glaubwürdig empfunden, widersprechende Informationen werden tendenziell ignoriert oder fehlinterpretiert.[16] Ferner erhöhen sich die wahrgenommenen Eintrittswahrscheinlichkeiten von Ereignissen, sobald diese Ereignisse tatsächlich eingetreten und den Individuen bekannt geworden sind. Die Individuen glauben deshalb auch, dass sie diese Ereignisse mit ihrem Wissen gut hätten vorhersagen können (Rückschaufehler, hindsight bias).[17][18] Gerade Experten überschätzen in einer Umwelt mit geringer Vorhersagbarkeit die Genauigkeit ihrer Prognosen.[19] Theoretisch lassen sich durch einen konsequenten Abgleich vergangener Prognosen mit tatsächlich eingetretenen Insolvenzereignissen individuelle Prognosefehler erkennen und, falls die individuellen Prognosen ausreichend begründet und dokumentiert wurden, auch die Ursachen für die begangenen Fehler identifizieren, so dass Lernprozesse zur Verbesserung der individuellen Prognosefähigkeit auslöst werden können. Leider haben Banken es in der Vergangenheit, beispielsweise aufgrund von Fusionen oder Änderungen ihrer Ratingmethodik, meist versäumt, die benötigten Daten konsequent zu erfassen und zu pflegen.[20][21][22]

Bis in die jüngere Vergangenheit war deshalb gerade kein systematischer Abgleich zwischen individuellen Prognosen und tatsächlichen Insolvenzereignissen möglich. Erst durch die Regelungen von Basel II werden die Banken verpflichtet, entsprechende Datenbanken anzulegen[23] und ihre Ausfallprognosen regelmäßig zu validieren.[24] Trotz dieser aufsichtsrechtlichen Auflagen werden aber auch in Zukunft die Bedingungen für ein erfolgreiches individuelles Lernen menschlicher Analysten aus den folgenden Gründen sehr schlecht sein:[25]

  • Nur im Fall von extremen Ausfallprognosen, d. h. bei prognostizierten Ausfallwahrscheinlichkeiten von 0 % oder 100 %, ist es prinzipiell möglich, auf Basis einzelner Beobachtungen Prognosen zweifelsfrei als „richtig“ oder „falsch“ bzw. „gut“ oder „schlecht“ zu bewerten. In der Regel kann die Qualität der Prognosen nur mit einer statistischen Unschärfe bestimmt werden. Da Insolvenzen seltene Ereignisse sind, lässt sich auch auf Basis von mehreren hundert (!) Prognosen und zugehörigen Ausfallrealisationen (Insolvenzen vs. Nicht-Insolvenzen) die Prognosefähigkeit eines menschlichen Analysten nur mit einer sehr großen Unsicherheit bestimmen.[26]
  • Je nach intendiertem Prognosehorizont können Prognosefehler nur mit einer relativ langen zeitlichen Verzögerung erkannt werden. Banken legen ihren Ratings meist einen Gültigkeitshorizont von einem Jahr zugrunde, Ratingagenturen einen längeren, nicht genau spezifizierten Horizont.[27]

Eine zuverlässige und zeitnahe Rückmeldung über die Qualität individueller Prognosen einzelner Analysten ist damit praktisch nicht möglich. Eine statistisch aussagekräftige Validierung ist letztlich nur für automatisierbare Verfahren möglich, die eine hinreichend große Menge an Prognosen generieren können. Mit diesem Argument wird auch die Existenzberechtigung all jener Ratingagenturen infragegestellt, die einerseits nur über eine geringe Kundenbasis (track record) verfügen und deren Ratingurteile andererseits im Wesentlichen auf nicht automatisierbaren Bewertungsprozeduren, insbesondere subjektiven Analystenurteilen, beruhen. So wurden von den zahlreichen seit 1998 in Deutschland gegründeten Ratingagenturen bislang nur ca. 300 Ratings erstellt, von denen wiederum nur 30 veröffentlicht wurden.[28]

Institutionelle Fehlanreize

Bearbeiten

Neben den im vorherigen Abschnitt dargelegten Gründen für eine geringe Prognosefähigkeit menschlicher Entscheider, die auf irrationales Lernverhalten zurückzuführen sind, kann auch rationales Verhalten, hier jedoch im Sinne von opportunistisch-eigennützigem Verhalten, Ursache für eine schlechte Prognosequalität menschlicher Insolvenzprognosen sein. Opportunistisch-eigennütziges Verhalten kann sich zum einen darin äußern, dass der Analyst, dessen Tätigkeit seitens des Auftraggebers, beispielsweise einer Bank, nur unvollständig beobachtet werden kann, die ihm übertragenen Aufgaben nicht mit der erforderlichen Sorgfalt erledigt, um Zeit zu sparen – oder dass er durch gezielte Manipulationen das Ratingergebnis in eine für ihn genehme Richtung lenken wird.[29] In erstgenannten Fall wird das Rating tendenziell unsystematisch bzw. mit einer „Tendenz zur Durchschnittlichkeit“[30] beeinflusst, um keine unangenehmen Nachfragen zu provozieren. Im zweiten Fall wird es systematisch, tendenziell positiv, verzerrt. Anreizprobleme letzter Art liegen vor allem dann vor, wenn Ratings durch Kundenbetreuer (relationship manager) erstellt werden bzw. beeinflusst werden können und nicht durch spezielles Ratingpersonal.[31][32]

Je schlechter der Kundenbetreuer das ihm zugeordnete Unternehmen bewertet, desto niedriger ist die Profitabilität, welche die Bank dem Engagement beimisst und desto geringer ist typischerweise das Kreditvolumen, das die Bank an den Kunden zu vergeben bereit ist. Wird die Kompensation des Kundenbetreuers an das vergebene Kreditvolumen und/oder an die von der Bank erwartete Profitabilität des Engagements gekoppelt, so hat der Kundenbetreuer starke Anreize, das Rating positiv zu verzerren.[33][34]

Kritische Würdigung

Bearbeiten

Die bisherigen Studien zeigen, dass sich aus den aufgeführten Kritikpunkten für die anzustrebende Rolle menschlicher Analysten im Bonitätsermittlungsprozess Konsequenzen ergeben. Menschen, die jeden Einzelfall nach ständig neuen, nur ihnen bekannten Regeln bewerten, können keine bessere Insolvenzprognosen als solche Menschen erstellen, die dies nach offengelegten, relativ starren und unflexiblen, dafür aber empirisch überprüften und kalibrierten Regeln tun – typischerweise mit Unterstützung eines Computers und unter Verwendung statistischer Insolvenzprognoseverfahren. Hat eine Bank einmal ein empirisch validiertes Insolvenzprognoseverfahren entwickelt, muss sich die weitere Rolle des Menschen im Bonitätsermittlungsprozess aber nicht auf die Erhebung weitgehend ermessensfrei feststellbarer Daten beschränken. Zahlreiche Untersuchungen zeigen, dass durch die Einbeziehung von „weichen Faktoren“ wie „Marktposition“ oder „die Qualität des Managements“, die durch menschliche Mitarbeiter subjektiv bewertet werden müssen, die Prognosequalität gegenüber ausschließlich auf harten Faktoren beruhenden Insolvenzprognosen verbessern lässt.[35] Im Gegensatz zu menschlichen Insolvenzprognosen scheinen menschliche Werturteile konkreter Sachverhalte nützliche, zusätzliche Informationen zu enthalten.

Empirische Untersuchungen zeigen übereinstimmend, dass menschliche Entscheidungsträger bei der Bewertung qualitativer Merkmale von Unternehmen nicht nur im Durchschnitt deutlich bessere Bonitätsnoten vergeben als statistische Verfahren bei der Bewertung von Jahresabschlusskennzahlen, sondern dass diese Bewertungen auch deutlich weniger differenziert ausfallen, d. h., dass deren Streuung geringer ist.[36] Durch geeignete Transformations- und Aggregationsverfahren lassen sich die gewünschten Verteilungseigenschaften der Daten herstellen.[37] Problematisch ist hingegen die geringe Reliabilität menschlicher Werturteile.[38]

Literatur

Bearbeiten

Einzelnachweise

Bearbeiten
  1. Dieser Artikel basiert auf Bemmann (2007, Abschnitt 2.2).
  2. siehe Falkenstein, Boral, Carty (2000, S. 16)
  3. siehe Treacy, Carey (2000, S. 898), Basler Ausschuss (2000, S. 18)
  4. Treacy, Carey (2000, S. 898): “Many banks use statistical models as an element of the rating process, but banks generally believe that the limitations of statistical models are such that properly managed judgmental rating systems deliver more accurate estimates of risk.”
  5. Falkenstein, Boral, Carty (2000, S. 16): “The value of quantitative models over judgement is not purely a scale economy argument. […] Yet, many presume that given enough time most sufficiently intelligent and experienced analysts would outperform any model.”
  6. Siehe Deutsche Bundesbank (2004, S. 6) zur Beschreibung des Aufbaus des eigenen Bonitätsbeurteilungsverfahrens: „Da dieses ‚normierte’ Verfahren spezifischen Gegebenheiten einzelner Unternehmen und neueren Entwicklungen nicht immer gerecht werden kann, bleibt für den Beurteilenden Spielraum, von den Klassifikationsvorschlägen abzuweichen.“
  7. siehe S&P (2003, S. 17): “There are no formulae for combining scores to arrive at a rating conclusion. Bear in mind that ratings represent an art as much as a science. A rating is, in the end, an opinion.”
  8. BaFin (2002, Tz. 70): „Maßgebliche Indikatoren für die Bestimmung des Adressenausfallrisikos im Risikoklassifizierungsverfahren müssen neben quantitativen, soweit möglich, auch qualitative Kriterien sein. […]“. Gemäß den Regelungen von Basel II ist zwar der Einsatz automatischer Modelle im Rahmen des IRB-Ansatzes zulässig, aber „Hinreichende menschliche Urteile und menschliche Überwachung sind erforderlich um sicherzustellen, dass alle wesentlichen Informationen, einschließlich derer außerhalb des Erfassungsbereichs des Modells, berücksichtigt werden und das Modell in angemessener Weise genutzt wird.“, siehe Basler Ausschuss (2004, Tz. 417).
  9. siehe ULD (2006, S. 18f. und S. 86f.)
  10. siehe Armstrong (1985, S. 92f.)
  11. Siehe Armstrong (1985, S. 55f., S. 94 und die dort zitierte Literatur). Die Studien untersuchten die Fähigkeiten von Experten u. a. bei der Prognose von Krankenhausaufenthaltsdauern, Fußballergebnissen oder Studienerfolgen.
  12. Keasey, Watson (1991, S. 99) “For many well-specified and repetitive decisions, the classification accuracy of even relatively simple quantitative models have been shown to consistently outperform human decision-makers [...] This literature has also shown [...] that a statistical model is usually able to significantly outperform specialists.”
  13. siehe Falkenstein, Boral, Carty (2000, S. 16f. und die dort zitierte Literatur)
  14. So kann beispielsweise die Bonitätsbeurteilung durch Kreditsachbearbeiter bereits durch einfach zu identifizierende und korrigierende Sachverhaltsgestaltungen wie Sale-and-lease-back (Rückmietkauf) oder Aktivierung von F&E-Kosten systematisch beeinflusst werden, siehe Blake et al (2000, S. 139f. und die dort zitierte Literatur).
  15. siehe Rabin (1998, S. 24ff. und die dort zitierte Literatur), Armstrong (1985, S. 86f., 96f., 110f., S. 143f., S. 436f. und die dort zitierte Literatur), Rosenkranz, Missler-Behr (2005, S. 108ff. und die dort zitierte Literatur).
  16. siehe Rabin (1998, S. 24ff. mit weiteren Nachweisen)
  17. siehe Rabin (1998, S. 32f.)
  18. Zur hieraus resultierenden geringen Bewertungsdynamik menschlicher Ratingurteile siehe Fischer (2004, S. 381ff.).
  19. siehe Rabin (1998, S. 32f.)
  20. Basler Ausschuss (2000, S. 25): “[M]ost of the surveyed banks did not have sufficient internal data for specifying loss characteristics for all borrowers based on their own default history […]. [D]ue to data constraints, the majority of banks surveyed relied either partially or fully on the data provided by the major rating agencies, public databanks such as national credit registries, or data from consulting companies.”
  21. Carey, Hrycay (2001, S. 199) “Remarkably, very few financial institutions have maintained usable records of default and loss experience by internal grade for their own portfolios. Thus, the obvious actuarial approach, computing long-run average default rates from the historical experience of borrowers in each internal grade, is not feasible in most cases. […] Evidence presented below indicates that a relatively long time series of data is needed for good actuarial estimates. […] Even in cases where banks have gathered such data, changes in the architecture or criteria of their internal rating system (which occur frequently) greatly reduce the utility of prechange data.”
  22. Araten et al (2004, S. 93): “Many firms have evolved their rating scale and methodology over time, often as a result of mergers in which they have had to reconcile different ratings systems employed by predecessor banks. Under these circumstances, it is often a challenge to develop a database of ratings history that fairly represents a consistent ratings philosophy.” und analog Treacy, Carey (2000, S. 912).
  23. siehe Basler Ausschuss (2004, Tz. 264ff. und 429ff.)
  24. siehe Basler Ausschuss (2004, Tz. 500ff.)
  25. siehe Tversky, Kahneman (1986, S. 274) “The necessary feedback is often lacking for the decisions made by managers, entrepreneurs, and politicians because (i) outcomes are commonly delayed and not easily attributable to a particular action; (ii) variability in the environment degrades the reliability of the feedback, especially where outcomes of low probability are involved; (iii) there is often no information about what the outcome would have been if another decision had been taken; and (iv) most important decisions are unique and therefore provide little opportunity for learning.”
  26. Für numerische Beispiele siehe Engelmann, Hayden, Tasche (2003, S. 19).
  27. Siehe Basler Ausschuss (2001, S. 12). Siehe S&P (2003, S. 41): “Standard & Poor’s credit ratings are meant to be forward-looking; that is, their time horizon extends as far as is analytically foreseeable.” und Cantor, Mann (2003, S. 6f.): “Moody’s primary objective is for its ratings to provide an accurate relative (i. e., ordinal) ranking of credit risk at each point in time, without reference to an explicit time horizon.”
  28. siehe Wieben (2004, S. 10, S. 14f. und S. 85)
  29. Siehe Fischer (2004, S. 208ff.) der auf Basis seiner Auswertungen eine Typologie von Firmenkundenbetreuern erstellt. Die Typisierungen reichen vom „Systemspieler“, der Fragen grundsätzlich mit großer Sorgfalt beantwortet, aber vereinzelt gezielte Eingriffe vornimmt, um eine aus seiner Sicht stimmige Gesamtnote zu erzielen bis zum „Ignoranten“, der dem Einsatz des computergestützten Fragenkatalogs grundsätzlich ablehnend gegenübersteht und nicht die nötige Zeit für eine sorgfältige Beantwortung der Fragen aufbringt.
  30. siehe Totzek (1999, S. 321f.)
  31. siehe Treacy, Carey (2000, S. 904). Bei ca. 40 % der Banken haben Kundenbetreuer die Hauptverantwortung für die Ratingvergabe, bei 20 % der Banken erfolgt die Ratingvergabe stets in Zusammenarbeit von Kundenbetreuern und speziellem Ratingpersonal, bei 30 % werden kleine Engagements durch Kundenbetreuer und größere Engagements durch spezielles Ratingpersonal bearbeitet und in 15 % der Banken liegt die Hauptverantwortung für die Ratingvergabe stets bei speziellem Ratingpersonal (die Summe der Nennung ergibt rundungsbedingt 105 %), siehe ebenda.
  32. siehe Salomo, Kögel (2000, S. 236) und Hartmann-Wendels (2006, S. 209)
  33. Im Fall der Kreditbewertung durch spezielles Ratingpersonal gibt es keinen Grund, warum die Bank die Entlohnung des Analysten an das spätere Kreditvolumen oder die erwartete Rendite koppeln sollte. Bei der Kreditbewertung durch Kundenbetreuer wäre eine derartige Kopplung aber tendenziell sinnvoll, um ihm Anreize für Akquisitionsbemühungen zu setzen, wenn dessen tatsächlicher Arbeitseinsatz nur bedingt beobachtbar ist.
  34. Treacy, Carey (2000, S. 898): “At banks that use ratings in computing profitability measures, establishing pricing guidelines, or setting loan size limits, the staff may be tempted to assign ratings that are more favorable than warranted.” und ebenda, S. 919: “Some institutions found that many loans were upgraded shortly after the introduction of profitability analysis, although the overall degree of the shift was small. One institution specifically mentioned an upward bias of about one-half grade relative to previous rating practice. Many noted that the number of disagreements in which relationship managers pressed for more favorable ratings increased once such systems were put into place.”
  35. siehe Lehmann (2003, S. 2), Fischer (2004, S. 229), Grunert, Norden, Weber (2005, S. 513f.)
  36. siehe Salomo, Kögel (2000, S. 234f.), Lehmann (2003, S. 9), Fischer (2004, S. 381ff.), Grunert, Norden, Weber (2005, S. 512, 515f. und die dort zitierte Literatur), analog Bemmann, Blum, Leibbrand (2003, S. 20ff.).
  37. Siehe Blochwitz, Eigermann (2000) zu den Möglichkeiten der Integration ordinaler Softfaktoreinschätzungen in die verschiedenen, üblicherweise verwendeten statistischen Prognoseverfahren, deren technische Anforderungen zum Teil variieren.
  38. siehe Fischer (2004)