key: cord-030171-6sww2qnj authors: Franke, Günter title: Management nicht-finanzieller Risiken: eine Forschungsagenda date: 2020-08-07 journal: Schmalenbachs Z betriebswirtsch Forsch DOI: 10.1007/s41471-020-00096-z sha: doc_id: 30171 cord_uid: 6sww2qnj The management of non-financial risks such as ESG-, sustainability- and compliance risks poses a great challenge for companies. In contrast to financial risks the information on non-financial risks is very limited. This renders management quite difficult. Companies incurred big losses due to non-financial risks in recent years. Corporate governance of these risks raises many unresolved questions. This paper delineates potential answers and hypotheses about the impact of information quality. Practitioners complain about the lack of support from academia. A cooperation of practitioners and academics to resolve these questions presents attractive research fields for academia. Thus, this paper also presents a research agenda for academia. zahlreiche bisher wenig erforschte Fragen der Corporate Governance auf, die in der Praxis eingehend diskutiert werden. Diese lassen sich einteilen in Planungs-/ Entscheidungsfragen und in Steuerungs-und Kontrollfragen, auch wenn eine scharfe Trennung dieser beiden Fragenkomplexe kaum möglich ist. Zur Planung/ Entscheidung gehören Risikoanalyse und Risikomessung, Setzen von Prioritäten bei nicht-finanziellen Risiken, Steuerung des Risikoappetits der Entscheidungsträger, Konzepte der Entscheidungsfindung. Zur Steuerung und Kontrolle gehören die Aufbau-und Prozessorganisation. Dies schließt ein: Training von Mitarbeitern für Wahrnehmung und Beurteilung von Risiken, Schaffung einer adäquaten Risikokultur unter Einschluss von Anreizsystemen, koordinierte Umsetzung von Entscheidungen durch diverse Mitarbeiter, Kontrolle des Umsetzungserfolgs und des gemanagten Risikos, laufende Beobachtung der Umwelt, um die Information über die Risiken zu verbessern und Entscheidungen anzupassen, Verhaltenskontrolle über mehrere Verteidigungslinien. Die Informationsdefizite sind bei verschiedenen nicht-finanziellen Risiken unterschiedlich groß, wie noch gezeigt wird. Diesen Unterschieden sollte die Corporate Governance Rechnung tragen. Dies führt zur ersten These dieses Papiers, die später erläutert wird. Diese These wie auch die folgenden Thesen sind "ceteris paribus" zu verstehen. Andere Risikofaktoren, denen das Unternehmen unterworfen ist, können den postulierten Zusammenhang überlagern, so dass eventuell andere Zusammenhänge die Beobachtungen dominieren. In diesem Beitrag werden einige mögliche Vorgehensweisen für den Umgang mit nicht-finanziellen Risiken erörtert, ebenso werden Forschungsfragen aufgezeigt. Zudem werden Thesen über den Einfluss der verfügbaren Information auf die Corporate Governance formuliert. Umgekehrt postulieren andere Thesen Unterschiede in den Informationsanforderungen zur effektiven Lösung unterschiedlicher Teilaufgaben des Managements. Diese Thesen bedürfen einer eingehenden theoretischen und empirischen Überprüfung. Wichtige Hinweise gibt Richard Friberg mit seinem Buch: Managing risk and uncertainty -a strategic approach (2015) . Er erörtert verschiedene Vorgehensweisen von Unternehmen bei wenig verfügbarer Information. Die Verbindung von finanzwirtschaftlich konzipierten Planungs-/Entscheidungsmodellen und Organisationskonzepten wurde bereits in den fünfziger und sechziger Jahren z. B. von Marschak (1954/55) , Radner (1958 /59) und Hax (1965 untersucht, später z. B. von Baldenius/Reichelstein (2006) . Als sehr fruchtbar erwies sich die Agency Theorie, die ausgehend von Informationsasymmetrie optimale Anreiz-und Kontrollsysteme entwickelte. Laux (2006) resümiert zahlreiche Modelle, auch bei Delegation von Entscheidungen an mehrere Entscheidungsträger. Dabei handelt es sich stets um wohldefinierte Problemstellungen. Inzwischen existiert auch eine umfangreiche empirische Literatur zur Corporate Governance, in der meist einzelne Aspekte untersucht werden, siehe auch den Survey von Shleifer und Vishny (1997) . Der Beitrag ist wie folgt gegliedert: Im nächsten Abschnitt werden Aufgaben der Unternehmensplanung definiert und hinsichtlich der erforderlichen Information ver-K glichen. Organisationsfragen werden am Rande angesprochen. Der dritte Abschnitt veranschaulicht Ergebnisse des zweiten Abschnitts an statischen Entscheidungsmodellen unter Einschluss von Organisationsfragen. Zudem präsentiert dieser Abschnitt Konzepte zur Vorgehensweise bei wenig verfügbarer Information und versucht, minimale Informationsanforderungen für eine verlässliche Problemlösung anzugeben. Im vierten Abschnitt werden Modelle der flexiblen Planung und Fragen des Designs der Unternehmensstrategie erörtert. Im fünften Abschnitt werden einzelne nichtfinanzielle Risiken näher beschrieben und Fragen der Corporate Governance skizziert, die in der Praxis eingehend diskutiert werden. Der letzte Abschnitt resümiert Herausforderungen für Praxis und Hochschule und präsentiert einige Gedanken zu möglichen Vorgehensweisen der Forschung. Aufgabe der Unternehmensleitung ist es, ein Portfolio von Unternehmensaktivitäten zusammen zu stellen, seine Implementation laufend zu überwachen und das Portfolio entsprechend neuen Erkenntnissen anzupassen und weiter zu entwickeln. Hierbei kann die Unternehmensleitung einem engeren Fokus wie z. B. dem Shareholder Value Approach folgen oder einem breiteren Stakeholder Approach, wie er zunehmend von der Politik gefordert wird, so mit der ESG-Direktive. Ebenso gewinnen Nachhaltigkeitserfordernisse an Bedeutung, z. B. gemäß den 17 Nachhaltigkeitszielen der UN. Die Optimierung eines Portfolios von Unternehmensaktivitäten gemäß Risiko und Ertrag gehorcht einem Portfolio-Ansatz 7 . Das Portfoliorisiko lässt sich umso effektiver managen, je zuverlässiger die stochastischen Eigenschaften von finanziellen und nicht-finanziellen Risiken wie auch die zwischen ihnen bestehenden Zusammenhänge abgeschätzt werden können. Hier liegt in Anbetracht der mageren Information über nicht-finanzielle Risiken eine große Herausforderung. Ein evidenzbasiertes Management nicht-finanzieller Risiken startet mit einer Identifizierung und Klassifizierung dieser Risiken: In welchen Geschäftsfeldern des Unternehmens können welche Ereignisse eintreten, die die Zielerreichung des Unternehmens oder gar seine Existenz gefährden? Welcher Art können diese Ereignisse sein? Welche Risikofaktoren fördern den Eintritt solcher Ereignisse und die dadurch verursachten Schäden? Welche Schäden wurden beobachtet? Welche Evidenz gibt es von anderen Unternehmen? Nach dem bottom up-Approach zur Fundierung einer Taxonomie nicht-finanzieller Risiken und ihrer Risikotreiber bedarf es eines top down-Approaches, der versucht, übergreifende Konzepte zum geeigneten Umgang mit nicht-finanziellen 7 Eine isolierte Bewertung einzelner geschäftlichen Aktivitäten wäre nur bei Wertadditivität zulässig. Bei Wertadditivität ergibt sich der Wert des Unternehmens als Summe der Werte der einzelnen Aktivitäten. Dann erübrigt sich jedoch auch ein Risikomanagement. K Risiken zu entwickeln und empirisch zu überprüfen. Während für den bottom up-Approach die in Unternehmen gesammelten Erfahrungen unerlässlich sind, ist der top down-Approach auch eine Aufgabe für akademische Forschung. Dabei ist eine enge Kooperation zwischen Unternehmen und Hochschulen geboten, um die notwendige Bodenhaftung akademischer Forschung zu sichern. Das Management nicht-finanzieller Risiken setzt nicht nur die Schätzung von potentiellen Schäden aus Unternehmensaktivitäten voraus, sondern ebenso von deren Ertragspotenzial. Risiken werden in Kauf genommen, um damit Erträge zu erzielen. Zwar mag es nicht-finanzielle Risiken geben, die jenseits eines Risiko-Ertrag-Kalküls ausgeschlossen werden, wie z. B. kriminelle Aktivitäten (zero tolerance). Andere Aktivitäten des Unternehmens werden jedoch so geplant, dass damit Erträge erzielt werden, die unter Inkaufnahme des Risikos als vorteilhaft betrachtet werden. Dabei zeigt sich ein Problem, das Entscheidungen sehr erschwert. Betriebliche Vorsichtsmaßnahmen sollen helfen, potentielle Schäden aus nicht-finanziellen Risiken zu vermindern oder zu vermeiden. Vermiedene Schäden wie auch Schadensminderungen sind jedoch im Allgemeinen nicht beobachtbar. Dies erschwert nicht nur die Entscheidung über Vorsichtsmaßnahmen, sondern auch die spätere Überprüfung ihrer Wirkungen. Die Aktivitäten eines Unternehmens lassen sich unterscheiden in operative Tätigkeiten zur Implementierung des Geschäftsmodells ebenso wie Absicherungsmaßnahmen. Diese umschließen spezifische Maßnahmen, mit denen Ergebnisschwankungen aus operativen Tätigkeiten (partiell) neutralisiert werden sollen, ebenso wie die unspezifische Absicherung von Liquidität und Solvenz durch Liquiditäts-und Kapitalreserven 8 . Zu den spezifischen Absicherungsmaßnahmen gehören operative und finanzielle Hedgingmaßnahmen einschließlich des Abschlusses von Versicherungskontrakten. Unspezifisches Absicherungspotential kann durch Liquiditäts-und Kapitalreserven aufgebaut werden. Es soll helfen, potentielle finanzielle Anspannungen abzufedern und eine potentielle Insolvenz mit den zugehörigen Kosten zu vermeiden. Zudem sollen die Reserven die ungestörte Weiterführung erfolgreicher operativer Tätigkeiten ebenso wie die Umsetzung bereits geplanter längerfristiger operativer Maßnahmen auch bei ungünstigen Entwicklungen sichern. Unspezifische Absicherung dient der Vorsorge gegen 1) Schäden aus nicht abgesicherten finanziellen Risiken, 2) Schäden aus nicht-finanziellen Risiken, 3) Schäden aus Risiken, die so selten eintreten, dass sie in der Planung nicht explizit erfasst werden, 4) Basisrisiken aus spezifischen Absicherungsmaßnahmen. Dieser unternehmensinternen Perspektive steht die des Regulators/Aufsehers gegenüber. Deren Aufgabe ist es vor allem, negative externe Effekte des Unternehmensgeschehens abzuwehren. Während ein Unternehmen Liquiditäts-und Kapitalreserven gemäß seinen eigenen (internen) Kosten und Erträgen wählt, wird der Regulator/Aufseher primär externe (insbes. systemische) Kosten und Erträge, die die Allgemeinheit treffen, berücksichtigen und dabei von einer "gemeinwirtschaftlichen Wohlfahrtsfunktion" ausgehen. Dementsprechend wird er Kapital-und Liquiditätsreserven bemessen und auf ihrer Umsetzung bestehen. Außerdem gehören zur Absicherungspolitik weitere ex ante-und ex post-Maßnahmen, die geplant werden, bevor über die operativen und die Absicherungsmaßnahmen entschieden wird. Häufig wird dieses Vorgehen durch unterschiedliche Expertise der beteiligten Personen, die zudem in unterschiedlichen Abteilungen/ Unternehmen arbeiten, begründet. Die vorab geplanten Maßnahmen sollen potentielle Schäden vermindern und Rahmenbedingungen für die spätere Planung von operativen und Absicherungsmaßnahmen schaffen. Unabhängig von letzteren sollten die vorab geplanten Maßnahmen vorteilhaft sein. Ex ante-Maßnahmen sind Vorsichtsmaßnahmen, die vor Eintritt eines Schadensereignisses umgesetzt werden, um den Eintritt zu erschweren oder gar zu verhindern und/oder die potentielle Schadenshöhe zu vermindern. 9 Zu den ex post-Maßnahmen zählen alle vorab geplanten Maßnahmen, die nach Eintritt eines Schadensereignisses umgesetzt werden, um den Schaden einzudämmen. So werden häufig vorab Notfallpläne entwickelt, die dann im Schadensfall sehr schnell umgesetzt werden. Banken z. B. müssen vorab Notfallpläne erstellen, damit bei einem Schock möglichst viele Operationen der Bank weitergeführt werden können und Bankkunden möglichst wenig geschädigt werden. Gleichzeitig sollen Notfallpläne klären, welche Mitarbeiter des Unternehmens und welche externen Personen im Schadensfall welche Aufgaben übernehmen und wie ihre effektive und rasche Zusammenarbeit gesichert wird. Da nicht für alle möglichen Schadensereignisse detaillierte Vorgehensweisen vorab geplant werden können, werden sie erst nach Beobachtung eines Schadensereignisses konkret ausgestaltet. Gleichzeitig erfordert die spätere Umsetzung der Notfallpläne häufig Änderungen in der Corporate Governance, die bereits vor Eintritt von Schadensereignissen durchgeführt werden müssen. Wie unterscheiden sich die für die verschiedenen Planungsschritte erforderlichen Informationen? Wird simultan über Tätigkeiten zur operativen Umsetzung des Geschäftsmodells und über Hedgingmaßnahmen entschieden, dann ist infolge der Portfolioeffekte oft nicht klar, welche operativen Maßnahmen der Umsetzung des Geschäftsmodells und welche der Absicherung dienen. Das ist anders bei sukzessiver Planung. Nicht selten werden im ersten Schritt operative Tätigkeiten zur Umsetzung des Geschäftsmodells beschlossen und erst danach Absicherungsmaßnahmen. Auch wenn theoretisch eine Simultanplanung einer sukzessiven vorzuziehen sein mag, so unterbleibt eine Simultanplanung in der Praxis häufig, weil 1. eine Simultanplanung komplexer als eine sukzessive ist und damit höhere administrative Kosten verursachen kann, und 2. , weil in zahlreichen Unternehmen unterschiedliche Abteilungen Schäden aus Risiken, die so selten eintreten, dass sie in der Planung nicht explizit erfasst werden, beeinträchtigen These 3 nicht. Sie werden numerisch nicht abgeschätzt, so dass lediglich ein pauschaler Vorsorgebetrag gemäß der Risikokultur im Unternehmen eingeplant werden kann. Wie beeinflussen nicht-finanzielle Risiken den Einsatz von spezifischen und unspezifischen Absicherungsmaßnahmen? Ein Versicherer kann versuchen, solche Risiken von vielen Unternehmen zu poolen und so eine effektive Diversifikation zu realisieren. Bietet er Unternehmen an, solche Risiken preisgünstig zu versichern, dann ermöglicht dies einen effektiven Hedge. Andere spezifische Absicherungsinstrumente existieren kaum, weil diese Risiken kaum "rechenbar" sind und Dritte daher diese Risiken ohne Pooling kaum übernehmen werden. Soll bei erheblichen nicht-finanziellen Risiken das Ergebnisrisiko heruntergefahren werden, dann bietet sich oft nur eine Einschränkung der operativen Maßnahmen an. Ein Substitut für spezifische Absicherung können Liquiditäts-und Kapitalreserven sein. Sie gleichen zwar stochastische Ergebnisse der operativen Maßnahmen nicht aus, können aber die Unternehmenspolitik und -existenz wirksam stabilisieren. Damit gewinnen Liquiditäts-und Kapitalreserve an Bedeutung, wenn nicht-finanzielle Risiken zunehmen. Dies motiviert These 4: Bei Zunahme nicht-finanzieller Risiken wachsen die Liquiditäts-und Kapitalreserven des Unternehmens, während spezifische Hedgingmaßnahmen, ausgenommen Versicherungskontrakte, an Bedeutung verlieren. These 4 sollte bereits bei der Planung des operativen Portfolios berücksichtigt werden. Jedes Portfolio sollte frühzeitig daraufhin überprüft werden, ob die entsprechende Reservebildung möglich und erwünscht ist. Dies setzt eine Abstimmung zwischen den Experten für nicht-finanzielle Risiken im operativen Bereich und den für die Reservebildung zuständigen Experten im Finanzbereich voraus. In der Entscheidungstheorie werden zahlreiche Modelle vorgeschlagen, ausgehend von umfassender Information bis hin zu verschiedenen Modellen bei eingeschränkter Information. Es geht darum, aus den Modellen bei umfassender Information "rationale" Anhaltspunkte für Entscheidungen bei schlechterer Information zu gewinnen, so auch für das Management nicht-finanzieller Risiken. Dies erscheint wichtig, um persönlichen Idiosynkrasien oder Missverständnissen von Entscheidungsträgern bei nicht-finanziellen Risiken vorzubeugen. In diesem Abschnitt sollen die vorangehenden Überlegungen anhand eines statischen Modells (Zwei-Zeitpunkt-Modell) veranschaulicht und dabei auch auf Organisationsfragen eingegangen werden. Als Beispiel dient ein Exporteur, der sich Wechselkurs-und Absatzrisiken gegenübersieht. Zunächst wird unterstellt, der Exporteur verfüge über umfassende Information. Sodann wird diese Prämisse aufgeweicht und gefragt, welche Modelle bei schlechterer Information infrage kommen. Schließlich wird die Frage aufgeworfen, welche minimalen Informationsanforderungen erfüllt sein müssen, damit eine Entscheidung besser fundiert ist als bei Kaffeesatzlesen. Ein risikoscheuer Exporteur, der lediglich ein Gut im Heimatland herstellt und in ein anderes Land exportiert, sieht sich im einfachsten Fall lediglich einem Risiko gegenüber, dem Wechselkursrisiko. Zunächst wird vom Absatz(mengen)risiko abstrahiert. Der Exporteur kennt die Wahrscheinlichkeitsverteilung des Wechselkurses. Damit ist das Wechselkursrisiko ein finanzielles Risiko. Im Ausgangsfall wählt er lediglich die Exportmenge x, um seinen erwarteten Nutzen zu maximieren. Produktions-und Exportmenge stimmen überein. Hierzu existiert eine umfangreiche Literatur (z. B. Benninga, Eldor und Zilcha 1985 , Adam-Müller 1995 . Sei w der Wechselkurs im Zeitpunkt 1, definiert als Einheiten in Heimatwährung pro Einheit Fremdwährung, Kf die fixen Kosten in Heimatwährung, k(x) die variablen Stückkosten in Heimatwährung mit k 0 (x) > 0, p(x) der Exportpreis in Fremdwährung mit p 0 (x) < 0 und C der im Zeitpunkt 1 anfallende Cashflow in Heimatwährung. u(C) sei die konkave Nutzenfunktion des Cashflow C(x). Dann lautet das Entscheidungsproblem im Zeitpunkt 0, wenn Hedging ausgeschlossen ist: Hadar und Seo (1990) haben gezeigt, dass das optimale riskante Engagement bei einer Verbesserung gemäß stochastischer Dominanz 1. Grades generell nur dann wächst, wenn die relative Risikoaversion des Entscheidungsträgers kleiner als 1 ist, wenn er also wenig risikoscheu ist. Noch schärfere Voraussetzungen gelten bei einer Verbesserung gemäß stochastischer Dominanz 2. Grades, da die Menge der möglichen Verteilungsverbesserungen größer ist (siehe auch Gollier 2001, S. 60, Prop. 9) . Diese Ergebnisse sollten eine Mahnung für die Manager finanzieller und nichtfinanzieller Risiken sein, sich nicht blindlings durch Intuition leiten zu lassen. Bei Risiken mit wenig Information kann neue Information diverse Verteilungsänderungen und damit fragwürdige Entscheidungsänderungen suggerieren. Jetzt wird das Entscheidungsmodell um Hedging ergänzt. Besteht ein Terminkontrakt auf den Wechselkurs, so optimiert der Exporteur im Zeitpunkt 0 seine Exportmenge x und die im Terminmarkt verkaufte Menge an Fremdwährung y. 13 Ist f der Terminkurs im Zeitpunkt 0, dann ergibt sich als Cashflow C(x,y) im Zeitpunkt 1 K Die letzte Zeile der Gleichung zeigt: Das Entscheidungsproblem lässt sich auch anders begreifen. Der Exporteur verkauft seinen Exporterlös zum festen Terminkurs im Terminmarkt, so dass sein Exporterlös in Heimatwährung deterministisch ist. Zusätzlich kann er im Wechselkurs mit dem Verkauf von yN Einheiten spekulieren. Der Exporteur wählt jetzt seine optimale Exportmenge x* so, dass seine Grenzkosten mit dem Grenzerlös, umgerechnet zum Terminkurs in Heimatwährung, übereinstimmen, k(x*) + k 0 (x*) x* = [p(x*) + p 0 (x*) x*] f. Dieser Sachverhalt wird als Fisher Separation bezeichnet. Aufschlussreich ist die Änderung in den Informationsanforderungen, die durch den Terminkontrakt entsteht. Für die Exportentscheidung muss der Exporteur lediglich den Terminkurs kennen, nicht aber die Wahrscheinlichkeitsverteilung des Wechselkurses. Die operative Entscheidung wird dadurch sehr vereinfacht (Broll und Wahl 1993) . Da die Fisher Separation aus Arbitrage-Überlegungen folgt, bleibt sie gültig, wenn die Information über die Verteilung des Wechselkurses dürftig ist. Für den Exporteur bleibt die Frage, wie viel Wechselkursrisiko er mit yN nehmen will. Er kann dieses leicht vermeiden, indem er einen full hedge yN = 0 wählt: Er verkauft insgesamt genau den stochastischen Exporterlös im Terminmarkt. Dies ist optimal, wenn der Terminkurs mit dem erwarteten Kassakurs übereinstimmt, d. h. die Wechselkurs-Risikoprämie gleich 0 ist. Wiederum ist eine Information über die Wahrscheinlichkeitsverteilung des Wechselkurses überflüssig, allerdings benötigt der Exporteur eine glaubwürdige Information über die Höhe der Risikoprämie. Ist die Risikoprämie ungleich 0, so ist eine spekulative Position yN ¤ 0 im Wechselkurs optimal. Hedging-und Spekulationsentscheidung sind zwei Seiten derselben Medaille. Während die Exportentscheidung den erwarteten Nutzen des Exporteurs (und den Marktwert des Unternehmens) erheblich beeinflusst, ändert die spekulative Position im Wechselkurs zwar auch den erwarteten Nutzen, kaum aber den Marktwert des Unternehmens, da ihr Marktwert abgesehen von Transaktionskosten gleich 0 ist. Das Spekulationsergebnis beläuft sich auf die spekulative Position yN, multipliziert mit der Differenz von Terminkurs im Zeitpunkt 0 und Kassakurs im Zeitpunkt 1. Das Risiko daraus ist im Allgemeinen erheblich kleiner als das aus dem ungehedgten Exporterlös p w x*. Dieser Sachverhalt eröffnet dem Exporteur unterschiedliche Verhaltensweisen hinsichtlich Informationsbeschaffung, Risikoübernahme und Gestaltung der Organisation. Bei einem full hedge sind die organisatorischen Erfordernisse bescheiden, weil das Wechselkursrisiko keine Rolle spielt und die optimale Exportmenge leicht zu errechnen ist. Ist es für den Exporteur billig, sich verlässlich über die Wahrscheinlichkeitsverteilung des Wechselkurses zu informieren, dann kann er dies tun und seine spekulative Position im Wechselkurs optimieren. Allerdings muss er organisatorische Vorkehrungen treffen, um die Entscheidung sorgfältig vorzubereiten und später das Risiko zu überwachen. Sind Informationsbeschaffung und Organisation allerdings teuer, dann kann er darauf weitgehend verzichten und seine offene Position im Wechselkurs stark einschränken, ohne seine operative Politik zu ändern. Selbst wenn er sich aus dem Wechselkursrisiko vollständig durch einen full hedge zurückzieht, ist der ihm dadurch entgehende erwartete Nutzen eher gering. Daher lohnt sich für den Exporteur eine spekulative Position im Wechselkurs nur bei geringen Informati-ons-und Organisationskosten. Folglich wird er im Vergleich zur Exportentscheidung ohne Hedging weniger Information beschaffen, wenn es lediglich um die Spekulationsentscheidung geht, Das stützt These 2. Zahlreiche deutsche Exporteure haben sich nach den Währungsturbulenzen in den 80er Jahren aus der Wechselkursspekulation zurückgezogen, weil sie diese nicht als ihr Kerngeschäft betrachten und der Devisenmarkt außerordentlich kompetitiv geworden ist. Dementsprechend werden Personal-und andere Organisationskosten eingespart. Aufgrund der Fisher Separation ist die Produktionsentscheidung in diesem Beispiel einfach, so dass in diesem Beispiel Simultan-und Sukzessivplanung ähnlich sind, damit auch die Informationserfordernisse, abweichend von Folgethese 1. Das Entscheidungsproblem des Exporteurs wird erheblich komplizierter, wenn er sich auch einem Absatzerlösrisiko und ggf. noch weiteren Risiken gegenübersieht (Adam-Müller 1995, Kap. 3). Das Erlösrisiko lässt sich im Allgemeinen nicht finanziell hedgen, da keine Kontrakte darauf gehandelt werden. Dann gilt die Fisher Separation nicht mehr. Im Newsboy Problem (Eeckhoudt et al. 1995) produziert der Exporteur die Menge x, kann aber damit gegebenenfalls die tatsächliche Nachfrage X nicht decken oder er bleibt auf einem Teil der Produktion sitzen. Im ersten Fall entgehen ihm Gewinne aus entgangener Nachfrage (X -x), im zweiten Fall entgehen ihm Erlöse aus nicht verkauften Einheiten (x -X), abgesehen von möglichen Entsorgungskosten 14 . Die Stochastik der Nachfrage und ggf. andere Risiken "stochastifizieren" das Exportergebnis. So kann im Beispiel bei gegebenem Wechselkurs die Höhe des (bedingten) Cashflows C(x,y|w) einem additiven Störfaktor und/oder einem multiplikativen Störfaktor unterworfen werden Der bedingte Erwartungswert des Cashflows würde durch die Störfaktoren nicht verändert, wenn a = b = 0 wäre. Diese Störfaktoren erzeugen sog. "Hintergrundrisiken". Wenn die Nutzenfunktion die plausible Eigenschaft abnehmender und konvexer absoluter Risikoaversion (standard risk aversion) aufweist, erhöhen additive Störfaktoren mit einem Erwartungswert b ≤ 0 die Risikoaversion des Entscheidungsträgers (Eeckhoudt et al. 2005, S. 69, Prop. 4.3) . Multiplikative Störfaktoren können je nach Nutzenfunktion seine Risikoaversion erhöhen oder senken 15 (Franke et al. 2006) . Bei bestimmten Kombinationen von additivem und multiplikativem Hintergrundrisiko kann die Risikoaversion auch gleich bleiben (Franke et al. 2018 ). 14 Für mehrperiodige Entscheidungsprobleme gibt es eine umfangreiche Literatur zur optimalen Produktions-und Lagerhaltung, so Sasieni et al. (1959, Ch. 4) . 15 Geht man von einer HARA-Nutzenfunktion mit abnehmender absoluter Risikoaversion und relativer Risikoaversion von mehr als 1 aus, dann ist die Risikoaversion der indirekten Nutzenfunktion geringer (höher) zu als die der ursprünglichen Nutzenfunktion, wenn die relative Risikoaversion der ursprünglichen Nutzenfunktion im Vermögen steigt (sinkt). Entgegen der Intuition ist es also möglich, dass die Risikoaversion bei multiplikativem Hintergrundrisiko sinkt. In Anhang A wird gezeigt, wie bei umfassender Information das Absatzmengenrisiko als multiplikatives Hintergrundrisiko modelliert werden kann. Auch wenn die Unverkäuflichkeit von Produkten in schlechten Absatzzuständen die optimale Produktionsmenge senkt, so wirft die gemeinsame Optimierung von Produktionsmenge und Wechselkursspekulation mit Terminkontrakten offene Forschungsfragen auf. Die Optimierung wird noch komplizierter, wenn es neben linearen auch nichtlineare Absicherungsinstrumente wie Optionen gibt (Brown und Toft 2002) . Welche Schlussfolgerungen ergeben sich für die Wahl von Liquiditäts-und Kapitalreserve? Das Eigenkapital im Zeitpunkt 1 ergibt sich aus dem im Zeitpunkt 0, korrigiert um Gewinn/Verlust abzüglich Gewinnausschüttungen des Unternehmens und Kapitalzuführungen/entnahmen. Die Liquidität des Unternehmens im Zeitpunkt 1, die z. B. am Geldvermögen des Unternehmens gemessen werden kann, ergibt sich aus der im Zeitpunkt 0, korrigiert um den Cashflow des Unternehmens und monetären Kapitalzuführungen/entnahmen abzüglich Gewinnausschüttungen. Die Höhe der Liquiditätsreserve bemisst sich nach der Wahrscheinlichkeitsverteilung des Geldvermögens im Zeitpunkt 1, die Kapitalreserve nach der des Eigenkapitals im Zeitpunkt 1. Ausgehend von der Wahrscheinlichkeitsverteilung des Geldvermögens/Eigenkapitals im Zeitpunkt 1 kann eine Reserve nach dem Value at Risk, also einem Quantil der Wahrscheinlichkeitsverteilung, festgelegt werden. Kommt es bei Unterschreiten dieses Quantils zur Insolvenz, so treffen die zusätzlichen Kosten weniger den Exporteur, vielmehr Dritte. Daher mag der Aufseher das Reserveerfordernis nach dem Expected Shortfall bemessen, also nach der Höhe der erwarteten Kosten, die über die dem Expected Shortfall zugrundeliegende Schwelle von Geldvermögen/ Eigenkapital hinaus anfallen und Dritte treffen. Hedgt der Exporteur die Exportrisiken nicht, dann schlagen sie voll auf das zukünftige Geldvermögen/Eigenkapital durch. Die Wahrscheinlichkeit des Ergebnisses zeigt dann einen ausgeprägten negativen Tail. Je mehr der Exporteur seine Risiken hedgt und je weniger er im Wechselkurs spekuliert, umso geringer sind Liquiditätsund Kapitalreserve. Und umso weniger bedeutsam und damit weniger lohnend ist die Schätzung des negativen Tails für die Reservebildung. Da es bei der Bemessung von Reserven nur auf den negativen Tail ankommt, sind insoweit die Informationsbeschaffung und organisatorischen Erfordernisse weniger aufwändig als bei Entscheidungen, bei denen es auf die gesamte Wahrscheinlichkeitsverteilung des Ergebnisses ankommt. Entscheidungsregeln können an die Qualität der verfügbaren entscheidungsrelevanten Information gekoppelt werden. Bisher wurde umfassende Information unterstellt. Wie reagiert der Entscheidungsträger auf eine Verschlechterung der Informationsqualität? Die Modelle, die in der Literatur vorgeschlagen werden, bieten möglicherweise eine Orientierung für den Umgang mit nicht-finanziellen Risiken. Vier Modelle zum Vorgehen bei geringer Informationsqualität werden im Folgenden K skizziert. Um diese Modelle zu erläutern, wird von einer üblichen Ergebnismatrix mit endlich vielen Zuständen und Handlungsalternativen ausgegangen, die für jeden Zustand der Natur und für jede Handlungsalternative das zugehörige Ergebnis zeigt. Bei umfassender Information sind die Wahrscheinlichkeiten der Zustände bekannt. Eine Verschlechterung der Informationsqualität kann den Entscheidungsträger veranlassen, bei unveränderter Ergebnismatrix und unveränderten Wahrscheinlichkeiten seine Risikoneigung der Qualität anzupassen (Pauschalmodell). Oder er passt die Nutzenfunktion des Ergebnisses in den einzelnen Zuständen an die Qualität an (Hintergrundrisiko-Modell) oder er passt die Zustandswahrscheinlichkeiten an (Ambiguitätsmodell) oder er unterstellt lediglich qualitative Wahrscheinlichkeiten. Welche Vorgehensweise unter welchen Bedingungen am sinnvollsten ist, bleibt zu klären. Zu qualitativen Wahrscheinlichkeiten existieren jeweils konsistente quantitative Wahrscheinlichkeiten. Wie in Anhang B verdeutlicht wird, bestehen auch bei qualitativen Wahrscheinlichkeiten für jedes Ereignis eine minimale und eine maximale quantitative Wahrscheinlichkeit und damit ein Intervall. Das Intervall ist größer für ein Ereignis a als für ein Ereignis b, wenn Ereignis a qualitativ wahrscheinlicher ist; es wächst auch, wenn die Zahl der anderen, vordefinierten Ereignisse abnimmt. Ausgehend von Axiomen untersucht Bühler (1975 Bühler ( , 1981 dieses Modell. Im Ergebnis kommt er wie Gilboa und Schmeidler (1989) zu einer pessimistischen maxmin-Entscheidungsregel. 17 Siehe auch Izhakian und Brenner (2018) . K Welche der skizzierten Vorgehensweisen unter welchen Bedingungen am sinnvollsten ist, bleibt offen. Dazu bedarf es weiterer Forschung. Unabhängig davon lohnt sich bei schlechterer Information eine umfangreichere Informationsbeschaffung, sofern es dadurch gelingt, die Qualität der Information und damit die der Entscheidung zu verbessern. a) Willkür bei der Vorgabe der Ergebnismatrix? Die bisherigen Ausführungen unterstellen, dass der Entscheidungsträger auch bei schlechter Informationsqualität die Ergebnismatrix kennt und Wahrscheinlichkeitsverteilungen in zumindest grober Form schätzen kann. Eine wichtige Forschungsfrage lautet, welche minimalen Anforderungen an die Informationsqualität zu stellen sind, damit die Entscheidung besser fundiert wird als bei Kaffeesatzlesen. Entscheidungsgrundlage ist eine sorgfältig erstellte Ergebnismatrix. Sie ist selbst das Ergebnis vorgelagerter Entscheidungen des Entscheidungsträgers. Diese sollten die optimale Handlungsalternative nicht präjudizieren, sondern eine unverzerrte Basis für deren Wahl bereitstellen. Zwei Fragen werden hier aufgegriffen. 1) Welche Zustände werden in der Ergebnismatrix berücksichtigt, welche nicht? 2) Wie fein werden Zustände/Ereignisse differenziert? Ad 1): In der Ergebnismatrix werden nur Zustände berücksichtigt, deren Eintritt als möglich erachtet wird. Auch hierbei gibt es jedoch Fühlbarkeitsschwellen. Zustände, die nur extrem selten beobachtet werden, werden häufig ausgeklammert 18 . In diesen Zuständen können hohe oder niedrige Ergebnisse mit entsprechend hohen oder niedrigen Ergebnisnutzen auftreten. Solange es verlässliche Wahrscheinlichkeiten gibt, spielen extrem selten auftretende Zustände für den Erwartungsnutzen einer Handlungsalternative indessen eine geringe Rolle, da ihre Eintrittswahrscheinlichkeit gegen 0 tendiert. Daher ist der Einfluss dieser Zustände auf die Optimierung gering, folglich auch der Einfluss der vorgelagerten Entscheidung, Zustände in die Ergebnismatrix aufzunehmen oder nicht. Anders ist es, wenn keine Wahrscheinlichkeiten bekannt sind. Dann sind alle Zustände in der Ergebnismatrix "gleichrangig". Dies verschafft den extrem selten auftretenden Zuständen erhebliches Gewicht. Dies verdeutlicht die Anwendung klassischer Entscheidungskriterien bei Unsicherheit (Friberg 2015, Ch. 9 ). So ist gemäß der Maxmin-Regel die Alternative zu wählen, deren schlechtestes Ergebnis am höchsten ist. Dies bedeutet, dass Alternativen mit geringer Schwankungsbreite des Ergebnisses in die engere Wahl kommen und solche mit großer Schwankungsbreite (= hochriskante Alternativen) eher verdrängt werden. Dieser Verdrängungseffekt ist umso stärker, je mehr selten auftretende Zustände mit sehr niedrigen Ergebnissen hochriskanter Alternativen berücksichtigt werden. Damit präjudiziert die Vorgabe der Ergebnismatrix, inwieweit wenig riskante Alternativen hoch riskante verdrängen. Dies macht wenig Sinn. Gemäß der Hurwicz-Regel wird für jede Alternative ein gewogenes Mittel von schlechtestem und bestem Ergebnis ermittelt und die Alternative mit dem höchsten Mittel gewählt. Auch wenn diese Regel den Verdrängungseffekt einschränkt, bleibt unbefriedigend, dass lediglich extreme Ergebnisse, die eventuell extrem selten auftreten, die Entscheidung determinieren. Wiederum erweist sich als maßgeblich, welche Zustände in die Matrix einbezogen werden. Soweit diese Wahl wenig begründet ist, trifft dies auch für die optimale Alternative zu. Ad 2): Die Vorgabe einer Ergebnismatrix setzt weitere mehr oder weniger willkürliche Vorab-Entscheidungen voraus, so über die Zahl der zu berücksichtigenden Risikofaktoren, über die Vorgabe eines Zahlenintervalls, in dem die Realisation eines Risikofaktors liegen kann, und über die Feinheit der Aufteilung dieses Intervalls. 19 Oft werden die Ergebnisse von einer großen Zahl von Risikofaktoren getrieben. Selbst wenn deren Definitionsbereich eingegrenzt werden kann, explodiert die Zahl der Zustände schnell. Gibt es n Risikofaktoren und jeweils k verschiedene Realisationen, die beliebig kombiniert werden können, dann gibt es k n Zustände. Die Problematik der Zustandsauswahl wird deutlich, wenn der Entscheidungsträger ein (gewogenes) Mittel der Ergebnisse über alle Zustände errechnet und danach entscheidet. Auch hierbei erweist sich die Zustandsauswahl als entscheidend. Denn sie determiniert das Mittel der Ergebnisse und damit die Rangordnung der Handlungsalternativen. Sollen die Vorab-Entscheidungen über die Ergebnismatrix nicht willkürlich sein, so erscheinen (grobe) Wahrscheinlichkeitsurteile unverzichtbar, die ihrerseits möglichst evidenzfundiert sein sollten. Auch sollten diese Entscheidungen anhand einer Kosten-Nutzen-Analyse getroffen werden. Hat z. B. ein nicht-finanzielles Risiko oder ein Risikofaktor vermutlich nur einen geringen Einfluss auf die Ergebnisse der Handlungsalternativen, dann mag es in Anbetracht der Informations-und Transaktionskosten des Entscheidungs-und Umsetzungsprozesses sinnvoll sein, dieses Risiko bzw. diesen Risikofaktor zu vernachlässigen. b) Willkür bei der Szenarien-Analyse? Die Problematik einer Festlegung der Ergebnismatrix trifft auch die weit verbreitete Szenario-Technik 20 . Um bei Fehlen von Wahrscheinlichkeiten einen Einblick in Ertrag und Risiko von Handlungsalternativen zu gewinnen, werden Ereignisse zu "repräsentativen Szenarien" aggregiert, die das Spektrum der möglichen Zustände abbilden sollen, z. B. Szenarien mit sehr schlechten, mit mittleren und mit sehr guten Ergebnissen. Die Zahl der aus einer Teilmenge von Zuständen ausgewählten Szenarien sollte mit dem "Repräsentationsgewicht" dieser Teilmenge wachsen. So kann versucht werden, Ergebnisse operativer Handlungsalternativen grob zu kennzeichnen und auf dieser "Evidenzgrundlage" zu entscheiden. Das Fehlen von Wahrscheinlichkeiten wird durch Plausibilitätskonstrukte "geheilt", die indessen vage bleiben. Gibt es bessere Vorgehensweisen? Die Problematik kann am Maximum Probable Loss veranschaulicht werden, der in der Versicherungswirtschaft eine wichtige Rolle spielt. Wenn ein Versicherer einen Kunden gegen Cyber-Risiken versichern möchte, kann er für seine eigene Kalkulation versuchen, den Maximum Probable Loss des Kunden abzuschätzen, der konzeptionell dem Value at Risk verwandt ist. Bisher gibt es zu möglichen Cyber-Schäden und deren Häufigkeiten nur wenig verlässliche Information. Dieser Informationsmangel wird auch beim "Maximum Probable Loss" sichtbar. Der Begriff ist in sich widersprüchlich, da zwar ein "worst-case scenario" des Schadens gemeint ist, jedoch eine Art "realistic worst case", also ein "worst case" mit nicht vernachlässigbarer Eintrittswahrscheinlichkeit. Somit wird nicht das schlechtestmögliche Ergebnis der Ergebnismatrix verwendet, sondern ein Pseudoquantil, dessen Ermittlung allerdings in Anbetracht der schlechten Informationsqualität auf fragwürdigen Grundlagen beruht. Daher ist der Maximum Probable Loss von subjektiven Einschätzungen geprägt und bleibt eine vage Größe, die von unterschiedlichen Versicherern unterschiedlich eingeschätzt wird. Ein zweites Beispiel liefert der Expected Shortfall. Zur Abschätzung nutzen Regulatoren/Aufseher mehrere bad case-Szenarien, anhand derer sie über eine vorgegebene Schwelle hinausgehende Verluste berechnen und zu einem Expected Shortfall aggregieren. Das Ergebnis hängt naturgemäß stark von den zugrunde gelegten bad case-Szenarien und deren Gewichtung ab. Dieser Sachverhalt eröffnet ein Feld für Manipulationen und erfordert daher organisatorische Vorkehrungen. Wer soll z. B. in die Festlegung von Szenarien für ein Entscheidungsproblem eingebunden sein? Einerseits können dazu Personen gehören, die dank ihrer Tätigkeit mit dem Entscheidungsproblem besonders gut vertraut sind, ebenso übergeordnete Entscheidungsträger, andererseits aber auch Personen, die kein "skin in the game" haben und daher einen neutralen Blick auf mögliche Szenarien werfen können. Das ähnelt einem 3 lines of defense-Modell. Die Anwendung der Szenarien-Technik ist weniger problematisch, wenn es um spezifisches Hedging geht und es preiswerte Hedging-Instrumente gibt, um Ergebnisschwankungen weitgehend auszugleichen. Das gilt insbesondere, wenn es sich um finanzielle Hedging-Instrumente mit einem Marktwert nahe 0 handelt. 21 Dann spielt die Auswahl von Szenarien für die Hedgingentscheidung eine untergeordnete Rolle. Diese Überlegungen knüpfen an These 2 an. Je geringer die Hedgequalität ist, umso größer ist das Basisrisiko, gemessen an den möglichen Abweichungen zwischen dem zu hedgenden operativen Ergebnis und dem Hedge-Ergebnis. Dann gewinnt die Auswahl der Szenarien eine größere Bedeutung. Diese Überlegungen motivieren Folgethese 2 zu These 2. Diese These gilt ebenfalls ceteris paribus, also bei ansonsten gegebener Informationsbeschaffungsstrategie, kurz: Informationsstrategie. Sie bezeichnet die Vorgehensweise des Entscheidungsträgers, um seinen Informationsstand nicht nur im Zeitablauf zu aktualisieren, sondern ggf. auch darüber hinaus zu verbessern. Im nächsten Abschnitt wird sie eingehend erörtert. Sie variiert mit der Qualität der verfügbaren Information. So mag es bei jungen Start-ups wenig Sinn machen, Cashflows zu prognostizieren. Existiert das Unternehmen bereits einige Jahre, dann erlaubt die gewonnene Erfahrung, Cashflows verlässlicher zu prognostizieren, so dass diese Prognose Teil der Informationsstrategie wird. Die vorangehenden Erwägungen legen nahe, dass es ohne grobe subjektive Wahrscheinlichkeiten nicht möglich ist, Entscheidungen sinnvoll zu treffen. Das wird noch deutlicher bei Handlungsalternativen, deren Ergebnisverteilung zur mathematischen Bequemlichkeit auf dem Intervall (-1,+1) definiert wird. Dann sind extreme Ergebnisse nicht mehr definiert. Wenn es nicht gelingt, durch grobe subjektive Wahrscheinlichkeitsvorstellungen die potentiellen Ergebnisse näher zu charakterisieren, ist eine gezielte Informationsbeschaffung unerlässlich. Die Beschaffung und Verarbeitung setzen indessen erheblich komplexere Entscheidungs-und Organisationsprozesse voraus. Sie werden im folgenden Abschnitt näher diskutiert, insbesondere die damit verbundenen offenen Fragen. Der optimale Entscheidungszeitpunkt verschiebt sich tendenziell umso mehr in die Zukunft, je geringer die Wartekosten pro Zeiteinheit sind und/oder je höher der Wartevorteil pro Zeiteinheit ist. Der Wartevorteil ist tendenziell bei weniger verfügbarer Information größer, weil dann mehr Information pro Zeiteinheit zufließt und somit eine bessere Fundierung von Entscheidungen verstärkt. Dies motiviert die folgende These 7: Je weniger Information aktuell verfügbar ist, desto wertvoller ist die Warteoption. Modelle flexibler Planung eignen sich, durch Informationsmangel erschwerte Entscheidungsprobleme abzubilden (Friberg 2015, Ch. 8) . Im klassischen Modell der flexiblen, zeitdiskreten Planung gibt es die Zeitpunkte 0, 1, 2, ..., T (Hespos und Strassmann 1964; Laux 1971) . Entscheidungen können in allen Zeitpunkten außer dem letzten getroffen werden. Die Zustandsknoten in diesen Zeitpunkten sind gleichzeitig Entscheidungsknoten. Lediglich die Knoten im Zeitpunkt T (Planungshorizont) sind Knoten, die nur der abschließenden Feststellung von Ergebnissen dienen. Jeder Entscheidungsknoten ist vollständig gekennzeichnet durch die dann vorhandene Information, die auch beobachtbare Ergebnisse früherer Entscheidungen beinhalten kann, die momentan gegebenen Handlungsmöglichkeiten und die bedingten Übergangswahrscheinlichkeiten zu den Folgeknoten. Die optimalen Entscheidungszeitpunkte werden automatisch ausgewählt, sofern die Möglichkeiten, Entscheidungen zu verschiedenen Zeitpunkten zu treffen, im Modell korrekt abge-K bildet werden. Die in einem Knoten verfügbare Information wird häufig exogen modelliert, d. h., sie wird von exogenen Risikofaktoren getrieben. Diese bestimmen auch die in einem Knoten beobachtbaren Ergebnisse früherer Handlungen. Der Lernprozess des Entscheidungsträgers ist somit exogen vorgegeben. Der Entscheidungsträger kann jedoch außerdem Informationsbeschaffung über separate Maßnahmen planen und damit seine Informationsstrategie ausbauen und verfeinern. Dies liegt insbesondere bei nicht-finanziellen Risiken infolge der dürftigen Information nahe. Dann wird der exogene Informationsprozess durch einen endogenen ergänzt: Informationsbeschaffungsmaßnahmen werden in das flexible Modell eingefügt. Diese Maßnahmen können z. B. dazu dienen, Information über weitere Risikofaktoren zu sammeln. Deren Bedeutung für das Unternehmen mag auch von zuvor getroffenen Entscheidungen abhängen und daher einem endogenen Prozess unterliegen, so dass auch die Intensität optimaler Informationsbeschaffung diesem Prozess unterliegt. Ebenfalls kann der Entscheidungsträger Informationen beschaffen, um die Qualität der Übergangswahrscheinlichkeiten zu verbessern. Besonders wichtig sind indessen Forschung und Entwicklung, um mit ihren Erkenntnissen neue Geschäftsmodelle zu erschließen. Es liegt nahe, operative Maßnahmen so zu wählen, dass damit hoffentlich ein operativer Erfolg erzielt wird und gleichzeitig wertvolle Information zufließt. Dies ist typisch für Pilotprojekte. Z. B. wird in einem Testgebiet ein neues Produkt angeboten und damit gleichzeitig Information über die voraussichtliche Akzeptanz des Produktes in anderen Gebieten gewonnen. Ein klassisches Beispiel liefert die internationale sequentielle Expansionsstrategie von Unternehmen. Meist startet ein nationales Unternehmen in nur einem ausländischen Markt mit dem Verkauf seiner Produkte, um deren Attraktivität für Kunden und mögliche Reaktionen von Wettbewerbern zu testen. Hierbei wird nur ein kleinerer Betrag investiert, um das Risiko zu begrenzen. Erweist sich der Vorstoß als erfolgreich, werden die Aktivitäten im diesem Testmarkt ausgebaut und auf weitere Auslandsmärkte ausgedehnt, usw. Das positive Feedback senkt auch das Risiko weiterer Investitionen und erlaubt daher, das Investitionsvolumen zu erhöhen. Gibt es dann bei weiteren Expansionsschritten einen Rückschlag, so werden die internationalen Aktivitäten angepasst und ggf. wieder heruntergefahren. Mit aktiver Informationsbeschaffung wächst die Menge der Knoten im flexiblen Planungsmodell deutlich. Dagegen kann eingewendet werden, dass von vornherein im Ausgangsmodell alle solchen denkbaren Knoten enthalten sein sollten. Damit würde dieses allerdings enorm aufgebläht, seine Handhabung viel schwieriger und kostspieliger. Wie komplex soll das flexible Planungsmodell sein? Auf Grenzen der Komplexität hat bereits Herbert Simon (1957) Der erste Teil der These beruht darauf, dass bei schlechterer Informationsqualität mehr Information pro Zeiteinheit zufließt, die erfolgreicher genutzt werden kann, weil über mehr Perioden eine raschere Reaktion ermöglicht wird. Zum zweiten Teil: Bei schlechterer Qualität wird es schwieriger, fundiert längerfristig zu planen, so dass solche Planungen öfter umgestoßen werden. Daher lohnt sich eine längerfristige Planung wegen ihrer zusätzlichen Kosten weniger, eine häufigere Neuauflage der Planung erscheint vorteilhaft. Vor etwa 30 Jahren sagte Ulrich Weiß, Mitglied des Vorstands der Deutschen Bank, in einem Vortrag zur Strategie der Bank im entstehenden europäischen Binnenmarkt: Über eine Strategie grundsätzlich zu entscheiden beanspruche etwa 5 % Arbeitszeit, 95 % würden danach darauf verwendet, die Ergebnisse einer zunächst gewählten Vorgehensweise laufend zu ermitteln und dann die Vorgehensweise entsprechend anzupassen. Der Hinweis, dass die grundsätzliche Entscheidung über eine Strategie lediglich 5 % Arbeitszeit in Anspruch nimmt, deutet darauf hin, dass das zu Beginn verwendete Entscheidungsmodell recht einfach ist. Dafür wird viel Arbeitszeit in die Gestaltung und Abwicklung eines Trial and Error-Prozesses investiert. Dies legt die Vermutung nahe, dass es bei schlechter Informationslage wenig Sinn macht, in die anfängliche Entscheidung viel Zeit zu investieren, sondern dass es besser ist, den Informationsprozess und den Prozess anschließender Adaptierung operativer Entscheidungen bei Sicherung der Anpassungsfähigkeit sorgfältig zu gestalten. Diese Überlegungen erscheinen plausibel, wenn es um den Aufbau neuer Geschäftsfelder, ausgehend von wenig Information, geht. Sind ähnliche Konzepte auch geeignet, um nicht-finanzielle Risiken zu managen? Die vorangehenden Überlegungen sollen an Beispielen aus dem Bereich nicht-finanzieller Risiken eines Kreditinstituts veranschaulicht werden, dem Compliance Risiko, dem Cyber-Risiko, dem Geldwäscherisiko und dem Nachhaltigkeitsrisiko. Compliance-Risiken im engeren Sinn sind Risiken aus dem Verhalten von Mitarbeitern, das gegen rechtliche Regeln verstößt. Hierbei wird der Maßstab für Compliance-Risiken dem Unternehmen von außen vorgegeben. Im weiteren Sinn umfassen Compliance-Risiken auch Risiken aus Verhalten von Mitarbeitern, das gegen unternehmensinterne Verhaltensvorschriften und -kodizes verstößt. Inwieweit das Unternehmen in Reputationsmanagement investieren soll, ist nur schwer zu beantworten. Zwar mögen die Kosten zusätzlichen Reputationsmanagements abschätzbar sein, aber die erzielbaren Reputationserträge sind kaum messbar; das gilt auch für vermiedene Reputationskosten, mit Ausnahme von messbaren Marktwertverlusten. Denn die Höhe der Reputationskosten kann durch das Management des Unternehmens nach Eintritt des Schadensfalls beeinflusst werden, z. B. indem es mit geschädigten Kunden einen Ausgleich sucht. Die Schätzung von Reputationskosten in Form eines Barwerts zukünftiger Ergebnisminderungen ist schwierig, weil die Vergessensrate der Stakeholder schwer vorherzusagen ist. Sie hängt nicht nur vom Management des Unternehmens ab, sondern auch davon, inwieweit Konkurrenzunternehmen von ähnlichen Schadensereignissen betroffen sind und ob andere Ereignisse, z. B. in der Politik, die Aufmerksamkeit der Stakeholder absorbieren. Es ist daher auch problematisch, Reputationskosten an unmittelbar eintretenden Marktwertverlusten des Unternehmens, wie sie im Aktienkurs zum Ausdruck kommen, zu messen. Diese überschätzen vermutlich die mittel-und langfristigen Effekte. Dies mag auch die hohen Reputationskosten erklären, die Kamiya et al. (2020) finden. Macey (2013) verdeutlicht an zahlreichen Beispielen The Death of Corporate Reputation, also das Schwinden von Reputationseffekten. Gleichzeitig weist er auf die zunehmende Regulierungsdichte hin. Es scheint, als ob die Zunahme der Regulierung mit einer Abnahme von Reputationskosten einhergeht. Diese Überlegungen verdeutlichen, dass das Compliance Management zahlreiche offene Fragen aufwirft, die weiterer Forschung bedürfen. In den letzten Jahren ist Geldwäsche immer stärker in den Fokus von Politikern und Regulatoren geraten. Geldwäsche kann dazu dienen, aus kriminellen Aktivitäten wie z. B. Steuerhinterziehung, Drogenhandel, Erpressung, Korruption, Prostitution und Menschenhandel erworbenes Geld reinzuwaschen. Nicht selten wird versucht, schmutziges Geld bei einem Kreditinstitut einzuzahlen und dieses zu beauftragen, das Geld dann über eine Kette von Zahlungstransaktionen an einen endgültigen Zahlungsempfänger zu transferieren. Jede Bank ist daher bei einer größeren Einzahlung auf ein bei ihr geführtes Konto verpflichtet, die Quelle des Geldes und den Leumund des Einzahlers, der nicht selten ein Strohmann ist, nachzuprüfen. Nur nach gründlicher Prüfung darf die Bank die Einzahlung annehmen. Ebenso sind die Banken gehalten, die Empfänger von Zahlungen zu prüfen und ob das Geld für kriminelle Aktivitäten genutzt werden soll. Kompliziert wird die Prüfung dadurch, dass die Banken nicht nur den direkten Empfänger einer Zahlung überprüfen sollen, sondern auch den endgültigen Empfänger, der evt. über eine Kette von Mittelsmännern und zwischengeschalteten Banken das Geld empfängt. Für die Unbedenklichkeit genügt nicht, dass die Zahlung an eine bekannte Korrespondenzbank weitergeleitet wird. Auch dürfen die Banken nicht mit Unternehmen und Personen Geschäfte machen, die von der Europäischen Union oder den USA mit entsprechenden Sanktionen belegt sind. Noch komplexer wird das Problem durch den engen Zusammenhang zwischen Korruption und Geldwäsche, den das US-Justizministerium postuliert (Hardy 2020) . Selbst wenn ein Unternehmen nicht wegen Korruption bestraft werden kann, so kann es ggf. trotzdem für geleistete Zahlungen wegen Geldwäsche verurteilt werden. Für eine Bank ist es aufwändig, die Unbedenklichkeit ihrer Geschäftspartner zu prüfen (know your customer). Eine Erleichterung schaffen gesetzlich vorgeschriebene Transparenzregister, in denen zahlreiche Angaben über Unternehmen und ihre Mit den Kontrollfragen eng zusammen hängt die Gestaltung von Risikoberichten. In Banken soll sich der Vorstand täglich ein Bild über das Risiko der Bank machen. Vielfach wünscht der Vorstand, das Risiko einer Bank in wenigen Zahlen zusammenzufassen, um rasch erkennen zu können, ob vorgegebene Risikolimite eingehalten werden. Diese Vorgehensweise mag bei finanziellen Risiken gerechtfertigt sein, jedoch kaum bei nicht-finanziellen Risiken. Hunt (2020) , der selbst Regulator, Aufseher und Risikomanager war, spricht von der dashboard illusion. Für einzelne nicht-finanzielle Risiken wird eine Messbarkeit in Zahlen unterstellt, die es so nicht gibt. Selbst wenn Messbarkeit gegeben wäre, bräuchte es Leser, die die Zahlen verstehen. Wie sollte ein Reporting aussehen? Diese Problematik stellt sich auch für nicht-finanzielle Unternehmen. In Anbetracht der geringen Informationsqualität liegt es nahe, die Informationsbeschaffung erheblich zu intensivieren. Die zunehmende Fülle an elektronisch verfügbarer Information suggeriert, mit Big Data-Methoden all diese Informationskanäle zu nutzen. Hierbei sind indessen zwei Trugschlüsse zu vermeiden. Erstens schleichen sich in die Big Data zunehmend Fake News ein, die immer besser getarnt werden. Dies wirft die schwierige Aufgabe auf, verlässliche von nicht verlässlichen Informationen zu trennen. Zweitens zeigt die statistische Analyse von Big Data oft signifikante Zusammenhänge, deren Prognosegehalt gering ist. Für Out of Sample-Tests fehlen häufig die erforderlichen längeren Beobachtungszeiträume. Inwieweit künstliche Intelligenz bei beiden Probleme Abhilfe schaffen kann, bleibt weiterer Forschung vorbehalten. Die Vielfalt der Fragen, die das Management von nicht-finanziellen Risiken aufwirft, stellt die Unternehmen vor große Herausforderungen. Daher erwarten sie von den Hochschulen Unterstützung. Forschern bieten sich damit neue Forschungsfelder, deren Ergebnisse entgegen manchen Einschätzungen auch Eingang in erstklassige Zeitschriften finden. Wie könnte ein Forschungsansatz aussehen? In Anbetracht der geringen Information zu nicht-finanziellen Unternehmensrisiken erzeugt diesbezügliche Forschung ein nicht-finanzielles Risiko der Hochschule. Dies legt auch ein anderes als das übliche Forschungsdesign nahe. Da es um die Verknüpfung von finanzwirtschaftlicher Planung und Organisationskonzepten geht, bietet sich eine Kooperation zwischen Forschern beider Bereiche an, um Synergie-Effekte zu erzielen. In einem ersten Schritt wird dieses Forschungsteam sein Informationsdefizit zu nicht-finanziellen Risiken durch intensive Gespräche mit einschlägigen Praxisvertretern abbauen. Diese können den Hochschulvertretern am besten erklären, welcher Art die relevanten nicht-finanziellen Risiken sind und welche Fragen ihr Management aufwirft. Diese Information ist für eine Forschung, die sich nicht im Elfenbeinturm bewegt, unerlässlich. Sodann beginnt die eigentliche Forschungsarbeit. Da es "Forschungsirrläufer" geben kann, ist die Einrichtung von Verteidigungslinien erforderlich. Eine erste Vertei-K digungslinie könnte im Forschungsteam selbst geschaffen werden, indem regelmäßig und systematisch Stärken und Schwächen des eigenen Ansatzes auf den Prüfstand kommen. Eine zweite Verteidigungslinie könnte die Präsentation der Ergebnisse vor Forschern sein, die Planungs-/Entscheidungsforschung bzw. Organisationsforschung "klassisch" betreiben. Eine dritte Verteidigungslinie wäre das kritische Feedback von Praxisvertretern. Eine vierte Verteidigungslinie bieten schließlich Begutachtungsprozesse, bereitgestellt von einschlägigen Konferenzen und Zeitschriften. Wichtig erscheint es, die Flexibilität der Forschungsstrategie zu sichern, damit "Forschungsirrläufer" frühzeitig zu erträglichen "Kosten" korrigiert werden können. Es ist zu hoffen, dass sich genügend Forscher an Hochschulen dieser Herausforderung stellen. Danksagung Die Anregungen zu diesem Papier verdanke ich Marliese Uhrig-Homburg. Ihr, einem anonymen Gutachter, Martin Ruckes und Alfred Wagenhofer danke ich sehr für hilfreiche Kommentare. Ganz besonders habe ich von ausführlichen konstruktiven und kritischen Diskussionen mit Wolfgang Bühler profitiert. Ich stehe sehr in seiner Schuld. Mängel gehen ausschließlich zu meinen Lasten. Funding Open Access funding provided by Projekt DEAL. Open Access Dieser Artikel wird unter der Creative Commons Namensnennung 4.0 International Lizenz veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Die in diesem Artikel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen. Weitere Details zur Lizenz entnehmen Sie bitte der Lizenzinformation auf http://creativecommons.org/ licenses/by/4.0/deed.de. Interessenkonflikt G. Franke gibt an, dass kein Interessenkonflikt besteht. Da die Absatzmenge stochastisch ist, wird vereinfachend ein konstanter Absatzpreis p unterstellt. Existieren Terminkontrakte auf den Wechselkurs, so kann der Exporteur z. B. den erwarteten Exporterlös in Fremdwährung durch ein Termingeschäft absichern. Dann bleibt allerdings ein Wechselkursrisiko aus der Differenz von tatsächlichem und abgesichertem Fremdwährungserlös. Was bedeutet dies für die optimale Produktionsmenge des Exportgutes? Der Cashflow im Zeitpunkt 1 ist bei kostenloser Entsorgung nicht verkaufter Einheiten gleich C .x; y/ D K f C pwX k.x/x .w f/y D K f C .pf k.x//x C .px y/.w f/ pw.x X/ C ; wobei . x X/ C D 0; falls x < X; und .x X/ C D x X; falls x X: Der Cashflow C(x,y) ist gleich dem Cashflow (1) bei bekannter Absatzmenge minus dem aus Nichtverkauf produzierter Einheiten entgangenen Erlös p w (x-X) + . Dieser ist ein Produkt von zwei stochastischen Variablen. Bei umfassender Information ist die gemeinsame Wahrscheinlichkeitsverteilung von X und w bekannt. Vereinfachend seien Wechselkurs und Absatzmenge unabhängig voneinander verteilt. Dann bietet es sich an, das Absatzrisiko als multiplikatives Hintergrundrisiko mit negativem Erwartungswert zu modellieren (siehe auch Adam-Müller 1995, Kap. 3.1). Jede Kombination aus Absatzmenge und Wechselkurs definiert einen Zustand der Natur z(X,w) mit dem zugehörigen bedingten Cashflow C(x,y|X,w) und dem Nutzen U[C(x,y|X,w)]. Bildet man bei gegebenem Wechselkurs den Erwartungswert über die Absatzmenge X, so definiert dieser die indirekte Nutzenfunktion U*[C(x,y|w)]. Die Produktionsmenge x und das Hedgevolumen y werden sodann optimiert, indem der über den Wechselkurs gebildete Erwartungswert der indirekten Nutzenfunktion maximiert wird. Wie beeinflusst das Hintergrundrisiko die Entscheidungen? Im Vergleich zur Situation ohne Absatzrisiko senkt die "Strafe"p w (x-X) + bei gegebenem Hedgevolumen die optimale Produktionsmenge, weil sich so die Strafe senken lässt. Unterstellt man wie üblich eine Nutzenfunktion mit abnehmender absoluter Risikoaversion, dann erhöht die Strafe zudem die Risikoaversion in den Strafzuständen. Auch dies vermindert die Produktionsmenge. Je nach indirekter Nutzenfunktion kann das Absatzrisiko diverse Effekte auf das optimale Hedgevolumen erzeugen. Hier kann es zudem zu cross hedging-Effekten aus dem Hedgeergebnis (p x -y) (w -f) und der Strafep w (x-X) + mit Rückwirkungen auf die optimale Produktionsmenge kommen. Bereits im Newsboy Problem, in dem es kein Wechselkursrisiko gibt, hängen Antworten der komparativen Statik von der Nutzenfunktion ab (Eeckhoudt et al. 1995) . Das gilt erst recht bei multiplikativem Hintergrundrisiko. Gegeben seien die Ereignisse i = 1,..,n, wobei Ereignis i mindestens ebenso wahrscheinlich ist wie Ereignis i-1. Bezeichnet Φi die qualitative Wahrscheinlichkeit von Ereignis i, dann gilt Φi ≥ Φi-1, i > 1. Konsistent mit diesen Wahrscheinlichkeiten existieren quantitative Wahrscheinlichkeiten πi mit πi ≥ πi-1, i> 1. Die minimale quantitative Wahrscheinlichkeit eines Ereignisses ist gleich 0 für i = 1,..,n -1, so dass die maximale Wahrscheinlichkeit des Ereignisses n gleich 1 ist. Die maximale quantitative Wahrscheinlichkeit eines Ereignisses i ist gleich 1/(n -i + 1) für i = 1,..,n -1, K nämlich wenn alle Ereignisse j ≥ i gleich wahrscheinlich sind und alle Ereignisse j < i eine Wahrscheinlichkeit von 0 haben. Daraus folgt für das Intervall i, in dem die quantitative Wahrscheinlichkeit des Ereignisses i liegt, i D 1=.n i C 1/ für i D 1; :::; n 1 und n D 1 1=n: Die Wahrscheinlichkeit des Ereignisses n ist minimal bei Gleichverteilung aller Ereignisse. Das Wahrscheinlichkeitsintervall wächst mit i, also mit höherer qualitativer Wahrscheinlichkeit, ausgehend von einem sehr niedrigen Wert bei hohem n; es erreicht die Größe 1/2 für das zweitwahrscheinlichste Ereignis und fast die Größe 1 für das wahrscheinlichste Ereignis. Das Intervall eines Ereignisses, ausgenommen das wahrscheinlichste, wächst, wenn die Zahl der Ereignisse vermindert wird. Sofern nur wenig wahrscheinliche Ereignisse den Value at Risk oder den Expected Shortfall und damit die Reservebildung bestimmen, spielen die Intervalle hierfür nur eine geringe Rolle. Ertrag und Risiko operativer Handlungsalternativen hängen allerdings von allen Ereignissen ab, so dass die Intervalle eine große Rolle spielen können. Internationale Unternehmensaktivität, Wechselkursrisiko und Hedging mit Finanzinstrumenten Nachhaltigkeit, Merkblatt zum Umgang mit Nachhaltigkeitsrisiken External and internal pricing in multidivisional firms The corporate compliance functioneffects on equity and credit risk. Working paper Optimal international hedging in commodity and currency forward markets Internationale Unternehmenspolitik How firms should hedge Characterization of the extreme points of a class of special polyhedra. A comment to Kofler's paper "Entscheidungen bei teilweise bekannter Verteilung der Zustände Flexible Investitions-und Finanzplanung bei unvollkommen bekannten Übergangswahrscheinlichkeiten Competitive strategy: options and games Cyber security report Investment under Uncertainty Guidelines on stress testing Eba Action Plan on Sustainable Finance Reputation and its risks The risk averse (and prudent) newsboy Economic and financial decisions under risk ESMA sets out its strategy on sustainable finance Systematic scenario selection: stress testing and the nature of uncertainty So drastisch hoch sind die Strafen für Banken seit der Finanzkrise Multiplicative background risk Risk-taking-neutral background risks Managing risk and uncertainty-a strategic approach Demand-based option pricing Managing reputational risk-From theory to practice. In Reputation capital: building and maintaining trust in the 21st century Maxmin expected utility with non-unique prior Stress scenario selection by empirical likelihood Lessons learned: 10 years of financial services litigation since the financial crisis: financial services disputes The economics of risk and time The shift of return distributions on optimal portfolios Alle Artikel zum Thema Libor-Skandal High-profile FCPA prosecution reflects: government can lose on lead corruption charges but still win on related money laundering charges Die Koordination von Entscheidungen Stochastic decision trees for the analysis of investment decisions A practitioner's view on managing conduct and ethics Dollar: Das zahlten die Banken im Steuerstreit A theoretical foundation of ambiguity measurement Asset prices and ambiguity: empirical evidence Recovering risk aversion from option prices and realized returns Risk management, firm reputation, and the impact of successful cyberattacks on target firms Smart companies match their approach to the nature of the threats they face Risk, uncertainty and profit Flexible Investitionsplanung Unternehmensrechnung, Anreiz und Kontrolle, 3. Aufl Upper Saddle River (N.J.): FT Press. Marschak, J. 1954/5. Elements for a theory of teams Optimum consumption and portfolio rules in a continouous-time model Morningstar sustainability rating methodology Geldwäsche kostete Europas Banken schon 16 Mrd. Dollar Strafe, Handelsblatt, 2 Managing non-financial risk /59. The application of linear programming to team decision problems fines on banks' misconduct to top $400 billion by 2020: report Operations research: methods and problems A survey of corporate governance Bank of America to pay $16.65 billion in historic settlement for financial fraud leading up to and during the financial crisis Boeing 737 MAX "grundlegend fehlerhaft und unsicher Markets and hierarchies