Biases im Planungsprozess Entwicklung eines Fragebogens zur Diagnostik kognitiver, motivationaler und gruppendynamischer Biases im Kontext der Organisationskultur Dissertation zur Erlangung des akademischen Grades eines Doktors der Philosophie (Dr. phil.) am Fachbereich Humanwissenschaften der Universität Kassel vorgelegt von Friedrich Englisch Berlin, 17. Juli 2023 Die vorliegende Arbeit wurde vom Fachbereich Humanwissenschaften der Universität Kas- sel als Dissertation zur Erlangung des akademischen Grades eines Doktors der Philosophie (Dr. phil.) angenommen. Erster Gutachter: Prof. Dr. Oliver Sträter Zweiter Gutachter: Prof. Dr. Markus Denzler Beisitzer: Prof. Dr. Thomas Rigotti Beisitzer: Prof. Dr. Sabine Rehmer Tag der Einreichung: 17. Juli 2023 Tag der Disputation: 18. März 2024 doi:10.17170/kobra-202403269876 Zusammenfassung Englisch, Friedrich: „Biases im Planungsprozess – Entwicklung eines Fragebogens zur Dia- gnostik kognitiver, motivationaler und gruppendynamischer Biases im Kontext der Orga- nisationskultur“. Dissertation zur Erlangung des akademischen Grades eines Doktors der Philosophie (Dr. phil) am Fachbereich Humanwissenschaften der Universität Kassel. Die vorliegende Arbeit befasst sich mit der Frage nach der Relevanz und der Diagnosti- zierbarkeit kognitiver, motivationaler und gruppendynamischer Biases im Kontext organi- sationaler Planungsprozesse. Ziel der Arbeit war es, einen Fragebogen zu entwickeln, der die Anfälligkeit von Gruppen für derartige Biases erfasst und damit einen Indikator für die Qualität von Planungsprozessen darstellt. Bezüglich des Problems der Diagnostizierbarkeit impliziter Biases zeigt sich in der Lite- ratur, dass die Organisationskultur die Anfälligkeit für bestimmte Biases im Planungs- kontext beeinflusst. Dem daraus abgeleiteten Untersuchungsmodell nach sind kulturell geprägte Verhaltensweisen der Organisationsmitglieder ein geeigneter Prädiktor für die Qualität organisationaler Planungsprozesse, der über das Auftreten impliziter Biases me- diiert wird. Auf Basis dieser Annahmen wurde ein Fragebogen entwickelt, mit dem Ziel, das Risiko einer Organisation beziehungsweise Organisationseinheit für entscheidungsver- zerrende Biases zu erfassen. Die Items des Fragebogens beschreiben durch die Organisa- tionskultur geprägte Verhaltensweisen in Planungsprozessen, die dieses Risiko potenziell erhöhen beziehungsweise verringern und von den betreffenden Organisationsmitgliedern selbst bewertet werden können. Empirisch wurde zunächst anhand von zwei Fallstudi- en die Relevanz der ausgewählten Biases und die Gebrauchstauglichkeit des Fragebogens argumentativ hergeleitet. Eine anschließende quantitative Expertenbefragung legte eine zufriedenstellende Inhaltsvalidität dar, indem eine Passung zwischen den Items und zu- grundeliegenden Konstruktdefinitionen festgestellt wurde. Schließlich wurde eine Befra- gung von planungsverantwortlichen Mitarbeitern unterschiedlicher Organisationen durch- geführt. Hier zeigt sich bezüglich der Testgütekriterien eine zufriedenstellende Reliabilität sowie Kriteriumsvalidität, jedoch auch gewisse Einschränkungen, aus denen sich konkrete Ansätze zur Verbesserung ableiten ließen. Die Ergebnisse unterstreichen die besondere Be- deutung des Themas Heuristiken und Biases für organisationale Planungsprozesse und zei- gen den bedeutsamen Einfluss der in diesem Zusammenhang bisher wenig berücksichtigten Organisationskultur. Der explorative Charakter der Arbeit geht mit einigen Limitationen einher, bezüglich derer konkrete Vorschläge zur weiteren Validierung der theoretischen Erkenntnisse und zur Weiterentwicklung des Fragebogens gemacht wurden. Abstract Englisch, Friedrich: „Biases in the Planning Process – Development of a Questionnaire for the Diagnosis of Cognitive, Motivational and Group Biases in the Context of Orga- nizational Culture“. Dissertation for the degree of Doctor of Philosophy (Dr. phil) at the Department of Human Sciences of the University of Kassel. This thesis addresses the question of the relevance and diagnosability of cognitive, motiva- tional and group biases in the context of organizational planning processes. The aim was to develop a questionnaire that measures the susceptibility of groups to such biases and thus provides an indicator of the quality of planning processes. Regarding the problem of diagnosability of implicit biases, the literature shows that or- ganizational culture influences the susceptibility to certain biases in the planning context. According to the research model derived from this, culturally shaped behaviors of organiza- tional members are a suitable predictor of the quality of organizational planning processes mediated by the occurrence of implicit biases. Based on these assumptions, a questionnaire was developed with the goal of assessing an organization’s or organizational unit’s risk for decision biases. The items of the questionnaire describe behaviors in planning processes that are shaped by the organizational culture, which potentially increase or decrease this risk and can be assessed by the relevant organizational members themselves. Empirically, the relevance of the selected biases and the usability of the questionnaire were first deri- ved argumentatively on the basis of two case studies. A subsequent quantitative expert survey suggested satisfactory content validity by establishing a fit between the items and underlying construct definitions. Finally, a survey of employees responsible for planning in different organizations was conducted. Here, satisfactory reliability and criterion validity were found with regard to the test quality criteria, but also certain limitations from which concrete approaches for improvement could be derived. The results underline the special importance of the topic of heuristics and biases for organizational planning processes and show the significant influence of the organizational culture, which has so far been given little consideration in this context. The explorative nature of the work is accompanied by a number of limitations, with respect to which concrete suggestions for further validation of the theoretical findings and further development of the questionnaire were derived. IInhaltsverzeichnis Abbildungsverzeichnis III Tabellenverzeichnis V Abkürzungsverzeichnis VI 1 Einleitung 1 1.1 Problemstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.1.1 Heuristiken und Biases . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.1.2 Organisationale Planungsprozesse . . . . . . . . . . . . . . . . . . . . 7 1.1.3 Schlussfolgerungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 1.2 Zielstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 2 Urteils- und Entscheidungsprozesse 19 2.1 Problemlöseprozesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 2.2 Kognitionspsychologische Perspektive . . . . . . . . . . . . . . . . . . . . . . 21 2.3 Sozialpsychologische Perspektive . . . . . . . . . . . . . . . . . . . . . . . . 30 3 Heuristiken und Biases 36 3.1 Definition des rationalen Urteils . . . . . . . . . . . . . . . . . . . . . . . . . 36 3.2 Kognitive Biases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 3.2.1 Availability Heuristic . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 3.2.2 Anchoring Effect . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 3.2.3 Sunk-Cost Fallacy . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 3.2.4 Confirmation Bias . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 3.3 Motivationale Biases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 3.3.1 Self-Serving Bias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 3.3.2 Overconfidence Bias . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 3.3.3 Optimism Bias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 3.3.4 Desirability Bias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 3.4 Gruppendynamische Biases . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 3.4.1 Groupthink . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 3.4.2 Social Loafing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 3.4.3 Group Polarization . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 Inhaltsverzeichnis II 3.4.4 False Consensus Effect . . . . . . . . . . . . . . . . . . . . . . . . . . 72 3.5 Auswahl und Klassifikation . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 4 Organisationskultur 81 4.1 Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83 4.2 Inhalte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 4.3 Einfluss auf Biases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 4.4 Relevanz im Planungsprozess . . . . . . . . . . . . . . . . . . . . . . . . . . 96 5 Untersuchungsmodell 102 5.1 Der organisationale Planungsprozess . . . . . . . . . . . . . . . . . . . . . . 102 5.2 Entwicklung des Fragebogens . . . . . . . . . . . . . . . . . . . . . . . . . . 106 5.3 Operationalisierung der Fragebogenitems . . . . . . . . . . . . . . . . . . . 107 6 Studien 117 6.1 Fallstudien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 6.1.1 The Boeing Company . . . . . . . . . . . . . . . . . . . . . . . . . . 120 6.1.2 Die Loveparade 2010 . . . . . . . . . . . . . . . . . . . . . . . . . . . 135 6.1.3 Fazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161 6.2 Expertenbefragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167 6.2.1 Vorgehen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168 6.2.2 Stichprobe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169 6.2.3 Ergebnisse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171 6.3 Validierungsstudie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174 6.3.1 Vorgehen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175 6.3.2 Stichprobe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176 6.3.3 Ergebnisse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177 7 Diskussion 189 Literaturverzeichnis 200 Anhang 224 A Itemübersicht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224 B Fragebogen Paper-pencil . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227 C Fragebogen elektronisch . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237 D Expertenbefragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247 E Kommentare aus den Freitextfeldern . . . . . . . . . . . . . . . . . . . . . . 271 III Abbildungsverzeichnis 1 Dreidimensionale Wahrnehmungsheuristik . . . . . . . . . . . . . . . . . . . 23 2 Parallele und serielle Kognition . . . . . . . . . . . . . . . . . . . . . . . . . 25 3 Das vierdimensionale Multiple-Resource-Modell . . . . . . . . . . . . . . . . 25 4 Der unsichtbare Gorilla . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 5 Beispiel eines semantischen Netzwerks . . . . . . . . . . . . . . . . . . . . . 29 6 Zwei Routen der Persuasion . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 7 Der kognitive Verarbeitungszyklus . . . . . . . . . . . . . . . . . . . . . . . 77 8 Organisationskultur und wirtschaftlicher Erfolg . . . . . . . . . . . . . . . . 89 9 Der organisationale Planungs- und Entscheidungsprozess . . . . . . . . . . . 103 10 Organisationskultur, Biases und Entscheidungsqualität . . . . . . . . . . . . 104 11 Wechselwirkung zwischen unterschiedlichen Arten von Biases . . . . . . . . 105 12 Moderierender Effekt der Organisationskultur . . . . . . . . . . . . . . . . . 111 13 Direkter Effekt der Organisationskultur . . . . . . . . . . . . . . . . . . . . 112 14 Die Boeing 737-MAX . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121 15 Funktionsweise des MCAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122 16 Marktanteil Boeing vs. Airbus . . . . . . . . . . . . . . . . . . . . . . . . . . 124 17 Das Veranstaltungsgelände der Loveparade 2010 . . . . . . . . . . . . . . . 136 18 Skizze des Veranstaltungsgeländes der Loveparade 2010 . . . . . . . . . . . 142 19 Ein- und Ausgangsbereich der Loveparade 2010 . . . . . . . . . . . . . . . . 156 20 Häufigkeit verschiedener Biases in den Fallstudien . . . . . . . . . . . . . . . 162 21 Expertenbefragung – Beispiel Optimism Bias . . . . . . . . . . . . . . . . . 168 22 Expertenbefragung – Beispiel Availability Heuristic . . . . . . . . . . . . . . 169 23 Kenntnisse der Probanden im Bereich kognitiver Biases . . . . . . . . . . . 170 24 Kenntnisse der Probanden im Bereich gruppendynamischer Biases . . . . . 171 25 Expertenbeurteilung bezüglich der Inhaltsvalidität . . . . . . . . . . . . . . 172 26 Ausschnitt des finalen Fragebogens . . . . . . . . . . . . . . . . . . . . . . . 175 27 Bewertung der Entscheidungsqualität als Kriterium . . . . . . . . . . . . . . 176 28 Häufigkeitsverteilung der Altersgruppen . . . . . . . . . . . . . . . . . . . . 176 29 Anteil von Routinetätigkeiten gegenüber neuartigen Entscheidungen . . . . 177 30 Anteil von Gruppenprozessen an der Gesamttätigkeit . . . . . . . . . . . . . 178 31 Erläuterung des Boxplot-Diagramms . . . . . . . . . . . . . . . . . . . . . . 181 32 Skalenwertverteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181 Abbildungsverzeichnis IV 33 Itemwertverteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182 34 Häufigkeitsverteilung des Globalurteils bezüglich der Entscheidungsprozesse 183 35 Korrelation zwischen den Skalen und dem Kriterium . . . . . . . . . . . . . 183 36 Trennschärfe und Korrelation mit dem Kriterium aller Items . . . . . . . . 185 37 Prozentualer Anteil der Antwortkategorie „Kann ich nicht beurteilen“ . . . 187 VTabellenverzeichnis 1 Zwei kognitive Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 2 Drei Ebenen der Organisationskultur . . . . . . . . . . . . . . . . . . . . . . 85 3 Reliabilität der Skalen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179 4 Die einflussreichsten Biases in den Fallstudien und der Validierungsstudie . 184 VI Abkürzungsverzeichnis ACH Analysis of Competing Hypotheses AoA Angle of Attack DSS Decision Support Systems FAA Federal Aviation Administration FHA Funcional Hazard Analysis HRO High Reliability Organization MAUT Multiattribute Utility Theory MBL Major Baseball League MCAS Maneuvering Characteristics Augmentation System NASA National Aeronautics and Space Administration VUCA Volatility, Uncertainty, Complexity, Ambiguity WYSIATI What You See Is All There Is 11 Einleitung In strategic planning, the hard facts go only so far, and then human judgement is needed to interpret the findings and determine their relevance for the future. These subjective judgments are a major component in any strategy formulation process. If such judgments are faulty, efforts at strategic planning are likely to be misdirected. (Barnes, 1984, p. 129) Die Themen Heuristiken und Biases in der menschlichen Entscheidungsfindung haben insbesondere seit der Veröffentlichung von „Judgment under Uncertainty: Heuristics and Biases“ (Tversky & Kahneman, 1974) auch über das Feld der Psychologie hinaus enorm an Bedeutung gewonnen. So prägten die neuen Erkenntnisse die Verhaltensökonomie, in der der Mensch, entgegen der Sicht der klassischen Wirtschaftswissenschaft, nicht mehr als rein rationaler Homo Oeconomicus betrachtet wird, da seine Handlungen in bestimmten Situationen durch systematische Fehleinschätzungen geprägt sind (z. B. Arkes & Blumer, 1985; Kahneman & Tversky, 1979; Moore & Healy, 2008; Nickerson, 1998; Tappin, van der Leer & McKay, 2017). Im Alltag trifft der Mensch unzählige Urteile und Entscheidungen. Gleichzeitig stehen ihm nur eine begrenzte Menge kognitiver Ressourcen zur Verfügung. Um Komplexität zu redu- zieren, nutzt der Mensch deshalb bei einem Großteil dieser Urteile implizite Heuristiken, die vor allem in regelmäßigen beziehungsweise varianzarmen Situationen recht treffsicher sind. Kommen diese Heuristiken jedoch in einem inadäquaten Kontext zum Einsatz, füh- ren sie unbemerkt zu einem verzerrten Urteil und man spricht von einem kognitiven Bias. Insbesondere in situationsspezifischen und komplexen Situationen – wie sie unter anderem typisch für organisationale Planungsprozesse sind – ist das Risiko für Fehlentscheidungen hoch. Zum Beispiel werden Wahrscheinlichkeitsurteile häufig auf Basis von der Leichtig- keit getroffen, mit der Beispielinstanzen der zu schätzenden Kategorie aus dem Gedächtnis abgerufen werden können (Tversky & Kahneman, 1973). Der als Availability Heuristic be- zeichnete Prozess resultiert im Alltag meistens in akzeptablen Urteilen. Da die Schätzung auf subjektivem Erfahrungswissen basiert, beinhaltet sie aber – je nach Komplexität des Kontextes – eine mehr oder weniger starke Urteilsverzerrung, die häufig unbewusst und somit auch unkorrigiert bleibt. Zudem können motivationale Biases, die sich auf die Vermeidung oder Reduktion kogni- tiver Dissonanz zurückführen lassen, die Korrektheit von Urteilsprozessen vermindern. So beschreibt zum Beispiel der Self-Serving Bias eine verzerrte selbstwertdienliche Attribu- 1 Einleitung 2 tion von Informationen (Forsyth, 2008), die in der Folge zu Selbstüberschätzung bezie- hungsweise einem Overconfidence Bias führen können (Larwood & Whittaker, 1977), auf der anderen Seite jedoch das psychologische Wohlbefinden fördern (Shepperd, Malone & Sweeny, 2008). Sowohl kognitive als auch motivationale Biases sind also das Resultat adap- tiver impliziter Heuristiken, die jedoch in bestimmten Situationen Fehlurteile provozieren. Ähnliches gilt für gruppendynamische Biases wie Groupthink, Social Loafing oder Group Polarization, die aus sozialen Normen und dem Bedürfnis nach Ansehen oder Harmonie in der Gruppe, der Art des Informationsaustauschs zwischen den Gruppenmitgliedern sowie der Wirkung von hierarchischen Strukturen entstehen (Jones & Roelofsma, 2000; Mannion & Thompson, 2014; Murata, Nakamura & Karwowski, 2015; Sunstein, 2000). Klassische Experimente zu Themen wie Konformität (Asch, 1951), Gehorsam (Milgram, 1963) und dem Zuschauereffekt (Darley & Latané, 1968) zeigen, dass Menschen sich – durch die Mitgliedschaft in einer Gruppe oder die bloße Anwesenheit anderer Menschen – von einem rationalen Urteil oder eigenen Werten abweichend verhalten. Ein Großteil der Forschung zu Biases basiert auf Laborstudien, in denen die Effekte in experimentellen Untersuchungsdesigns durch Manipulation der Aufgabenstellung bezie- hungsweise des biasinduzierenden Entscheidungskontextes nachgewiesen werden (z. B. Hoffrage, 2017; Kahneman & Tversky, 1979; Lichtenstein, Slovic, Fischhoff, Layman & Combs, 1978; Plous, 1989; Sharot, 2011; Wason, 1960). Das Thema Biases spielt natür- lich nicht nur in der Grundlagenforschung eine wichtige Rolle, sondern beschäftigt in be- sonderem Maße die Managementebene von Organisationen, in denen Fehlentscheidungen mitunter schwere finanzielle oder in sicherheitskritischen Bereichen sogar fatale gesund- heitliche Folgen nach sich ziehen. Durch den Wandel zu einer zunehmend digitalisierten Dienstleistungs- und Informationsgesellschaft, die global immer vernetzter wird, steigen die Häufigkeit und die Tragweite organisationaler Planungs- und Entscheidungsprozesse (Arenius & Sträter, 2013; Bennet & Bennet, 2008; Luft, Schneider & Wartzack, 2015). Außerdem werden diese Prozesse komplexer, weil die Menge der verfügbaren und zu be- rücksichtigenden Informationen steigt, gleichzeitig aber der Zeitrahmen, in denen Ent- scheidungen getroffen werden müssen, kleiner wird (Milkman, Chugh & Bazerman, 2009). In diesem Kontext wird häufig von einer durch Volatility, Uncertainty, Complexity, Am- biguity (VUCA) geprägten Welt gesprochen. Der Ausdruck wurde Mitte der 1990er Jahre an einer Militärschule in den USA eingeführt, um die multilaterale Welt nach dem Kalten Krieg zu beschreiben (U.S. Army Heritage and Education Center, 2021). Durch die zunehmenden Herausforderungen für Organisationen, in einer durch VUCA ge- prägten Welt, ist auch der enorm wichtige Einfluss der Organisationskultur auf den Erfolg von Organisationen in den letzten Jahren immer deutlicher geworden (z. B. Kotter, 2008). Ein bisher wenig beachteter Aspekt ist dabei das Ausmaß, in dem dieser Einfluss über das Auftreten von Biases mediiert wird. Da die Kultur auch implizite Denkprozesse beeinflusst 1 Einleitung 3 – man spricht in diesem Zusammenhang von Social Cognition (Frith, 2008) oder auch Cul- tural Cognition (Kahan, Jenkins-Smith & Braman, 2011) – ist es nicht überraschend, dass es Hinweise für den Einfluss der Kultur auf das Auftreten bestimmter Biases gibt (Maass, Karasawa, Politi & Suga, 2006; Weber & Morris, 2010). Fallstudien legen zudem nahe, dass bestimmte Biases, wie der Overconfidence Bias, einen großen Einfluss auf organi- sationale Planungs- und Entscheidungsprozesse haben, und sie werden im Kontext einer inadäquaten Organisationskultur als Ursachen für viele Fehlentscheidungen betrachtet. Dazu gehören unter anderem bekannte Fälle wie die Nuklearkatastrophe von Tschernobyl, die Abstürze der Space Shuttles Challenger und Columbia sowie die Finanzkrise von 2008 (Janis, 1982; Labib & Read, 2013). Während wirtschaftliche Unternehmen ihren Erfolg in erster Linie an dem Ziel der Ge- winnmaximierung ausrichten, hat für High Reliability Organizations (HROs) – das sind Organisationen, die in sicherheitskritischen Branchen, wie der Luftfahrt oder der Kern- energie, operieren – die Vermeidung gefährlicher Ereignisse eine besondere Bedeutung. Da auch HROs mehr oder weniger ausgeprägte wirtschaftliche Interessen verfolgen, ent- steht ein Zielkonflikt zwischen Gewinn- und Sicherheitsmaximierung, der eine zusätzliche Komplexität in den Entscheidungsprozessen nach sich zieht (Sträter, 2005). Inadäquate Planungsprozesse im Bereich der HROs führen immer wieder zu katastrophalen Ereignis- sen. Zwei Beispiele hierfür werden im Rahmen dieser Arbeit näher betrachtet. Dazu gehö- ren die beiden Flugzeugabstürze mit Maschinen des Typs 737-MAX des Flugzeugbauers Boeing im Jahr 2018 beziehungsweise 2019. Berichte von Piloten1, Ausbildern und In- genieuren deuten auf viele potenziell vermeidbare Fehlentscheidungen hin, die bereits in der Planungs- und Entwicklungsphase begangen wurden, und anschließend die katastro- phalen Unfälle maßgeblich verursacht haben (Kennedy, 2022). Ein weiteres prominentes und gut dokumentiertes Beispiel für einen fehlgeleiteten Planungsprozess ging dem tödli- chen Massengedränge auf der Loveparade 2010 in Duisburg voraus (Helbing & Mukerji, 2012). Die Liste derartiger Fälle ließe sich beliebig fortführen. Bei der Frage nach den Ursachen kann angenommen werden, dass entscheidungsverzerrende Biases einen Einfluss darauf haben, dass häufig keine ausreichend gründliche Analyse der Chancen und Risiken des Planungsprozesses beziehungsweise einzelner Planungsaspekte durchgeführt wird. So gibt es belastbare Hinweise, dass die negativen Konsequenzen in vielen Fällen vermeidbar gewesen wären, da zum Zeitpunkt der Entscheidung ausreichend Informationen zur Ver- fügung standen, die im Rahmen eines adäquaten Planungsprozesses die entsprechenden Risiken aufgedeckt und somit kontrollierbar gemacht hätten (Hopkins, 2001; Synolakis & Kânoğlu, 2015). Explizite Strategien und Techniken zum Debiasing haben – sofern sie 1Gender-Hinweis: Zur besseren Lesbarkeit wird in dieser Arbeit das generische Maskulinum verwendet. Die in dieser Arbeit verwendeten Personenbezeichnungen beziehen sich – sofern nicht anders kenntlich gemacht – auf alle Geschlechter. 1 Einleitung 4 von den Entscheidungsverantwortlichen konsequent angewendet werden – das Potenzial bestimmte Biases zu mitigieren und damit die Qualität von Entscheidungsprozessen zu steigern. Sie sind jedoch mit diversen Limitationen belegt (Fischhoff, 1982; Larrick, 2004; Soll & Klayman, 2004). Wie beschrieben, beeinflusst die Organisationskultur das Verhalten der Organisationsmit- glieder auch auf impliziter Ebene und bietet damit weiteres und bisher wenig erforschtes Potenzial zur Verringerung impliziter Biases und damit zu einer Verbesserung der Ent- scheidungsqualität in Planungsprozessen. Auf Basis einer Literaturrecherche wird in dieser Arbeit die Relevanz bestimmter Biases in organisationalen Planungsprozessen sowie der potenzielle Einfluss der Organisations- kultur auf das Auftreten dieser Biases untersucht. Wenn bestimmte Aspekte der Organi- sationskultur das Auftreten von Biases beeinflussen, bietet sich bezüglich dieser Aspekte das Potenzial zur Diagnostik und für Gestaltungsmaßnahmen. Dazu wird ein Fragebogen entwickelt, der entsprechend relevante Aspekte der Organisationskultur operationalisiert. Anhand von zwei Fallstudien und zwei Befragungen werden die theoretischen Annahmen empirisch geprüft und der Fragebogen auf dessen Testgüte untersucht. Im folgenden Ab- schnitt wird die Problem- und Zielstellung ausführlich beschrieben. 1.1 Problemstellung A gap in the literature is identified in journal articles systematizing the intersection of negotiation studies, from the group decision-making literature, and cognitive biases studies, and from the judgment and decision-making literature. (Caputo, 2013, p. 375) In diesem Abschnitt wird die in der Einleitung beschriebene Problemstellung der Arbeit weiter ausgeführt und der Forschungsstand dazu dargestellt. Dabei wird die besonde- re Rolle des Themas Heuristiken und Biases in Entscheidungen unter Ungewissheit für organisationale Planungs- und Entscheidungsprozesse hergeleitet und die Rolle der Orga- nisationskultur in diesem Kontext aufgezeigt. 1.1.1 Heuristiken und Biases Clearly Mother Nature makes you use the fast System 1 to get out of trouble, so that you do not sit down and cogitate whether there is truly a tiger attacking you or if it is an optical illusion. You run immediately, before you become ’conscious’ of the presence of the tiger. (Taleb, 2010, S. 81) Wie eingangs beschrieben beeinflussen Heuristiken und Biases einen Großteil menschlicher Urteils- und Entscheidungsprozesse. Dieser Einfluss beginnt bereits bei einfachen Perzep- tionsprozessen. So basiert die Schätzung der Distanz eines Objekts auf Heuristiken, die ge- 1 Einleitung 5 speichertes Wissen über die Objektklasse sowie die Größe und Schärfe des Objekts beinhal- ten (Kahneman & Frederick, 2009). Diese erfahrungsbasierten Wahrnehmungsurteile sind so allgegenwärtig und treffsicher, dass Menschen kein Bewusstsein davon haben, dass sie überhaupt Urteile treffen. Entsprechend überraschend fällt zum Beispiel die Reaktion auf optische Täuschungen aus, die Fehlurteile solcher unbewussten Heuristiken provozieren. Daran zeigt sich, dass Menschen auf die unbewusste Anwendung von Wahrnehmungsheu- ristiken und das anschließende Treffen impliziter Urteile angewiesen sind, um ihren Alltag zu bewältigen. Zudem sind kognitive Kapazitäten eine begrenzte Ressource. Müsste zum Beispiel eine Berufspendlerin bei der Fahrt zur Arbeit über jedes Urteil zur Navigation im Straßenverkehr bewusst nachdenken, wäre sie möglicherweise schon vor Tätigkeitsbeginn ermüdet und bräuchte eine Pause, um ihre kognitiven Kapazitäten zu regenerieren. Hier wird die Rolle des Menschen als Cognitive Miser deutlich. Die Perspektive des Cognitive Misers beschreibt, dass der Mensch sich in Abhängigkeit seiner Motivation dafür entschei- det, ob er ein Urteil bewusst und analytisch trifft oder ob er sein Urteil durch unbewusste Heuristiken bestimmten lässt (Gilovich & Griffin, 2009). Diese Motivation hängt wiederum davon ab, als wie wichtig die Entscheidung wahrgenommen wird oder wie stark kogniti- ve Ressourcen bereits beansprucht sind. Dass der Mensch geizig mit seinen kognitiven Ressourcen umgeht, ist dabei unvermeidbar. Diese Unvermeidbarkeit begründet sich im Konzept der Bounded Rationality. Das Konzept der Bounded Rationality berücksichtigt die Limitationen der kognitiven Verarbeitungskapazität unterschiedlicher Wahrnehmungs- und Gedächtnisprozesse. Innerhalb dieser Limitationen verhält sich der Mensch so ratio- nal wie möglich beziehungsweise wie nötig, indem er die vorhandenen Ressourcen effizient nutzt (Simon, 1990). Auf kognitiver Ebene lässt sich das Verwenden von ressourcensparenden impliziten Heuris- tiken im Vergleich zu einem expliziten analytischen Vorgehen auf das Konzept der Dual- Process Theories zurückführen (Chaiken & Trope, 1999). Es gibt unterschiedliche Be- zeichnungen für Dual-Process-Modelle, diese haben aber gemeinsam, dass sie die Menge an unterschiedlichen kognitiven Prozessen in zwei Modi unterteilen: Zum einen schnel- le, assoziative kognitive Operationen und zum anderen langsame, regelgeleitete kognitive Operationen (z. B. Sloman, 1996). Kahneman und Frederick (2009) bezeichnen die beiden unterschiedlichen Modi als System 1 und System 2. Tabelle 1 gibt einen Überblick über die jeweiligen Charakteristiken der beiden Systeme: Dabei funktioniert das Zusammenspiel von System 1 und System 2 nicht entsprechend der Cognitive-Miser-Perspektive, die impliziert, dass es in Abhängigkeit der Motivation stets eine Wahl gibt, welche Art der Wahrnehmungs- und Urteilsprozesse angewendet wird. Das Two Systems Model besagt vielmehr, dass beide Systeme parallel operieren und die meisten Urteile und Entscheidungen zwangsläufig, aufgrund begrenzter Kapazitäten, unbe- wusste System-1-Prozesse sind. Erst wenn ein Hinweisreiz signalisiert, dass eine besondere 1 Einleitung 6 Tabelle 1 Zwei kognitive Systeme System 1 (Intuitive) System 2 (Reflective) Process characteristics Automatic Controlled Effortless Effortful Associative Deductive Rapid, parallel Slow, serial Process opaque Self-aware Skilled action Rule application Content on which processes act Affective Neutral Causal propensities Statistics Concrete, specific Abstract Prototypes Sets Anmerkung. Vergleichende Gegenüberstellung der Funktionsweisen von System 1 und System 2. In Anlehnung an Kahneman und Frederick (2009, S. 51). Situation eine analytische Bewertung der Situation erfordert, schaltet sich das System 2 ein, und es besteht die Möglichkeit, bewusst Einfluss auf die Situation zu nehmen und ein intuitives System-1-Urteil zu überschreiben (Gilovich & Griffin, 2009). Entsprechend sind implizite Heuristiken besonders erfolgreich in Situationen, die sich häufig wiederholen und einen hohen Grad an Regelmäßigkeit aufweisen, wie es auf etliche Alltagssituationen zutrifft. Wenn das Treffen von Urteilen mittels System-1-Prozessen nicht erfolgreich ist, aber im Rahmen eines entsprechenden Hinweisreizes durch bewusste System-2-Prozesse ersetzt wird, funktioniert das Zusammenspiel dieser kognitiven Modi ebenfalls. Problema- tisch wird es, wenn eine normalerweise hilfreiche Heuristik in einem inadäquaten Kontext eingesetzt wird und gleichzeitig kein bewusstes Analysieren dieses Fehlurteils stattfindet. Bei einem derartigen gleichzeitigen Versagen von System 1 und System 2 spricht man von einem kognitiven Bias (Kahneman & Frederick, 2009). Die Availability Heuristic (Kapitel 3.2.1) lässt sich beispielsweise darauf zurückführen, dass eine schwere Frage unbemerkt durch eine einfachere Frage ersetzt wird – ein Prozess der als Attribute Substitution bezeichnet wird. Eine Person, die gefragt wird: „Wie hoch ist der An- teil an Fernbeziehungen, die nach einem Jahr beendet werden?“, antwortet möglicherweise so, als ob sie gefragt worden wäre, wie viele solcher Fälle ihr spontan einfallen (Kahneman & Frederick, 2009). Das Problem ist, dass der betroffenen Person nicht bewusst ist, dass sie eine andere Frage beantwortet hat und es entsteht dabei eine zu hohe Überzeugung von der Korrektheit des Urteils. Aufgrund des unbewussten Ablaufs des Urteilsprozesses und der Zufriedenheit mit dem eigenen Urteil fehlt die Irritation als Hinweisreiz, der bewuss- te System-2-Prozesse aktivieren würde, und es entsteht kein Bedürfnis, die Akkuratheit des Urteils mittels einer entsprechenden Analyse zu verbessern. Dies lässt sich dadurch 1 Einleitung 7 erklären, dass in vielen Alltagssituationen grobe heuristische Schätzungen realitätsnah ge- nug sind und geringfügige Abweichungen aufgrund der geringen Konsequenzen des Urteils tolerierbar sind. 1.1.2 Organisationale Planungsprozesse One root cause of almost all project failures is human error or misjudgment. Although the ability to make right decisions is considered a main indicator of project management professionalism, many project managers are unwilling to try to improve the quality of their decisions. Because project managers rarely have enough time and resources to perform a proper analysis, and a decision analysis expert is not always available, there is always the temptation to make intuitive decisions. (Cunha, Viglioni, Thomaz & Moura, 2014, p. 50) Anders als viele alltägliche Situationen, zeichnen sich organisationale Planungsprozesse dadurch aus, dass sie unstrukturiert, komplex und situationsspezifisch sind und häufig schwerwiegende Konsequenzen beinhalten (Schwenk, 1984). In diesem Kontext kann ein Urteil, das durch eine explizite Informationssuche verbessert werden könnte, aber unbe- wusst und unkorrigiert ausgeführt wird, weitreichende negative Konsequenzen nach sich ziehen. Entscheidungsprozesse in Organisationen sind zwar in der Regel durch strukturierte Ab- läufe gekennzeichnet, in denen bewusst über ein Gesamtvorhaben nachgedacht wird, aller- dings werden innerhalb dieser Prozesse viele einzelne Urteile und Entscheidungen getrof- fen, die das Potenzial für implizite Fehlurteile aufweisen, wenn die Informationssuche und -interpretation unvollständig sind. Dabei fordern viele dieser Urteile zwangsläufig, dass Entscheidungen unter Unsicherheit getroffen werden, da in einer komplexen und dyna- mischen Umwelt bestimmte Chancen und Risiken nur geschätzt werden können (Tversky & Kahneman, 1983). Umso wichtiger ist es, alle möglichen Informationen zu nutzen, um Ungewissheiten so gut wie möglich zu antizipieren und sich nicht durch spontane implizite Schätzungen leiten zu lassen. Das Thema der Urteile unter Ungewissheit und damit einhergehender Heuristiken und Biases hat für organisationale Planungsprozesse entsprechend eine besondere Bedeutung. Wie beschrieben, basiert die Ausführung von Heuristiken beziehungsweise intuitiver Urtei- le auf Erfahrungswissen. Simon (1992, S. 155) schreibt dazu: „The situation has provided a cue; this cue has given the expert access to information stored in memory, and the infor- mation provides the answer. Intuition is nothing more and nothing less than recognition.“ Der erfolgreiche Einsatz von Heuristiken erfordert also, dass der Kontext, in dem diese eingesetzt werden, eine gewisse Regelmäßigkeit aufweisen. In einem dynamischen Umfeld und bei situationsspezifischen Entscheidungssituationen kann erfahrungsbasierte Experti- se – neben den offensichtlichen Vorteilen – auch Nachteile mit sich bringen, wenn sich ein Experte zum Beispiel auf kontextinadäquate Erfahrungen verlässt und in der Folge Heu- ristiken, wie zum Beispiel die Availability Heuristic, zu einem verzerrten Informationsabruf 1 Einleitung 8 führen. Außerdem spielen motivationale Biases eine wichtige Rolle bei Urteilen und Entscheidun- gen unter Unsicherheit (Montibeller & von Winterfeldt, 2015). Während kognitive Bia- ses primär durch das Einsparen oder die Grenze kognitiver Kapazitäten begründet sind, sind motivationale Biases häufig ein Ergebnis selbstwertdienlicher Attributionen, die das psychologische und soziale Wohlbefinden stützen. So besteht eine generelle menschliche Tendenz zur Selbstüberschätzung, dem Overconfidence Bias, und dem Unterschätzen des Einflusses externer Störvariablen, dem Optimism Bias, die sich auch motivational begrün- den lassen (vgl. Kapitel 3.3). Je schwieriger die Aufgabe beziehungsweise je komplexer die Entscheidungssituation ist, desto weiter verstärken sich derartige Verzerrungen (Klayman, Soll, Gonzalez-Vallejo & Barlas, 1999). Hierbei kann die Bedeutung von Erfahrungswissen für Experten im Planungsprozess gegenüber operativ tätigen Experten, wie zum Beispiel Feuerwehrkräften, unterschieden werden. Bei Letzteren ist Expertenwissen robuster gegen- über verzerrten intuitiven Urteilen, da deren Einsätze zumindest einen relativ hohen Grad an Regelmäßigkeit aufweisen, der das erfolgreiche Anwenden intuitiver Entscheidungen – mit zunehmendem Grad an Erfahrung – immer weiter verbessert (Kahneman & Klein, 2009). Selbstverständlich ist auch in Planungsprozessen die Expertise erfahrener Perso- nen sehr wichtig. Erfahrungsbasierte Expertise weist – wenn dem betreffenden Experten die Grenzen seiner Urteilsfähigkeit aufgrund der Situationsspezifität organisationaler Pla- nungsprozesse nicht bewusst ist – lediglich eine Schattenseite auf, die es zu berücksichtigen gilt. Organisationale Planungsprozesse zeichnen sich zudem dadurch aus, dass Feedback für Fehlentscheidungen zeitlich stark verzögert auftritt, und in vielen Fällen lässt sich auf- grund der Komplexität kein klarer kausaler Zusammenhang zwischen einer Fehlentschei- dung und einem unerwünschten Ereignis herstellen. Unter solchen Bedingungen findet bei den beteiligten Personen häufig kein Eingeständnis von Verantwortung statt, was sich zum Teil auf eine selbstwertdienliche Attribution der Ereignisse – im Sinne des Self-Serving Bi- as (Kapitel 3.3.1) – zurückführen lässt, wodurch Lernerfahrungen erschwert werden, da die Ursachen für Fehler eher in externen Umständen gesucht werden (Forsyth, 2008). Ne- ben den bisher genannten Beispielen gibt es noch viele weitere Biases, die Entscheidungen im Kontext organisationaler Planungsprozesse potenziell verzerren (vgl. Kapitel 3) und die sich auf für Planungsprozesse wichtige Aspekte wie den Zeitplan, das Budget, die Risikoeinschätzung und die Berücksichtigung von Sicherheitsmargen auswirken. Organisationale Planungsprozesse werden in aller Regel in Gruppen getroffen, die sich häufig aus wechselnden Projektteams zusammensetzen. Entscheidungen im Gruppenkon- text bieten prinzipiell den Vorteil einer höheren Verfügbarkeit potenziell relevanter Infor- mationen sowie einer in Summe höheren kognitiven Kapazität, um diese zu verarbeiten (Montibeller & von Winterfeldt, 2018). Auf der anderen Seite entsteht durch die Grup- 1 Einleitung 9 pendynamik eine erhöhte Komplexität des Entscheidungsprozesses und damit zusätzliche Möglichkeiten für Abweichungen von rationalen Urteilen (Mannion & Thompson, 2014). So ist der Einfluss von Gruppensituationen auf Entscheidungsprozesse seit langem The- ma der psychologischen Forschung. Gruppenphänomene wie Groupthink, Social Loafing oder Group Polarization (Kapitel 3.4) entstehen aus sozialen Normen und dem Bedürfnis nach Ansehen in der Gruppe, der Art des Informationsaustauschs zwischen den Grup- penmitgliedern sowie der Wirkung von hierarchischen Strukturen (Jones & Roelofsma, 2000; Mannion & Thompson, 2014; Murata et al., 2015; Sunstein, 2000). Dabei soll der Fokus auf negative Effekte nicht darüber hinwegtäuschen, dass die zugrundeliegenden ko- gnitiven beziehungsweise emotionalen Mechanismen, wie bei den individuellen Biases, in der Regel sinnvolle Heuristiken darstellen, die nur in gewissen Kontexten inadäquat sind (Krueger & Funder, 2004). So ist zum Beispiel Gruppenkohäsion ein wichtiger Faktor für den Erfolg von Teams, da sie die Gruppenleistung steigert, die Zufriedenheit der Gruppen- mitglieder erhöht sowie stressreduzierend wirkt (Ahronson & Cameron, 2007; Li, Early, Mahrer, Klaristenfeld & Gold, 2014). Auf der anderen Seite kann Gruppenkohäsion unter bestimmten Bedingungen das Auftreten von Groupthink fördern, bei dem das Streben nach Einstimmigkeit stärker ist, als das Bedürfnis nach einer offenen Diskussion unterschiedli- cher Handlungsalternativen. Es stellt sich zudem die Frage, inwieweit individuelle Biases im Gruppenkontext schwächer oder stärker wirken können (Houghton, Simon, Aquino & Goldberg, 2000; Schulz-Hardt, Frey, Lüthgens & Moscovici, 2000). Organisationale Planungsprozesse sind somit besonders anfällig für kognitive, motivationa- le und gruppendynamische Biases, die zu verzerrten Urteilen und Entscheidungen führen können. Auf der anderen Seite bietet der organisationale Kontext Möglichkeiten, erfolg- reich Vorhaben umzusetzen, die Anstrengungen erfordern, die weit über die Summe der Einzelleistungen hinausgehen: We resolve the apparent discrepancy between evidence of individual shortcomings and the empirical fact of moon- walks by observing that individuals did not make it to the moon, NASA did [...] Our thesis, then, is that individuals indeed face cognitive limitations and shortcomings, but that organizations can provide individuals with norms and procedures that mitigate their limitations and reduce their shortcomings. (Heath, Larrick & Klayman, 1998, S. 2-3) Eine Vielzahl an Studien belegen die Relevanz unterschiedlicher Heuristiken und Biases bei Urteilen unter Unsicherheit in diversen Entscheidungssituationen. In Kapitel 3 werden empirische Erkenntnisse hierzu detailliert beschrieben und aufgezeigt, welche Rolle kogni- tive, motivationale und gruppendynamische Biases in Urteils- und Entscheidungsprozessen allgemein, sowie speziell in organisationalen Planungsprozessen, spielen. Das Thema Debiasing, das Prozesse zur Vermeidung oder der Verringerung impliziter Entscheidungsverzerrungen umfasst, hat bisher deutlich weniger Aufmerksamkeit erhal- ten als die Demonstration verzerrender Effekte (Larrick, 2004). In der Forschung zum Thema Debiasing zeigen sich gemischte Ergebnisse und die externe Validität, also die 1 Einleitung 10 Übertragbarkeit der Erkenntnisse auf Kontexte außerhalb des Labors, wie zum Beispiel organisationale Planungsprozesse, ist nicht immer gegeben. Eine weit verbreitete Methode zur Vermeidung von Biases sind Entscheidungsanalysetools, die sich in vielen Bereichen bewährt haben und entsprechend verbreitet sind. Das Buch Moneyball beziehungsweise dessen Filmadaption beschreibt, wie die Einführung statistischer Modelle bei den Oak- land Athletics – einem Team der amerikanischen Major Baseball League (MBL) – eine außergewöhnliche Erfolgsgeschichte auslöste. Die auf quantitativen Analysen basierenden Entscheidungen bezüglich der Spielerwahl brachten einen massiven Vorteil gegenüber der Expertenintuition anderer Teammanager, die derartige Analysen bis dato belächelt hatten (Lewis, 2004). Heutzutage basieren viele Organisationen ihre Entscheidungen auf quan- titativen Analysen, zum Beispiel Kreditinstitute bei der Bewertung der Kreditwürdigkeit potenzieller Gläubiger (Bazerman & Moore, 2013). Analog zu den Einschränkungen erfahrungsbasierter Expertise hängt die Qualität statisti- scher Modelle davon ab, wie regelmäßig die erfassten Prädiktoren die Zielgröße vorhersagen beziehungsweise wie geringfügig nicht erfassbare Störvariablen die Vorhersagekraft min- dern. In organisationalen Planungsprozessen ist die Verwendung statistischer Methoden zwar eine essenzielle Entscheidungsunterstützung, die aber bei vielen Urteilsprozessen an ihre Grenzen kommt, da Entscheidungen häufig komplex, unstrukturiert und neuartig be- ziehungsweise situationsspezifisch sind (vgl. Kapitel 2.1). So hängt die Zuverlässigkeit und Korrektheit solcher Prognosen von der Menge der bereits erfassten Daten ab, die in einem ähnlichen Kontext wie die zu treffende Entscheidung erhoben wurden. In dem beschriebe- nen Umfeld existiert häufig keine, oder eine nur bedingt zum Kontext passende Datenbasis (Kahneman & Klein, 2009). Außerdem wird zur Verbesserung eines Modells zuverlässiges Feedback über die Güte vorheriger Prognosen benötigt, um den Einfluss der Prädiktoren zuverlässiger einschätzen zu können, was unter derartigen Bedingungen häufig ebenfalls fehlt (siehe oben). Zum einen erfolgen die Ergebnisse organisationaler Planungsprozesse verzögert und sind nur bedingt bestimmten Prädiktoren zuordbar. Dabei verringert die Dynamik der Umwelt zusätzlich die Zuverlässigkeit des Feedbacks. Zum anderen führen eine Entscheidung und die entsprechende Handlung in einem Planungsprozess zu einem Ausschluss der Alternativen, die aufgrund der Einzigartigkeit der Situation, nicht getestet werden können (Einhorn & Hogarth, 1978). Das unterscheidet organisationale Planungs- prozesse von Domänen wie zum Beispiel der Wettervorhersage, bei der durch klar definier- bare Prädiktoren und Outcomes, sowie einer großen Datenbasis, zuverlässige Vorhersagen modelliert werden können. Für neuartige Situationen bieten sich alternativ Entscheidungsanalysetools an, die nicht das Vorhandensein historischer Daten bedingen. Dazu gehören der Multiattribute Utility Theory (MAUT) entsprechende Verfahren, die ein strukturiertes Vorgehen der Entschei- dungsfindung entsprechend der Expected Utility Theory (Kapitel 3.1) vorgeben (Larrick, 2004). Dabei werden in einer Entscheidungssituation zunächst Handlungsalternativen und 1 Einleitung 11 unterschiedlich gewichtete Attribute zur numerischen Bewertung dieser Alternativen ge- neriert. In Abhängigkeit der Wahrscheinlichkeit für deren angenommene Konsequenzen kann somit jeder Handlungsalternative ein Nutzwert zugeordnet werden. Ergänzend for- dert die Analysis of Competing Hypotheses (ACH) dazu auf, eine Matrix zu erstellen, in der die Spalten die unterschiedlichen Hypothesen darstellen. Anschließend werden in die entsprechenden Zeilen Beweise beziehungsweise Argumente für die jeweilige Hypothese eingetragen(Heuer, 1999). Wenn es um die Validität verschiedener generierter Handlungs- alternativen oder allgemein dem Vergleich verschiedener Hypothesen geht, kann hierdurch eine tiefergreifende Analyse angeregt werden. Allein die Strukturierung der Problemstellung und die Aufforderung, unterschiedliche Al- ternativen, Hypothesen und Argumente zu generieren, kann potenziell bestimmte Biases abmildern, wie weiter unten am Beispiel des Confirmation Bias beschrieben wird. Computerbasierte Entscheidungsanalysetools werden als Decision Support Systems (DSS) bezeichnet. Aufgrund der verfügbaren Rechenleistung können damit eine große Menge numerischer oder qualitativer Eingaben verarbeitet werden, um Urteils- und Entschei- dungsprozesse zu unterstützen. Damit stellen DSS einen vielversprechenden Ansatz dar, der einige Vorteile mit sich bringt, jedoch viele der zuvor beschriebenen Einschränkun- gen bezüglich situationsspezifischer und komplexer Entscheidungskontexte teilt (Larrick, 2004). Neben Entscheidungsanalysetools beziehen sich andere Strategien zum Debiasing direkt auf die betreffenden Personen. Fischhoff (1982) beschreibt dazu eine Reihe von Strategien. Dazu gehören auf der einen Seite Interventionen, die eine Aufklärung bezüglich bestimmter Biases sowie biasbezogenes Feedback vorsehen oder intensives Training zur Vermeidung von Biases umfassen. Weitere Interventionen sind unmittelbar in den Entscheidungspro- zess integriert. Dazu gehören klare Aufgabeninstruktionen, das Bewusstmachen impliziten Wissens, die Suche nach abweichenden Informationen, die Strukturierung übergeordne- ter Probleme und das Beachten alternativer Handlungsmöglichkeiten. In diversen Studien zeigt sich jedoch, dass die Aufklärung über und Warnung vor spezifischen Biases, wie dem Anchoring Effect (vgl. Kapitel 3.2.2), deren Auftretenswahrscheinlichkeit nicht zuverlässig reduziert (z. B. Wilson, Houston, Etling & Brekke, 1996). Auf der anderen Seite fanden Lichtenstein und Fischhoff (1980) heraus, dass intensives persönliches Feedback dem Over- confidence Bias entgegenwirkt, allerdings ist die externe Validität der Ergebnisse fraglich, insbesondere im Kontext der Problematik des mangelhaften Feedbacks in organisatio- nalen Planungsprozessen (siehe oben). So sind personenbezogene Trainings primär dann erfolgreich, wenn die Testbedingungen kontext- und biasspezifisch sind und zeitlich nah beieinander liegen (Larrick, 2004). Die Praktikabilität derartiger Maßnahmen ist somit in komplexen Planungsprozessen nur mit Einschränkungen erfolgreich, da sämtliche Organi- sationsmitglieder mit einer hohen Expertise bezüglich einer Reihe von Biases ausgestattet 1 Einleitung 12 werden müssen. Die Trainings müssen häufig wiederholt werden, und es ist domänenab- hängig, inwieweit die abstrakten Lehren in spezifischen Situationen angewendet werden können, also inwieweit ein entsprechender Hinweisreiz die Organisationsmitglieder an die Existenz des Biases erinnert. Fischhoff (1982, S. 431) gibt dabei zu bedenken, dass Tools und Strategien zum Debiasing ironischerweise auch den Overconfidence Bias erhöhen kön- nen: „A debiasing procedure may be more trouble than it is worth if it increases people’s faith in their judgmental abilities more than it improves the abilities themselves.“ Eine weitere Möglichkeit zum Debiasing bieten in konkrete Urteils- und Entscheidungssi- tuationen integrierte Methoden. So kann allein eine Gestaltung der Aufgabeninstruktion dahingehend, dass das Urteil sowohl eine pessimistische als auch eine optimistische Per- spektive beinhalten soll, dazu führen, dass der Overconfidence Bias (Kapitel 3.3.2) in Form breiterer Konfidenzintervalle reduziert wird und Urteile insgesamt deutlich akkurater wer- den (Soll & Klayman, 2004). Viele Debiasingstrategien, wie Devil’s Advocate (Schweiger, Sandberg & Ragan, 1986) beziehungsweise Red Teaming (Longbine, 2008) oder Premor- tem (Klein, 2007) basieren auf der einfachen Philosophie, Menschen – entgegen ihrer im Confirmation Bias oder Overconfidence Bias beschriebenen Tendenz – zu einer hypothe- senfalsifizierenden Informationssuche zu bewegen und manchmal auch dazu, überhaupt erst auf die Idee zu kommen, dass noch weitere Informationen, außer den ihnen bereits bekannten, existieren. Der Effekt, dass die Menge an bekannten Informationen fälschlicherweise als erschöpfend wahrgenommen wird, bezeichnet Kahneman (2011) als What You See Is All There Is (WYSIATI). Mit der MAUT und der ACH wurden zuvor zwei weitere Beispiele genannt, die der Tendenz eines derartigen „Tunnelblicks“ entgegenwirken. Viele der beschriebenen Methoden, mit ihren unterschiedlichen Stärken und Schwächen, können je nach Beschaffenheit der Entscheidungssituation mehr oder weniger effektiv die Auswirkung verzerrender kognitiver, motivationaler oder gruppendynamischer Biases re- duzieren. In für organisationale Planungsprozesse typischen komplexen, unstrukturierten und situationssepzifischen Entscheidungssituationen geraten quantitative und standardi- sierte Methoden häufig an ihre Grenzen, und es gelingt nicht immer, die in Trainings gelernten Methoden auf neuartige Situationen zu übertragen. Eine weitere Schwierigkeit liegt in der Compliance der Organisationsmitglieder, denn häu- fig werden Veränderungsprozesse durch neu einzuführende Methoden abgelehnt. Zum einen lassen sich Menschen ungern sagen, dass ihre langjährige Herangehensweise Schwächen auf- weist, zum anderen können Sorgen vor Verlust von Einfluss oder Kontrolle für Widerstand sorgen. Schließlich hängt die Akzeptanz neuer Methoden davon ab, dass die Organisations- mitglieder verstehen, dass bestimme Techniken zum Debiasing ihren persönlichen Urteilen in vielen Fällen überlegen sind. Das Schaffen dieser Akzeptanz ist schwierig, wenn die neu- en Methoden fremd und komplex erscheinen und die Vorteile aufgrund des mangelnden 1 Einleitung 13 Feedbacks nicht unmittelbar ersichtlich sind (Larrick, 2004). Bezüglich der Adaption neuer Verhaltensweisen unterscheidet Larrick (2004) zwischen Compliance und Internalisierung. Compliance ist oberflächlich und mechanisch und wird durch Anweisungen – oder auf die extrinsische Motivation abzielende Anreize – erzeugt. Die entsprechenden Verhaltens- weisen werden aufgegeben, sobald die Anreize nicht mehr bestehen. Internalisierung wird gefördert, wenn eine vertrauenswürdige und kompetente Quelle die Organisationsmitglie- der von bestimmten Denk- und Verhaltensweisen überzeugt, die Vorteile nachvollziehbar werden und intrinsische Motivation entsteht, diese zu nutzen: Every decade or so, a new set of decision-making techniques seems to sweep through organizations, such as Total Quality Management (TQM) in the 1980s and Six Sigma in the late 1990s. Both movements included statistical tools, such as histograms and Pareto charts, in addition to softer tools, such as brainstorming and cause-effect analysis. Perhaps not surprisingly, the statistical tools are the first to be abandoned as practices diffuse through an organization (Zbaracki, 1998). The reasons that management fads die are many – senior management endorses something but does not practice it, engendering cynicism; people are skeptical of outside consultants brought in to train them; and trainees are separated from their coworkers, who put pressure on the trainee to continue with ’business as usual’ on the trainee’s return. (Larrick, 2004, S. 331-332) Larrick (2004, S. 333-334) kommt zu dem Schluss: „The possibility of transforming myste- rious technological strategies into simpler, more intuitive, and more acceptable strategies is one of the great opportunities of debiasing research.“ Eine weitverbreitete Annahme ist, dass Biases grundsätzlich universell auftreten und im Zuge ihrer unbewussten Wirkungsweise nicht in ihrer Ursache, sondern nur in ihrer Auswir- kung mitigierbar sind. Das trifft potenziell auf einige Biases zu, insbesondere auf jene, die aufgrund begrenzter kognitiver Verarbeitungskapazitäten entstehen. Entsprechend sind viele der zuvor beschriebenen Strategien und Techniken sinnvolle Methoden zur Verbesse- rung von organisationalen Planungsprozessen – unter Berücksichtigung der beschriebenen Einschränkungen. Ein bisher im Kontext von Biases und Heuristiken relativ wenig be- trachtetes Konstrukt ist die Organisationskultur: [...] cross-cultural research reveals that some judgment biases once assumed to be universal are in fact limited to particular sociocultural contexts (e.g., Weber & Hsee, 1998). Such findings help elucidate the mechanisms underlying the biases, suggesting that they are not simply bugs in the operating system of human cognition but patterns constructed through the interaction of human psychology with information and decision environments. This research suggests that many regularities identified by the JDM [Judgment and Decision Making] literature are not just fixed properties of the mind but responses that are constructed from interactions between more basic processes, such as memory, perception, and attention, with the information and decision environment (e.g., Weber et al., 2007; Weber & Johnson, 2006, 2009). (Savani, Cho, Baik & Morris, 2015, S. 472) Dabei kann die Organisationskultur Entscheidungen unter Ungewissheit potenziell in mehr- facher Hinsicht beeinflussen. Zum einen kann eine adäquate Organisationskultur dem zuvor beschriebenen Problem – bezüglich der Compliance beziehungsweise Internalisierung bei der Verwendung von Entscheidungsanalysetools oder anderen Methoden zum Debiasing – entgegenwirken. Kulturell geprägte Verhaltensweisen können zudem potenziell als Hinweis- 1 Einleitung 14 reiz dienen, System-1-Urteile in bestimmten Situationen zu hinterfragen und eine analyti- sche Informationssuche anzustoßen. Zudem kann die Organisationskultur potenziell direkt beeinflussen, in welchem Ausmaß bestimmte Biases auftreten. Das gilt insbesondere für motivationale und gruppendynamische Biases. Motivationale Biases, wie Overconfidence oder Optimism, die auch als Hot Biases bezeichnet werden, haben bisher weniger Auf- merksamkeit erhalten als Biases, die vorwiegend aufgrund kognitiver Limitationen (Cold Biases) entstehen, obwohl erstere ebenfalls einen starken Einfluss auf den Verlauf orga- nisationaler Planungsprozesse haben (Montibeller & von Winterfeldt, 2015). So wird eine mangelhafte Sicherheitskultur und ein davon potenziell beeinflusster Overconfidence Bias immer wieder als Hauptursache für organisationales Versagen identifiziert. Dazu gehören bekannte Ereignisse wie die Nuklearkatastrophe von Tschernobyl, die Abstürze der Space Shuttles Challenger und Columbia sowie die Finanzkrise von 2008 (Labib & Read, 2013). Reason (2013, S. 64) impliziert den Zusammenhang zwischen Organisationskultur und Overconfidence wie folgt: Violations arise largely from motivational factors, from beliefs, attitudes and norms and from the organizational culture at large. Culture was a very important contributor to the Chernobyl catastrophe. Each Soviet reactor operated in isolation. There was little or no sharing of safety information. Accidents often happen because people forget to be afraid. But the Chernobyl operators did not forget, rather they had never learned to be afraid. 1.1.3 Schlussfolgerungen Research on debiasing tends to be overshadowed by research demonstrating biases: It is more newsworthy to show that something is broken than to show how to fix it. (Larrick, 2004, S. 334) Unter der Annahme, dass Biases nicht universell in gleicher Ausprägung auftreten und Kontextfaktoren, wie bestimmte Aspekte der Organisationskultur, Auswirkungen auf das Auftreten unterschiedlicher Biases haben, stellt sich – neben beziehungsweise vor dem Einsatz von Gestaltungsmaßnahmen – auch die Frage nach der Diagnose biasinduzie- render Bedingungen. Grundsätzlich dient die Organisationsdiagnostik dem Erkennen von Schwachstellen, um daraus Verbesserungen unterschiedlicher organisationaler Kriterien abzuleiten. Zu diagnostizierende Themengebiete umfassen zum Beispiel die Diagnose von Konzepten zu Führungsverhalten, strategischen Prozessen oder dem Betriebsklima, die häufig mittels Mitarbeiterbefragungen erfasst werden (Burke & Litwin, 1992). Anders als konkrete Techniken zum Debiasing ist die Etablierung einer zielführenden Kultur ein langfristiges Anliegen, da die Organisationskultur sich im Laufe der Zeit verändert und Veränderungen auch wieder erodieren können (Schein, 1988). Eine regelmäßige Diagnostik ermöglicht es somit, Veränderungen zu erfassen, um gegebenenfalls Maßnahmen zu ergrei- fen. Zudem kann erfasst werden, welche Aspekte schon den Zielvorstellungen entsprechen beziehungsweise welche Aspekte bezüglich Interventionen zu priorisieren sind. Schließlich 1 Einleitung 15 bilden einzelne Organisationseinheiten häufig unterschiedliche Subkulturen (Schein, 1988), weshalb im Rahmen der Diagnostik außerdem erfasst werden kann, in welchen Bereichen Maßnahmen sinnvoll sind, um den Zielvorstellungen näher zu kommen. Die Organisationskultur ist ein vielseitiges Konstrukt und entsprechend gibt es diver- se Verfahren, die unterschiedliche Facetten der Organisationskultur messen (z. B. Sash- kin & Rosenbach, 2013; Scott, Mannion, Davies & Marshall, 2003; Xenikou & Furnham, 1996). Ein Verfahren, dass Situationen und Verhaltensweisen im Kontext organisationa- ler Planungsprozesse bezüglich ihres potenziellen Einflusses auf kognitive, motivationale und gruppendynamische Biases erfasst, existiert bislang nicht. Vorhandene Fragebögen zur Organisationskultur beinhalten teilweise auch Items, die potenziell biasbeeinflussende Verhaltensweisen beschreiben, allerdings ohne expliziten Bezug darauf zu nehmen oder ein breites Spektrum verschiedener Biases abzudecken (z. B. Van Muijen, 1999). Methodisch bieten sich zur Diagnostik quantitative Mitarbeiterbefragungen mittels Frage- bogen an, um in einem ersten Schritt, unter Berücksichtigung der Anonymität, einen Über- blick über die Situation zu erhalten. Zur Ableitung von Gestaltungsmaßnahmen können anschließend in den betreffenden Organisationseinheiten Workshops durchgeführt werden, um in einem partizipativen Prozess konkrete Schritte festzulegen. Die schriftliche Mit- arbeiterbefragung mittels eines standardisierten Fragebogens ist zudem ökonomisch und kann dementsprechend regelmäßig zur Evaluation von Maßnahmen und natürlichen Ver- änderungen wiederholt werden. Der überwiegende Teil der Forschung zu Entscheidungen unter Ungewissheit sowie assozi- ierten Heuristiken und Biases basiert auf Laborexperimenten, welche Belege für die Exis- tenz diverser Verzerrungen liefern und spezielle Bedingungen zeigen, unter denen diese auftreten (vgl. Kapitel 3). Der Vorteil einer hohen internen Validität, im Rahmen kontrol- lierbarer Laborbedingungen, geht dabei mit einem vergleichsweise geringen Maß an exter- ner Validität, also der Verallgemeinerbarkeit auf diverse Entscheidungskontexte, einher. Der Fokus dieser Arbeit liegt auf organisationalen Planungsprozessen, also Entscheidun- gen unter Ungewissheit in realen Bedingungen. In diesem Rahmen erscheinen Fallstudien geeignet, um eine vergleichsweise hohe externe Validität zu erreichen. Aus diesem Grund können Fallstudien eine sinnvolle Methode sein, um den Einfluss von Biases in organisatio- nalen Planungsprozessen zu analysieren und darüber hinaus die Relevanz und inhaltliche Validität eines entsprechenden Diagnoseinstruments zu prüfen. Dabei ist wiederum anzumerken, dass Fallstudien eine geringere interne Validität als La- borstudien aufweisen, denn die unabhängige Variable, also die Bedingung, die das Auftre- ten des Biases provoziert, kann, anders als in experimentellen oder quasi-experimentellen Bedingungen, nicht variiert werden, und Störvariablen können nicht eliminiert beziehungs- weise kontrolliert werden. Außerdem bieten Fallstudien nur einen unvollständigen Zugang zu den beschriebenen Ereignissen, da die Gedankengänge der Akteure nur bedingt nach- 1 Einleitung 16 vollziehbar sind. Zudem unterliegen primäre Quellen, zum Beispiel Protokolle, oder se- kundäre Quellen, wie Zeitungsartikel, einem gewissen Grad an Subjektivität. In diesem Zusammenhang kritisiert zum Beispiel Tetlock (1979), am Beispiel der Forschung von Ja- nis (1982) zu Groupthink, methodische Einschränkungen der durchgeführten Fallstudien. Es wird kritisiert, dass die von Janis (1982) verwendeten Belege für das Auftreten von Groupthink auf privaten Konversationen und der diesbezüglichen Erinnerung der betei- ligten Personen beruhen. Ein weiterer Kritikpunkt bezieht sich darauf, dass Janis (1982) keine Kriterien bezüglich der Berücksichtigung der beschriebenen Daten festgelegt hat und somit unbewusst bevorzugt hypothesenbestätigende Planungsphasen beschrieben ha- ben könnte, also in dem Fall selbst dem Confirmation Bias (vgl. Kapitel 3.2.4) unterlegen wäre. Murata et al. (2015) bemängeln das Fehlen eines systematischen Modells, das basierend auf empirischen Daten aufzeigt, wie unterschiedliche Biases Entscheidungsprozesse negativ beeinflussen. Die Autoren greifen diese Forschungslücke auf, indem sie eine ganzheitliche Betrachtung der Wirkung verschiedener Biases analysieren und führen fünf Fallstudien durch, in denen sie den Ereignissen diverse kognitive, motivationale und gruppendyna- mische Biases zuordnen. Eine Einschränkung der Studie ist der mangelnde Detailgrad bezüglich der Fallbeschreibungen und der Herleitung unterschiedlicher Biases, woraus sich der Bedarf umfangreicherer Fallstudien ableiten lässt: „Further analysis on the basis of case studies is required for how cognitive biases distort decision making, induce precon- ception and become a trigger of an incident, a crash, a collision or a disaster“ (Murata et al., 2015, S. 47). Den zuvor beschriebenen Einschränkungen bei der Verwendung von Fallstudien kann durch eine Auswahl gut dokumentierter Ereignisse und einer umfangreichen Recherche diverser Quellen begegnet werden. Dazu gehört eine weitestgehend vollständige Rekonstruktion der analysierten Planungsprozesse, anstatt den Fokus allein auf mutmaßlich relevante Pla- nungsphasen zu legen, sowie eine ausführliche inhaltliche Argumentation bezüglich des Auftretens spezifischer Effekte. Anders als bei Janis (1982) erleichtern heutzutage die grö- ßere Menge der erfassten und im Internet verfügbaren Informationen eine vollständigere Repräsentation der Ereignisse: One of the noteworthy points of the Love Parade [sic!] disaster is that most evidence is available online, which allows many scientists and also the broader public to form an opinion. This dramatically changes the situation compared to many previous disasters, where a lot of evidence is of confidential nature, accessible only to a small number of experts. We believe that the new openness of data can have many beneficial effects on society. This study, for example, hopes to make a contribution to a better understanding of crowd disasters and their avoidance in the future. The accessibility of the materials can also serve organizers of mass events, the police and emergency forces to prepare themselves better. (Helbing & Mukerji, 2012, S. 24) Im Rahmen dieser Arbeit soll – auf Basis einer Literaturrecherche zu den Themen Biases und Heuristiken sowie deren potenzielle Abhängigkeit von der Organisationskultur – ein 1 Einleitung 17 Untersuchungsmodell zu deren Wirkung in organisationalen Planungsprozessen abgelei- tet werden. Anschließend sollen kulturabhängige Verhaltensweisen in Planungsprozessen, die im Zusammenhang mit dem jeweiligen Bias stehen, so operationalisiert werden, dass jeder Mitarbeiter die eigenen Planungsabläufe im Bezug auf die Anfälligkeit für den jewei- ligen Bias bewerten kann. Anhand von Fallstudien soll die grundsätzliche Relevanz von Biases im Kontext organisationaler Planungsprozesse sowie die augenscheinliche Validi- tät der Fragebogenitems geprüft werden. Anschließend bietet eine empirische Erhebung, mit in organisationalen Planungsprozessen involvierten Probanden, die Möglichkeit, wei- tere Testgütekriterien des Fragebogens beziehungsweise Itemgütekriterien zu bestimmen. Dazu gehören die Objektivität, die Reliabilität und, als weitere Form der Validität, die Kriteriumsvalidität des Fragebogens. Bezüglich der Items gilt es, Aspekte wie die Trenn- schärfe und die Itemschwierigkeit zu überprüfen. Dieser Erhebung vorgeschaltet soll in einer quantitativen Expertenbefragung bewertet werden, inwieweit die Items des neu kon- struierten Fragebogens zu den Konstruktdefinitionen der einzelnen Biases passen, also wie inhaltsvalide die Operationalisierungen sind. Im folgenden Abschnitt werden die aus dem Forschungsstand abgeleiteten Zielstellungen dieser Arbeit noch einmal kurz zusammengefasst. 1.2 Zielstellung Psychologists have been preoccupied with exploring the potential psychological mechanisms for generating biased outcome. Now, we believe, is the time to draw together the wealth of research in this area with a focus on practical steps for addressing bias. (Stafford, Holroyd & Scaife, 2018, S. 13) Zusammenfassend werden aus dem im vorherigen Kapitel beschriebenen Forschungsstand sowie den identifizierten Forschungslücken folgende Zielstellungen für diese Arbeit defi- niert: Zunächst werden die psychologischen Grundlagen zu dem Thema Urteile und Entschei- dungen unter Unsicherheit erläutert (Kapitel 2). Anschließend werden jene kognitiven, motivationalen und gruppendynamischen Biases be- schrieben, die eine besondere Relevanz für organisationale Planungs- und Entscheidungs- prozesse aufweisen und deren Phänomenologie sowie deren zugrundeliegenden kognitiven, motivationalen beziehungsweise sozialen Mechanismen aufgezeigt (Kapitel 3). Daraufhin wird die Rolle der Organisationskultur als Einflussfaktor auf das Auftreten der- artiger Effekte untersucht. So haben bestimmte Aspekte der Organisationskultur potenziell einen Einfluss auf die Qualität organisationaler Planungsprozesse, der über das Auftreten kognitiver, motivationaler und gruppendynamischer Biases mediiert wird (Kapitel 4). 1 Einleitung 18 Die theoretischen Erkenntnisse über diese Zusammenhänge werden in ein Untersuchungs- modell integriert, mit dem Ziel, darauf basierend ein diagnostisches Screeninginstrument in Form eines Fragebogens zur Bewertung des Risikos für Biases in Planungsprozessen zu ent- wickeln. Dafür werden bestimmte Aspekte der Organisationskultur operationalisiert, für die ein Zusammenhang mit spezifischen Biases angenommen wird. Die Items beinhalten entsprechende Situationen und Verhaltensweisen, die von den Organisationsmitgliedern selbst bewertet werden können (Kapitel 5). Anschließend werden zwei Ereignisse, deren vorausgehenden Planungsprozesse gut doku- mentiert sind, im Rahmen von Fallstudien untersucht. Anhand dieser Fallstudien soll zum einen die externe Validität, der im Theorieteil identifizierten Biases aufgezeigt werden, und zum anderen sollen Hinweise für die inhaltliche Validität der auf dem Untersuchungsmo- dell basierenden Operationalisierungen beziehungsweise Items aufgezeigt werden (Kapitel 6.1). Bevor der Fragebogen in einer Validierungsstudie eingesetzt wird, findet eine quantitative Expertenbefragung statt, in der Probanden die inhaltliche Validität des Fragebogens an- hand der Passung der Items zu der entsprechenden Konstruktdefinition bewerten (Kapitel 6.2). Im Anschluss daran wird der Fragebogen zur Erhebung empirischer Daten bei der Be- fragung von Probanden, die in unterschiedlichen Branchen Erfahrungen in organisatio- nalen Planungs- und Entscheidungsprozessen erlangt haben, eingesetzt. Auf Basis dieser Daten werden die Testgütekriterien des Fragebogens beschrieben. Zum Beispiel wird die Kriteriumsvalidität der Items über die Korrelation zwischen potenziell biasinduzierenden beziehungsweise -reduzierenden Verhaltensweisen und einem Gesamturteil der Planungs- und Entscheidungsprozesse diskutiert (Kapitel 6.3). Schließlich werden die theoretischen und praktischen Implikationen bezüglich der Ergeb- nisse der theoriebasierten Analyse, der Fallstudien und der empirischen Befragungen dis- kutiert und Limitationen der Arbeit beschrieben (Kapitel 7). 19 2 Urteils- und Entscheidungsprozesse We believe the importance of this question is somewhat selfevident: Decisions shape important outcomes for indi- viduals, families, businesses, governments, and societies, and knowing more about how to improve those outcomes would benefit all of these individuals, collectives, and institutions. After all, errors induced by biases in judgment lead decision makers to undersave for retirement, engage in needless conflict, marry the wrong partners, accept the wrong jobs, and wrongly invade countries. Given the massive costs that can result from suboptimal decision making, it is critical for our field to focus increased effort on improving our knowledge about strategies that can lead to better decisions. (Milkman et al., 2009, S. 379) In den folgenden Abschnitten werden die psychologischen Grundlagen von Urteils- und Entscheidungsprozessen beschrieben. Organisationale Planungsprozesse können im We- sentlichen als Problemlöseprozesse verstanden werden, in denen es eine übergeordnete Problemstellung gibt, zu deren Lösung viele untergeordnete Aufgabenstellungen zu be- arbeiten sind, die wiederum Gegenstand von Urteils- und Entscheidungsprozessen sind. Deswegen wird im folgenden Abschnitt zunächst erläutert, wie sich die Beschaffenheit von Problemstellungen definieren lässt und welche Art von Problemstellungen typisch für organisationale Planungsprozesse sind (Kapitel 2.1). Anschließend werden jene kognitive Prozesse beschrieben, die Urteils- und Entscheidungsprozessen zugrunde liegen (Kapitel 2.2). Schließlich wird die Bedeutung des sozialen Kontextes beschrieben, der wesentlichen Einfluss darauf hat, wie Urteile und Entscheidungen in Organisationen getroffen werden (Kapitel 2.3). 2.1 Problemlöseprozesse The principle of bounded rationality [is] the capacity of the human mind for formulating and solving complex problems is very small compared with the size of the problems whose solution is required for objectively rational behavior in the real world — or even for a reasonable approximation to such objective rationality. (Simon, 1947, S. 198) Problemlöseaktivitäten im Allgemeinen spielen eine zentrale Rolle im Alltag eines jeden Menschen. Menschen kreieren Problemräume beziehungsweise werden mit diesen konfron- tiert, welche sich über einen unbefriedigenden Anfangszustand, einen erwünschen Ziel- zustand und Operatoren, die den Wechsel vom Anfangs- zum Zielzustand ermöglichen, definieren (Newell & Simon, 1972). 2 Urteils- und Entscheidungsprozesse 20 Jonassen (2000) unterscheidet Probleme nach ihrer Strukturiertheit, Abstraktheit sowie Komplexität. Bei gut strukturierten Problemen sind der Anfangs- und Zielzustand eindeu- tig spezifiziert und die Schwierigkeit liegt in der korrekten Anwendung einer begrenzten Anzahl an Operatoren – zum Beispiel beim Lösen einer mathematischen Gleichung. Im Gegensatz dazu enthalten schlecht strukturierte Probleme keine vorgegebenen Operatoren zur Lösung des Problems. Somit müssen mögliche Lösungswege im Problemlöseprozess erst entwickelt werden. Dabei gibt es vielfältige Lösungsmöglichkeiten und die Evaluie- rung dieser unterschiedlichen Lösungsmöglichkeiten unterliegt wiederum einer Vielzahl an Kriterien. Organisationale Planungssituationen fallen entsprechend in die Kategorie der schlecht strukturierten Probleme (vgl. Kapitel 1). Die Konstruktion eines Flughafens lässt sich zum Beispiel nicht auf eine überschaubare Anzahl an Lösungsparametern eingrenzen. Es muss interdisziplinär gearbeitet werden, und dabei müssen Konzepte und Perspektiven aus Bereichen wie Mathematik, Politik, Psychologie sowie Wirtschafts- und Ingenieurs- wissenschaften berücksichtigt werden. Ein solches Vorhaben erfordert es immer wieder, unterschiedliche persönliche Meinungen zu diskutieren und anschließend Urteile zu fällen. Ein weiteres Merkmal bezüglich der Probleme bei der Konstruktion eines Flughafens ist, dass dieses Vorhaben einen hohen Grad an Komplexität aufweist. Komplexität beschreibt die Anzahl an Variablen, die das Problem umfasst, sowie deren Interaktionen und deren zeitliche Dynamik (Jonassen, 1997). Mit steigender Komplexi- tät steigen auch die kognitiven Anforderungen und damit die Problemschwierigkeit. So müssen beim Flughafenbau eine enorm hohe Zahl an Variablen berücksichtigt werden, um diversen rechtlichen, politischen oder ingenieurstechnischen Ansprüchen gerecht zu wer- den. Hierbei wird auch deutlich, dass Strukturiertheit und Komplexität zu einem gewissen Grad miteinander korrelieren. Schlecht strukturierte Probleme finden oft in Systemen mit hoher Komplexität statt, die von vielen zeitlich instabilen und miteinander interagierenden Faktoren geprägt sind. Im Gegensatz dazu sind gut strukturierte Probleme, wie Mathe- matikaufgaben aus dem Lehrbuch, in der Anzahl der verfügbaren Variablen und deren Wirkung meistens klarer definiert und damit auch weniger komplex. Dieser Zusammen- hang zwischen Strukturiertheit und Komplexität zeigt sich jedoch nicht immer. So folgen die Handlungsoptionen bei Videospielen klaren, durch den Programmierer vorgegebenen, Regeln. Trotzdem gibt es in modernen Spielen eine sehr hohe Komplexität durch unzähli- ge interagierende Variablen, die den Spielverlauf beeinflussen. Auf der anderen Seite stellt die Auswahl des Outfits für eine Abendveranstaltung ein schlecht strukturiertes Problem dar, welches jedoch – zumindest für die meisten Menschen – keine sehr hohe Komplexität aufweist (Jonassen, 2000). Die Abstraktheit eines Problems beschreibt, ob es verallgemeinerbar oder situationss- pezifisch ist. Schlecht strukturierte Probleme sind dabei häufiger situationsspezifisch, da schlecht definierbare Problemräume des Alltags häufiger in Kontexten stattfinden, die sich aufgrund unterschiedlicher Umweltbedingungen nicht einfach replizieren lassen (Simon, 2 Urteils- und Entscheidungsprozesse 21 1973). Die Konstruktion eines Flughafens wird immer von unterschiedlichen Standortbe- dingungen, nationalen und internationalen Regularien, kulturellen Einflüssen etc. beein- flusst, die in ihrer Gesamtheit einzigartig sind und sich somit nicht einfach von einem vorherigen Projekt übertragen lassen. Gut strukturierte Probleme lassen sich hingegen häufig auf ähnliche Aufgabentypen verallgemeinern. Jedoch ist auch Abstraktheit ein ei- genständiger Faktor, der nur teilweise mit Strukturiertheit und Komplexität korreliert. Zum Beispiel können gut strukturierte Textaufgaben situationsspezifisch sein, während sich unstrukturierte Probleme in der Form gewisser Dilemmata auf ähnliche Situationen verallgemeinern lassen (Jonassen, 2000). Fokus dieser Arbeit sind organisationale Planungsprozesse, die sich dadurch auszeichnen, dass sie in komplexen Systemen stattfinden und damit durch eine Vielzahl an interagie- renden, zeitlich dynamischen Faktoren beeinflusst werden, welche nicht vordefiniert sind, sondern mit einer Vielzahl an Akteuren ausgehandelt werden müssen. Des Weiteren kann aufgrund dynamischer Umweltbedingungen nur bis zu einem gewissen Grad auf Erfahrun- gen zurückgegriffen werden, oder Erfahrungswissen kann in bestimmten Situationen sogar kontraproduktiv sein (vgl. Kapitel 1). Es handelt sich also in der Regel um Probleme, die in hohem Ausmaß schlecht strukturiert, komplex sowie situationsspezifisch sind. Dieser Sachverhalt bietet einen ersten Erklärungsansatz für die Fehleranfälligkeit orga- nisationaler Planungs- und Entscheidungsprozesse. Während gut strukturierte Probleme algorithmisch gelöst werden können, sind schlecht strukturierte, komplexe und situationss- pezifische Entscheidungssituationen zwangsläufig Entscheidungen, die durch ein gewisses – und oft hohes – Maß an Unsicherheit geprägt sind. Ein Planungsprozess setzt sich aus vielen, unterschiedlich einflussreichen Einzelentscheidungen zusammen, die im Zeitverlauf des Projekts, und teilweise auch parallel durch verschiedene Gruppen getroffen werden. Auch wenn es bei vielen dieser Entscheidungen nicht möglich ist, eine eindeutige Hand- lungsalternative, wie beim Lösen einer mathematischen Gleichung, zu definieren, kann die Entscheidungsqualität durch das Vermeiden systematischer Biases (vgl. Kapitel 3) gestei- gert werden. 2.2 Kognitionspsychologische Perspektive Similarly, in an information-rich world, the wealth of information means a dearth of something else: a scarcity of whatever it is that information consumes. What information consumes is rather obvious: it consumes the attention of its recipients. Hence a wealth of information creates a poverty of attention and a need to allocate that attention efficiently among the overabundance of information sources that might consume it. (Simon, 1971, S. 40-41) Menschen sind in ihrem Alltag ständig einer Unmenge unterschiedlicher Reize ausgesetzt, die auf ihre Wahrnehmungskanäle wirken, und potenziell Aufmerksamkeit erfordern. Auf- merksamkeit ist jedoch eine begrenzte Ressource, die im gegenwärtigen Moment nur einen 2 Urteils- und Entscheidungsprozesse 22 kleinen Ausschnitt aller zur Verfügung stehenden externen Reize erfassen kann, um diesen erfassten Ausschnitt bewusst zu verarbeiten und daraus eine Reaktion abzuleiten. Eine solche Reaktion bezieht sich auf die Manipulation oder Speicherung von Gedächtnisin- halten, um daraus Urteile und Entscheidungen über anschließende Verhaltensweisen zu treffen. Um der Situation trotz limitierter kognitiver Ressourcen Herr zu werden, findet der Großteil menschlicher Kognition implizit, also unbewusst, statt. Die meisten dieser impliziten Prozesse wurden zuvor durch Konditionierung oder Assoziationslernen auch implizit erlernt, wie zum Beispiel einfache Wahrnehmungsprozesse (Jensen, Merz, Spence & Frings, 2020). Komplexere Prozesse werden durch bewusste Lernprozesse explizit er- lernt und durch Übung mit der Zeit automatisiert, wie zum Beispiel das Autofahren. In diesem Kontext wurden in Kapitel 1 die Prinzipien der Bounded Rationality und des Cognitive Misers erläutert, die erklären, wie der Mensch durch die Anwendung automa- tisierter Urteils- oder Handlungsschemata seine kognitiven Ressourcen effizient nutzt, um so gut wie möglich mit diesen Limitationen umzugehen. Automatisierte Handlungsweisen, die dem Prozeduralen Gedächtnis zugeordnet werden, funktionieren genauso wie implizite Urteilsheuristiken dann am besten, wenn es sich um einfache, wiederholende Routinetä- tigkeiten beziehungsweise -situationen handelt, die zuvor durch wiederholte Exposition beziehungsweise Übung implizit oder explizit erlernt wurden. Zu den impliziten heuristi- schen Prozessen gehören grundlegende Wahrnehmungsfunktionen, wie die Einschätzung des Abstands von Gegenständen im dreidimensionalen Raum (Gerrig & Zimbardo, 2018). Basale Perzeptionsprozesse sind so allgegenwärtig, dass Menschen sich im Alltag praktisch nie darüber bewusst sind, dass sie implizite Urteile treffen, wenn sie zum Beispiel nach einem Gegenstand greifen. Aufgrund der allgegenwärtigen und impliziten Funktionswei- se basaler Perzeptionsprozesse lässt am Beispiel dieser Prozesse die Wirkungsweise von Biases gut veranschaulichen. Bei der Abschätzung der Distanz eines Objekts werden die optischen Reize über das Au- ge wahrgenommen (Bottom-Up) und gleichzeitig gespeicherte Konzepte abgerufen, welche allgemeine Informationen enthalten – wie die Größe, die Schärfe, die relative Lage im Raum zu anderen Objekten etc. – die es zum Beispiel erlauben, ein akkurates Urteil dar- über zu treffen, ob man aufstehen muss, um ein Objekt zu erreichen oder es auch aus einer sitzenden Position zu erreichen ist (Top-Down). Von der Enkodierung über den Abruf und das Urteil bis zur Handlung läuft der gesamte Prozesse implizit ab, also ohne darüber be- wusst nachdenken zu müssen, und somit ohne dass kognitive Ressourcen benötigt werden. Derartige Prozesse finden im Alltag kontinuierlich statt und sind entsprechend in diver- sen Kontexten erlernt und erprobt. Darüber hinaus sind die physikalischen Eigenschaften der Umwelt so stabil, dass es sehr selten zu Störungen dieser impliziten Prozesskette kommt (Gerrig & Zimbardo, 2018). Bewusst werden implizite Perzeptionsprozesse in der Regel erst, wenn sie unerwartetes Feedback hervorrufen, und es somit zu einem Mismatch zwischen der Erwartung und der Realität kommt. Anschauliche Beispiele hierfür liefern 2 Urteils- und Entscheidungsprozesse 23 optische Täuschungen. Es scheint so, als seien die Figuren in Abbildung 1 unterschiedlich groß, von links nach rechts aufsteigend. Abbildung 1 Dreidimensionale Wahrnehmungsheuristik Anmerkung. Die Figuren sind exakt gleich groß abgedruckt, werden aber aufgrund optischer Wahr- nehmungsheuristiken als im dreidimensionalen Raum unterschiedlich groß wahrgenommen (Kah- neman, 2011, S. 100). So bewerteten dies auch die Mehrheit der Probanden, die gefragt wurden, ob – so wie die Figuren abgedruckt sind – die rechte Figur größer sei als die linke. Tatsächlich sind die Fi- guren exakt gleich groß. Der Grund für die Fehleinschätzung ist, dass die dreidimensionale Wahrnehmung so allgegenwärtig ist, das ein Umdenken in den zweidimensionalen Raum schwer möglich ist. Damit eine Orientierung im dreidimensionalen Raum möglich ist, be- rechnen perzeptive Heuristiken auf Basis von erlernten Top-Down-Prozessen automatisch Informationen zur Größe und Schärfe von Objekten sowie deren relatives Verhältnis zuein- ander. Entsprechend nehmen Menschen Abbildung 1 als dreidimensionale Szene wahr, in der die Figuren von links nach rechts, entsprechend ihrer Anordnung im Raum, zunehmend größer werden. Selbst mit dem Wissen, dass die Figuren in Wirklichkeit gleich groß ab- gedruckt sind, täuscht das Wahrnehmungssystem weiterhin die implizite dreidimensionale Interpretation vor (Kahneman, 2011). Diese optische Illusion beziehungsweise verzerrte Wahrnehmung lässt sich mit der Wirkung komplexerer kognitiver Biases insofern verglei- chen, als dass diese Effekte ebenfalls implizit und auf Basis heuristischer Urteils- und Ent- scheidungsprozess auftreten. So verhält es sich bei komplexeren, aber durch Lernprozesse bald automatisierte Fähigkeiten, wie dem Autofahren, ähnlich. Eine Fahranfängerin muss bei ihren ersten Autofahrten sehr viele bewusste Entscheidungen und Urteile treffen, zum Beispiel, wann sie in einen anderen Gang schaltet oder ob sie nun sicher die Spur wechseln kann. Durch entsprechendes Training und Wiederholungen können diese Entscheidungen 2 Urteils- und Entscheidungsprozesse 24 durch automatisierte Schemata ersetzt werden, und die Fahrerin muss keine Aufmerksam- keit mehr darauf aufwenden. Die automatisierten Prozesse funktionieren deshalb so gut, weil der Straßenverkehr relativ einfachen Regeln folgt und insbesondere das Befahren be- kannter Strecken dadurch sehr repetitiv ist. Die Fahrerin spart so kognitive Ressourcen und kann sich während der Autofahrt zum Beispiel mit ihrem Beifahrer unterhalten oder sich auf ein Hörbuch konzentrieren. Entsprechend machen implizite, heuristische Urteile und Handlungen den überwiegenden Anteil des menschlichen Alltags aus (Nosek, Hawkins & Frazier, 2011). Wenn derartige heuristische Entscheidungen in einem Kontext zum Einsatz kommen, der eigentlich eine bewusste Analyse der Situation erfordert, und folglich eine Fehlentschei- dung getroffen wird, spricht man – wie im Beispiel der optischen Täuschung – von einem kognitiven Bias. Auf das Beispiel einer Fahranfängerin bezogen kann dies zum Beispiel bedeuten, dass sie ihre Erfahrung mit unterschiedlichen Verkehrssituationen überschätzt, Geschwindigkeit und Bremsweg deshalb nicht adäquat kalibriert und einen Auffahrun- fall verursacht. Mit genügend Erfahrungen in ähnlichen Situationen wäre ihr der Fehler nicht passiert, da sie die Gegebenheiten implizit besser hätte einschätzen können. Alter- nativ hätte ein rechtzeitiger Hinweisreiz darauf, dass ihre impliziten Urteile ungenügend sind, System-2-Prozesse aktiviert, und sie hätte durch eine bewusste Analyse die Situation gegebenenfalls vermeiden können. Um die kognitiven Prozesse, die Heuristiken beziehungsweise kognitiven Biases zugrunde liegen, besser zu verstehen, wird im Folgenden beschrieben, wie der Mensch kognitive Operationen strukturiert. Grundsätzlich laufen kognitive Prozesse seriell und/oder parallel ab. Die einzelnen kognitiven Operationen kann man sich dabei als Bauklötze vorstellen, wie in Abbildung 2 dargestellt. Ob kognitive Prozesse parallel ablaufen können oder seriell verarbeitet werden müssen, hängt von dem Ausmaß der geistigen Beanspruchung ab. So verfügt der Mensch über be- grenzte kognitive Verarbeitungsressourcen, die auf verschiedene mentale Prozesse verteilt werden müssen (Logan, 2002). Inwieweit es zu Interferenzen zwischen parallelen Prozessen kommt, lässt sich zum einen nach Wickens (2008) über die in Abbildung 3 dargestell- ten Modalitäten erklären. Demnach können parallele kognitive Prozesse in dem Ausmaß erfolgreich ausgeführt werden, in dem sie eine unterschiedliche Kombination dieser drei Modalitäten verwenden. So würde es einer Person relativ leicht fallen, eine Information visuell und räumlich wahrzunehmen und gleichzeitig auditiv und verbal zu reagieren – zum Beispiel beim Beobachten des Fernsehers (visual/spatial/perception) und parallelem Sprechen zu einer anderen Person (auditory/verbal/responding). Die gesprochenen Inhalte von zwei verschiedenen Personen parallel wahrzunehmen (auditory/verbal/perception) ist praktisch nicht möglich, während das Zuhören und gleichzeitige Schreiben bedingt funk- tioniert (auditory/verbal/perception vs. visual/verbal/responding). 2 Urteils- und Entscheidungsprozesse 25 Abbildung 2 Parallele und serielle Kognition Anmerkung. Vereinfachte Beispiele für unterschiedliche Konstellationen serieller und paralleler In- formationswahrnehmung, -verarbeitung und Reaktionen. P = Perzeptive Prozesse, M = Motorische Prozesse, A und B = zentrale Prozesse. Eigene Darstellung in Anlehnung an Logan (2002, S. 272) Abbildung 3 Das vierdimensionale Multiple-Resource-Modell Anmerkung. Beschreibung unterschiedlicher mentaler Prozesse zur Erklärung gegenseitiger Inter- ferenzen. Eigene Darstellung in Anlehnung an Wickens (2008, S. 450) 2 Urteils- und Entscheidungsprozesse 26 Dieser Erklärungsansatz zur Entstehung von Interferenzen hat Implikationen für organisa- tionale Planungsprozesse, denn die Art und Weise, wie Informationen präsentiert werden, hat einen Einfluss darauf, inwieweit die kognitiven Ressourcen der Akteure beansprucht werden. Eine ressourcengerechte Gestaltung der Planungs- und Entscheidungssituation im Sinne einer interferenzarmen Mediennutzung kann somit in bestimmten Situationen die Wahrscheinlichkeit für Überbeanspruchung und damit für Biases aufgrund von inad- äquaten Heuristiken reduzieren. Zu beachten gilt es, dass die zuvor beschriebenen Model- lierungen stark vereinfacht sind, da Perzeptionsprozesse grundsätzlich immer auch einen Gedächtnisabruf und eine mentale Reaktion beinhalten, und die parallele Informations- verarbeitung auch unabhängig von der Verwendung verschiedener Modalitäten deutlich eingeschränkt ist. Für organisationale Planungsprozesse ist es zudem typisch, dass ein re- lativ langer Zeitraum für das Treffen einer Entscheidung zur Verfügung steht, dafür jedoch die Menge der zu berücksichtigenden und zu verarbeitenden Informationen enorm hoch ist. Deshalb spielt eine andere Form der Interferenz für die Entstehung von Biases in solchen Situationen eine größere Rolle. So beschreibt die Kapazitäten-Interferenz, dass eine Interferenz zwischen kognitiven Pro- zessen auch unabhängig von der parallelen Beanspruchung der in Abbildung 3 dargestellten Modalitäten auftritt, insofern das Ausmaß der Interferenz auch von der Gesamtbelastung der kognitiven Ressourcen abhängt (Kahneman, 1973). Wie im Rahmen der Prinzipien Bounded Rationality und Cognitive Miser beschrieben, sind insbesondere komplexe Pro- blemstellungen mit vielen Elementen und Wechselwirkungen – wie sie typisch für organisa- tionale Planungsprozesse sind (vgl. Kapitel 2.1) – nicht vollständig mental repräsentierbar. Diese kognitiven Einschränkungen, die dem Konzept der Bounded Rationality entsprechen, führen dazu, dass kontinuierlich ein impliziter und erfahrungsbasierter Filterprozess statt- findet (Top-Down), der den Fokus auf die potenziell relevantesten Informationen lenkt. Dieser Prozess macht es möglich, der konstanten Reizüberflutung Herr zu werden, al- lerdings kann ein erwartungsgesteuerter Fokus dazu führen, dass sich unerwartete, aber möglicherweise wichtige Informationen – bei der Wahrnehmung, aber auch beim Abruf aus dem Gedächtnis – der Aufmerksamkeit entziehen. In der Videosequenz, aus der Abbildung 4 stammt, erkennen nur ca. 50% der Probanden den Gorilla in der Mitte, der im Verlauf des Videos durch das Bild läuft, da die Probanden die Aufgabe haben, zu zählen, wie häufig sich die Personen in weißen T-Shirts gegenseitig einen Basketball zuwerfen, und der Fokus somit durch die entsprechenden Filterprozesse auf die Aufgabe gelenkt wird (Simons & Chabris, 1999). Hier treffen die Probanden kein Fehlurteil, sondern erfüllen die Aufgabe gerade deshalb korrekt, weil sie irrelevante Reize ignorieren. Dies entspricht den Prinzipien der Bounded Rationality und des Cognitive Misers, demnach Menschen sich innerhalb ihrer kogniti- ven Limitationen effizient und so rational wie möglich beziehungsweise nötig verhalten. 2 Urteils- und Entscheidungsprozesse 27 Abbildung 4 Der unsichtbare Gorilla Anmerkung. Einzelner Frame des Videos aus der Studie von Simons und Chabris (1999, S. 1070) Gleichzeitig entsteht aufgrund dieses Filterprozesses eine Blindheit für unerwartete, aber möglicherweise relevante Informationen. Umstände, in denen derartige Limitationen zu impliziten Fehlurteilen führen, werden in Kapitel 3 erläutert. Dazu gehört in ähnlicher Weise zum Beispiel der Confirmation Bias (3.2.4), bei dem eine hypothesenbestätigende Informationssuche die Suche nach abweichenden Informationen verringert. Um kognitive Limitationen besser nachvollziehen zu können, wird im Folgenden erklärt, welche Gedächtnisprozesse am Treffen von normalerweise effizienten und akkuraten Urtei- len beteiligt sind. Nach der sensorischen Perzeption und neuronalen Weiterleitung eines Stimulus aus der Umwelt, zum Beispiel einer auditiven sprachlichen Information, kön- nen zur Informationsverarbeitung im Wesentlichen drei Gedächtnisprozesse unterschieden werden (Baddeley, 2007): 1. Enkodierung beschreibt die mentale Repräsentation einer Information. 2. Speicherung umfasst das Aufrechterhalten der Information über eine gewisse Zeit- spanne. 3. Abruf ist der Rückgriff auf die gespeicherte Information zu einem späteren Zeitpunkt. Eine Vielzahl der Stimuli aus der Umwelt wird zunächst im sensorischen Gedächtnis gespei- chert, allerdings nur für wenige Millisekunden (Sperling, 1960). Priorisierte Reize werden im Kurzzeitgedächtnis weiterverarbeitet, das jedoch bei den meisten Menschen nur ca. 7 Informationseinheiten gleichzeitig repräsentieren kann (G. Miller, 1956). Das Kurzzeitge- 2 Urteils- und Entscheidungsprozesse 28 dächtnis ist Teil des Arbeitsgedächtnisses, welches die Grundlage kognitiver Tätigkeiten ist, da es Gedächtnisaktivitäten koordiniert und damit einen Gedankenfluss ermöglicht. Das Arbeitsgedächtnis umfasst drei wesentliche Komponenten: Die phonologische Schlei- fe beschreibt das Speichern und Manipulieren sprachbasierter Informationen, während der visuell-räumliche Notizblock mentale Bilder verarbeitet. Die zentrale Exekutive ist für die Kontrolle der Aufmerksamkeit verantwortlich, zum Beispiel für die Koordination unterschiedlicher Informationen der phonologischen Schleife und des visuell-räumlichen Notizblocks, und die Integration dieser Informationen zu komplexeren Gedächtnisinhalten (Baddeley & Andrade, 2000). Das Arbeitsgedächtnis bewirkt damit die Aufrechterhaltung der psychologischen Gegenwart, da es erlaubt, Zusammenhänge zwischen unterschiedli- chen Informationen und wechselnden Situationen herzustellen. Dabei findet über das Ar- beitsgedächtnis auch die Speicherung und der Abruf von Informationen in und aus dem Langzeitgedächtnis statt, wodurch eine Kombination neuer Informationen mit bereits vor- handenem Wissen und Erfahrungen möglich ist und somit neue Erkenntnisse entstehen (Baddeley, 2000). Im Langzeitgedächtnis sind Informationen, Erfahrungen, Konzepte und Fertigkeiten lang- fristig gespeichert, die über das sensorische Gedächtnis und Kurzzeitgedächtnis ange- eignet wurden. Das Langzeitgedächtnis beinhaltet das gesamte Wissen eines Menschen von sich selbst und der Welt, dabei lässt sich das explizite/deklarative und das implizi- te/prozedurale Gedächtnis unterscheiden (Ullman, 2004). Das explizite Gedächtnis ent- hält episodische sowie semantische Gedächtnisinhalte. Episodische Gedächtnisinhalte sind sämtliche individuelle, persönliche Erlebnisse, die im Laufe eines Lebens in spezifischen Situationen gespeichert wurden. Semantische Gedächtnisinhalte beschreiben generisches, kategoriales Faktenwissen, das kontextübergreifend in einem semantischen Netzwerk ge- speichert ist. Das prozedurale Gedächtnis enthält Fertigkeitswissen, das zunächst Schritt für Schritt erlernt wird, anschließend durch Wiederholung trainiert und fortan intuitiv ausgeführt wird. Durch die implizite Durchführung ganzer Bewegungsabläufe geht mit der Zeit das explizite Wissen über die einzelnen Schritte verloren (Camina & Güell, 2017). Die Kapazität der im Langzeitgedächtnis gespeicherten Informationen ist grundsätzlich unbegrenzt (Camina & Güell, 2017). Schwierigkeiten, sich zu erinnern, entstehen vor allem beim Abruf von Informationen aus dem Langzeitgedächtnis durch das Arbeitsgedächtnis. Zum Erinnern einer gespeicherten Information ist ein Hinweisreiz nötig. Dieser Hinweis- reiz ist ein Stimulus, der den Abruf einer Information aus dem Langzeitgedächtnis anstößt. Dem Erinnerungsprozess liegt eine Zielstellung zugrunde, die in der Regel den Hinweisreiz liefert. Der Hinweisreiz kann extern generiert werden, zum Beispiel durch eine Klausur- frage oder intern, wenn eine Person sich beispielsweise fragt, woher sie eine andere Person kennt, die sie auf der Straße sieht (Frankland, Josselyn & Köhler, 2019). Die Qualität des Hinweisreizes hat somit neben der Qualität der zurückliegenden Enkodierung und Spei- cherung der betreffenden Information einen Einfluss darauf, ob beziehungsweise wie leicht 2 Urteils- und Entscheidungsprozesse 29 eine Erinnerung abgerufen werden kann. Inhalte des semantischen Gedächtnisses sind in einem Netzwerk organisiert, das diverse Informationen in Kategorien zusammenfasst und diese in Bezug zueinander setzt. Diese Kategorien können Objekte, Tätigkeiten aber auch Eigenschaften oder abstrakte Ideen umfassen, die in bedeutungsvollen Anordnungen organisiert und hierarchisch gegliedert sind. Durch diese Art der Informationsbündelung beziehungsweise Chunking können Ge- dächtnisressourcen effizienter genutzt werden und der Abruf von Informationen wird er- leichtert (Quillan, 1966). Abbildung 5 zeigt beispielhaft, in welcher Art Informationen im semantischen Gedächtnis kategorisiert sind. Die Ebene, auf der sich Bird beziehungswei- se Fish befinden, kann als Basisebene betrachtet werden, da die meisten Personen, die zum Beispiel einen Vogel sehen, ihn als erstes auf dieser Ebene einordnen, anstatt auf der allgemeineren Ebene Tier oder der spezifischeren Ebene Kanarienvogel. Abbildung 5 Beispiel eines semantischen Netzwerks Anmerkung. Hypothetisches Beispiel für die Strukturierung des semantischen Gedächtnisses. Eigene Darstellung in Anlehnung an Collins und Quillian (1969, S.241) Wenn zum Beispiel Urteile über Häufigkeiten oder Wahrscheinlichkeiten gefällt werden, findet ein Abruf entsprechender Kategorien aus dem semantischen Gedächtnis statt. Die Leichtigkeit, mit der Beispiele aus der Zielkategorie abgerufen werden können, dient als Hinweis für die Häufigkeit beziehungsweise Wahrscheinlichkeit dieser Kategorie. Unter 2 Urteils- und Entscheidungsprozesse 30 welchen Umständen dieser Prozess zielführend beziehungsweise verzerrt ist, wird in Kapitel 3.2.1 zur Availability Heuristic beschrieben. Alle beschriebenen kognitiven Prozesse – die Wahrnehmung, das Enkodieren, das Spei- chern und der Abruf finden nicht streng voneinander getrennt statt, sondern parallel und in komplexer Interaktion. Selbst einfache Wahrnehmungsprozesse, die keine bewusste Auf- merksamkeit erfordern, wie im Beispiel der optischen Perzeption, umfassen sowohl die En- kodierung als auch den Abruf von Gedächtnisinhalten. Bei sämtlichen Wahrnehmungs- und Gedächtnisprozessen handelt es sich dabei entweder um explizite oder um implizite Pro- zesse. Diese Unterscheidung wird in verschiedenen Dual-Process-Theories thematisiert, die sich im Kern relativ ähnlich sind (Kahneman & Frederick, 2009). Explizite Gedächtnis- und Urteilsprozesse, die Kahneman und Frederick (2009) als System 2 bezeichnen, be- nötigen Aufmerksamkeit und finden kontrolliert und bewusst statt, während implizite Gedächtnis- und Urteilsprozesse (System 1) keine oder kaum Aufmerksamkeitsressourcen benötigen und intuitiv bzw. unbewusst ausgeführt werden (vgl. Abbildung 1). Während kontrollierte System-2-Prozesse ein hohes Ausmaß an kognitiven Ressourcen erfordern und entsprechend oft nur einzeln beziehungsweise seriell bearbeitet werden können, sind au- tomatische System-1-Prozesse durch Training so gespeichert, dass sie wenig oder keine Aufmerksamkeit benötigen und somit die kognitiven Ressourcen des Arbeitsgedächtnisses kaum beanspruchen. Stattdessen werden unbewusst im Langzeitgedächtnis gespeicherte Schemata, Skripte oder Konzepte aufgerufen, die im Zusammenhang mit dem aktuellen Kontext erlernt wurden und entsprechend automatisch ausgeführt werden. Erst wenn es zu einem Mismatch zwischen dem gespeicherten Wissen und einem Stimulus der aktuellen Situation kommt, werden Aufmerksamkeitsressourcen aktiviert, um den Konflikt aufzu- lösen. (Barrett, Tugade & Engle, 2004). Ein kognitiver Bias entsteht entsprechend dann, wenn kein Mismatch erkannt wird, also keine Aufmerksamkeitsprozesse aktiviert werden und eine Handlungsentscheidung implizit getroffen wird, obwohl es sich um ein Fehlurteil handelt, das durch eine aufmerksame Analyse der Situation hätte erkannt werden können. Weitere Implikationen dieser kognitiven Prozesse für das Auftreten kognitiver Biases wur- den in Kapitel 1.1. kurz beschrieben und werden in Kapitel 3.2 ausführlicher thematisiert. 2.3 Sozialpsychologische Perspektive Our discussion focuses on these implicit self-related processes as they unfold in the context of social group mem- berships. That is, we show that group memberships can shape thoughts, preferences, motives, goals, or behaviors without the actor’s being aware of such an influence or having control over such expressions. As such, this research brings to the fore facets of the self that often contrast with experiences of reflexive consciousness and introspecti- on. Far from being rigid or monolithic, these processes are highly flexible, context-sensitive, and deeply rooted in socio-structural realities. (Devos & Banaji, 2003, S. 177) Organisationale Planungs- und Entscheidungsprozesse werden aufgrund ihrer Komplexi- 2 Urteils- und Entscheidungsprozesse 31 tät in der Regel in Gruppen durchgeführt. Dadurch stehen insgesamt mehr kognitive Res- sourcen und damit Ideen und Argumente zur Verfügung, allerdings erhöht sich auch die Komplexität des Prozesses, und es entstehen zusätzliche Quellen für Abweichungen von rationalen Urteilen (Montibeller & von Winterfeldt, 2018). Wie in Kapitel 2.2 beschrieben, setzen sich Wahrnehmungsprozesse aus Bottom-Up sowie Top-Down-Prozessen zusammen. Daraus folgt, dass insbesondere auch komplexe sozia- le Situationen sehr subjektiv wahrgenommen und interpretiert werden. So zeigt sich zum Beispiel in einer Studie von Hastorf und Cantril (1954), dass die Wahrnehmung eines Foot- ballspiels und die Beurteilung der Teams bezüglich der Fairness und Anzahl begangener Fouls stark von der Zugehörigkeit der Probanden zu der Universität, der das jeweilige Team angehört, abhängt. Als Grund beschreiben die Autoren den Prozess der selektiven Enko- dierung, demnach die Probanden von der Gesamtmenge der potenziell verfügbaren Reize nur eine begrenzte Anzahl an Reizen verarbeiten können und somit die restlichen Stimuli durch Top-Down-Prozesse herausgefiltert werden (Hastorf & Cantril, 1954). Dieser Pro- zess entspricht dem Prinzip der Bounded Rationality beziehungsweise den Ausführungen zur Informationsweiterleitung aus dem sensorischen Gedächtnis in das Arbeitsgedächtnis (vgl. Kapitel 2.2). Diese selektive Enkodierung ist eine potenzielle Quelle für Verzerrungen – im Beispiel des Footballspiels insbesondere durch motivationale Biases (Kapitel 3.3.). Dabei spielt der Self-Serving Bias (Kapitel 3.3.1) eine Rolle, der dazu führt, dass die Wahr- nehmung und Interpretation von Ereignissen einen tendenziell selbstwertdienlichen Cha- rakter aufweist. Zum Beispiel neigen viele Menschen dazu, Erfolge der eigenen Leistungsfä- higkeit zuzuschreiben und Misserfolge auf externe Umstände zurückzuführen. Ähnlich lässt sich im Beispiel der Studie von Hastorf und Cantril (1954) ein Desirability Bias (Tappin et al., 2017) erkennen – nicht zu verwechseln mit dem bekannteren Social-Desirability-Effekt. Der Desirability Bias beschreibt die Tendenz, Informationen systematisch zugunsten er- wünschter Entscheidungsalternativen zu wählen oder zu interpretieren (vgl. Kapitel 3.3.4). Ähnlich wie bei dem Confirmation Bias beeinflusst dieses „Wunschdenken“ die Informa- tionssuche, -verarbeitung und -speicherung. Der Self-Serving Bias und der Desirability Bias sind Beispiele für motivationale Biases, die auf intraindividueller Ebene stattfinden, aber oft eine soziale Komponente beinhalten, wenn sie dem Vergleich mit anderen Men- schen oder der Identifikation mit einer Gruppe dienen. So findet die selbstwertdienliche Attribution des Self-Serving Bias häufig auch im Vergleich mit anderen Personen statt, beziehungsweise wird entsprechend kommuniziert (Shepperd et al., 2008). Von dieser so- zialen Form motivationaler Biases werden in Kapitel 3.4 jene gruppendynamischen Biases abgegrenzt, die erst im Kontext der Interaktion mit einer konkreten Gruppe entstehen. Die Auswirkung der begrenzten Ressourcenkapazität menschlicher Aufmerksamkeitspro- zesse zeigt sich auch bezüglich des Konzepts Persuasion. Bei der Persuasion geht es um den Versuch, durch soziale Interaktion die Einstellung eines Menschen zu verändern. Das 2 Urteils- und Entscheidungsprozesse 32 Elaboration-Likelihood-Modell bietet einen Erklärungsansatz dafür, unter welchen Um- ständen sich Menschen leichter oder schwerer in ihrer Einstellung zu bestimmten Themen beeinflussen lassen (Petty, Cacioppo, Strathman & Priester, 2005). Das Modell unterschei- det die zentrale und die periphere Route der Persuasion. Wird der Stimulus, der die poten- zielle Einstellungsänderung anstößt, über die zentrale Route der Persuasion verarbeitet, bedeutet dies, dass der Empfänger die Botschaft gründlich analysiert (High Elaboration). Die Wahrscheinlichkeit der Einstellungsänderung hängt in diesem Fall von der Stärke und Logik der Argumente ab. Im Gegensatz dazu beinhaltet die periphere Route der Persua- sion einen Fokus auf oberflächliche Hinweisreize des Stimulus. Dabei findet keine kritische Analyse der Validität der Botschaft statt (Low Elaboration). Ob jemand in bestimmten Situationen die zentrale oder die periphere Route der Persuasion einschlägt, hängt in ers- ter Linie von der Motivation und den kognitiven Ressourcen sowie der Passung zwischen der bisherigen Einstellung oder der erwünschten Einstellung und dem Argument ab (Ab- bildung 6). So spielt insbesondere die Passung mit der bisherigen Einstellung eine Rolle bei der Entstehung des Confirmation Bias (Kapitel 3.2.4) beziehungsweise die Passung mit der erwünschten Einstellung bei der Entstehung des Desirability Bias (Kapitel 3.3.4) Es liegt nahe, dass komplexe organisationale Planungsprozesse eine gründliche Analy- se unterschiedlicher Argumente erfordern und die Entscheidungsqualität darunter leidet, wenn Gruppenmitglieder sich nur oberflächlich mit den Argumenten, die zum Beispiel von der Führungskraft geäußert werden, auseinandersetzen. Ein Grund dafür, dass Grup- penmitglieder sich auf die ressourcensparende, oberflächliche Analyse der Argumente be- schränken, kann – neben den zuvor beschriebenen Prinzipien des Cognitive Misers und der Bounded Rationality – in der Annahme liegen, dass die eigene Verantwortung als nicht sehr hoch eingestuft wird, da es ausreichend andere Gruppenmitglieder gibt, die sich an der Entscheidungsfindung beteiligen. Dieses, als Social Loafing bekannte gruppendynamische Phänomen wird in Kapitel 3.4.2 näher behandelt. Allerdings führt auch eine analytische Informationsverarbeitung nicht immer dazu, dass eine konträre Meinung auch tatsächlich gegenüber der Gruppe geäußert wird. Hierbei führt der Normeneinfluss einer Gruppe – und das damit einhergehende Bedürfnis von der Gruppe akzeptiert und geschätzt zu werden – häufig dazu, dass die eigene Meinung nicht geäußert wird oder sich ein Gruppenmitglied in letzter Konsequenz sogar selbst von der von ihm als falsch wahrgenommenen Gruppenmeinung überzeugt. Zum Beispiel zeigte Asch (1951) in seinen einflussreichen Experimenten, dass Probanden bei der Einschät- zung, welche von drei verschiedenen Linien die längste ist, falsche Antworten gaben, wenn andere, als Probanden getarnte Rollenspieler, dies zuvor ebenfalls taten, obwohl die rich- tige Antwort leicht zu erkennen war. Dieses Verhalten ist kongruent mit der Annahme, dass Persuasion auch auf intraindividueller Ebene stattfindet, wenn soziale Umstände eine Person dazu bringen, aus eigenem Antrieb seine Einstellung zu verändern. Eine wichtige Rolle spielt dabei wiederum das Konzept der Kognitiven Dissonanz. 2 Urteils- und Entscheidungsprozesse 33 Abbildung 6 Zwei Routen der Persuasion Anmerkung. Zwei Routen der Persuasion nach dem Elaboration-Likelihood-Modell. Eigene Dar- stellung in Anlehnung an Petty et al. (2005, S.87) 2 Urteils- und Entscheidungsprozesse 34 Kognitive Dissonanz beschreibt den unangenehmen Zustand, den eine Person empfindet, wenn sie eine Handlung vornimmt oder eine Information erhält, die in Widerspruch zu ihrer Einstellung steht. Um die kognitive Dissonanz zu reduzieren, muss entweder das ei- gene Verhalten oder die Einstellung dazu verändert werden. Oft ändern Menschen ihre Einstellung, indem sie Rechtfertigungen für das eigene Verhalten oder die ursprüngliche Meinung entwickeln, um so den aversiven Zustand aufzulösen (Festinger, 1962). So kann es zum Beispiel in einem organisationalen Planungsprozess vorkommen, dass eine Entschei- dung getroffen wird, die einzelne Gruppenmitglieder als unethisch oder riskant empfinden. Die betroffenen Personen haben aber möglicherweise Hemmungen, gegen die Entscheidung vorzugehen, da sie nicht unloyal sein möchten oder negative berufliche Konsequenzen be- fürchten. Die durch den Wertekonflikt ausgelöste kognitive Dissonanz wird dann eventuell so aufgelöst, dass betroffene Personen ihre Einstellung verändern, indem sie sich auf die Argumente für die Entscheidung fokussieren und die Gegenargumente verdrängen. Die in diesem Beispiel beschriebene Kognitive Dissonanzreduktion kann als Grundlage für un- terschiedliche Facetten des Konstrukts Group Think – wie Self-Censorship – betrachtet werden, das in Kapitel 3.4.1 näher betrachtet wird. b Im Kontext des zuvor beschriebe- nen Normeneinflusses spielt auch der Informationseinfluss eine wichtige sozialpsychologi- sche Rolle. Der Informationseinfluss beruht darauf, dass Menschen sich an dem Verhalten anderer Menschen orientieren, um zu beurteilen, was die richtige Verhaltensweise in be- stimmten Situationen ist. Modelllernen spielt bei Kleinkindern eine entscheidende Rolle bei der Sozialisation, und auch Erwachsene orientieren sich in neuartigen Situationen oder in neuen Gruppen primär am Verhalten anderer Gruppenmitglieder und passen ihr eige- nes Verhalten entsprechend an. Man spricht von einem modellierenden Lerneffekt, wenn in einer neuen Situation eine unbekannte Verhaltensweise beobachtet wird und diese in einer entsprechenden Situation imitiert wird. Auf diese Weise bilden und verfestigen sich bestimmte Normen innerhalb einer Gruppe. Entsprechend bieten der Informations- und Normeneinfluss im sozialen Kontext die Grundlage für die Entstehung von Kulturen auf unterschiedlichen Ebenen, wie der nationalen Ebene, der familiären Ebene sowie der Or- ganisationsebene (vgl. Kapitel 4). Haben sich bestimmte Normen in einer Gruppe etabliert, wird deren Einhaltung teils ex- plizit, aber meist implizit, von der Gruppe geäußert beziehungsweise erwartet. Im Rahmen dieses Normeneinflusses führt das Bedürfnis, von der Gruppe akzeptiert und geschätzt zu werden, dazu, dass die Normen häufig auch dann eingehalten werden, wenn sie nicht (mehr) im Einklang mit den Werten und Meinungen des betreffenden Gruppenmitglieds stehen, wie zuvor am Beispiel der Selbstpersuasion im Rahmen kognitiver Dissonanzreduktion beschrieben wurde. Die soziale Situation hat einen so starken Einfluss auf psychologische Prozesse, dass man auch von sozialer Kognition spricht, wenn es darum geht, wie basa- le Prozesse wie Wahrnehmung, Denkprozesse, Lernen und Emotionen durch den sozialen Kontext geprägt werden (Frith, 2008). So zeigt Asch (1951) im oben beschriebenen Kon- 2 Urteils- und Entscheidungsprozesse 35 formitätsexperiment, dass Probanden ihr Urteil nicht nur bewusst verfälschen, um sich der Gruppe anzupassen, sondern dieser Anpassungsdruck in einigen Fällen sogar dazu führt, dass Probanden tatsächlich glaubten, dass das von den anderen Gruppenmitgliedern ge- äußerte Fehlurteil ihrer eigenen Wahrnehmung entspricht. Der soziale Kontext hat also einen starken Einfluss darauf, wie Informationen wahrgenommen, enkodiert und interpre- tiert werden. Der soziale Kontext ist dabei nicht auf die konkrete Interaktion beschränkt, sondern definiert sich als reale, imaginäre und symbolische Präsenz anderer Menschen, de- ren Aktivitäten und Interaktionen sowie deren Erwartungen und Normen (Sherif, 1982). Den starken Einfluss des sozialen Kontextes zeigt auch eine Studie von Lin, Qu und Telzer (2018), die einen maßgeblichen Einfluss des Gruppenkontextes auf die Emotionsverarbei- tung feststellten. In dieser Studie ließen Probanden sich bei der Bewertung emotionsgela- dener Bilder von der Bewertung anderer Personen beeinflussen. Anhand von fMRI-Scans beobachteten die Autoren, dass mit Emotionen assoziierte Hirnregionen unterschiedliche Aktivitäten zeigten, je nachdem, ob die Probanden die Bilder unabhängig bewerteten oder diese mit dem Wissen über die Bewertung durch andere Probanden bewerteten. Das Emo- tionsempfinden änderte sich in Richtung der Übereinstimmung mit der Bewertung anderer Probanden, wobei der Effekt signifikant stärker war, wenn die anderen Personen als Teil der eigenen Gruppe wahrgenommen wurden. Zusammenfassend lässt sich festhalten, dass die soziale Situation einen sehr starken Ein- fluss auf das Verhalten von Individuen hat und eine Gruppenentscheidung damit mehr ist, als die Summe der Meinungen der einzelnen Gruppenmitglieder. Neben den positiven Interaktionseffekten, die durch die eingangs beschriebene erhöhte Informationsverarbei- tungskapazität und die positiven Effekte des offenen Austauschs und Diskurses entste- hen, wurde in diesem Kapitel dargelegt, dass der durch die Gruppensituation entstehende Informations- und Normeneinfluss Probleme für organisationale Planungsprozesse bringen kann, da Phänomene, wie das Konformitätsstreben im Kontext von Groupthink (Kapitel 3.4.1), entscheidungsverzerrende Effekte hervorrufen können. 36 3 Heuristiken und Biases Some critics of ’heuristics and biases research’ complain that researchers are too interested in demonstrating irra- tionality, and are not impressed enough with what well-fashioned cognitive machines people are. Indeed, many of the biases, fallacies, and imperfections of human judgment and reasoning seem to come and go, depending on the wording of the problem, the goals of the subject, the subject’s expertise in the problem domain, etc. One possible interpretation is that the purported biases are not robust, or are artifacts of the laboratory. An alternative view is this: most of the environments people face in life are artificial; a great many are ambiguously defined, present conflicting goals, and are unfamiliar. Sometimes people manage quite well, by standards that are important to them, sometimes they do not. (Klayman, 1993, S. 116) In Kapitel 2 wurden grundlegende kognitive- und sozialpsychologische Prozesse der Pro- blemlösung und Entscheidungsfindung aufgezeigt und vereinzelt Beispiele für kognitive, motivationale und gruppendynamische Biases angeführt. Diese Heuristiken beziehungswei- se Biases haben das Potenzial, Urteils- und Entscheidungsprozesse allgemein und speziell im Kontext organisationaler Planungsprozesse zu verzerren, wenn sie eine analytische Ent- scheidungsfindung inadäquat ersetzen beziehungsweise deren zugrundeliegende Annahmen irrational beeinflussen. In den folgenden Kapiteln werden verschiedene Biases analysiert, die eine hohe Relevanz im Kontext organisationaler Planungsprozesse aufweisen. Dabei werden deren zugrundeliegenden Mechanismen und assoziierten Verhaltensweisen erläu- tert. Das Thema Biases ist in diversen wissenschaftlichen Disziplinen verbreitet, und es wur- den inzwischen unzählige verschiedene Effekte postuliert. So führt die Onlineenzyklopädie Wikipedia über 200 kognitive und motivationale Biases (“List of Cognitive Biases”, 2022). Der Fokus dieser Arbeit liegt auf jenen Effekten, die wissenschaftlich gut untersucht und gleichzeitig relevant für den organisationalen Planungskontext sind, und keine starke in- haltliche Redundanz im Vergleich mit anderen Biases aufweisen. Eine nähere Erläuterung zur Auswahl und Klassifikation von Biases befindet sich in Kapitel 3.5. 3.1 Definition des rationalen Urteils To think rationally means to adopt appropriate goals, take appropriate action given one’s goals and beliefs, and hold beliefs that are commensurate with available evidence. (Stanovich, West & Toplak, 2013, S. 263) Bevor in den folgenden Abschnitten diverse Beispiele für Biases beschrieben werden, die 3 Heuristiken und Biases 37 eine Abweichung von einem rationalen Urteil beinhalten, soll zunächst dargestellt werden, wie sich im Kontext dieser Arbeit ein rationales Urteil – gegenüber einem durch einen Bias verzerrtes Urteil – definiert. Als Maßstab für eine objektive Entscheidungsanalyse wird häufig das Prinzip des Erwar- tungswerts verwendet. Dazu werden unterschiedliche Handlungsalternativen ermittelt und verglichen. Der Erwartungswert einer Handlungsalternative ist das arithmetische Mittel aller denkbaren monetären Ergebnisse einer Handlung, die jeweils mit ihrer Eintrittswahr- scheinlichkeit gewichtet sind. E[X] = x1p1 + x2p2 + ...+ xkpk E ist der Erwartungswert der Handlungsalternative, mit x wird jeweils ein denkbares Er- gebnis bezeichnet und p ist die zugehörige Wahrscheinlichkeit mit der das Ergebnis in Abhängigkeit der Handlungsalternative eintritt. In der Summe der k Produkte aus Er- gebnissen und zugehörigen Wahrscheinlichkeiten ergibt sich der Erwartungswert für die entsprechende Handlungsalternative. Anschließend fällt die Entscheidung auf jene Hand- lungsalternative mit dem höchsten Erwartungswert. Wegen des rein monetären Vergleichs der resultierenden Erwartungswerte, kommt das Mo- dell jedoch schnell an seine Grenzen. Zum einen lassen sich die Modellparameter, wie die denkbaren Resultate oder die zugehörigen Eintrittswahrscheinlichkeiten, in der komple- xen Planungsrealität nicht so einfach monetär bestimmen, wie dies in spieltheoretischen Gedankenexperimenten möglich ist. Zum anderen ist auch bei bekannten Risiken nicht in allen Situationen die Alternative mit dem höchsten monetären Erwartungswert die rationalste. Andernfalls wären jegliche Risikoversicherungen irrational, da eine Versiche- rung immer einen negativen Erwartungswert für den Versicherungsnehmer aufweist, da die Versicherungsgesellschaft von den eingenommenen Prämien, neben den ausgezahlten Schadenssummen, auch Gehälter und sonstige Kosten des Betriebs trägt. Dennoch ist der Abschluss einer Versicherung häufig nicht irrational, da sie nicht mit Gewinnabsicht abgeschlossen wird, sondern in der Regel um seltene, aber potenziell ruinöse Risiken ab- zusichern. Die Risikobereitschaft im Rahmen eines Planungs- und Entscheidungsprozesses ist subjektiv und situationsabhängig und lässt sich entsprechend nicht allein über den monetären Erwartungswert bestimmen. Tversky und Kahneman (1981) nennen die Expected Utility Theory als Referenzmodell für rationale Entscheidungen unter Unsicherheit. Bei der Expected Utility Theory wird nicht der rein monetäre Wert angenommen, sondern jedem für möglich gehaltenen Resultat ein subjektiver Nutzwert zugeordnet, der dann analog zum Erwartungswert mit der Eintritts- wahrscheinlichkeit dieses Resultats multipliziert wird, um anschließend die Handlungsal- ternative auszuwählen, die den höchsten Nutzwert aufweist. Die Expected Utility Theory 3 Heuristiken und Biases 38 bietet neben der Definition einer rationalen Entscheidung bereits Handlungsimplikationen für rationale Entscheidungsprozesse unter Ungewissheit, da Entscheidungsträger gefordert sind, verschiedene Handlungsalternativen zu entwickeln und für diese alle möglichen Re- sultate und die zugehörigen Wahrscheinlichkeiten zur Gewichtung abzuleiten. Allein durch das Absolvieren dieses Prozesses können gewisse Biases, zum Beispiel der Anchoring Effect (Kapitel 3.2.2) oder der Confirmation Bias (Kapitel 3.2.4), potenziell verringert werden, wenn die Gruppe sich nicht unbewusst auf eine Handlungsoption fokussiert, bevor weitere Alternativen erschöpfend diskutiert wurden. Auf dieser Erkenntnis basiert zum Beispiel die in Kapitel 1.1 beschriebene MAUT als Leitfaden zur strukturierten Entscheidungsfindung. Die Entscheidungsmodellierung mittels Expected Utility weist außerhalb von spieltheo- retischen Situationen – bei zunehmender Komplexität des Entscheidungskontextes – ver- mehrte Einschränkungen auf. Eine Problematik von Urteils- und Entscheidungsprozessen im Kontext organisationaler Planungsprozesse liegt darin, dass in einer komplexen Welt eine Entscheidung auf einer Dimension irrational sein kann, auf einer anderen jedoch ratio- nal. Wie zu Beginn dieser Arbeit beschrieben, sind nützliche Heuristiken und verzerrende Biases zwei Seiten der gleichen Medaille, und es hängt vom Kontext ab, ob die Heuristik beziehungsweise der Bias zu einer rationalen oder irrationalen Entscheidung führt. Dabei können beiden Seiten auch in Abhängigkeit der Dimension betrachtet werden, bezüglich der man eine Entscheidung als rational beziehungsweise irrational bewertet. Eine durch einen Bias verzerrte Entscheidung im organisationalen Planungsprozess, die negativ für das Vorhaben ist, kann für das Individuum oder die Gruppe einen positiven Effekt haben, ohne dass ein derartiger Kompromiss bewusst in Kauf genommen wird. Es ist vielmehr so, dass Biases als adaptive Prozesse nicht nur aus mangelnden kognitiven Kapazitäten entste- hen, wie es bei kognitiven Biases – zum Beispiel der Availability Heuristic (Kapitel 3.2.1) – primär der Fall ist, sondern in einigen Fällen einen motivationalen Charakter aufweisen, sogenannte Hot Biases. Dazu zählt zum Beispiel der Self-Serving Bias (Kapitel 3.3.1), dem ein selbstwerterhaltender Attributionsstil zugrunde liegt. Der Self-Serving Bias führt dazu, dass eine selbstwertdienliche Attribution das psychologische Wohlbefinden erhöht, obwohl es für einen organisationalen Planungsprozess rational wäre, wenn die betroffene Person eigene Fehler eingesteht und entsprechende Konsequenzen berücksichtigt beziehungsweise kommuniziert. Analog dazu wurde in Kapitel 2.3 beschrieben, dass gruppendynamische Biases aus sozialen Bedürfnissen entstehen, die zum Beispiel die Gruppenkohäsion stär- ken. So dienen unterschiedliche Facetten von Groupthink dazu, das Ansehen in der Gruppe oder die Harmonie innerhalb der Gruppe aufrecht zu erhalten. Sich gegen die Gruppen- meinung zu stellen, ist für die Urteile und Entscheidungen in organisationalen Vorhaben jedoch häufig förderlich, da dieses Verhalten dazu führen kann, dass neue Perspektiven diskutiert werden. In Kapitel 4 wird die Rolle der Organisationskultur bei der Prägung der Denk- und Verhaltensmuster der Gruppenmitglieder besprochen sowie auch die Rolle, die diese beim Auflösen dieser Zielkonflikte, und somit potenziell auch bei der Reduzierung 3 Heuristiken und Biases 39 bestimmter Biases, spielt. Ein weiterer für die Praxis wichtiger Aspekt bei der Entscheidungsfindung ist das Be- wusstsein für den Einsatz, der bei einer einzelnen Entscheidung auf dem Spiel steht, und dessen Relevanz für den Erfolg des gesamten Vorhabens. So ist es häufig rational, seine Entscheidung zugunsten der zeitlichen Effizienz nicht zu optimieren, wenn die Konsequen- zen und Wechselwirkungen gering sind, und deshalb eine schnelle implizite Entscheidung zielführend ist. Dieses Verhalten entspricht dem Prinzip des Satisficing, das beschreibt, dass eine Person sich mit einer suboptimalen Entscheidung zufrieden gibt, wenn eine Ent- scheidung keine hohe Bedeutsamkeit hat und/oder eine optimale Lösung schwierig oder unmöglich ist (Simon, 1956). Bei wenig einflussreichen Sachverhalten, die keine Wechsel- wirkung mit relevanteren Fragestellungen aufweisen, kann der gleiche Effekt anstatt als Bias als adaptive Heuristik betrachtet werden, wenn diese zu einer schnellen – und im Fall von gruppendynamischen Effekten harmonischen – Entscheidungsfindung mit zufrieden- stellendem Ergebnis nach diesem Prinzip führt. In der Konsequenz bleiben mehr kognitive und zeitliche Ressourcen für einflussreiche Aspekte des Planungsprozesses. Bei Entschei- dungen mit einem hohen Einsatz sollten im Gegensatz dazu so viele Informationen, wie mit vertretbarem Aufwand möglich, in den Prozess einbezogen werden, was dem Konzept Optimizing entspricht. Für die Zielstellung dieser Arbeit lässt sich festhalten, dass eine rationale Entscheidung erfordert, dass möglichst vollständig alle verfügbaren Handlungsoptionen, und für jede die- ser Handlungsoptionen die möglichen Konsequenzen, extrahiert werden. Außerdem sollte für jede dieser möglichen Konsequenzen festgelegt werden, wie diese mit den Zielen bezie- hungsweise Präferenzen der Organisation zu gewichten sind, und wie hoch deren Eintritts- wahrscheinlichkeiten geschätzt werden. Da es im Rahmen dieser Arbeit nicht möglich ist, diese Komplexität bei der Definition des rationalen Urteils vollständig abzubilden, wird die oben beschriebene, und in der Forschung zu Biases verbreitete, Perspektive der Ex- pected Utility Theory angenommen. Das Anliegen dieser Arbeit ist es ohnehin eher, die Zielkonflikte zwischen der Güte des Planungsprozesses und abweichenden Interessen im Rahmen der Organisationskultur aufzuzeigen, und das Potenzial zur Reduzierung derarti- ger Zielkonflikte zu beschreiben. Ein solcher Zielkonflikt ließe sich zum Beispiel auflösen, wenn das Äußern von Widersprüchen gegenüber der Führungskraft als durch die Organi- sationskultur impliziertes erwünschtes Verhalten wahrgenommen wird (vgl. Kapitel 4). 3.2 Kognitive Biases The subjective assessment of probability resembles the subjective assessment of physical quantities such as distance or size. These judgments are all based on data of limited validity, which are processed according to heuristic rules. (Tversky & Kahneman, 1974, S. 1124) 3 Heuristiken und Biases 40 In Kapitel 1 und 2.2 wurde die grundlegende Funktionsweise kognitiver Prozesse im Rah- men der Dual-Process-Theories sowie deren Basis für Heuristiken und Biases beschrieben. System-1-Operationen sind demnach eine bestimmte Art von Heuristiken, die implizit, also unbewusst, ablaufen. Diese Heuristiken ermöglichen es, in einer komplexen Umwelt, in der unzählige Urteile und Entscheidungen getroffen werden müssen, zu agieren, ohne sehr schnell an die Grenzen der eigenen kognitiven Ressourcen zu stoßen. Möglich wird der Einsatz von intuitiven Heuristiken dadurch, dass komplexe kognitive Operationen durch Training und Erfahrung zu Wissensschemata oder Verhaltensskripten gebündelt werden, die im passenden Kontext – als Hinweisreiz – automatisch abgerufen beziehungsweise ausgeführt werden (vgl. Kapitel 2.2). Das erklärt zum Beispiel, warum Experten durch Mustererkennung Situationen sehr schnell erfassen und ihr Bewusstsein auf die kritischen Informationen richten können, während Anfänger die gesamte Situation erst aufwändig analysieren müssen und somit ggf. länger brauchen oder wichtige Dinge übersehen. Heu- ristiken können dabei implizit oder explizit erlernt werden. Schachmeister sind in der Lage durch Mustererkennung die Stärken und Schwächen bestimmter Positionen unmittelbar zu erfassen, während Amateure die unterschiedlichen Facetten solcher Positionen noch durch anspruchsvolle, serielle kognitive Prozesse analysieren müssen (Kahneman & Frederick, 2009). Die intuitiven Heuristiken (System 1) wurden hierbei also durch Wiederholung aus expliziten System-2-Prozessen gebildet. Das gleiche Prinzip gilt dabei auch für viele all- tägliche Handlungskomplexe, die Menschen automatisiert durchführen, und die sie zuvor explizit erlernt haben. Andere System-1-Operationen werden nicht nur implizit angewen- det, sondern auch implizit erlernt. Ein Faktor, der implizite Lernprozesse fördert sind dabei kulturelle Einflüsse: Similarly, prolonged cultural exposure eventually produces a facility for social judgments – e.g. an ability to recognize quickly that ’a man whose dull writing is occasionally enlivened by corny puns’ is more similar to a stereotypical computer programmer than to a stereotypical accountant. (Kahneman & Frederick, 2009, S. 51) Die Rolle der Kultur allgemein und speziell der Organisationskultur bezüglich implizi- ter Heuristiken und Biases wird in Kapitel 4.3 näher erläutert. Explizit und besonders implizit erlernte System-1-Operationen sind so allgegenwärtig und treffsicher, dass Men- schen sie kaum als Heuristiken bemerken. Dazu gehören viele Perzeptionsprozesse, wie die Distanzeinschätzung eines Objektes aufgrund der Verhältnisse von Größe, Schärfe und Di- stanz, die sich sehr anschaulich durch bestimmte optische Täuschungen aufdecken lassen (vgl. Abbildung 1), aber auch im realen Alltag zu Fehlurteilen führen können. So über- schätzen Menschen zum Beispiel die Distanz eines Berges bei Nebel, da der Nebel den Berg unschärfer erscheinen lässt. Nach Kahneman und Frederick (2009) führt der Nebel dabei nicht unmittelbar zu einem Bias, da Menschen grundsätzlich in der Lage wären, ihn durch bewusste Denkprozesse als Variable bei der Distanzschätzung zu berücksichtigen und die Schätzung entsprechend nach unten zu korrigieren. Problematisch ist das fälsch- liche Anwenden einer Heuristik also besonders dadurch, dass es sich um ein unbewusstes 3 Heuristiken und Biases 41 Fehlurteil handelt, das entsprechend nicht korrigiert wird und sich folglich als kognitiver Bias in einem Urteil manifestiert. System 1 reagiert spontan auf Entscheidungsprobleme und schlägt unmittelbar eine Reaktion vor. System 2 überwacht lediglich die Qualität des Urteils und bestätigt, korrigiert oder überschreibt diese. Wenn das von System 1 vorge- schlagene Urteil unmodifiziert zur Handlung führt, kann von einer verzerrten intuitiven Entscheidung beziehungsweise einem Bias gesprochen werden (Kahneman & Frederick, 2009). Der Bias entsteht also erst durch das Ausbleiben der Korrektur und damit erst durch ein gleichzeitiges Versagen von System 1 und System 2. Das Ausbleiben der Korrektur impliziter Fehlurteile durch explizite System-2-Prozesse ist allgegenwärtig, denn Urteile – zum Beispiel im Kontext des Confirmation Bias (Kapitel 3.2.4) oder der Availability Heuristic (Kapitel 3.2.1) – gehen häufig mit einem zufrieden- stellenden Gefühl bezüglich des Urteils einher, und entsprechend bleibt die analytische Korrektur aus. Dieses Phänomen lässt sich über das Konstrukt WYSIATI (Kahneman, 2011) erklären, demnach Menschen die implizite Neigung besitzen, die ihnen bekannten Informationen mit den insgesamt existierenden Informationen zu einem Thema zu kon- fundieren und somit die Informationssuche vorschnell einzustellen: An essential design feature of the associative machine is that it represents only activated ideas. Information that is not retrieved (even unconsciously) from memory might as well not exist. System 1 excels at constructing the best possible story that incorporates ideas currently activated, but it does not (cannot) allow for information it does not have. The measure of success for System 1 is the coherence of the story it manages to create. The amount and quality of the data on which the story is based are largely irrelevant. When information is scarce, which is a common occurrence, System 1 operates as a machine for jumping to conclusions. Consider the following: ’Will Mindik be a good leader? She is intelligent and strong ...’ An answer quickly came to your mind, and it was yes. You picked the best answer based on the very limited information available, but you jumped the gun. What if the next two adjectives were corrupt and cruel? (Kahneman, 2011, S.85) Dadurch, dass Heuristiken auf Erfahrungsdaten beruhen, sind sie umso fehleranfälliger, je komplexer die Entscheidungssituation ist, also je mehr Einflussvariablen den Problemraum bestimmen (vgl. Kapitel 2.1). Dieser Sachverhalt lässt sich dadurch erklären, dass bei stei- gender Anzahl von Einflussgrößen, die Anzahl an alternativen Ausgangslagen exponentiell steigt. Entsprechend dauert es länger, bis der Experte genug Informationen gesammelt hat, um alle möglichen Situationen zu kennen oder es – anders gesagt – immer wahrscheinli- cher wird, dass neue unbekannte Situationen auftreten, mit denen der Experte noch keine Erfahrungen hat. Hieran lässt sich erkennen, warum implizite Expertise in bestimmten Situationen, die einen gewissen Wiederholungsgrad mit einer überschaubaren Anzahl an Variablen aufweist, essenziell wichtig und förderlich ist, während eine langjährige Exper- tise in organisationalen Planungsprozessen zwar einerseits auch sehr hilfreich sein kann, in einer sich stärker verändernden Umwelt gleichzeitig aber auch negative Konsequenzen – durch die inadäquate Verwendung impliziter Heuristiken – mit sich bringen kann (vgl. Kapitel 1.1). 3 Heuristiken und Biases 42 Daraus leitet sich der besondere Stellenwert des Themas kognitiver Biases für Planungs- und Entscheidungsprozesse in Organisationen ab, die durch situationsspezifische und kom- plexe Situationen geprägt sind (vgl. Kapitel 2.1). Außerdem wird in diesem Kontext deut- lich, warum bestimmte motivationale Biases, wie Overconfidence (Kapitel 3.3.2) und Op- timism (Kapitel 3.3.3), im Zusammenhang mit kognitiven Einschränkungen in derartigen Prozessen eine so große Tragweite haben. Selbstüberschätzung oder Überoptimismus füh- ren tendenziell dazu, dass korrigierende System-2-Prozesse nicht aktiviert werden. Analog zu dem Beispiel der Distanzwahrnehmung eines Berges ist es leicht vorstellbar, dass ein Experte in Planungsprozessen, der sich ähnelnde Situationen zigfach erlebt hat, ein so großes Vertrauen in sein Urteil hat, dass er sich auf seine intuitiven System-1-Prozesse verlässt und sich gewisse neuartige Variablen seiner Aufmerksamkeit entziehen, so dass er keinen Hinweisreiz bemerkt, der System-2-Prozesse aktiviert. Die Basis motivationaler Biases wird in Kapitel 3.3 dezidiert behandelt. Es lässt sich festhalten, dass heuristische System-1-Urteile Komplexität reduzieren und meist akkurat sind und die deshalb notwendige und positive Prozesse darstellen. Darüber hinaus finden sie im Alltag in der Regel in Situationen statt, in denen die Konsequen- zen, bei einer nur annähernd akkuraten Anwendung, vernachlässigbar sind und somit die Vorteile der regelmäßigen Ersparnis kognitiver Ressourcen überwiegen. Dazu gehören zum Beispiel viele Konsumentscheidungen, bei denen die Konsequenzen der Entscheidung so gering sind, dass ein heuristisches Vorgehen selbst bei einem suboptimalem Ergebnis zu bevorzugen ist (vgl. Kapitel 3.1). Organisationale Planungsprozesse, wie sie in wichtigen Vorhaben und Projekten stattfinden, zeichnen sich dadurch aus, dass sie neuartig und kom- plex sind (vgl. Kapitel 2.1) und, dass Entscheidungen in diesen Vorhaben einflussreiche Konsequenzen haben. Zudem setzen sich komplexe Vorhaben aus etlichen Einzelurteilen zusammen, bei denen sich jeweils geringe Risiken unbeachtet aufsummieren können. Es handelt sich also um Prozesse, in denen es entscheidend ist, dass alle Planungsschritte be- züglich Informationsbeschaffung, -aufbereitung und -darstellung, sowie die damit zusam- menhängenden Generierung von Handlungsalternativen und abschließenden Entscheidung, strukturiert und analytisch erfolgen. 3.2.1 Availability Heuristic Uncertainty is an unavoidable aspect of the human condition. Many significant choices must be based on beliefs about the likelihood of such uncertain events as the guilt of a defendant, the result of an election, the future value of the dollar, the outcome of a medical operation, or the response of a friend. Because we normally do not have adequate formal models for computing the probabilities of such events, intuitive judgment is often the only practical method for assessing uncertainty. (Tversky & Kahneman, 1983, S. 1) Menschen beurteilen Häufigkeiten oder Wahrscheinlichkeiten in der Regel anhand der Leichtigkeit, mit der sie Beispiele oder Assoziationen dieser Kategorie erinnern können. 3 Heuristiken und Biases 43 Dieser Prozess wird als Availability Heuristic bezeichnet (Tversky & Kahneman, 1973). Wenn Personen die Häufigkeit oder Wahrscheinlichkeit einer Kategorie schätzen, werden Beispiele dieser Klasse aus dem Gedächtnis abgerufen. Je nachdem, wie einfach dieser Ab- ruf ist und wie viele Beispiele erzeugt werden, wird die Kategorie als groß beziehungsweise häufig oder wahrscheinlich geschätzt (Kahneman, 2011). Die Leichtigkeit der Erinnerung ist in der Regel mit der Menge an erinnerten Beispielen konfundiert. Werden diese getrennt untersucht, ist die Leichtigkeit der Erinnerung der einflussreichere Prädiktor (Schwarz, Vaughn, Gilovich, Griffin & Kahneman, 2009). Wenn eine Person zum Beispiel gefragt wird, ob es mehr englische Wörter gibt, die mit dem Buchstaben t oder dem Buchstaben k beginnen, wird diese Person spontan Beispiele für Wörter mit diesen Anfangsbuchsta- ben aus dem Gedächtnis abrufen und wahrscheinlich korrekterweise zu dem Schluss kom- men, dass mehr Wörter existieren, die mit t beginnen (Medin, Ross & Markman, 2005). Die Annahme, dass, wenn Beispiele einer Kategorie leichter und in größerer Anzahl erin- nert werden können, diese auch tatsächlicher häufiger oder wahrscheinlicher sind, ist eine meistens korrekte Annahme, die jedoch in manchen Situationen zu Fehlurteilen führen kann (Schwarz et al., 2009). Wurden Probanden zum Beispiel gefragt, ob der Buchstabe r häufiger an erster Stelle oder dritter Stelle eines Wortes steht, antworteten 105 von 152 Personen fälschlicherweise, dass r häufiger an erster Stelle steht, da es ihnen einfacher fiel, die passenden Beispiele abzurufen (Tversky & Kahneman, 1973). In einem weiteren Experiment präsentierten Tversky und Kahneman (1973) den Probanden jeweils zwei Lis- ten, eine davon mit geringfügig bekannten Persönlichkeiten und eine mit sehr bekannten Persönlichkeiten. Die beiden Listen enthielten entweder 19 sehr bekannten Frauen und 20 geringfügig bekannte Männer oder 19 sehr bekannte Männer und 20 geringfügig bekannte Frauen. Anschließend beantworteten 80 von 99 Probanden die Frage nach dem Geschlech- terverhältnis falsch, indem sie das Geschlecht mit den bekannteren Persönlichkeiten als häufiger einstuften, entsprechend der Hypothese, dass es ihnen leichter fällt, die Beispiele dieser Kategorie aus dem semantischen Gedächtnis abzurufen. Der Availability Bias führt auch zu einer verzerrten Risikowahrnehmung. So fanden Lich- tenstein et al. (1978) heraus, dass Menschen das Risiko verschiedener Todesursachen sys- tematisch verzerren. Dabei überschätzen Probanden die Gefahr durch unnatürliche oder in den Medien stärker vertretene Todesursachen, wie Mord, Verkehrsunfälle oder Naturkata- strophen, während natürliche Todesursachen, über die wenig berichtet wird, zum Beispiel Herz-Kreislauf-Erkrankungen, Schlaganfälle oder Lungenkrebs unterschätzt werden. Ob- wohl Magenkrebs als Todesursache 5 mal häufiger vorkommt als Tötungen, schätzten die Probanden, dass Tötungen 1,6 mal häufiger sind als Magenkrebs. Als Ursache sehen die Autoren, dass die überproportionale Berichterstattung der überschätzten Todesursachen im Kontext der Availability Heuristic zu einem erhöhten Abruf derartiger Beispiele aus der Kategorie Todesursachen führt. Gefahren wie Mord oder eine Flut können zudem bildhaf- ter abgerufen werden, als zum Beispiel langsam und leise voranschreitende Krankheiten 3 Heuristiken und Biases 44 wie Krebs. M. Ross und Sicoly (1979) untersuchten Implikationen des Availability bezüglich der Leis- tungsattribution: Consider the following: You have worked on a research project with another person, and the question arises as to who should be ’first author’ (i.e., who contributed more to the final product?). Often, it seems that both of you feel entirely justified in claiming that honor. Moreover, since you are convinced that your view of reality must be shared by your colleague (there being only one reality), you assume that the other person is attempting to take advantage of you. (M. Ross & Sicoly, 1979, S. 322) Die Autoren fanden heraus, dass neben motivationalen Faktoren, die im Rahmen der ent- sprechenden Biases ab Kapitel 3.3 detaillierter beschrieben werden, auch die Availability Heuristic als primär kognitiver Effekt, eine egozentrische Sichtweise begünstigt. Es zeigte sich, dass die größere Verfügbarkeit beim Abruf entsprechender Informationen dazu führt, dass Probanden den Anteil ihres Beitrags so überschätzen, dass die Summe der Schätzun- gen der Einzelleistungen am Gesamtbeitrag stets über 100% liegt. Der Effekt zeigte sich in verschiedenen Kontexten, bei der Befragung natürlicher Gruppen, wie zum Beispiel ver- heirateten Paaren oder Basketballteams sowie randomisierten Gruppen in experimentellen Untersuchungen (M. Ross & Sicoly, 1979). Wenn für die Häufigkeits- oder Wahrscheinlichkeitsschätzung irrelevante Störvariablen die Leichtigkeit der Erinnerung beeinflussen, oder wenn sich trotz einer viel zu geringen Stich- probe von Erinnerungen bereits ein Gefühl der Zufriedenheit mit dem Urteil einstellt, sind Fehlurteile wahrscheinlich: When asked to form a judgment, people rarely retrieve all information that may bear on the task, but truncate the search process as soon as enough information has come to mind to form a judgment with sufficient subjective certainty. Accordingly, the judgment is based on the information most accessible at the time. (Schwarz et al., 2009, S. 104) Im voreiligen Gefühl der Zufriedenheit mit einem Urteil zeigt sich die Wirkung des Prinzips WYSIATI, welches wesentlich für sämtlich kognitive Biases ist, indem ein unzureichender Abruf von Informationen (Availability Heuristic) beziehungsweise eine unzureichende Su- che nach oder Interpretation von Informationen (Confirmation Bias) keine Aktivierung von System-2-Prozessen auslöst. Die kognitive Wirkungsart der Availability Heuristic lässt sich über den Prozess der At- tribute Substitution erklären (Kahneman & Frederick, 2009). Attribute Substitution be- schreibt den Prozess der unbewussten Beantwortung einer einfacheren Frage anstelle der ursprünglichen schwereren Frage. Eine Mitarbeiterin, die gefragt wird: „Wie hoch schät- zen Sie die das Risiko ein, dass das Projekt scheitert?“, antwortet möglicherweise so, als ob sie gefragt worden wäre: „Fallen Ihnen Beispiele ähnlicher Projekte ein, die gescheitert sind?“ und stützt ihre Antwort dabei auf die Leichtigkeit, mit der ihr Beispiele für ähnliche gescheiterte Projekte einfallen. Es ist leicht vorstellbar, dass die Availability Heuristic in 3 Heuristiken und Biases 45 dem Beispiel zu einem intuitiven Fehlurteil führt. Zum einen stellt die Gesamtzahl ähn- licher Projekte, die die Mitarbeiterin theoretisch aus ihrem Gedächtnis abrufen könnte, wahrscheinlich eine zu kleine – und damit nicht repräsentative – Stichprobe der Grundge- samtheit dieser Art von Projekten dar. Die Problematik der erfahrungsbasierten Expertise in komplexen und situationsspezifischen Situationen wurde in Kapitel 1.1 erläutert. Au- ßerdem werden, wie beschrieben, plötzliche, lebendige und emotionale Ereignisse leichter erinnert, als schleichende unspektakuläre Ereignisse (Nisbett & Ross, 1980), wodurch der Gedächtnisabruf ebenfalls verzerrt wird. 3.2.2 Anchoring Effect A well-intentioned child who turns down exceptionally loud music to meet a parent’s demand that it be played at a ’reasonable’ volume may fail to adjust sufficiently from a high anchor, and may feel that genuine attempts at compromise are being overlooked. (LeBoeuf & Shafir, 2006, S. 12) Der Anchoring Effect tritt auf, wenn ein Urteil durch eine zuvor präsentierte Informati- on verzerrt wird. Wenn Personen unter Unsicherheit einen Wert schätzen, starten sie in vielen Situationen von einem Referenzwert und passen diesen in Richtung der aktuellen Problemstellung an. Das Phänomen, dass sich das Urteil meistens zu stark am vorherigen Referenzwert orientiert, beschreibt der Anchoring Effect (Tversky & Kahneman, 1974). Die unzureichende Anpassung von einem Referenzwert zeigt sich in etlichen Alltagssitua- tionen, zum Beispiel wenn ein Fahrer von der Autobahn abfährt und sein Tempo nicht ausreichend reduziert (Kahneman, 2011), oder wenn die Portionsgröße als Orientierung dafür dient, wie viel eine Person isst, wie in folgendem Beispiel anschaulich illustriert wird: Imagine consumers ordering a hamburger at McDonald’s in 1955 and today. In 1955 they would receive a burger weighing around 1.6 ounces (45 g), whereas today, they would receive a burger that is five times bigger, weighing around 8 ounces (227 g) (Young & Nestle, 2007). How much food would they consume in each situation? When deciding how much to eat, a consumer would probably take the size of the burger as a starting point and think about whether to eat more or less than this portion. Then, they would eat a certain proportion of the food served – as a result eating much more today than in 1955. (Marchiori, Papies & Klein, 2014, S. 108) In diesem Beispiel stellt der Grad an Hunger die Problemstellung und der präsentierte Burger den Referenzwert dar. Das Urteil, wie viel tatsächlich gegessen werden soll, wird zwar in Abhängigkeit des Hungers nach oben oder unten angepasst, indem nachbestellt be- ziehungsweise etwas übrig gelassen wird, es orientiert sich aber zu stark an dem servierten Burger als Referenzwert beziehungsweise Anker. Der Anchoring Effect ist allgegenwärtig und wurde in diversen Domänen nachgewiesen. Dazu gehören unter anderem Wissensfragen (Tversky & Kahneman, 1974), Verhandlungen (Loschelder, Stuppi & Trötschel, 2014), Wahrscheinlichkeitsschätzungen (Plous, 1989) und 3 Heuristiken und Biases 46 Gerichtsurteile (Englich, Mussweiler & Strack, 2006). Plous (1989) ließ 185 Probanden zunächst schätzen, ob die Wahrscheinlichkeit für einen Atomkrieg höher oder niedriger als 1% beziehungsweise 90% sei und ließ sie anschließend eine eigene Schätzung abgeben. Der Anker von 1% führte zu einer durchschnittlichen Schätzung von 9,1%, während der Anker von 90% dazu führte, dass Probanden das Risiko mit 20,7% bewerteten. Probanden, die ihre Schätzung ohne vorherigen Anker abgaben, bezifferten das Risiko mit durchschnittlich 18,6%. Quattrone et al. (1984) stellten fest, dass auch vollkommen übertriebene Anker, die offen- sichtlich keinen Informationsgehalt liefern, Schätzungen verzerren. Sie fragten Probanden vor deren eigenen Schätzung zum Beispiel, ob die Beatles mehr oder weniger als 100.025 Top Ten Hits hatten oder ob der durchschnittliche Preis für ein Fachbuch mehr oder we- niger als $7128.53 sei. Dieser Anker beeinflusste die Schätzungen entsprechend nach oben oder nach unten. Und auch Anker, die zufällig sind und mit der Fragestellung nichts zu tun haben, führen zu Verzerrungen. Tversky und Kahneman (1974) ließen in Anwesenheit von Probanden ein Glücksrad mit den Zahlen 0 bis 100 drehen. Daraufhin beantworteten die Probanden jeweils die Frage, ob der prozentuale Anteil der afrikanischen Länder, die Mitglied der United Nations (UN) sind, niedriger oder höher als die Zahl des Glücksrads ist. Der Median der Schätzungen war 25% beziehungsweise 45% für die Gruppen, deren Glücksrad die Zahl 10 respektive 65 anzeigte. Monetäre Anreize für korrekte Schätzungen reduzierten den Effekt dabei nicht. Vergleichbare Auswirkungen des Anchoring Effects zeigen sich auch in Studien mit direk- tem Praxisbezug. So ließen sich Richter und Staatsanwälte mit durchschnittlich zehnjäh- riger Erfahrung bei der Bewertung von Fallbeispielen in ihrer Strafzumessung von Journa- listenaussagen und sogar Zufallszahlen (dem Wurf von Würfeln) signifikant beeinflussen (Englich et al., 2006). Der Anchoring Effect erklärt auch die Tendenz, dass bei einer Reihe von Informationen zuerst präsentierte Informationen stärker berücksichtigt werden, da diese einen mentalen Anker setzen, anhand dessen folgende Informationen eingeordnet werden. Schüler, die nach fünf Sekunden eine Schätzung für das Ergebnis der Aufgabe 1x2x3x4x5x6x7x8 abgaben, schätzten als Median 512, während diejenigen, die 8x7x6x5x4x3x2x1 präsentiert bekamen, 2.250 schätzten – die korrekte Antwort ist 40.320 (Tversky & Kahneman, 1974). In der knappen Zeit rechneten die Schüler potenziell die ersten Schritte und extrapolierten das Teilergebnis auf die restlichen Zahlen. Dabei adjustierten sie ihre Schätzung zu gering von dem Teilergebnis. Die Reihenfolge der Präsentation von Informationen beeinflusst also das Urteil, mit einer Verzerrung in Richtung der anfänglichen Information. Noch deutlicher wird dieser Effekt und dessen praktische Implikation in folgendem Bei- spiel. So erklärt der Anchoring-Effekt auch, warum Menschen die Wahrscheinlichkeit von 3 Heuristiken und Biases 47 Einzelereignissen im Vergleich zu der kombinierten Wahrscheinlichkeit mehrerer Einzel- wahrscheinlichkeiten häufig falsch beurteilen. In einer Studie von Bar-Hillel (1973) sollten Probanden sich für eine von drei Varianten entscheiden, bei der sie die größte Gewinn- chance sahen: 1. Eine rote Murmel aus einer Urne zu ziehen, die 50% rote und 50% weiße Murmeln enthält (simple event). 2. Sieben mal hintereinander eine rote Murmel aus einer Urne zu ziehen, die 90% rote Murmeln und 10% weiße Murmeln enthält (conjunctive event). 3. Bei sieben Versuchen mindestens eine rote Murmel zu ziehen, aus einer Urne, die zu 10% rote und 90% weiße Murmeln enthält (disjunctive event). Eine signifikante Mehrheit der Probanden wettete auf die 2. Variante, deren Gewinnchan- ce bei 48% liegt, während die Gewinnchance bei der 1. Variante 50% beträgt und bei der 3. Variante 52%. Das Ergebnis bestätigt die systematische Überschätzung der Er- folgsaussicht bei conjunctive events und Unterschätzung bei disjunctive Events, die sich auf den Anchoring Effect zurückführen lassen. Die Wahrscheinlichkeit des jeweils ersten Versuchs bildet den natürlichen Referenzwert, der mit 90% bei der 2. Variante am at- traktivsten ist. Entsprechend des Anchoring Effects werden die folgenden Bedingungen zwar bedacht, aber die Adjustierung vom Startpunkt erfolgt nicht ausreichend. Dies führt dazu, dass die Probanden bei der 2. Variante zuversichtlicher sind und deshalb die ins- gesamt höhere Fehlerwahrscheinlichkeit, die aus den sieben benötigten Erfolgsziehungen resultiert, unterschätzen (Tversky & Kahneman, 1974). Der spielerische Charakter dieses Experiments soll dabei nicht über die praktischen Implikationen der Ergebnisse hinweg- täuschen. Tversky und Kahneman (1974) betonen die besondere Bedeutung dieses Effekts für Planungsprozesse. So müssen bei vielen Projekten mehrere einzelne Phasen gelingen, damit der Plan erfolgreich ist (vgl. Variante 2). Somit wird bei hohen Erfolgsaussichten einzelner Phasen die Wahrscheinlichkeit, dass das gesamte Vorhaben pünktlich, im Budge- trahmen oder überhaupt gelingt, tendenziell überschätzt. Der Effekt führt darüber hinaus zu einer systematischen Unterschätzung von Risiken, bei denen viele sehr geringe Feh- lerwahrscheinlichkeiten existieren, bezüglich derer es jedoch ausreicht, wenn eine einzige Fehlerwahrscheinlichkeit eintritt (vgl. Variante 3), damit sich das Risiko materialisiert. So- mit unterschätzen Menschen das Risiko des Versagens bei komplexen Systemen wie dem menschlichen Körper oder einem Nuklearreaktor, da hier der Anker der einzelnen sehr geringen Wahrscheinlichkeiten wirkt (Tversky & Kahneman, 1974). Dieser Effekt spielt entsprechend auch eine Rolle bei der Entstehung des Optimism Bias (Kapitel 3.3.3). Auch der zuvor beschriebene, durch den Anchoring Effect implizierte Reihenfolgeeffekt hat Implikationen für organisationale Planungsprozesse. Geben zum Beispiel in einem organisationalen Planungsprozess mehrere Mitarbeiter eine Schätzung zur Dauer oder den 3 Heuristiken und Biases 48 Kosten eines Vorhabens ab, so ist es wahrscheinlich, dass die als erstes geäußerte Schätzung für die restlichen Mitarbeiterinnen einen Anker setzt, von dem sie zwar abweichen, der ihnen jedoch als Orientierungspunkt dient und damit ihre Einschätzung beeinflusst. 3.2.3 Sunk-Cost Fallacy Should I continue this unhappy relationship? I have already put so much into it. Should I continue with this terrible job? I spent a year in training to get this position. We suspect that many bad movies are seen to their completion simply because once the viewer realizes how poor the movie is, several minutes and dollars have already been invested. This sunk cost promotes lingering until the bitter end. (Arkes & Blumer, 1985, S. 126) Die Sunk-Cost Fallacy bezeichnet die Neigung, ein Unterfangen, in das bereits Zeit, Geld oder Mühe investiert wurde, fortzuführen, obwohl es aus gegenwärtiger Sicht sinnvoller wäre, das Vorhaben abzubrechen und weitere Ressourcen woanders einzusetzen (Arkes & Blumer, 1985). In der Vergangenheit getätigte Investitionen beeinflussen also aktuelle Entscheidungen, obwohl letztere sich lediglich an der gegenwärtigen Situation und der Zukunftserwartung orientieren sollten: The sunk-cost fallacy keeps people for too long in poor jobs, unhappy marriages, and unpromising research projects. I have often observed young scientists struggling to salvage a doomed project when they would be better advised to drop it and start a new one. (Kahneman, 2011, S. 346) Arkes und Blumer (1985, S. 126) testeten die Sunk-Cost Fallacy mit folgendem Gedan- kenexperiment: Assume that you have spent $100 on a ticket for a weekend ski trip to Michigan. Several weeks later you buy a $50 ticket for a weekend ski trip to Wisconsin. You think you will enjoy the Wisconsin ski trip more than the Michigan ski trip. As you are putting your just-purchased Wisconsin ski trip ticket in your wallet, you notice that the Michigan ski trip and the Wisconsin ski trip are for the same weekend! It’s too late to sell either ticket, and you cannot return either one. You must use one ticket and not the other. Which ski trip will you go on? 54% der Probanden entschieden sich für den $100 Skitrip nach Michigan, anstatt des als besser erwarteten $50 Skitrips nach Wisconsin. In einem weiteren Experiment verglichen Arkes und Blumer (1985) in einer Feldstudie Personen, die eine Dauerkarte für das Ohio University Theater zum Normalpreis erwarben, mit denjenigen, die einen Rabatt erhielten. Obwohl der Kaufpreis objektiv keinen Einfluss darauf haben sollte, besuchten diejenigen, die den vollen Preis bezahlt hatten anschließend mehr Aufführungen als diejenigen, die einen Rabatt erhalten hatten. Ronayne, Sgroi und Tuckwell (2021) gaben Probanden als Belohnung für ihre Bemühun- gen bei der Erledigung einer Testaufgabe jeweils ein Lottoticket, mit dem sie eine 10% Chance erhielten, $10 zu gewinnen (andererseits $0). Obwohl die Probanden anschließend die Möglichkeit erhielten, dieses Ticket gegen ein anderes Ticket einzutauschen, dass eine 20% Chance auf den Gewinn von $10 versprach, behielten immerhin 23% der Probanden 3 Heuristiken und Biases 49 das offensichtlich unterlegene Ticket, für das sie einen Einsatz erbringen mussten. Die Sunk-Cost Fallacy, die synonym auch mit dem Begriff Escalation of Commitment be- schrieben wird, ist natürlich nicht auf Alltagssituationen beschränkt, sondern hat einen starken Einfluss auf organisationale Planungsprozesse. Escalation of Commitment ist ein häufiges Phänomen in organisationalen Planungsprozessen, in denen bereits eine bedeut- same Menge an Ressourcen wie Arbeitszeit oder Geld investiert wurden, ohne dass der erwartete Verlauf erreicht werden konnte. Bei der Wahl, ob das Vorhaben abgebrochen oder trotz zusätzlicher Kosten fortgeführt werden soll, besteht die beschriebene irrationale Tendenz zur Fortführung. Zum Beispiel begann ein amerikanischer Versorger, die Long Is- land Lighting Company, in den 1970er Jahren den Bau des Shoreham Atomkraftwerk. Die ursprünglich geplanten Kosten wurden mit $70 Millionen angesetzt. Aufgrund einer langen Reihe von Kostenüberschreitungen und Verzögerungen bezüglich regulatorischer Anforde- rungen und einem zunehmenden Widerstand der Öffentlichkeit gegenüber der Atomkraft, steigerten sich die Kosten über 20 Jahre, in denen man an dem Vorhaben festhielt, kon- tinuierlich auf zuletzt $5 Milliarden. Das Kraftwerk wurde nie zu kommerziellen Zwecken in Betrieb genommen und schließlich zurückgebaut (Staw, 1996). Eine Schwierigkeit komplexer Projekte liegt darin, dass im Zeitverlauf wiederholt Investi- tionen getätigt werden müssen, bevor sich die Vorteile des Vorhabens erst am Ende eines langen Prozesses materialisieren. Wenn nun ein Projekt angelaufen ist und nach einer gewissen Zeit und einem gewissen Ressourceneinsatz neue Informationen verfügbar sind, die verdeutlichen, dass es sinnvoller wäre, das Projekt zu beenden, entsteht das Dilemma. Ein möglicher Abbruch des Projekts erzeugt im Management das Gefühl, dass vorheri- ge Ressourcen „verschwendet“ wurden, selbst wenn es zu Beginn eine gute Entscheidung war, das Projekt zu starten und nun nicht vorhersehbare Entwicklungen die Lage ver- ändert haben. So entsteht die sprichwörtliche Tendenz, dem schlechten Geld gutes Geld hinterherzuwerfen (Parayre, 1995). Daraus ergibt sich in organisationalen Vorhaben eine irrationale Tendenz zur Fortführung von Projekten, trotz eines vom aktuellen Stand aus unverhältnismäßig hohen weiteren Ressourceneinsatzes oder sonstiger Risiken. Dies umfasst zum einen die beschriebene Ten- denz, bei drohenden Verlusten eine zu hohe Risikobereitschaft zu zeigen, um die Verluste wieder zu kompensieren. Andererseits besteht bei der Möglichkeit eines sicheren Gewinns, eine irrationale Tendenz, Chancen zur weiteren Gewinnsteigerung auszulassen, um den bisherigen Gewinn nicht zu gefährden. Das Auslassen von Chancen auf einen größeren Erfolg, um den bisherigen Erfolg nicht zu gefährden, ist – zumindest aus wirtschaftlich Sicht – ähnlich kritisch, denn besonders hohe Gewinne in manchen Projekten könnten die Verluste in anderen Vorhaben kompensieren. Dieses Phänomen wird auch als Loss Aversi- on bezeichnet und lässt sich auf die Prospect Theory zurückführen (Kahneman & Tversky, 1979). 3 Heuristiken und Biases 50 Einige Autoren wie Friedman, Pommerenke, Lukose, Milam und Huberman (2007) und McAfee, Mialon und Mialon (2010) bezweifeln die Existenz der Sunk-Cost Fallacy in ihrer Form als irrationale Urteilsverzerrung. Demnach gäbe es ein breites Spektrum an Situa- tionen, in denen das Verhalten rational sei. Dazu gehören Bedenken bezüglich der eigenen Reputation oder finanzielle und zeitliche Beschränkungen. Dem lässt sich entgegensetzen, dass derartige Kontextfaktoren das Auftreten der Sunk-Cost Fallacy potenziell beeinflussen oder erklären können, die These, dass es sich um eine irrationale Entscheidungsverzerrung handelt, jedoch intakt bleibt. Würde man sämtliche Dimensionen eines Urteils bezüg- lich dessen Rationalität bewerten, ließe sich, analog zu der Kritik an der Existenz der Sunk-Cost Fallacy, ein großer Teil suboptimaler Entscheidungen rechtfertigen. So wurde eingangs und für unterschiedliche konkrete Beispiele beschrieben, dass Biases auf impli- ziten Heuristiken beruhen, die auftreten, weil sie einen adaptiven Wert haben, jedoch in Abhängigkeit der Aufgabenstellung zu Verzerrungen führen. Bei kognitiven Biases zeigt sich hierbei, z. B. im Fall der Availability Heuristic, ein Tradeoff zwischen dem Einsatz kognitiver Ressourcen und der Akkuratheit des Urteils. Nach dem Prinzip des Cognitive Misers und der Bounded Rationality reicht ein suboptimales Urteil in vielen Fällen aus, ein Vorgang der als Satisficing beschrieben wird. Beim Optimising hingegen, würde eine Person so viele kognitive und zeitliche Ressourcen wie möglich einsetzen, um das Urteil so gut es geht zu optimieren. Bei der motivationalen Komponente von Biases findet der Tradeoff zwischen einem rationalen Urteil und persönlichen Bedürfnissen, wie dem Selbst- werterhalt, der Harmonie in der Gruppe oder dem psychologischen Wohlbefinden, statt. In beiden Fällen ist zu betonen, dass es im Rahmen von Biases darum geht, dass die- se Tradeoffs unbewusst stattfinden können, also keiner bewussten Abwägung entspringen müssen. Gemäß der oben genannten Kritik sei das Akzeptieren unnötiger (finanzieller) Risiken zur Fortführung eines Projektes, anstatt eines aus Projektsicht sinnvollen Abbruchs, wegen Wahrung der eigenen Reputation dennoch rational. Hier lässt sich entsprechend argumen- tieren, dass diese motivationale Bedürfnisse die Sunk-Cost Fallacy nicht rational machen, sondern, dass sie eine motivationale Ursache dafür sind, dass die Sunk-Cost Fallcy über- haupt erst auftritt. Anhand derartiger Zielkonflikte wird die Zielstellung dieser Arbeit erneut verdeutlicht. Die Bewertung, ob eine Entscheidung rational oder verzerrt ist, sollte vom Nutzwert der Entscheidung abhängig gemacht werden, der anhand der Expected Utility Theory defi- niert ist (vgl. Kapitel 3.1). Die Bedeutsamkeit einer rationalen Entscheidung ist wiederum eine andere Frage, die davon abzugrenzen ist. So wurde in Kapitel 3.1 darauf hingewiesen, dass es durchaus sinnvoll sein kann, bei unwichtigen Problemstellungen eine irrationale Entscheidung zu akzeptieren, um zum Beispiel der Harmonie in der Gruppe oder Bedürf- nissen einzelner Personen, wie deren Reputation, gerecht zu werden. Kontextfaktoren, wie Zeitdruck oder Reputationsbedenken, als Erklärung dafür zu nehmen, dass ein Bias keiner 3 Heuristiken und Biases 51 sei und sich stattdessen rational erklären lasse ist nachvollziehbar, geht aber am Kern des Problems vorbei. So handelt es sich bei Biases um adaptive Denk- und Verhaltensmuster, die sich auf bestimmten Dimensionen als rational bezeichnen lassen, selbst wenn es nur das Sparen kognitiver Ressourcen ist. Stattdessen sollten derartige Umgebungsfaktoren als Einflussvariablen betrachtet werden, die es zu modifizieren gilt, um den Bias zu reduzie- ren. So werden Kontextfaktoren, wie situative Bedingungen oder die Organisationskultur, die einen Einfluss auf die Anfälligkeit für bestimmte Biases haben, im Rahmen dieser Arbeit als mögliche Ziele von Interventionen bzw. zur Organisationsdiagnostik behandelt (Kapitel 4). So ist zum Beispiel denkbar, dass eine angemessene Fehlerkultur derartige Reputationsbedenken unwichtig erscheinen lässt und somit den Zielkonflikt, der den Bias (mit)verursacht, auflöst, so dass eine rationale Entscheidung wahrscheinlicher wird. 3.2.4 Confirmation Bias The most difficult subjects can be explained to the most slow-witted man if he has not formed any idea of them already; but the simplest thing cannot be made clear to the most intelligent man if he is firmly persuaded that he knows already, without a shadow of doubt, what is laid before him. (Tolstoy, 1894, S. 46) Um eine Problemstellung mit einem möglichst akkuraten und rationalen Urteilsprozess zu beantworten, ist es offensichtlich sinnvoll, jegliche relevante Informationen so unvor- eingenommen wie möglich zu bewerten, um daraus objektiv und evidenzbasiert die lo- gischen Schlüsse zu ziehen. Der Confirmation Bias legt hingegen nahe, dass Menschen eine unbewusste Tendenz aufweisen, verstärkt diejenigen Informationsquellen zu nutzen, die ihre bestehenden Ansichten bestätigen, mehrdeutige Informationen zugunsten dieser bestehenden Ansichten zu interpretieren und bestätigende Informationen verstärkt zu spei- chern und abzurufen. Entsprechend führt der Confirmation Bias dazu, dass anstatt einer unvoreingenommenen und objektiven Bearbeitung einer Problemstellung, im Extremfall eine Argumentation erarbeitet wird, die dazu dient, einen bereits gefassten Entschluss zu rechtfertigen (Nickerson, 1998). Dieses stark hypothesenbestätigende Vorgehen lässt sich anhand der Tätigkeit eines Anwalts veranschaulichen, der ganz bewusst für eine Partei ar- gumentiert und Informationen selektiv auswählt und präsentiert. Der Confirmation Bias tritt normalerweise nicht in einer solch extremen Form auf, da es um eine unbewusste Ab- weichung von einem objektiven Vorgehen geht, deren Konsequenzen jedoch weitreichend sind. Evans (1989, S. 41) nennt den Confirmation Bias „the best known and most widely accepted notion of inferential error to come out of the literature on human reasoning“. Nickerson (1998) unterscheidet motivierte und unmotivierten Formen des Confirmation Bias. Motivierte Formen beziehen sich auf die Wünsche der Person, die mit einer Perspek- tive assoziiert sind und die deshalb unbewusst aufrechterhalten werden. Diese motivierte Form des Confirmation Bias wird in Form des Desirability Bias auch als eigenständiger Effekt betrachtet (z. B. Tappin et al., 2017), der sich primär den motivationalen Hot 3 Heuristiken und Biases 52 Biases zuordnen lässt, und entsprechend in Kapitel 3.3.4 näher erläutert wird. Bei den unmotivierte Formen, die in diesem Kapitel beschrieben werden, geht es primär um kogni- tive Effekte, die nicht davon abhängig sind, ob die Person zur präferierten Variante einen voreingenommenen emotionalen Bezug hat. Der Confirmation Bias zeigt sich in der Tendenz, bei der Informationssuche hypothesenbe- stätigend vorzugehen, die sich auch bei Gleichgültigkeit bezüglich des Ergebnisses zeigt. In seiner einflussreichen Studie präsentierte Wason (1960) seinen Probanden die Zahlenreihe 2-4-6, mit der Instruktion, dass der Versuchsleiter eine simple Regel im Sinn hat, der diese Zahlenreihe folgt. Die Aufgabe war es, diese Regel zu benennen, indem die Probanden neue Reihen mit drei beliebigen Zahlen bildeten und nach jedem Durchgang Feedback bekamen, ob die Reihe der vom Versuchsleiter festgelegten Regel folgte. Die Instruktion enthielt zudem den Hinweis, dass es bei der Regel um die relationale Beziehung der Zahlen geht, was Regeln wie „Alle Zahlen sind kleiner als 50“ ausschließt. Außerdem gab es kein Zeitlimit, die Anzahl der Durchgänge sollte aber möglichst gering gehalten werden. Die Regel, die es zu entdecken galt, lautete: Drei Zahlen in aufsteigender Größe. Diejenigen, die auf Anhieb die richtige Lösung fanden, bildeten vorher im Durchschnitt 8,0 Zahlenreihen, während Probanden mit Fehlversuchen, den ersten davon nach durch- schnittlich 3,68 Versuchen verkündeten. Dieser Unterschied und die Art der verkündeten Regeln zeigt, dass die betreffenden Personen auf Basis der ersten Zahlenreihe recht spezi- fische Hypothesen bildeten und sich dieser nach wenigen bestätigenden Zahlenreihen recht sicher waren. Von Interesse ist hierbei aber weniger, dass Probanden beim ersten Versuch daneben lagen, sondern, dass sie eine nicht zielführende Strategie aufgrund des Confirma- tion Bias verwendeten (Wason, 1960). Zehn von 13 Probanden, die beim ersten Versuch falsch lagen, gaben bei der zweiten Verkündung die richtige Antwort, nachdem sie ein brei- teres Spektrum von Regeln durch das Generieren weiterer Alternativen – inklusive mehr hypothesenfalsifizierender Zahlenreihen – ausgeschlossen hatten, als diejenigen, die weite- re inkorrekte Regeln verkündeten. Eine mögliche Erklärung hierfür ist, dass die nunmehr erfolgreichen Probanden aufgrund des Confirmation Bias zunächst blind für Alternativen waren, die nicht dem präsentierten Muster entsprachen, und deshalb Reihen bildeten, die dem Anfangsmuster ähnelten. Nach der Zurückweisung der von ihnen vermuteten Regel öffneten sie sich für alternative Vorgehensweisen. Die weniger erfolgreichen Probanden verpassten es, ausreichend von der als inkorrekt bezeichneten Regel abzuweichen, um wei- tere mögliche Regeln zu falsifizieren, bis sie die richtige erreichten. Stattdessen testeten sie weitere Zahlenreihen und Regeln, die mit der bereits als falsch bezeichneten Ursprungs- hypothese kompatibel waren. Die häufigsten Antworten zur gesuchten Regeln umfassten: „Zahlen, die in Intervallen von 2 aufsteigen“, „Zunahme mit einem vielfachen der ersten Zahl“, „Aufeinanderfolgende gerade Zahlen“. Um sich der richtigen Lösung zu nähern, könnten die Probanden eine Zahlenreihe bilden, die der vorherigen als regelkonform be- 3 Heuristiken und Biases 53 zeichneten Zahlenreihe ähnelt, dabei jedoch mit der als nächstes zu testenden Hypothese inkompatibel ist. Sollte das Feedback diese Zahlenreihe dennoch als regelkonform bewer- ten, kann die falsifizierte Hypothese verworfen werden, und das Vorgehen mit einer neuen Hypothese wiederholt werden (Wason, 1960). Man könnte der Interpretation des Versuchs entgegensetzen, dass die zuerst präsentierte Zahlenreihe sehr suggestiv ist, und damit auf eine spezifische Regel hindeutet beziehungs- weise die Probanden bewusst in die Irre führt. Dementsprechend unterläge das Versuchs- design, das dem Nachweis des Confirmation Bias dient, selbst einem Confirmation Bias. Dem lässt sich entgegensetzen, dass eine derartige Situation durchaus auch in praktischen Situationen denkbar ist, und das Ergebnis somit nicht zwangsläufig auf das spezifische Design im Labor begrenzt ist. Angenommen in einem organisationalen Planungsprozess präsentiert ein Gruppenmitglied einen Vorschlag für ein Projekt, von dem sie oder er selbst überzeugt ist. Die Präsentation stellt den konkreten Handlungsvorschlag positiv dar und beinhaltet keine Nachteile oder Alternativen. Die restlichen Gruppenmitglieder, die be- züglich des weiteren Vorgehens zunächst indifferent sind, sind zwar noch nicht vollends überzeugt, finden den Vorschlag aufgrund der Präsentation jedoch plausibel. Ähnlich wie die Probanden in Wasons (1960) Experiment suchen Sie nach Belegen, dass das Vorgehen, genau so wie es in der Präsentation beschrieben ist, funktionieren wird. Nachdem sie drei oder vier bestätigende Hinweise recherchiert haben, sind sie von dem Vorgehen überzeugt. Eine solche Situation ist zum Beispiel im Fall von Boeing denkbar, der in Kapitel 6.1.1 genauer beschrieben wird. Dort fielen Simulationstests mit einem neuen technischen Sys- tem extrem positiv aus – möglicherweise, weil nicht genügend Situationen getestet wurden, welche die Zuverlässigkeit des Systems stärker in Frage gestellt hätten. Daran zeigt sich die besondere Bedeutung der hypothesenfalsifizierenden Informationssuche: „One single observation can invalidate a general statement derived from millennia of confirmatory sightings of millions of white swans. All you need is one single (and, I am told, quite ugly) black bird“ (Taleb, 2010, S. 435). Nickerson (1998) spricht bei dem von den Probanden gezeigten Tunnelblick bezüglich der Suche alternativer Hypothesen von Restriction of attention to a favored hypothesis. Fa- vored bezieht sich dabei nicht auf den persönlichen Bezug, sondern kann, wie im Beispiel- experiment, Hypothesen umfassen, denen die betroffene Person motivational indifferent gegenübersteht, die aber aus irgendeinem Grund die Ausgangshypothesen bilden, und sei es nur, weil sie als erste oder einzige Hypothese präsentiert werden (vgl. auch Anchoring Effect, Kapitel 3.2.2). Neben der eingeschränkten Informationssuche definiert Nickerson (1998) Preferential treat- ment of evidence supporting existing beliefs als weiteres Symptom des Confirmation Bias. Hierbei geht es um die höhere Aufgeschlossenheit gegenüber hypothesenbestätigenden In- formationen im Vergleich zu falsifizierenden Informationen, die zum Beispiel leichtfertiger 3 Heuristiken und Biases 54 diskreditiert oder rationalisiert werden. Eine mögliche Erklärung ist das Bedürfnis nach kognitiver Konsistenz beziehungsweise kognitiver Dissonanzreduktion (vgl. Kapitel 2.3). Kuhn (1989, S. 675) beobachtet in einer Studie zu wissenschaftlicher Logik im Alltag folgenden Effekt: As these examples illustrate, subjects commonly exhibited strategies that served to bring theory and evidence into alignment with one another. A major, and anticipated, strategy was biased evaluation of the evidence to reduce its inconsistency with theory (although it was a strategy that was hard to maintain as discrepant evidence mounted). Subjects either failed to acknowledge discrepant evidence or attended to it in a selective, distorting manner. In einer Studie von Baron (1995) bewerteten Probanden einseitige Argumentationen einer Präsentation zum Thema Abtreibung als überzeugender, als wenn die Präsentation sowohl Argumente für als auch dagegen beinhaltete, unabhängig davon, für welche Seite einseitig argumentiert wurde. Ein möglicher Grund dafür ist, dass Menschen dazu neigen „gutes“ Denken mit Expertise zu konfundieren und die Berücksichtigung unterschiedlicher Mei- nungen eher als ein Mangel an Expertise wahrgenommen wird. Alternativ vermutet Baron (1995), dass Verbindlichkeit als Tugend wahrgenommen wird, was bezüglich des Einhaltens von Versprechen oder Verträgen sicherlich zutreffend ist, aber nicht bei der Urteilsbildung. Wie bereits zum Bedürfnis nach kognitiver Konsistenz beschrieben, haben Menschen ein Bedürfnis, Ambiguität zu reduzieren und nach außen Konstanz zu signalisieren, ein im Sinne der Uncertainty Avoidance (vgl. Kapitel 4.2) zum Teil kulturabhängiges Bedürfnis, das insbesondere bei komplexen Fragestellungen hinderlich ist und zu irrationalen Urteilen führt. Als weiteres Symptom definiert Nickerson (1998) Overweighing positive confirmatory in- stances. Pyszczynski und Greenberg (1987, S. 313) stellen dazu fest: As suggested by research on the feature-positive effect (e.g., Fazio el al., 1982; Jenkins & Ward, 1965; Snyder, 1984), people are generally better able to make use of information that suggests that the hypothesis is correct than information that suggests that it is not. This creates an asymmetry in the evidential requirements for bringing the hypothesis-testingsequence to a halt and drawing a conclusion. Generally, people will require less hypothesis- consistent evidence to accept a hypothesis than hypothesis-inconsistent information to reject a hypothesis. Diese Erkenntnis deckt sich mit den Ergebnissen des oben beschriebenen Experiments von Wason (1960), der feststellte, dass Probanden mit einer positiven Teststrategie im Durchschnitt deutlich früher ein falsches Ergebnis verkündeten. Ein weiteres Symptom bezeichnet Nickerson (1998) als Seeing what one is looking for. Hierbei geht es um hypothesengesteuerte Top-Down Prozesse, welche die Wahrnehmung unbewusst auf hypothesenbestätigende Stimuli lenken. Dadurch lassen sich zum Beispiel die verstärkten Ängste von Hypochondern erklären. Der Körper produziert häufig Si- gnale, die im Normalfall harmlos sind und ignoriert werden, die aber unter Umständen als Krankheitssymptome interpretiert werden könnten. Bei Krankheitsverdacht wird die Aufmerksamkeit verstärkt auf derartige Signale gelenkt, wodurch sich die Überzeugung 3 Heuristiken und Biases 55 erkrankt zu sein verstärkt, auch wenn keine Erkrankung vorliegt (Pennebaker & Skel- ton, 1978). Derartige Formen der hypothesenbestätigenden Mustererkennung zeigen sich auch bei weiteren psychischen Störungen, wie Paranoia oder depressiven Verstimmungen, bei denen die Betroffenen sich selektiv auf aggressive beziehungsweise negative Informa- tionen konzentrieren (A. T. Beck, 1979). Die klinischen Beispiele sollen dabei nicht dar- über hinwegtäuschen, dass dieser Effekt der hypothesenbestätigenden Mustererkennung in gewisser Ausprägung allgegenwärtig ist (Kuhn, 1989; Nisbett & Ross, 1980). So nei- gen Menschen auch zu einem Effekt, der als Illusory Correlation bezeichnet wird und beschreibt, dass zufällige Zusammenhänge zwischen Variablen vorschnell als signifikante Korrelationen wahrgenommen werden. Das kann sich zum Beispiel in Vorurteilen zeigen, wenn Personen vermuten, dass Mitglieder einer Gruppe mit bestimmten Verhaltensweisen assoziiert sind. Daraufhin werden Personen eher bestätigende Informationen wahrnehmen und verarbeiten, wodurch ein nicht vorhandener Zusammenhang hergestellt wird oder ein tatsächlich vorhandener Zusammenhang übertrieben wird (Hamilton, Dugan & Trolier, 1985). Dieser Vorgang steht auch im Zusammenhang mit der Tendenz zu Kategorisierun- gen. Der Mensch mit seinen kognitiven Limitationen ist darauf angewiesen, Informationen in ein vorhandenes Netzwerk an Informationen, dem semantischen Netzwerk (vgl. Kapi- tel 2.2), einzuordnen. Diese Kategorisierungen beeinflussen wiederum die Wahrnehmung neuer Informationen, die in diese Kategorien eingeordnet werden, ein Prozess der auch als Assimilation beschrieben wird. Das Bilden neuer Kategorien oder Umstrukturieren vorhandener Kategorien wird hingegen als Akkommodation bezeichnet. Akkommodati- on verbraucht mehr kognitive Ressourcen und wird vom Menschen, als Cognitive Miser, tendenziell vermieden. 3.3 Motivationale Biases Most behavioral research addresses cognitive biases – faulty mental processes that lead judgments and decisions to violate commonly accepted normative principles. Equally important, but much less studied, are motivational biases, which include conscious or subconscious distortions of judgments and decisions because of self-interest, social pressures, or organizational context. (Montibeller & von Winterfeldt, 2015, S. 1230) Anders als für die Prinzipien Cognitive Miser und Bounded Rationality beschrieben, ent- stehen primär motivationale Heuristiken und Biases weniger aus der Knappheit oder den Grenzen kognitiver Ressourcen, sondern haben sich aus Gründen des psychologischen Wohlbefindens evolutionär durchgesetzt oder steigern die Bereitschaft, Risiken einzuge- hen, was für den Einzelnen, aber auch für Gesellschaften durchaus Vorteile bringen kann – zum Beispiel im Bereich von technischen Innovationen im Kontext von Unternehmens- gründungen. So entstehen aufgrund der tendenziell selbstwertdienlichen Attribution von Ereignissen im Rahmen des Self-Serving Bias (Kapitel 3.3.1) Effekte wie der Optimism Bias (Kapitel 3.3.3) und der Overconfidence Bias (Kapitel 3.3.2). Die adaptiven Vorteile 3 Heuristiken und Biases 56 derartiger Effekte liegen auch darin, dass eine Person, die in hohem Maße von der eigenen Leistungsfähigkeit überzeugt ist, bis zu einem gewissen Grad auch andere Personen davon überzeugt (Quelle). Zudem fördert Motivated Reasoning in vielen Fällen den Zusammenhalt von Gruppen, indem zum Beispiel abweichende Meinungen im Sinne der kognitiven Dissonanzreduktion an die Gruppenmeinung angepasst werden. Durch die soziale Komponente motivationaler Biases wird die Grundlage für unterschiedliche gruppendynamische Biases gelegt, im Kon- text derer sich zusätzliche Potenziale für Urteils- und Entscheidungsverzerrungen bilden. Gruppendynamische Biases werden in Kapitel 3.4 behandelt, und in dieser Arbeit insofern von motivationalen Biases mit sozialer Komponente abgegrenzt, dass gruppendynamische Biases erst durch die tatsächliche oder antizipierte Interaktion innerhalb einer Gruppe entstehen. Einen im Kontext organisationaler Planungsprozesse wichtigen Zusammenhang zwischen motivationalen und kognitiven Biases beschreiben (Montibeller & von Winterfeldt, 2015, S. 1230): Some decision and risk analysts use the existence of these biases to argue for the use of modeling and analysis tools because these tools can correct human biases and errors in decision making. However, experts and decisionmakers need to provide judgments in risk and decision modeling, thus analysts must worry about biases that may distort the inputs into the very models that are supposed to correct them. For example, when using expert judgments to construct a probability distribution as an input to a risk analysis model, one has to worry about the wellknown overconfidence bias. Similarly, when obtaining expert judgments as inputs to estimate possible consequences of decision alternatives, one has to be concerned with the self-interest of experts, who may have a stake in the outcome of the analysis. (Montibeller & von Winterfeldt, 2015, S. 1230) Dem lässt sich hinzufügen, dass, wie bereits beschrieben, auch die Compliance bezüglich der Nutzung von Entscheidungsanalysetools zur Mitigation von kognitiven Biases potenzi- ell durch motivationale und gruppendynamische Biases beeinflusst wird. In den folgenden Abschnitten werden verschiedene dieser Biases näher beschriebenen, bevor in Kapitel 4 die Organisationskultur als diesbezüglich wichtiger Kontextfaktor betrachtet wird. 3.3.1 Self-Serving Bias After class, one of Lance’s classmates asks him how he performed on the examination. Lance replies that he did not perform all that well and then hastens to explain that the test consisted of multiple-choice questions, a form of testing that does not reflect his true ability. Furthermore, his instructor graded harshly, and it was impossible for him to sleep the night before the examination because of a loud party that his roommate hosted. (Campbell & Sedikides, 1999, S. 23) Der Self-Serving Bias beschreibt die Tendenz zur verzerrten Wahrnehmung und Interpre- tation von Ereignissen zur Aufrechterhaltung oder Steigerung des Selbstbilds. Dies zeigt sich zum Beispiel, wenn eine Person eine gute Leistung auf ihre Fähigkeiten zurückführt 3 Heuristiken und Biases 57 und eine schlechte Leistung auf externe Umstände oder auch daran, dass sie ihren eige- nen Anteil an einer Gruppenleistung überschätzt (Forsyth, 2008). Ein Student, der seine schlechte Note auf Pech oder die Schwierigkeit des Tests zurückführt und eine gute No- te auf Disziplin und Talent, zeigt ein Attributionsmuster, das, im Falle einer positiven Handlung oder eines positiven Ereignisses, interne und instabile (Disziplin) sowie inter- ne stabile (Talent) Faktoren als kausal verantwortlich betont, während im negativen Fall externe, instabile Faktoren als Ursache gesehen werden (Campbell & Sedikides, 1999). Motivation der verzerrten Aufrechterhaltung des Selbstwertes ist die eigene positive Wahr- nehmung, aber auch das Bedürfnis ein erwünschtes Bild gegenüber anderen zu erzeugen (Self-Presentation; Shepperd et al., 2008). Diese Art der selbstwertdienlichen Attributati- on hat einen starken motivationalen Charakter und ist adaptiv, weil sie neben verzerrten Urteilen auch Vorteile mit sich bringt. Dazu gehört ein höheres psychologisches Wohlbe- finden. So geht die Theorie des Depressive Realism, davon aus, dass depressive Personen eventuell einem pessimistischen Bias unterliegen, in der Regel aber näher an einer realis- tischen Einschätzung einer Situation liegen als gesunde Probanden (Alloy & Abramson, 1988). Die kognitive und perzeptive Tendenz, Geschehnisse selbstwertdienlich und verzerrt zu attribuieren, die einerseits den Selbstwert und die psychologische Gesundheit stützt, führt aber andererseits zu verzerrten Urteilen und Fehlenscheidungen. Entsprechend kann der Self-Serving Bias primär als motivational verursachter Hot Bias betrachtet werden. Glücklicherweise gibt es neben einer Depressiven Verstimmung noch weitere Faktoren, die mit einer Reduktion des Self-Serving Bias zusammenhängen. Die Ausprägung des Self- Serving Bias variiert auch in Abhängigkeit des kulturellen Kontextes und ist in leistungs- orientierten und individualistischen westlichen Kulturen stärker ausgeprägt als in kollekti- ver ausgerichteten ostasiatischen Kulturen (Al-Zahrani & Kaplowitz, 1993). Der Einfluss des kulturellen Kontexts auf das Ausmaß einzelner Biases in organisationalen Planungs- prozessen wird in Kapitel 4.3 detaillierter besprochen. Im organisationalen Kontext kann sich die Problematik des Self-Serving Bias zum Beispiel darin zeigen, dass Mitarbeiter sich für negative Leistungen oder Probleme nicht verant- wortlich fühlen und Lernerfahrungen somit ausbleiben. So zeigten Dobbins und Russell (1986) in einem Experiment, dass Führungskräfte die Ursache für schlechte Leistungen bei ihren Mitarbeitern sahen, während diese umgekehrt die Führungskräfte verantwortlich machten. In der Folge erachteten Führungskräfte anschließende Trainings oder Strafen für ihre Mitarbeiter als angemessen, während die Mitarbeiter – welche die Führungskräf- te für verantwortlich hielten – diese entsprechend als fehlgeleitet bewerteten. Derartige Konstellationen führen zu ausbleibenden Lernerfahrungen und Konflikten. Larwood und Whittaker (1977) berichten für organisationale Planungsprozesse überopti- mistische Prognosen und Selbstüberschätzung als Folge des Self-Serving Bias. Der Opti- mism Bias und Overconfidence Bias, die sich zum Teil auf den Self-Serving Bias zurück- 3 Heuristiken und Biases 58 führen lassen (Quelle), werden in den folgenden Abschnitten beschrieben. 3.3.2 Overconfidence Bias When the editor of this book asked me whether I would be interested in contributing a chapter on overconfidence, my first question was ’What’s the deadline?’ [...] At the time my confidence of providing the chapter by the end of November was about 80% and my confidence of being done before Christmas was almost 100%. Christmas came and I had not yet even started. (Hoffrage, 2017, S. 291) Der Overconfidence Bias äußert sich zum einen in der als Overestimation bezeichneten Tendenz, die eigenen persönlichen Eigenschaften oder Fähigkeiten zu überschätzen (Moore & Healy, 2008). Wie im Eingangsbeispiel ist die Überschätzung der Schnelligkeit, in der man eine Aufgabe erledigen kann, eine verbreitete Form von Overestimation (Buehler, Griffin & MacDonald, 1997), die auch als Planning Fallacy bezeichnet wird. Ein weiteres Beispiel für Overestimation ist, dass beispielsweise Schüler und Studenten systematisch ihre Leistung in Prüfungen überschätzen (Clayson, 2005). Overconfidence zeigt sich auch als Overplacement, also im Vergleich mit anderen Personen (Larrick, Burson & Soll, 2007). Bei einer Befragung denken zum Beispiel 80% der Stu- dierenden, dass sie zu den Top 50% der Klasse gehören (Hoffrage, 2017). Börsenhändler gehen fälschlicherweise davon aus, dass sie besser auf Veränderungen reagieren können als andere Marktteilnehmer (Moore & Swift, 2011). 37% der Ingenieure einer Firma halten sich für die Top 5% der Leistungsträger (Zenger, 1992). Schließlich beschreibt Overprecision die Tendenz, die Akkuratheit eigener Urteile zu über- schätzen. Probanden, die bei der Einschätzungen bestimmter Fakten, zum Beispiel der Länge des Nils, ein Konfidenzintervall angeben, bezüglich dessen sie sich zu 90% sicher sind, dass der wahre Wert darin liegt, behalten damit nur in 43% der Fälle Recht (Klayman et al., 1999). Dabei ist Overconfidence nicht auf Alltagsurteile und Laborexperimente beschränkt. Ex- perten diverser Berufsgruppen sind „often wrong, but rarely in doubt“ (Griffin & Tversky, 2009, S. 230). Verschiedene Studien zeigen den Effekt in den Urteilen von Ärzten, Psy- chotherapeuten, Anwälten, Ingenieuren und Finanzanalysten. Eine Ausnahme bilden zum Beispiel Meteorologen, da diese für Wettervorhersagen zeitnahes und unmissverständli- ches Feedback erhalten (Griffin & Tversky, 2009). Das Ausmaß an Overconfidence hängt zudem besonders von der Aufgabenschwierigkeit ab. Bei sehr einfachen Aufgaben zeigt sich ein gegenteiliger Effekt, Underconfidence. Nimmt die Aufgabenschwierigkeit zu, steigt das Ausmaß an Overconfidence stark an (Klayman et al., 1999), weswegen der Einfluss auf organisationale Planungsprozesse, die sich durch Komplexität, Unstrukturiertheit und die Abwesenheit von unmittelbarem Feedback auszeichnen (vgl. Kapitel 2.1), besonders relevant ist. 3 Heuristiken und Biases 59 Bazerman und Moore (2013, S. 14) nennen Overconfidence „the mother of all biases“. Insbesondere im Kontext organisationaler Entscheidungsprozesse wurde Overconfidence – neben oder auch im Zusammenhang mit der Organisationskultur – häufig als Ursache diverser Katastrophen, wie dem Sinken der Titanic, der Nuklearkatastrophe von Tscher- nobyl, dem Absturz der Space Shuttles Challenger und Columbia sowie der Finanzkrise von 2008 identifiziert (Labib & Read, 2013). Der potenziel durch bestimmte Biases medi- ierte Zusammenhang zwischen der Organisationskultur und der Entscheidungsqualität in Planungsprozessen wird in Kapitel 4.3 näher beschrieben. Die Planning Fallacy ist eine für organisationale Planungsprozesse besonders relevante Form des Overconfidence Bias und wird mit vielen prominenten Beispielen in Verbindung gebracht. Buehler, Griffin und Ross (1994) ließen 37 Studierende schätzen, wie viel Zeit sie realistischerweise und im schlechtesten Fall für die Fertigstellung ihrer Abschlussarbeit bräuchten. Von den Probanden, die sich bereits in der Endphase dieser Abschlussarbeit befanden, konnten nur 30% die Vorhersage einhalten. Im Schnitt brauchten sie noch 55 Tage und damit 22 Tage länger als in der realistischen – und sieben Tage länger als in der pessimistischen Schätzung angenommen. Der Zeitrahmen der Schätzung und die tatsäch- liche Dauer korrelierten hoch miteinander (r=.77). Die Studierenden waren also durchaus in der Lage, Informationen über die Dauer des Projekts korrekt zu nutzen, unterschätzten diese jedoch systematisch. Der Overconfidence Bias kann zum Teil auf den Self-Serving Bias und dessen Ursachen zurückgeführt werden (Larwood & Whittaker, 1977). Das positive Selbstbild, das mit der selbstwertdienlichen Attribution des Self-Serving Bias, und entsprechend mit der Über- schätzung der eigenen Fähigkeiten des Overconfidence Bias einhergeht, führt zu einem gesteigerten Wohlbefinden. Bénabou und Tirole (2002) sprechen hierbei von dem Con- sumption Value. Im Rahmen des Signaling Value macht der Overconfidence Bias es ein- facher, andere von den eigenen Fähigkeiten zu überzeugen: „Indeed, it is often said that to lie most convincingly a person must believe his own lies“ (Bénabou & Tirole, 2002, S. 877). Kahneman (2011, S. 262) schreibt dazu: Experts who acknowledge the full extent of their ignorance may expect to be replaced by more confident competitors, who are better able to gain the trust of clients. An unbiased appreciation of uncertainty is a cornerstone of rationality – but it is not what people and organizations want. Motivation Value betrifft die durch Overconfidence gesteigerte Moral, die zu mehr Unter- nehmergeist und einem höheren Durchhaltevermögen gegenüber Widrigkeiten führt (Béna- bou & Tirole, 2002). Auch wenn ein Großteil von Unternehmensgründungen innerhalb der ersten vier Jahre zu einer Pleite führt, ist Overconfidence auch insofern adaptiv, als dass die Gemeinschaft von den Erfahrungen und Innovationen profitiert: American culture encourages the process of failure, unlike the cultures of Europe and Asia where failure is met with stigma and embarrassment. America’s specialty is to take these small risks for the rest of the world, which explains 3 Heuristiken und Biases 60 this country’s disproportionate share in innovations. (Taleb, 2010, S. 204) Teilweise werden interindividuelle Differenzen bezüglich der Neigung zu Overconfidence be- richtet. Demnach haben die Dimension Extraversion der Persönlichkeit nach dem Big-Five- Modell (Schaefer, Williams, Goodie & Campbell, 2004), narzisstische Neigungen (Camp- bell, Goodie & Foster, 2004) und das männliche Geschlecht (Niederle & Vesterlund, 2007) einen verstärkenden Einfluss auf den Overconfidence Bias. Wie beim Self-Serving Bias va- riiert die Ausprägung des Overconfidence Bias in Abhängigkeit des kulturellen Kontextes (Muthukrishna et al., 2018), dessen Rolle in Kapitel 4 diskutiert wird. Overconfidence spielt darüber hinaus auch für andere Biases eine verstärkende Rolle. So beinhaltet die Überschätzung der eigenen Fähigkeiten auch die Güte der eigenen Urteile und Entscheidungen und erschwert somit den Prozess, diese zu hinterfragen und Biases bei sich selbst und der eigenen Gruppe zu erkennen. Dieses Phänomen bezeichnet man auch als Bias Blind Spot. 3.3.3 Optimism Bias Future. That period of time in which our affairs prosper, our friends are true and our happiness is assured. (Bierce, 1911) Der Optimism Bias zeigt, dass Menschen nicht nur – wie beim Overconfidence Bias – ihre eigene Leistungsfähigkeit tendenziell überschätzen, sondern auch bei ihrer Einschätzung der Zukunft und dem Einfluss externer Faktoren eine zu positive Sicht einnehmen. So zeig- te sich, dass Probanden bei der Einschätzung der Eintrittswahrscheinlichkeit verschiedener Ereignisse im kommenden Monat – zum Beispiel, ein Geschenk zu erhalten oder in einen Verkehrsstau zu geraten – positive Ereignisse überschätzten und negative Ereignisse un- terschätzten, wie sich den entsprechenden Berichten einen Monat später entnehmen ließ (Strunk, Lopez & DeRubeis, 2006). Gleichermaßen unterschätzen Menschen ihr Risiko, schwer zu erkranken, und Universitätsabsolventen überschätzen die Anzahl ihrer Joban- gebote und die Höhe ihrer Einstiegsgehälter (Sharot, 2011). In organisationalen Planungsprozessen werden häufig die benötigten Ressourcen bezüg- lich Zeit und Geld zur Erreichung eines Ziels unter- beziehungsweise überschätzt, was sich zum einen auf den Optimism Bias – also die Fehleinschätzung externer Faktoren – zurückführen lässt (Sharot, 2011), und zum anderen auf das Überschätzen der eigenen Leistungsfähigkeit oder auf ein zu großes Vertrauen in die eigenen Schätzungen gemäß dem Overconfidence Bias (vgl. Kapitel 3.3.2). Ein Phänomen, welches in organisationalen Planungsprozessen besonders relevant ist, ist die Planning Fallacy, die beschreibt, dass in komplexen Planungssituationen die Zeit und Ressourcen, die für den erfolgreichen Ab- schluss eines Projekts benötigt werden, systematisch unterschätzt werden. Hier spielen neben Overestimation, also das überschätzen der eigenen Leistungsfähigkeit, auch Opti- 3 Heuristiken und Biases 61 mism – die Erwartung, dass keine ungeplanten Hindernisse auftauchen – eine Rolle: People’s completion estimates are likely to be overly optimistic if their forecasts are based exclusively on planbased, future scenarios. A problem with the scenario approach is that people generally fail to appreciate the vast number of ways in which the future may unfold.(Buehler, Griffin & Ross, 2009, S. 253-254) So werden bewusste realistische Schätzungen – im Sinne der Attribute Substitution – meis- tens unbewusst durch Best-Case-Szenarios ersetzt (Newby-Clark, Ross, Buehler, Koehler & Griffin, 2000). Ein Erklärungsansatz für den Optimism Bias allgemein – und die Plan- ning Fallacy speziell – liegt in der Wirkung des Self-Serving Bias. So vermuten Buehler et al. (2009), dass eine übermäßig positive Attribution vergangener Erfahrungen mit ähnli- chen Prozessen dazu führt, dass negative Erfahrungen für die aktuelle Situation irrelevant sind und somit ausgeblendet werden. Negative Erfahrungen wurden also als external und instabil und somit als irrelevant für die aktuelle Situation attribuiert, während Erfolge auf internale Faktoren zurückgeführt wurden. Ähnlich wie der Overconfidence Bias, bringt auch der Optimism Bias soziale Vorteile mit sich: However, optimism is highly valued, socially and in the market; people and firms reward the providers of dangerously misleading information more than they reward truth tellers. One of the lessons of the financial crisis that led to the Great Recession is that there are periods in which competition, among experts and among organizations, creates powerful forces that favor a collective blindness to risk and uncertainty. (Kahneman, 2011, S. 262) Der Optimism Bias zeigt sich in der Resistenz gegenüber der Verarbeitung negativer In- formationen. So ist das Aufzeigen bisher unbekannter Krankheitsrisiken erstaunlich un- wirksam, um bei anderen Personen die optimistische Einstellung bezüglich ihrer Gesund- heitsrisiken zu verändern. Und auch Experten, zum Beispiel Finanzanalysten, zeigen Übe- roptimismus, insofern sie unwahrscheinlich hohe Profite erwarten. (Sharot, 2011). Die positive Seite des Optimism Bias liegt beispielsweise in der Reduzierung von Stress und Angst und damit der Steigerung des psychischen und physischen Wohlbefindens. Die Schattenseite ist, dass das optimistische Unterschätzen von Risiken bei Individuen zu ver- mehrt finanziell und gesundheitlich riskantem Verhalten und entsprechenden Konsequen- zen, zum Beispiel Lungenkrebs, Übergewicht oder Privatinsolvenz, führen kann (Sharot, 2011). Analog dazu führt der Optimism Bias im Bereich organisationaler Planungsprozes- se zur Verringerung von Vorsichtsmaßnahmen und damit zu finanziellen Risiken für die Organisation und – insbesondere im Bereich der HROs – zu gesundheitlichen Risiken für Mitarbeiter und Kunden. 3.3.4 Desirability Bias People can foresee the future only when it coincides with their own wishes, and the most grossly obvious facts can be ignored when they are unwelcome. (Orwell, 1944) Der Desirability Bias hat bislang recht wenig Aufmerksamkeit erhalten, was sich mutmaß- 3 Heuristiken und Biases 62 lich auf die Parallelen zu dem in der Forschung weit verbreiteten Confirmation Bias (vgl. Kapitel 3.2.4) sowie dem Optimism Bias (Kapitel 3.3.3) zurückführen lässt. Der Desira- bility Bias beschreibt den Effekt, demnach neue Informationen tendenziell zugunsten der eigenen Wünsche oder Präferenzen gesucht und interpretiert werden. Tappin et al. (2017) fanden heraus, dass Probanden einen vom Confirmation Bias unab- hängigen Desirability Bias zeigten, und dass der Desirability Bias dabei einen stärkeren Einfluss auf die Meinungsbildung hat als der Confirmation Bias. Im Kontext der US-Wahl 2016 bewerteten 811 Probanden inwieweit sie glaubten, dass Hillary Clinton beziehungs- weise Donald Trump die Wahl gewinnen würden und wen sie sich als Sieger wünschten. Als die Probanden neue Informationen, die entweder Clinton oder Trump stärkten, erhielten, bewerteten sie jene Informationen zu stark, die ihren Wünschen entsprachen, unabhän- gig von dem, was sie für wahrscheinlicher hielten. Entsprechend ergab die Studie, dass unabhängig vom Confirmation Bias – also der Übertreibung von Informationen, die beste- hende Annahmen bestätigen – der Desirability Bias wirkt, und dabei einen noch stärkeren Einfluss auf die Meinungsänderung hat (Tappin et al., 2017). Während der Confirmation Bias auch bei vorheriger Indifferenz gegenüber unterschiedlichen Einstellungen, zum Bei- spiel allein durch Reihenfolgeeffekte, auftreten kann (vgl. Kapitel 3.3.2), definiert sich der Desirability Bias über die Suche und Interpretation neuer Informationen zugunsten des emotional erwünschten Ergebnisses. Die beiden Biases sind potenziell konfundiert und ent- sprechend vermuten Tappin et al. (2017), dass in vielen Fällen, in denen der Confirmation Bias berichtet wird, tatsächlich der Desirability Bias für die verzerrte Informationsver- arbeitung verantwortlich sein könnte. Diese Sichtweise deckt sich mit den Erkenntnissen von Eil und Rao (2011), die ebenfalls herausfanden, dass Probanden neue Informationen stärker in Abhängigkeit der Valenz integrierten, als in Abhängigkeit des bestätigenden Charakters. Die Auswirkungen des Desirability Bias sind wie beim Confirmation Bias eine einge- schränkte Suche und Verarbeitung von Informationen. Bezüglich des Fokus auf die eigenen Präferenzen und Wünsche kann der Desirability Bias als Mitursache für überoptimistische Zukunftsprognosen gesehen werden, deren Folgen im organisationalen Planungsprozess zum Beispiel ein falsches Risikoverständnis und mangelnde Sicherheitsmaßnahmen verur- sachen. 3.4 Gruppendynamische Biases These group dynamics appear to add an emotional dimension to the distortion of the planning process, and this serves to bring individual biases into greater prominence but also adds some specific biases to group membership. The powerful forces of perceived togetherness act in concert to render the possibility of failure unthinkable – and if not unthinkable, then certainly unspeakable. (Reason, 2013, S. 62) 3 Heuristiken und Biases 63 Die meisten Urteile und Entscheidungen in organisationalen Planungsprozessen werden durch Gruppen getroffen, in denen einzelne Mitglieder zunächst ihre Präferenzen bezüglich Handlungsalternativen und deren assoziierten Chancen beziehungsweise Risiken mitteilen und anschließend diskutieren. Die inhaltlichen Vorteile des Gruppenkontextes entstehen durch das Bündeln von Informationen von Personen mit unterschiedlicher Expertise, der Berücksichtigung verschiedener Perspektiven und der damit einhergehenden akkurateren Bewertung der Situation (Montibeller & von Winterfeldt, 2018). Gleichzeitig bringt der Gruppenkontext zusätzliche Komplexität in den Planungsprozess und damit Potenzial für entscheidungsverzerrende Effekte. Aufgrund dieser Komplexität sind die Erkenntnisse über den Einfluss des Gruppenkontextes auf die Entscheidungsqualität uneindeutig, und der Zusammenhang hängt stark von weiteren moderierenden Variablen ab. Dazu gehören die Art des Bias, die Beschaffenheit des Gruppenentscheidungsprozesses, die Ausprägung des Bias auf individueller Ebene sowie die Verteilung individueller Präferenzen innerhalb der Gruppe (Kerr, MacCoun & Kramer, 1996; Krueger & Funder, 2004). Diese Erkenntnisse stehen im Einklang mit Studienergebnissen, die in den folgenden Ka- piteln näher erläutert werden, demnach die Gruppengröße positiv mit dem Grad an Social Loafing korreliert (Kapitel 3.4.2), Group Polarization vom Grad der Meinungshomogeni- tät abhängt (Kapitel 3.4.3), und Groupthink durch eine hohe Gruppenkohäsion entsteht, und in diesem Kontext seine Entscheidungsverzerrende Wirkung entfaltet (Kapitel 3.4.1). Wie in den folgenden Kapiteln deutlich wird, haben zudem soziale Faktoren, wie das Stre- ben nach Einstimmigkeit oder Reputationsbedenken, einen entscheidenden Einfluss auf die Entstehung gruppendynamischer Biases. Daneben lassen sich aber auch die Prinzipien der Bounded Rationality und des Cognitive Misers (vgl. Kapitel 1.1) auf den Gruppenkontext übertragen: In many instances, groups are satisficing entities – often it’s not that groups cannot perform near their upper limits, it’s that they simply don’t need to. If a simple combination of member judgments tends to produce reasonably accurate probabilistic estimates, the additional effort necessary to make the combination ’as accurate as it can possibly be’ may often not be worth it. If a simply majority is more-often-than-not correct, then the additional effort necessary to figure out when they might be wrong may be inefficient (Kameda & Hastie 1999). Many group norms may have developed because they work most of the time and require little processing effort. (Kerr & Tindale, 2004, S. 642) Eine Studie von Houghton et al. (2000), in der Probanden entweder individuell oder kol- lektiv Planungsszenarien bewerteten, zeigt, dass kognitive und motivationale Biases auf individueller Ebene die Risikowahrnehmung reduzieren und dass der Gruppenkontext diese individuellen Biases nicht reduziert, sondern zum Teil sogar verstärkt. Meub und Proeger (2018) verglichen die Wirkung des Anchoring Effects zwischen Individuen und Gruppen und fanden dabei heraus, dass der Gruppenkontext lediglich bezüglich Faktenwissen den Anchoring Effect reduzieren kann. Bei Wahrscheinlichkeits- und Preisschätzungen waren Gruppen aus drei Personen ebenso betroffen wie Individuen. Das Ergebnis unterstreicht 3 Heuristiken und Biases 64 die Erkenntnis, dass Gruppen durch einen in der Summe höheren Wissensstand verfügen und sich somit bei unbestreitbarem Faktenwissen die Chance erhöht, dass Gruppen die unverzerrte Lösung finden. Bei Urteilen unter Unsicherheit, die heuristische Prozesse zwin- gend erforderlich machen oder diese intuitiv inadäquat eingesetzt werden, unterliegen die einzelnen Gruppenmitglieder dem Anchoring Effect gleichermaßen. Erkenntnisse zu Hidden Profiles zeigen die dominante Rolle bereits geteilter Informationen im Diskussionsverlauf gegenüber verfügbaren, aber ungeteilten Informationen, die zu einer besseren Entscheidung geführt hätten (Stasser & Titus, 1985). Die verpasste Chance, die- se versteckten Informationen einzelner Gruppenmitglieder offenzulegen, lässt sich, wie im Rahmen des Confirmation Bias bei Individuen, auf eine Neigung zum voreiligen Abschluss der Informationssuche zurückführen. Die Anforderung der meisten Entscheidungsprozesse, eine Konsensentscheidung zu erreichen, fördert diese Tendenz. Zudem führt das Teilen be- reits bekannter Informationen dazu, dass die Person, die diese äußert, als kompetenter und glaubwürdiger wahrgenommen wird (Kerr & Tindale, 2004). Somit lassen sich individuelle Biases in vielen Fällen nicht durch den Gruppenkontext verringern, auch wenn das Poten- zial dazu besteht. Dabei gibt es Hinweise darauf, dass die Dauer der Gruppendiskussion einen positiven Einfluss auf das Teilen versteckter Informationen hat, da sich im Zeitver- lauf die Chance erhöht, dass derartige Informationen von den entsprechend informierten Gruppenmitgliedern zur Sprache gebracht werden. Außerdem zeigen Trainings und Mo- derationstechniken eine positive Wirkung bezüglich der Nutzung von Informationsquellen und der Diskussion von Informationen (Larson, Christensen, Abbott & Franz, 1996). Entscheidungsprozesse in Gruppen bieten also das Potenzial, eine bessere Leistung zu er- reichen, als die Summe der Individuen dieser Gruppe. Auf der anderen Seite gibt es eine Reihe von Variablen, die den Zusammenhang zwischen dem Gruppenkontext und der Ent- scheidungsgüte moderieren. Diese Moderatoren betreffen zum einen die Wechselwirkung des Gruppenkontextes mit individuellen Biases (Kerr & Tindale, 2004), zum anderen brin- gen Gruppenprozesse eine eigene Dynamik hervor, die den Planungsprozess sowohl positiv als auch negativ beeinflussen kann. Im Folgenden werden diverse gruppendynamische Ef- fekte mit potenziell verzerrender Wirkung auf Planungsprozesse beschrieben. Dabei wird am Beispiel von Groupthink im folgenden Kapitel deutlich, dass positive und negative Effekte Folgen der gleichen Ursache sein können, denn Groupthink lässt sich auf eine hohe Gruppenkohäsion zurückführen. Die Gruppenkohäsion verursacht neben Groupthink auf der anderen Seite aber eine verbesserte Gruppenleistung (vgl. Kapitel 3.4.1) und kann andere gruppendynamische Effekte, wie Social Loafing, mitigieren. Das Ziel, negative Eigenschaften von Biases zu mitigieren, ohne positive Eigenschaften der zugrundeliegenden kognitiven, motivationalen oder gruppendynamischen Heuristiken zu verlieren, ist das Ziel von Debiasingtechniken. Im Rahmen dieser Arbeit wird in Kapitel 4 diesbezüglich das Potenzial der Organisationskultur beschrieben. 3 Heuristiken und Biases 65 3.4.1 Groupthink Much more frequent, however, are instances of mindless conformity and collective misjudgment of serious risk, which are collectively laughed off in a clubby atmosphere of relaxed conviviality (Janis, 1982, S. 3) Das Konstrukt Groupthink beschreibt die typische Denkweise, die auftritt, wenn in Grup- penentscheidungsprozessen das Streben nach Einstimmigkeit bei den Gruppenmitgliedern so ausgeprägt ist, dass es die Motivation einer gründlichen Abwägung alternativer Hand- lungsoptionen übersteigt (Janis, 1971). Oft ist das Bedürfnis nach Loyalität und Konfor- mität so stark, dass Gruppenmitglieder gegenläufige Ansichten minimieren oder unter- drücken, um den Ansichten und Normen der Gruppe zu entsprechen (Janis, 1982). Das Auftreten von Groupthink lässt sich auf einen hohen Grad an Gruppenkohäsion zu- rückführen. Gruppenkohäsion wiederum wurde in einer der ersten Definitionen als „the total field of forces which act on members to remain in the group“ beschrieben (Fes- tinger, 1950, p. 50). Im Arbeitskontext verstärken sich diese Kräfte zum Beispiel durch den Grad an Gruppeninteraktion, Homogenität der Gruppenmitglieder, Konkurrenz zu anderen Gruppen, gegenseitige Abhängigkeiten innerhalb der Gruppe sowie die wahrge- nommene Bedrohung durch externe Risiken (Benard & Doan, 2011). Gruppenkohäsion ist ein wichtiger Faktor für den Erfolg von Teams, da sie die Gruppenleistung steigert, die Zufriedenheit der Gruppenmitglieder erhöht sowie stressreduzierend wirkt (Ahronson & Cameron, 2007; Li et al., 2014). Eine hohe Gruppenkohäsion hilft nach Misserfolgen und in bestimmten Krisen, die Moral der Gruppe aufrechtzuerhalten. Außerdem sind Ent- scheidungsprozesse in kohäsiven Gruppen weniger durch Konkurrenzkampf geprägt (Janis, 1982). Auf der anderen Seite ist Gruppenkohäsion ein Wegbereiter für Group Biases, wie Group Polarization oder eben Groupthink (Baumeister, Ainsworth & Vohs, 2016). Und während Group Biases – analog zu kognitiven Biases – die Schattenseite nützlicher sozialer Heuristiken darstellen, überwiegt insbesondere in neuartigen, komplexen und wichtigen Entscheidungsprozessen die negativen Aspekte: „The groupthink model maintains that pressures for uniformity and loyalty can build up within groups to the point where they seriously interfere with both cognitive efficiency and moral judgment.“ (Tetlock, Peterson, McGuire, Chang & Feld, 1992, S. 403) Janis (1982) entwickelte das Konzept Groupthink anhand prominenter Fehlentscheidungen mit weitreichenden Konsequenzen: Darunter die Invasion der Schweinebucht, der Angriff auf Pearl Harbor sowie die Eskalation im Vietnamkrieg. Er stellte fest, dass die Grup- penmitglieder in den vorangegangenen Entscheidungsprozessen motiviert waren, den ge- genseitigen Respekt aufrechtzuerhalten und deshalb gegenseitige Kritik und die Äußerung abweichender Meinungen vermieden. Es gab keine systematischen Entscheidungsprozesse, welche die Suche und Verarbeitung potenziell relevanter Informationen betreffen. Es fand kein Kontakt zu qualifizierten Personen außerhalb der Gruppe statt. Bei der Diskussion zu Handlungsalternativen bewarben Führungskräfte ihre eigene Sichtweise und vermieden 3 Heuristiken und Biases 66 ergebnisoffene Analysen. Die Entscheidungen fanden zudem unter einem hohen zeitlichen und politischen Druck statt (vgl. Tetlock et al., 1992). Janis (1991) definiert acht verschiedene Facetten von Groupthink: Illusion of Invulnerability beschreibt die Vorstellung, dass die Gruppe so stark ist, dass nichts schief gehen kann. Diese Denkweise wird durch vergangene Erfolge bestärkt. Belief in Inherent Morality of the Group führt dazu, dass ethische und morale Konsequen- zen einer Entscheidung weniger stark bedacht werden, da die Gruppe als solche bereits als moralische Instanz betrachtet wird. Collective Rationalization zeigt sich, wenn Warnungen und negatives Feedback, die eine Entscheidung in Frage stellen, nicht ausreichend berücksichtigt werden. Statt dessen wird vorschnell gegen die Warnung argumentiert, um den Plan aufrechtzuerhalten. Out-group Stereotypes tritt auf, wenn Vorurteile gegenüber einer anderen Gruppe, die andere Meinungen vertritt, implizit oder explizit geäußert werden, zum Beispiel, dass deren Mitglieder unfähig seien oder keine Ahnung hätten. Self-Censorship beschreibt die Zurückhaltung oder Entschärfung der eigenen Meinung, in der Erwartung, dass diese bei Kollegen und Vorgesetzten negative Reaktionen hervorrufen. Illusion of Unanimity äußert sich dadurch, dass fast alle geäußerten Meinungen der Mehr- heitsmeinung entsprechen und das Schweigen der Minderheit als stille Zustimmung inter- pretiert wird – dadurch entsteht der Schein von Einstimmigkeit. Letztlich werden so auch kritische Gruppenmitglieder überzeugt, wenn nur die Argumente der Mehrheitsmeinung geäußert werden. Direct Pressure on Dissenters beschreibt expliziten Druck, der auf bestimmte Personen oder Gruppen ausgeübt wird, sich der erwünschten Meinung anzupassen. Diese Form des Groupthink zeigt sich oft, wenn das gesamte Vorhaben unter Druck steht, was auch gleich- zeitig als Argument zur Anpassung dienen kann. Self-Appointed Mindguards unterliegen Groupthink und „beschützen“ andere Gruppen- mitglieder und vor allem Führungskräfte vor unliebsamen Informationen, die die Mehr- heitsmeinung anzweifeln und somit die als positiv empfundene Einstimmigkeit gefährden. Tetlock et al. (1992, S. 403) fasst die unterschiedlichen Facetten von Groupthink wie folgt zusammen: Decision makers began to believe that the group could not fail – a belief that encouraged excessive optimism and risk taking. Group members discounted warnings concerning the preferred solution and refused to question either the inherent righteousness of the group or the inherent immorality of the enemy. Group members self-censored personal doubts, fostering an illusion of unanimity. On those rare occasions when someone did express a deviant opinion, the group quickly silenced the critic and resolidified the consensus. Finally, self-appointed mind guards shielded the 3 Heuristiken und Biases 67 group from external sources of dissonant information. Neben den bereits genannten Fällen wird häufig das Challenger Space Shuttle Desas- ter 1986 als Beispiel für Groupthink beschrieben. Ein technischer Defekt führte dazu, dass das Space Shuttle Challenger 73 Sekunden nach dem Start explodierte und 7 Be- satzungsmitglieder verstarben. Dabei spielten unterschiedliche Facetten von Groupthink, wie Self-Appointed Mindguards und Direct Pressure on Dissenters eine Rolle. Letzteres zeigte sich darin, dass direkter Druck auf Ingenieure ausgeübt wurde. Diese sollten trotz ihrer Bedenken bezüglich technischer Probleme einem Start zuzustimmen, während sich Self-Appointed Mindguards darin zeigten, dass kritische Informationen von höheren Ent- scheidungsebenen ferngehalten wurden, indem diese nicht weitergeleitet wurden (Esser & Lindoerfer, 1989). Paradoxerweise können einstimmige Entscheidungen im Rahmen von Groupthink in der Folge als ein Zeichen von Entschlossenheit gewertet werden, obwohl sie tatsächlich ein Ergebnis des beschriebenen Vermeidungsverhaltens der einzelnen Gruppenmitglieder sind (Rosenthal & Hart, 2008). Ein ähnlicher Effekt wurde bezüglich des Confirmation Bias sowie des Overconfidence Bias beschrieben. Im Rahmen derer zeigt sich, dass Menschen einseitige Argumentationslinien als überzeugender wahrnehmen und sich dadurch zum Teil hypothesenbestätigende Tendenzen bei der Informationssuche sowie eine Überschätzung der eigenen Urteilsfähigkeit ergeben (vgl. Kapitel 3.2.4 & 3.3.2). In sechs untersuchten Fällen von Groupthink fand Janis (1982) sechs gemeinsame Anzei- chen fehlgeleiteter Entscheidungsprozesse (vgl. Tetlock et al., 1992): 1. Eine verkürzte Betrachtung von Alternativen und Zielen (oft diskutierte die Gruppe nur die von den Gruppenmitgliedern ursprünglich bevorzugte Option), 2. ein Versäum- nis, die Risiken der ursprünglich bevorzugten Wahl zu untersuchen, 3. ein Versäumnis, die ursprünglich abgelehnten Alternativen neu zu bewerten, 4. eine unzureichende Suche nach relevanten Informationen, 5. eine verzerrte Verarbeitung von Informationen, 6. ein Versäumnis, Notfallpläne für den Fall auszuarbeiten, dass bekannte Risiken eintreten. Es kann argumentiert werden, dass sich diese Verhaltensweisen zu einem großen Teil auf andere kognitive beziehungsweise motivationale Biases zurückführen lassen, wie die hypo- thesenbestätigende Informationssuche und -interpretation im Rahmen des Confirmation Bias (Kapitel 3.2.4), die Selbstüberschätzung im Rahmen des Overconfidence Bias (Ka- pitel 3.3.2) und die überoptimistische Prognostik des Optimism Bias (Kapitel 3.3.3). Der Fakt, dass sich diese Biases bei folgenschweren Fehlentscheidungen im Gruppenkontext zeigen, ist ein Hinweis darauf, dass das Gruppensetting – zumindest bei Vorhandensein von Groupthink – das Auftreten dieser Biases nicht signifikant reduzieren kann. Die be- schriebenen Facetten von Groupthink deuten eher daraufhin, dass soziale Zwänge diese kognitiven beziehungsweise motivationalen Symptome verstärken, wenn eine hohe Grup- 3 Heuristiken und Biases 68 penkohäsion beziehungsweise Groupthink vorherrscht. Erklären lässt sich eine Verstärkung derartiger Effekte potenziell dadurch, dass, wenn ein organisationaler Planungsprozess von Groupthink geprägt ist, der Konformitätsdruck als gruppendynamische Komponente hin- zukommt und Meinungshomogenität im Sinne von Social Proof zusätzliche Zuversicht be- züglich der Entscheidung vermittelt und somit Overconfidence und Optimism gesteigert werden. So erscheint es plausibel, gewisse Facetten von Groupthink als Steigerung be- stimmter individueller Biases im Kontext von Konformitäts- und Harmoniebedürfnissen zu betrachten. Janis (1982) beschreibt verschiedene strukturelle Faktoren, die das Auftreten von Group- think begünstigen. Dazu gehört die Isolation der Gruppe von externen Einflüssen durch andere Gruppen und Experten beziehungsweise der mangelnde Austausch mit diesen. Ein weiterer Katalysator für Groupthink sind voreingenommene Führungskräfte, die die Grup- pendiskussionen stark kontrollieren und in Richtung ihrer Ansichten lenken. Dazu reicht es bereits, wenn Führungskräfte – ggf. aus Unachtsamkeit – erst ihre Meinung äußern, be- vor die Gruppendiskussion beginnt, anstatt ihre eigene Meinung zunächst zurückzuhalten, um eine unbeeinflusste Gruppendiskussion zu fördern. Des Weiteren führt Janis (1982) aus, dass Gruppenmitglieder ein hohes Maß an Zuversicht bezüglich Ihres Ansehens in der Gruppe benötigen, das nicht dadurch beschädigt wird, dass sie mit den anderen Gruppen- mitgliedern sachlich zu Meinungsverschiedenheiten diskutieren. So fühlen sich Gruppen- mitglieder, die sich von der Gruppe akzeptiert fühlen, freier darin, ihre Meinung zu äußern, auch wenn diese von der Meinung der anderen abweicht (Dittes & Kelley, 1956). An die- ser Stelle spielt potenziell die Organisationskultur allgemein und speziell psychologische Sicherheit eine wichtige Rolle, auf die in Kapitel 4 näher eingegangen wird. Groupthink führt zu klaren und harmonischen Entscheidungen, verhindert aber gleichzei- tig, dass Argumente zur Verbesserung des Status Quos geäußert werden. Je komplexer und neuartiger die Situation ist und umso größer die Konsequenzen für die Organisation beziehungsweise die Gesellschaft sind, desto wichtiger ist es, dass der durch Groupthink verursachte Verlust an Kreativität und unabhängigen Gedanken verhindert wird. Hierbei kann analog zu den kognitiven Biases argumentiert werden, dass Gruppenkohäsion und in der Folge Groupthink sich evolutionär entwickelt haben, weil sie effiziente Gruppen- entscheidungen ermöglichen, die häufig ohne sehr großen Aufwand zu akzeptablen Ent- scheidungen führen und das soziale Miteinander damit erleichtern – wie in Kapitel 3.4 am Beispiel der Hidden Profiles beschrieben wurde. So kann durch das Ausfiltern abweichen- der Meinungen in Gruppenentscheidungsprozessen leichter ein Konsens erreicht werden. Dieses Verhalten spart der Gruppe Ressourcen, was aus evolutionärpsychologischer Sicht potenziell auf Zeiten zurückgeführt werden kann, in denen die Gruppenentscheidungen weniger komplex waren, da sie in kleineren Gesellschaften – in einer weniger globalisier- ten und weniger vernetzten Welt – stattfanden. Wie bei den kognitiven Heuristiken ist es entsprechend kontextabhängig, inwieweit es lohnenswert ist, diese soziale Tendenzen zu 3 Heuristiken und Biases 69 verringern. 3.4.2 Social Loafing Although some people still think science should be value free, we must confess that we think social loafing can be regarded as a kind of social disease. It is a ’disease’ in that it has negative consequences for individuals, social institutions, and societies. (Latané, Williams & Harkins, 1979, S. 831) Social Loafing beschreibt das Phänomen, dass Personen bei einer Aufgabe weniger Enga- gement zeigen, wenn sie die Aufgabe als Angehörige einer Gruppe bearbeiten, als wenn sie auf sich alleine gestellt sind. Der Effekt wurde als erstes in einem Experiment nach- gewiesen, bei dem der Krafteinsatz der Probanden in unterschiedlichen Konstellationen beim Tauziehen gemessen wurde (Ringelmann, 1913). In ähnlicher Manier stellten Latané et al. (1979) fest, dass einzelne Probanden umso leiser jubelten und klatschten, je mehr Personen es ihnen gleichtaten. In aktuelleren Studien wurde der Effekt in modernen Arbeitssettings bei kognitiven Aufga- ben nachgewiesen. Williams (1993) fand bei einer Metaanalyse zu Social Loafing heraus, dass die Bewertbarkeit der Einzelleistung, die Erwartungen der Einsatzbereitschaft der Kollegen, die Bedeutsamkeit der Aufgabe sowie die Kultur besonders starke Prädiktoren für das Auftreten von Social Loafing darstellen. Bezüglich der Kultur lassen sich stärkere Ausprägung in individualistischen westlichen Kulturen als in kollektiven ostasiatischen Kulturen feststellen. Klehe und Anderson (2007) untersuchten entsprechend dieser Hypothese den Einfluss der kulturellen Facetten Power Distance und Collectivism auf Social Loafing. Dabei bestätigt sich, dass ein hohes Macht- gefälle sowie stärkerer Individualismus die Neigung zu Social Loafing erhöhen, insofern Personen stärker extrinsisch motiviert und auf persönliche Ziele fokussiert sind. Social Loafing zeigt sich darüber hinaus besonders im Bereich der Wissensarbeit und in di- gitalen Teams ohne Face-to-Face-Kontakt (Alnuaimi, Robert & Maruping, 2010). Gründe dafür sind die geringere Nachvollziehbarkeit der Einzelleistung beziehungsweise die weniger ausgeprägten persönlichen Beziehungen, die zu weniger Verantwortungsübernahme moti- vieren. Dabei spielt auch die Größe eines Teams eine Rolle, da bei größeren Gruppen die Verantwortungsdiffusion steigt und der Wert der Einzelleistung sinkt, wodurch auch die Leistungsmotivation sinkt. Eine weitere Ursache ist die Anpassung des Aufwands. Wenn Personen feststellen, dass andere Gruppenmitglieder sich wenig bemühen, passen sie ihr Engagement entsprechend nach unten an, anstatt vollen Einsatz zu zeigen, um Fairness bei der Arbeitsteilung zu erreichen (Latané et al., 1979). Hierbei spielt auch eine selbst- wertdienliche Attribution eine Rolle, da Personen ihren eigenen Beitrag im Vergleich zu anderen überschätzen und sich so ein Race to the Bottom ergeben kann. 3 Heuristiken und Biases 70 In einer Folgestudie zur Reduktion der Lautstärke beim Klatschen und Jubeln im Kontext von Social Loafing (Latané et al., 1979) konnten Williams, Harkins und Latané (1981) zeigen, dass sich der Effekt minimieren lässt, wenn den Probanden bewusst ist, dass ih- re Einzelleistung per Mikrofon gemessen wird. Entsprechend stellt Identifizierbarkeit der Leistung einen wichtigen Moderator bezüglich des Auftretens von Social Loafing dar. Da- bei ist nicht die Kontrolle durch eine dritte Person entscheidend. Die Studie von Harkins und Szymanski (1988) zeigt, dass ein objektiver Standard, anhand dessen die Probanden für sich selbst Feedback erhalten, reicht, um Social Loafing zu reduzieren. Zudem zeigt sich, dass eine höhere Herausforderung sowie die wahrgenommene Bedeutsamkeit der Einzel- leistung die Einsatzbereitschaft erhöhen (Harkins & Petty, 1982). Dass das Feedback aus der Tätigkeit, die Tätigkeitsanforderungen und die Bedeutsamkeit der Tätigkeit allesamt Faktoren sind, die nicht nur einen starken Einfluss auf die Leistungsmotivation haben, sondern insgesamt wichtige Prädiktoren für die Zufriedenheit und Gesundheit von Mitar- beitern sind, zeigt sich deutlich in der Forschung zu psychischer Belastung am Arbeitsplatz (Englisch, 2018). Liden, Wayne, Jaworski und Bennett (2004) fanden heraus, dass eine leistungsgerechte Entlohnung Social Loafing reduziert. Auf Gruppenebene konnte zudem beobachtet wer- den, dass die Gruppengröße erwartungsgemäß positiv mit Social Loafing korreliert ist und Gruppenkohäsion – die Hauptursache für Groupthink – Social Loafing reduziert. Dieser Befund deckt sich mit den Erkenntnissen zur Gruppenkohäsion, der neben den Nachteilen durch Groupthink auch positive Eigenschaften bezüglich der Teamleistung zugeschrieben werden (Kapitel 3.4.1). Die Autoren stellten zudem entgegen ihrer Hypothese fest, dass Individuen, die bei Kollegen Social Loafing wahrnehmen, ihre eigene Leistung nicht nach unten anpassen, sondern ihre Bemühungen steigern, vermutlich, um das Verhalten der Kol- legen zu kompensieren. Dementgegen stellte Kerr (1983) fest, dass der Sucker Effect dazu führt, dass Probanden ihre Bemühungen reduzieren, wenn sie reduzierte Bemühungen bei Anderen feststellen, um Fairness herzustellen und nicht von den anderen ausgenutzt zu werden. Das Verhalten, das besonders bei Männern ausgeprägt war, fand nur statt, wenn der Eindruck entstand, dass andere zwar können, aber nicht wollen und nicht andersherum wollen, aber nicht können. Williams und Karau (1991) fanden heraus, dass die Bedeut- samkeit der Aufgabe einen Einfluss hat, wie ein Gruppenmitglied auf Social Loafing eines anderen Gruppenmitgliedes reagiert. Ist die Bedeutsamkeit der Aufgabe gering, besteht eine Tendenz, die eigenen Bemühungen ebenfalls zu reduzieren, während eine wichtige Aufgabe eher zu Kompensation des faulenzenden beziehungsweise überforderten Kollegen führt. 3 Heuristiken und Biases 71 3.4.3 Group Polarization It is unfortunate but true that leaders of terrorist organizations show a working knowledge of group polarization. They sharply discipline what is said. They attempt to inculcate a shared sense of humiliation, which breeds rage, and group solidarity, which prepares the way for movement toward further extremes and hence for violent acts. (Sunstein, 2002, S. 429) Group Polarization beschreibt das Phänomen, dass eine Gruppe von Personen im Rahmen der Interaktion eine extremere Einstellung zu einem Thema einnimmt, als der Durchschnitt der Einzeleinstellungen suggerieren würde (Sunstein, 2000). In welche Richtung sich die Meinung verschiebt, hängt von der Tendenz der ursprünglichen Einstellungen der Teil- nehmer ab. Sind zum Beispiel Gruppenmitglieder bei einer Entscheidungssituation eher vorsichtig eingestellt, verstärkt sich diese Tendenz in der Gruppendiskussion (cautious shift). Ist bei dem Großteil der Teilnehmer eine moderate Risikobereitschaft vorhanden, verstärkt sich diese in der Regel (risky shift). Der Effekt verstärkt sich in Abhängig- keit davon, wie stark die ursprünglichen Einstellungen der Gruppenmitglieder ausgeprägt sind, wie stark die Gruppenkohärenz ausgeprägt ist und wie regelmäßig sich die Gruppe trifft, ohne dass die Mitglieder mit gegenläufigen Meinungen konfrontiert werden (Sun- stein, 2000). Als Ursachen wirken dabei zwei unterschiedliche Mechanismen. Zum einen der soziale Einfluss, das Verlangen nach Anerkennung in der Gruppe. Sobald der Polari- sierungsprozess beginnt und diverse homogene Argumente ausgetauscht wurden, werden die Gruppenmitglieder zunehmend zurückhaltender mit Meinungen, die dazu im Wider- spruch stehen (Sunstein, 2000). Der Effekt scheint sich mit Self-Censorship, als Facette von Groupthink, zu decken (vgl. Kapitel 3.4.1). Die Auswirkungen sind in diesem Fall ebenfalls, dass wichtige konträre Informationen gar nicht in die Entscheidung einfließen können und das Streben nach Konsens den Willen zur Debatte überstrahlt (Wallace, 2015). Auf der anderen Seite wirkt der Informationseinfluss, indem einzelne Gruppenmitglieder teilweise unterschiedliche Argumente für die homogene Gruppenmeinung besitzen. Dieser limitierte Pool an Argumenten führt dazu, dass die Gruppenmitglieder im Rahmen der Diskussi- on jeweils neue Argumente für die bereits vorhandene Sichtweise erhalten. Anschließend ist die Gruppenmeinung durch die Interaktion extremer als die Summe der vorherigen Einzelmeinungen (Sunstein, 2000). Eine weitere Ursache sieht Sunstein (2000) in Reputa- tionsbedenken, die dazu führen, dass Personen eine abweichende Meinung bewusst nicht äußern, weil sie ihr Verhalten am Verhalten der anderen Gruppenmitglieder ausrichten, die ebenfalls keine widersprüchlichen Informationen teilen, so wie es der Normeneinfluss, der in Kapitel 2.3 beschrieben wurde, vorhersagen würde. Mutmaßlich lässt sich durch Group Polarization die – in den letzten Jahren als deutlich zunehmend wahrgenommene – gesellschaftliche Polarisierung, insbesondere im Rahmen der zunehmenden Verbreitung und Nutzung sozialer Medien, erklären. Kelly, Fisher und Smith (2005) charakterisieren das Internet als einen Ort, in denen die Nutzer homoge- 3 Heuristiken und Biases 72 ne Communities bilden, die allein auf gemeinsamen Interessen und Werten basieren. Im Gegensatz dazu werden individuelle Präferenzen im öffentlichen Raum und in den Massen- medien, in denen Personen einer größeren Meinungsvielfalt ausgesetzt sind, eher im Zaum gehalten. Ein klassisches Experiment, dass die starke Wirkung des Informationseinflusses und von Reputationsbedenken im Gruppenkontext aufzeigt, wurde im Rahmen der Studie von Asch (1951) zu Gruppenzwang und Konformität in Kapitel 2.3 beschrieben. Fraser, Gouge und Billig (1971) fanden Hinweise für Choice Shifts (Risky oder Cautious) in einem Experiment, in dem 144 Probanden einen Fragebogen, der acht Items zu riskanten beziehungsweise vorsichtigen Verhaltensweisen enthielt, zunächst mit ihrer individuellen Risikoneigung bewerteten. Die individuell bewerteten Fragebögen wurden anschließend eingesammelt und die Probanden bekamen ein weiteres leeres Exemplar ausgeteilt. An- schließend bekamen die Probanden die Instruktion, dass es beim ersten Durchgang darum ging, sie mit dem Material vertraut zu machen, und sie sollten nun die gleichen Items jeweils drei Minuten in einer Gruppensituation diskutieren und dann erneut individuell bewerten, ohne dass dabei ein Konsens erreicht werden musste. Die Bewertungen, die im ersten Durchgang im Gruppendurchschnitt eine moderate Tendenz zu riskantem Verhalten aufwiesen, verstärkten sich signifikant in diese Richtung, die Bewertungen mit vorsichtiger Tendenz vice versa. Der Versuch bestätigt die Theorie zu Group Polarization, und es zeigt sich, dass die Gruppenmitglieder die veränderten Meinungen auch in einer anschließenden anonymen Bewertung aufwiesen. Dass Group Polarization starken Einfluss auf organisationale Planungsprozesse hat, ist unmittelbar ersichtlich und zeigt sich zum Beispiel in den Parallelen zum bereits be- schriebenen Phänomen Groupthink, in Form von Self-Censorship (vgl. Kapitel 3.4.1). Zhu (2014) identifizierte Group Polarization bei der Entscheidung über die Vergütung von Chief Executive Officers (CEO) großer Unternehmen aus der Fortune 500 List. Die Do- kumentenanalyse von den durch 326 Unternehmen veröffentlichten Daten untersucht die Konstellationen, der an der Festlegung der Gehälter beteiligten Direktoren im Zeitverlauf. Es zeigte sich, dass in Konstellationen, in denen die für die Vergütung verantwortlichen Aufsichtsräte aus einer Kombination von Personen bestanden, die zuvor unterdurchschnitt- liche Gehälter festgelegten hatten, sich dieser Trend verstärkte, während Konstellationen aus großzügigen Aufsichtsräten das CEO-Gehalt noch weiter steigerten. 3.4.4 False Consensus Effect The process of projection is not essentially different from the tendency to assume naively that others feel or react in the same manner as we ourselves do. (Horney, 2013, S. 215) Der False Consensus Effect beschreibt das Phänomen, dass eigene Ansichten und Verhal- tensweisen zu stark als normal, verbreitet und situationsadäquat wahrgenommen werden. 3 Heuristiken und Biases 73 Entsprechend werden abweichende Reaktionen anderer Personen oder Gruppen tendenzi- ell als ungewöhnlich oder unangemessen erachtet (L. Ross, Greene & House, 1977). Das eigene Denken und Verhalten wird also als typischer wahrgenommen, als es tatsächlich ist (Jones & Roelofsma, 2000). Der Effekt lässt sich teilweise über den fundamentalen Attributionsfehler erklären. Dem- nach werden die eigenen Handlungen auf situationale Faktoren zurückgeführt und entspre- chen dadurch vermeintlich der „normalen“ Vorgehensweise, während bei anderen Akteuren für abweichendes Verhalten dispositionale Faktoren unterstellt werden und dadurch ange- nommen wird, dass dieses auf die Persönlichkeit der Akteure zurückzuführen ist (L. Ross et al., 1977). Katz, Allport und Jenness (1931) stellten zum Beispiel fest, dass die von Stu- denten eingeräumte Häufigkeit des Täuschens bei Prüfungen positiv mit deren Prognose über die allgemeine Verbreitung von Täuschungsversuchen korreliert. L. Ross et al. (1977) präsentierten Probanden unterschiedliche Szenarien und ließen diese anschließend bewerten, wie viel Prozent der Menschen zum Beispiel einen $20 Strafzettel bezahlen würden oder versuchen würden, diesen anzufechten. Eine folgende Bewertung, wie die Probanden jeweils selbst in der Situation handeln würden, war positiv mit der vermuteten Verbreitung in der Population korreliert. Diejenigen, die den Strafzettel be- zahlen würden, vermuten, dass 71,8% der Population es ihnen gleich tun würden, während diejenigen, die das Ergebnis aufgrund mutmaßlicher formeller Mängel anfechten würden, vermuteten, dass nur 51,7% den Strafzettel bezahlen würden. In einer weiteren Studie konnten sie eine ähnliche Tendenz bei der Bewertung bezüglich Persönlichkeitseigenschaf- ten, Freizeitaktivitäten, persönlichen Problemen und politischen Sichtweisen feststellen, in denen Probanden die vermutete Verbreitung dieser Aspekte von ihrer Selbsteinschät- zung abhängig machten. Neben den Erkenntnissen aus Befragungen testeten L. Ross et al. (1977), ob die Ergebnisse auf reale Entscheidungen übertragbar sind, indem sie Proban- den fragten, ob sie für eine sozialpsychologische Studie bereit seien, 30 Minuten mit einem Werbeschild mit der Aufschrift Eat at Joe’s über den Campus zu laufen. Diejenigen, die sich dazu bereit erklärten (70%), schätzten durchschnittlich, dass 60,8% sich gleicherma- ßen entscheiden würden und diejenigen die es ablehnten (30%), vermuteten, dass 43,3% der Probanden dazu bereit wären. Neben dem Fundamentalen Attributionsfehler beschreiben Marks und Miller (1987) Co- gnitive Availability als weitere Ursache für den False Consensus Effect. Da Menschen sich tendenziell mit anderen Menschen umgeben, die ihnen in diversen Eigenschafts- und Ver- haltensdimensionen ähneln, lassen sich bei der Einschätzung von Häufigkeiten und Wahr- scheinlichkeiten im Rahmen der Availability Heuristic (Kapitel 3.2.1) leichter Beispiele abrufen, die dem eigenen Standpunkt entsprechen. Durch diese selektive Verfügbarkeit der eigenen Gruppen entsteht auch eine verzerrte Einschätzung der Gesamtbevölkerung. Als motivationale Ursache kann die wahrgenommene Ähnlichkeit mit anderen den Selbst- 3 Heuristiken und Biases 74 wert steigern und kognitive Dissonanz reduzieren (L. Ross et al., 1977). Der False Consensus Effect führt so zu verzerrter Wahrnehmung von Verhalten und be- fördert Varianz und Fehler in der Interpretation sozialer Ereignisse (L. Ross et al., 1977). Der False Consensus Effect betrifft besonders auch Gruppen (z. B. Wojcieszak, 2008) be- ziehungsweise Organisationen (z. B. Flynn & Wiltermuth, 2010), die systematisch über- schätzen, wie repräsentativ die eigenen Vorstellungen für die Grundgesamtheit sind. Die wahrgenommene Bedeutung der Entscheidung und, wie beschrieben, ein homogenes Um- feld steigern die Tendenz zum False Consensus Effect, was eine besondere Anfälligkeit in organisationalen Planungsprozessen bedeutet (vgl. auch Jones & Roelofsma, 2000). Wenn ein Manager oder ein Team somit das Gefühl haben, dass eine bevorzugte Hand- lungsalternative dem entspricht, was andere in der Situation auch tun würden, wird die Wahrscheinlichkeit reduziert, dass diese Handlungsalternative kritisch hinterfragt wird. Während die verschiedenen Facetten von Groupthink erklären, wie eine fehlgeleitete Mei- nungshomogenität innerhalb einer Gruppe entsteht, verstärkt der False Consensus Effect diese Problematik, indem die Gruppe überschätzt, inwieweit diese Sichtweise von der Au- ßenwelt geteilt wird. Auch innerhalb der Gruppe kann der False Consensus Effect zum Beispiel dazu führen, dass eine Führungskraft die eigene Vorgehensweise als zu alternativ- los und zu stark durch die Situation begründet betrachtet und folglich die Zustimmung der Gruppenmitglieder zu hoch einschätzt, insbesondere wenn diese, im Kontext von Self- Censorship, ihre abweichende Meinungen nicht äußern. 3.5 Auswahl und Klassifikation Finally, most classifications include only a small subset of biases, usually 10-40, whereas a collaboratively-edited Wikipedia page lists 176 known cognitive biases [37] as of today. Some classifications only gave examples [34], others listed a small sample of these biases [35]. One reason behind this limitation may be that not all biases are as relevant to all scientific domains. (Dimara, Franconeri, Plaisant, Bezerianos & Dragicevic, 2020, S. 3) Im Rahmen der vorherigen Kapitel wurde eine Auswahl verbreiteter Biases getroffen, die gut untersucht, für organisationale Planungsprozesse relevant und gleichzeitig basal, also jeweils kein Spezialfall eines übergeordneten Bias, sind. Die Auswahl der Biases basierte zunächst auf den Ausführungen von Bazerman und Moore (2013), die sowohl motiva- tionale Biases, als auch kognitive Biases im Kontext organisationale Planungsprozesse beschreiben. Ergänzend wurden weitere relevante Effekte, unter anderem basierend auf den Ausführungen von Kahneman (2011), Pohl (2017a), Gilovich, Griffin und Kahneman (2009) und Montibeller und von Winterfeldt (2018) identifiziert, und entsprechend der ge- nannten Kriterien, unter Berücksichtigung ökonomischer Aspekte, ergänzt. Die Relevanz der beschriebenen Effekte für organisationale Planungsprozesse zeigt sich unter anderem auch in den Ausführungen von Reason (2013), der diese teils explizit beschreibt und teils 3 Heuristiken und Biases 75 in seinen Ausführungen zu Fehlentscheidungen in organisationalen Prozessen impliziert. So lässt sich die folgende Aussage auf den Confirmation Bias zurückführen: Planners are heavily influenced by their theories: where these are inappropriate, systematic sources of bias will be introduced into the planning process. One consequence is that planners will unconsciously fill in the bits missing from the current evidence in accord with their theories. (Reason, 2013, S. 57) In ähnlicher Weise wird die Relevanz der Availability Heuristic impliziert: „The informa- tion that is ’called’ into the database will be biased in favour of those items emanating from activated schemas, something that may be more potent than the relevance of the information“(Reason, 2013, S. 56). Folgende Aussage kann mit dem Self-Serving Bias in Verbindung gebracht werden: „The information present in the working database will be biased in favour of past successes rather than past failures“(Reason, 2013, S. 57). Das gleiche gilt für den Optimism Bias beziehungsweise die Planning Fallacy bezüglich der folgenden Aussage: „Planners being guided primarily by past events will underestimate the influence of chance. As a result they will plan for fewer contingencies than are likely to occur“(Reason, 2013, S. 57). Schließlich lässt sich in folgender Beschreibung die Sunk Cost Fallacy erkennen: A completed plan is not only a set of directions for future action; it is also a theory about the future state of the world. It confers order and reduces tension. It will be strongly resistant to change. This unwillingness to change is likely to be greater when the plan is complex, has been the result of much time and effort, and entailed the involvement of many people. (Reason, 2013, S. 58) Die Auswahl der Biases wurde mit der Festlegung auf vier kognitive, vier motivationa- le und vier gruppendynamische Biases, im Rahmen der eingangs genannten Kriterien, deutlich eingegrenzt, insofern in der Forschung eine lange Reihe von als Bias bezeichnete Effekte untersucht wurden. Dimara et al. (2020) basieren ihre Analyse kognitiver Biases auf Basis der dazu auf Wikipedia geführten Liste (“List of Cognitive Biases”, 2022), aus denen sie immerhin 176 Biases auswählten, zu denen wissenschaftliche Literatur existiert. Neben der Relevanz für organisationale Planungsprozesse und der ökonomischen Notwen- digkeit begründet sich die Reduzierung der in dieser Arbeit berücksichtigten Effekte auch in der Redundanz beziehungsweise inhaltlichen Überschneidung der in der langen Liste benannten Biases. Zum Beispiel kann der IKEA-Effect, der beschreibt, dass Konsumenten Produkten, in deren Aufbau sie selbst Aufwand investiert haben, einen erhöhten Wert zuschreiben, durch die Sunk-Cost Fallacy (vgl. Kapitel 3.2.3) erklärt werden. In Kapitel 3.2.4 wurde beschrieben, dass der Confirmation Bias mitunter für den Effekt der Illusory Correlation verantwortlich ist, weil hypothesenbestätigende Informationsverarbei- tung die Wahrnehmung vermuteter Zusammenhänge verstärkt. Der Unit Bias beschreibt, dass Personen mehr essen, wenn die Essensbehälter größer sind. Dieser Fall wurde als Beispiel für den Anchoring Effect beschrieben (Kapitel 3.2.2). Es gibt noch viele andere Konstrukte, die gleichberechtigt angeführt werden, obwohl sie entweder einen Spezialfall 3 Heuristiken und Biases 76 oder ein Beispiel eines basaleren Bias darstellen. Zudem besteht die Problematik, dass identische Effekte von unterschiedlichen Forschern beziehungsweise Fachrichtungen mit unterschiedlichen Bezeichnungen beschrieben werden, was das gegenseitige Aufgreifen von Erkenntnissen erschweren kann. Ein Beispiel hierfür ist der Myside Bias (Mercier, 2017), der praktisch identisch zu dem Confirmation Bias definiert wird. Hier zeigt sich der Bedarf für ein einheitliches Klassifikationssystem kognitiver, motiva- tionaler und gruppendynamischer Biases, welche die Kommunikation in der Wissenschaft sowie die Implementierung von Diagnosetools und Interventionsansätzen in der Praxis erleichtern würde. Vorhandene Klassifikationsansätze variieren sehr stark bezüglich der Gruppierung von Biases sowie der dort berücksichtigten Biases. Zudem wird in den Klas- sifikationen die Forschung zu motivationalen Biases im organisationalen Kontext, trotz des starken Einflusses, relativ wenig berücksichtigt (Montibeller & von Winterfeldt, 2015). Pohl (2017b) unterscheidet Biases in drei Kategorien bezüglich deren zugrundeliegenden kognitiven Mechanismen: Thinking, Judgement und Memory. Thinking-Biases umfassen demnach die fehlerhafte Anwendung statistischer oder logischer Regeln – dazu wird bei- spielsweise der Confirmation Bias gezählt, bei dem das Falsifikationsprinzip der Hypothe- sentestung verletzt wird. Judgment-Biases beziehen sich auf die Bewertung von Aspekten wie der Annehmlichkeit, Häufigkeit oder Wahrhaftigkeit eines Stimulus – zum Beispiel Availability, Anchoring, Overconfidence. Schließlich umfassen Memory-Biases jene Effek- te, die das Speichern und spätere Abrufen von Informationen umfassen, beispielsweise der Hindsight Bias. Dabei gibt Pohl (2017b) zu bedenken, dass Urteilsprozesse immer auch Denkprozesse, also Prozesse der Manipulation von Informationen im Arbeitsgedächtnis umfassen. Gleichzeitig erfordern sämtliche Denk- oder Urteilsprozesse den Abruf von In- formationen aus dem Langzeitgedächtnis (vgl. Kapitel 2.2). Entsprechend ist die Katego- risierung alles andere als trennscharf – es lassen sich daran lediglich gewisse Schwerpunkte ausmachen. Die Availability Heuristic beschreibt zum Beispiel einen verzerrten Abruf von Informationen aus dem Gedächtnis und könnte demnach den Memory-Biases zugeordnet werden, Pohl (2017b) ordnet sie jedoch bei den Judgement-Biases ein. Diese Kategorisie- rung lässt sich so interpretieren, dass eine die Availability Heuristic auslösende Aufgabe ein Wahrscheinlichkeits- oder Häufigkeitsurteil umfasst (vgl. Kapitel 3.2.1) und die Eigenschaf- ten des zu beurteilenden Stimulus (Emotionsgehalt, Präsenz in den Medien) den Abruf der Beispielinstanzen beeinflussen, aufgrund dessen die Wahrscheinlichkeit geschätzt wird. Bezüglich der schwierigen Abgrenzung von Urteils- und Entscheidungsprozessen bezüglich kognitiver Funktionen schreibt Kahneman und Frederick (2009, S. 49-50): The boundary between perception and judgment is fuzzy and permeable: the perception of a stranger as menacing is inseparable from a prediction of future harm. Intuitive thinking extends perception-like processing from current sensations to judgment objects that are not currently present, including mental representations that are evoked by language. 3 Heuristiken und Biases 77 So wie in diesem Beispiel umfasst ein intuitives Urteil, mit variierendem Anteil, diverse kognitive Prozesse: Wahrnehmungsprozesse, Denk- und Urteilsprozesse sowie Speicherung, Enkodierung und Abruf aus dem und in das Langzeitgedächtnis. Verdeutlichen lässt sich dieses Zusammenspiel verschiedener kognitiver Funktionen anhand des kognitiven Verar- beitungszyklus (Sträter, 2005). Der kognitive Verarbeitungszyklus skizziert den mentalen Prozess von der menschlichen Wahrnehmung bis zur Handlung und veranschaulicht damit kognitive und emotionale Korrelate des Urteils- und Entscheidungsprozesses (Abbildung 7) . Abbildung 7 Der kognitive Verarbeitungszyklus Anmerkung. Der kognitive Verarbeitungszyklus skizziert die Interaktion von Wahrnehmung, Ko- gnition und Reaktion. In Anlehnung an Sträter (2005). Im Rahmen der Literaturanalyse hat sich die in Kapitel 3 vorgenommene Einteilung in kognitive Biases, motivationale Biases sowie gruppendynamische Biases als inhaltlich sinn- voll erwiesen (vgl. Kunda, 1990; Montibeller & von Winterfeldt, 2015). Eine trennscharfe Kategorisierung ist auch damit nicht erreichbar, da viele Biases Überschneidungen be- züglich zugrundeliegender kognitiver und motivationaler Mechanismen aufweisen und un- terschiedliche Wechselwirkungen bestehen. Diese drei Bereiche bieten aber bezüglich der zugrundeliegenden adaptiven Mechanismen immerhin eine gewisse Differenzierbarkeit, in- sofern sich kognitive Biases häufig über die Prinzipien Bounded Rationality und Cognitive Miser erklären lassen, zum Beispiel durch kognitive Mechanismen wie die Attribute Substi- tution. So tritt die Availability Heuristic auf, wenn eine Frage nicht objektiv beantwortet werden kann und durch den Prozess der Attribute Substitution unbewusst durch ein ein- 3 Heuristiken und Biases 78 facheres Urteil ersetzt wird, das auf der Leichtigkeit der Erinnerung basiert. Das Prinzip WYSIATI führt dazu, dass bereits vorhandenes Wissen zu einem Thema mit dem insge- samt verfügbaren Wissen dazu konfundiert wird und im Zusammenhang mit der einseitigen Informationssuche des Confirmation Bias entsteht schnell ein verzerrtes Urteil, dass mit einem Gefühl großer Zuversicht getroffen wird: Because of the tendency to seize on early information and immediately freeze, people under a heightened need for closure may process less information before committing to a judgment and generate fewer competing hypotheses to account for the available data. Paradoxically, they may feel more assured of those judgments, even though they are less grounded in thorough exploration. Specifically, the less competing hypotheses a person might entertain, the more confidence he or she may have in those hypotheses (Kelley, 1971) simply because fewer alternatives to a given judgment may appear plausible, enhancing the individual’s confidence in those that are. (Kruglanski & Webster, 1996, S. 265) Zu den primär auf kognitive Limitationen zurückzuführenden Cold Biases wurden im Rah- men dieser Arbeit neben der Availability Heuristic und dem Confirmation Bias, der An- choring Effect sowie die Sunk-Cost Fallacy eingeordnet (vgl. Kapitel 3.2). Zu der Kategorie der primär motivationalen Hot Biases gehören entsprechend: Der Self- Serving Bias, der Overconfidence Bias, der Optimism Bias und der Desirability Bias (vgl. Kapitel 3.3). Motivationale Biases haben ihre Ursache beziehungsweise ihren adaptiven Nutzen oft bezüglich des psychologischen Wohlbefindens im Kontext der selbstwertdien- lichen Attribution und einer damit einhergehenden kognitiven Dissonanzreduktion. Die selbstwertdienliche Attribution findet dabei häufig im Vergleich mit anderen Personen statt und hat damit auch einen sozialen Charakter und dient indirekt auch der überzeu- genden Präsentation nach Außen (Self-Presentation; vgl. Kapitel 2.3). Gruppendynamische Biases sind insofern adaptiv, als dass sie zum Teil mit positiven Aspekten, wie Harmonie und Gruppenkohäsion einhergehen. Insofern spiegeln sie das tiefe Bedürfnis nach Gruppenzugehörigkeit und -identität wider, das evolutionärspsycho- logisch darauf zurückzuführen ist, dass die Akzeptanz der Gruppe in weiten Teilen der Menschheitsgeschichte überlebenswichtig war, und die soziale Verbundenheit bis heute ein fundamentales Grundbedürfnis ist (Van Vugt & Schaller, 2008). Dieser Sachverhalt trifft insbesondere bezüglich Groupthink und Group Polarization zu, während für Social Loafing und den False Consensus andere Ursachen erläutert wurden (Kapitel 3.4). An dieser Stelle soll noch einmal betont werden, dass es im Rahmen dieser Arbeit nicht um bewusste Abweichungen von einem rationalen Urteil aufgrund von bewusst analy- sierten Interessenskonflikten geht, sondern um implizite Urteilsverzerrungen im Sinne der beschriebenen motivationalen beziehungsweise gruppendynamischen Effekte: We define motivational biases as those in which judgments are influenced by the desirability or undesirability of events, consequences, outcomes, or choices (see also Kunda,(12) von Winterfeldt,(3) and Molden and Higgins(13)). [...] Motivational biases do not always have to be conscious. For example, estimates of the time it takes to complete a software project are often overly optimistic(14) even when there is no outside pressure or value in misrepresenting 3 Heuristiken und Biases 79 the actual time. (Montibeller & von Winterfeldt, 2015, S. 1231) Auch aus praktischer Sicht scheint die beschriebene Kategorisierung von Biases sinnvoll, wenn es um Interventionen beziehungsweise die Diagnostik geht. So wurden in Kapitel 1.1 einige Debiasingtechniken beschrieben, die vor allem auf kognitive Effekte und die Prinzi- pien Bounded Rationality beziehungsweise Cognitive Miser abzielen. Diese Entscheidungs- analysetools oder Prozesstechniken basieren wiederum auf Eingaben und Annahmen, die menschliche Urteilsprozesse bedingen und die anfällig für unbewusste motivationale Ten- denzen sein können: Some decision and risk analysts use the existence of these biases to argue for the use of modeling and analysis tools because these tools can correct human biases and errors in decision making. However, experts and decisionmakers need to provide judgments in risk and decision modeling, thus analysts must worry about biases that may distort the inputs into the very models that are supposed to correct them. For example, when using expert judgments to construct a probability distribution as an input to a risk analysis model, one has to worry about the wellknown overconfidence bias. Similarly, when obtaining expert judgments as inputs to estimate possible consequences of decision alternatives, one has to be concerned with the self-interest of experts, who may have a stake in the ouctome of the analysis. (Montibeller & von Winterfeldt, 2015, S. 1230) Insbesondere bezüglich motivationaler und gruppendynamischer Biases gibt es zahlreiche Hinweise für interindividuelle Unterschiede, die zum Teil auch im kulturellen Hintergrund begründet liegen. Die Organisationskultur ist ein Faktor, der bisher wenig bezüglich sei- nes Einflusses auf die Qualität von Urteilen und Entscheidungen unter Unsicherheit im Kontext von Biases untersucht wurde (Savani, Cho et al., 2015). Dieser Einfluss ist im Rahmen dieser Arbeit besonders relevant, weil er potenziell durch die Wirkung kognitiver, motivationaler und gruppendynamischer Biases mediiert wird. Während Biases aufgrund ihrer unbewussten Entstehung, abgesehen von der Manipulation in kontrollierten Labor- bedingungen, nur teilweise beziehungsweise mit hohem Aufwand mitigiert werden können (vgl. Kapitel 1.1.), bieten Kontextfaktoren, welche die Entstehung dieser Biases implizit beeinflussen, einen vielversprechenden Zugang: Second, cross-cultural research reveals that some judgment biases once assumed to be universal are in fact limited to particular sociocultural contexts (e.g., Weber & Hsee, 1998). Such findings help elucidate the mechanisms underlying the biases, suggesting that they are not simply bugs in the operating system of human cognition but patterns constructed through the interaction of human psychology with information and decision environments. (Savani, Cho et al., 2015, S. 457) Eingangs wurden unterschiedliche Strategien zum Debiasing dargestellt, die wirksame Me- thoden zur Verbesserung der Entscheidungsqualität umfassen. Darüber hinaus bietet die Organisationskultur potenziell einen Ansatz, um diese Verbesserung inkrementell zu stei- gern, indem die Compliance bezüglich der Nutzung derartiger Strategien erhöht wird, so- wie bestimmte Biases, insbesondere motivationale und gruppendynamische Biases, direkt reduziert werden. Diesbezüglich werden im folgenden Kapitel die entsprechenden Grund- lagen zur Organisationskultur näher erläutert. 3 Heuristiken und Biases 80 Zusammenfassend lässt sich festhalten, dass es das Ziel der Auswahl der in Kapitel 3.2 bis 3.4 beschriebenen Biases war, diejenigen Effekte zu identifizieren, die erstens im Kon- text organisationaler Planungsprozesse relevant sind und zweitens für die Gesamtheit der relevanten Biases repräsentativ sind, also basal und wenig redundant – um damit den Bearbeitungsumfang in dieser Arbeit sinnvoll einzugrenzen. Eine starke Redundanz be- züglich der Berücksichtigung unterschiedlicher Biases ist auch aus praktischer Sicht, im Hinblick auf die Diagnostik oder den Einsatz von Gestaltungsmaßnahmen, unökonomisch. Der erhöhte Aufwand bietet wenig diagnostischen Mehrwert, wenn Ursachen und damit auch die Interventionen potenziell gleichförmig sind. 81 4 Organisationskultur We encounter organizational cultures all the time. When they are not our own, their most visible and unusual qualities seem striking: the look of the traditionally dressed IBM salesman, the commitment to form and product expressed by employees at Honda or Matsushita, the informality of Apple and many other high-tech companies. When the cultures are our own, they often go unnoticed – until we try to implement a new strategy or program which is incompatible with their central norms and values. Then we observe, first hand, the power of culture. (Kotter, 2008, S. 3) In den zurückliegenden Kapiteln wurden mehrfach die Eigenschaften organisationaler Pla- nungsprozesse beschrieben, insbesondere im Bezug auf die Komplexität, Unstrukturiert- heit und Situationsspezifität dieser Prozesse im Kontext einer Umwelt, die zunehmend durch das Acronym VUCA definiert werden kann. In diesem Zusammenhang wurde die Problematik der Entscheidungen unter Unsicherheit und damit einhergehender kogniti- ver, motivationaler und gruppendynamischer Biases beschrieben. In organisationalen Pla- nungsprozessen lassen sich derartige Biases – anders als in vielen erkenntnisreichen Labor- experimenten – nicht ohne Weiteres diagnostizieren oder manipulieren. In Kapitel 1.2 wurden diverse Entscheidungsanalysetools und prozessbezogene Debia- singstrategien vorgestellt, die teilweise erfolgreich kognitive Limitationen kompensieren oder als eine Art Prompt eine analytische Problemlösung provozieren, wenn heuristische Urteile potenziell zu Fehlern führen. Jedoch unterliegen die Eingaben von Daten in der- artige Tools, sowie die Interpretation der Ergebnisse, motivationalen und gruppendyna- mischen Biases (Montibeller & von Winterfeldt, 2015). Zudem wurde argumentiert, dass auch die Akzeptanz und damit die tatsächliche Nutzung dieser Tools potenziell von moti- vationalen und gruppendynamischen Faktoren abhängt. Im Rahmen von Debiasing wird dementsprechend häufig auf die Modifikation des Entscheidungskontextes, als Fokus für Interventionen zur Reduzierung von Biases, abgezielt. Ein guter Grund dafür ist, dass Biases implizit und unbemerkt ablaufen sowie oft mit sinnvollen Heuristiken zusammen- hängen, wodurch eine Reduktion anders oft nicht möglich oder zielführend ist. Klayman (1993, S. 116) schreibt dazu: Given the non-intuitive nature of many statistical principles and decision analysis techniques, it may often be easier to modify the environment than the person. Moreover, whereas better thinking must be taught to each individual, the benefits of a modified environment are likely to generalize across the range of individuals who encounter it. Das gleiche gilt für die Diagnostik derartiger Effekte, die in der Literatur bisher kaum dis- 4 Organisationskultur 82 kutiert wird, im Prinzip aber an der gleichen Stelle wie Interventionsmaßnahmen anknüpft. Insofern möchte die Diagnostik die Beschaffenheit jener Kontextfaktoren, die das Debia- sing manipuliert, zunächst erfassen, um zu erkennen, welche Aspekte kritisch sind und welche Prioritäten bei Veränderungsprozessen sinnvoll sind. Dem Vorhaben der Diagnos- tik ließe sich entgegensetzen, dass kognitive, motivationale und gruppenbezogene Biases als universell gelten und man somit direkt zur Intervention übergehen könnte. Die in Kapitel 3 beschriebenen motivationalen und gruppendynamischen Biases sind zwar grundsätzlich weit verbreitet, jedoch weniger universell als häufig angenommen. Interindividuelle Un- terschiede bezüglich Biases, wie des Self-Serving-Biases oder des Overconfidence Biases, unterliegen nicht zuletzt kulturellen Einflüssen (Savani, Cho et al., 2015). In den folgenden Abschnitten wird die wichtige Rolle der Organisationskultur als Ein- flussfaktor auf die Entscheidungsqualität im Rahmen diverser Heuristiken beziehungsweise Biases beschrieben. Im Gegensatz zu einem primären Fokus auf Strukturen und Prozessen bietet die Organisationskultur einen umfassenderen Zugang zum Entscheidungskontext, da die Organisationskultur potenziell das Konstrukt ist, das am besten vorhersagt, wie sich Menschen in organisationalen Planungsprozessen, die komplex, unstrukturiert und si- tuationsspezifisch sind, tatsächlich verhalten. Kulturbezogene Interventionen können zwar zunächst langwierig sein, führen aber – wenn einmal eine entsprechende Organisations- kultur etabliert ist – potenziell dazu, dass bestimmte Verhaltensweisen implizit, also ohne bewussten Aufwand, von neuen Organisationsmitgliedern erlernt und angewendet werden. Und auch wenn die auf einer entsprechenden Diagnostik basierenden Gestaltungsempfeh- lungen gleichförmig sind, also organisationsübergreifende Zielzustände definiert werden können, an denen sich Interventionen unmittelbar – auch ohne vorherige Diagnostik ori- entieren könnten – erscheint eine regelmäßige Evaluation der Bedingungen mittels einer Mitarbeiterbefragung sinnvoll. Zunächst kann erfasst werden, welche Bedingungen bereits den Zielvorstellungen entspre- chen und falls Interventionsbedarf besteht, können Prioritäten in Abhängigkeit der Be- deutsamkeit oder der Ausprägung einzelner Themen gesetzt werden. Einzelne Organisa- tionseinheiten bilden zudem Subkulturen, die sich bezüglich kultureller Normen und Ver- haltensweisen unterscheiden. Im Rahmen der Diagnostik kann somit auch entschieden und priorisiert werden, wann und in welchen Organisationseinheiten sinnvollerweise Maßnah- men umgesetzt werden sollen. Die Etablierung einer zielgerichteten Organisationskultur ist ein langfristiges und dynamisches Anliegen und lässt sich anhand einer regelmäßigen Evaluation des Status Quos außerdem erkennen, inwieweit bereits erreichte Ziele erodiert sind, um gegebenenfalls Maßnahmen zu ergreifen. Analog dazu kann zum Beispiel die Ge- fährdungsbeurteilung psychischer Belastung in Organisationen betrachtet werden. Dort gibt es klare Gestaltungsempfehlungen, jedoch ist eine regelmäßige Diagnostik – aus oben genannten Gründen – sinnvoll und vorgesehen (D. Beck et al., 2022; Deutsches Institut für Normung, 2004). Bezüglich der Methodik bieten standardisierte, schriftliche Mitarbei- 4 Organisationskultur 83 terbefragungen einen direkten und ökonomischen Zugang zur Erfassung der betreffenden Gegebenheiten. Zudem verringert die Möglichkeit der Anonymität bestimmte Antwort- tendenzen, wie die der sozialen Erwünschtheit. Die quantitative Befragung aller Organi- sationsmitglieder bezüglich der zu erfassenden Bedingungen bietet hierbei eine relative Objektivierung der aktuellen Lage, die von einzelnen Personen subjektiv unterschiedlich wahrgenommen wird. In den folgenden Abschnitten wird analysiert, inwieweit bestimmte Aspekte der Organisa- tionskultur einen direkten Einfluss auf die Auftretenswahrscheinlichkeit bestimmter Biases haben oder einen indirekten Einfluss auf andere Biases nehmen, indem sie die Akzeptanz von Methoden oder Verhaltensweisen zu deren Reduzierung beeinflussen. Anschließend sollen diese Aspekte so operationalisiert werden, dass die assoziierten Situationen und Verhaltensweisen für Mitarbeiter mit diversen fachlichen Hintergründen bewertbar sind und entsprechend als Items zur Diagnostik genutzt werden können. 4.1 Definitionen Cultures can have powerful consequences, especially when they are strong. They can enable a group to take rapid and coordinated action against a competitor or for a customer. They can also lead intelligent people to walk, in concert, off a cliff. (Kotter, 2008, S. 17) Der Begriff Kultur fand seinen Ursprung gegen Ende des 19. Jahrhunderts in der Anthro- pologie und basierte auf der Beobachtung, dass sich die Gesellschaften von Ureinwohnern verschiedener Kontinente nicht nur stark von technologisch weiterentwickelten westlichen Gesellschaften unterschieden, sondern auch zwischen verschiedenen Stämmen deutliche Unterschiede bezüglich Ritualen und Verhaltensweisen beobachtet werden konnten (Kot- ter, 2008). Entsprechend wurde das Konstrukt Kultur geprägt, um im weitesten Sinne die verschiedenen Qualitäten menschlicher Gruppen, die von Generation zu Generation weitergegeben werden, zu erfassen. Nach der Definition des American Heritage Dictionary umfasst Kultur: „the totality of socially transmitted behavior patterns, arts, beliefs, insti- tutions, and all other products of human work and thought characteristic of a community or population“ (W. Morris, 1971). Das Konzept der Unternehmens- beziehungsweise Organisationskultur gewann in der Nach- kriegszeit, insbesondere in den 1970er und 1980er Jahren, enorm an Bedeutung. In dieser Zeit war es ein Bestreben, herauszufinden, warum US-Unternehmen eine schlechtere Leis- tung als deren Pendant in anderen Regionen, zum Beispiel Japan, erzielten. Dabei wurde es deutlich, dass kulturelle Unterschiede auf nationaler Ebene nicht ausreichten, um das Phänomen zu erklären, und man ein Konzept braucht, das Unterschiede, zum Beispiel bezüglich der Effektivität, zwischen verschiedenen Organisationen besser erklärt (Schein, 1988). Warrick (2015) definiert Kultur als diejenigen Glaubenssätze, Werte, Einstellungen 4 Organisationskultur 84 und Verhaltensweisen, die charakteristisch für eine Gruppe sind. Ähnlich beschreibt Uttal (1983) Kultur als geteilte Werte (was ist wichtig) und Glaubenssätze (wie funktionieren Dinge), die in Interaktion mit den Strukturen und Systemen der Organisation Verhaltens- normen produzieren (die Art und Weise, wie die Dinge hier laufen). Schein (1988) definiert Kultur als jene Verhaltensmuster, die eine Gruppe bewusst oder unbewusst entwickelt hat, um mit externen oder internen Herausforderungen umzugehen, und die entsprechend an neue Gruppenmitglieder vermittelt werden. Der Begriff Gruppe kann dabei als sozia- le Einheit unterschiedlicher Größenordnungen definiert werden. Zum Beispiel bilden sich auf der Ebene ganzer Länder, aber auch in Sportvereinen oder Familien, spezifische Kul- turen (Warrick, 2017). Dementsprechend sind Menschen stets Teil mehrerer ineinander verschachtelter Kulturen, die sich auch gegenseitig beeinflussen. Nationale Kulturen be- einflussen Menschen von früher Kindheit an direkt, zum Beispiel durch Bildungsinstitute, sowie indirekt, mediiert über die familiäre Kultur. Auch eine Organisationskultur wird maßgeblich von der nationalen Kultur beeinflusst, kann aber, wie eingangs beschrieben, darüber hinaus signifikante Unterschiede in der Kultur verschiedener Institutionen inner- halb einer Nation erklären. So ist die Organisationskultur ein besserer Erfolgsprädiktor für eine Organisation als die nationale Kultur, in deren Kontext die Organisation agiert (Abu- Jarad, Yusof & Nikbin, 2010). Im Rahmen der Organisationskultur geht es normalerweise um die Kultur einer Organisation als Ganzes, oder aber auch um die Subkulturen einzelner Abteilungen innerhalb dieser Organisation, die sich gegebenenfalls abweichend entwickeln, je nachdem wie stabil einzelne Gruppen sind und wie viele gemeinsame Lernerfahrungen sie besitzen (Schein, 1988). Als unterschiedliche Facetten einer Organisationskultur unterscheidet Schein (1988) Ar- tefakte, Werte und Grundannahmen. Artefakte sind Aspekte der Kultur, die man un- mittelbar wahrnimmt, wenn man eine neue Kultur betritt, deren Bedeutung sich einer externen Person aber nicht ohne Weiteres erschließt (Schein, 1988). Dazu gehören das Kommunikationsverhalten innerhalb der Organisation und das mit externen Akteuren so- wie Rituale, Mythen und physische Indikatoren wie die Kleidung oder Logos (Abu-Jarad et al., 2010). Werte umfassen die von der Führung befürworteten Normen, Ziele, Stan- dards und Prinzipien. Diese sind oft nicht direkt ersichtlich, sind jedoch dem Bewusstsein der Gruppenmitglieder zugänglich und können somit zum Beispiel in einer Befragung er- fasst werden (Schein, 1988) Grundannahmen sind jene Annahmen und Verhaltensweisen, die häufig zunächst als explizite Werte eingeführt beziehungsweise von neuen Mitgliedern erlernt werden und sich anschließend im Laufe der Zeit etablieren und dadurch nach und nach automatisiert beziehungsweise unbewusst ausgeführt werden. Neben dem Modelller- nen neuer Organisationsmitglieder am Vorbild bestehender Mitglieder wirkt der Prozess der operanten Konditionierung durch Belohnung, beziehungsweise positives Feedback bei erwünschtem Verhalten, und Bestrafung, beziehungsweise negatives Feedback, bei uner- wünschtem Verhalten. Kotter (2008, S.14-15) beschreibt kulturelle Lernprozesse wie folgt: 4 Organisationskultur 85 Once established, organizational cultures often perpetuate themselves in a number of ways. Potential group members may be screened according to how well their values and behavior fit in. Newly selected members may be explicitly taught the group’s style. Historical stories or legends may be told again and again to remind everyone of the group’s values and what they mean. Managers may explicitly try to act in ways that exemplify the culture and its ideals. Senior members of the group may communicate key values over and over in their daily conversations or through special rituals and ceremonies. People who successfully achieve the ideals inherent in the culture may be recognized and made into heroes. The natural process of identification between younger and older members may encourage the younger members to take on the values and styles of their mentors. Perhaps most fundamental, people who follow cultural norms will be rewarded but those who do not will be penalized Eine Unterscheidung zwischen expliziter und impliziter Ebene, die noch detaillierter be- schrieben wird, ist dabei nicht deckungsgleich mit der von (Warrick, 2017, S. 398) be- schriebenen Unterscheidung zwischen sichtbarer und unsichtbarer Ebene: There is a visible level that can be observed by artifacts such as dress, office layout, office design, and emphasis on technology. Artifacts could also include leadership style, the nature of the work environment, how people are treated, and how decisions are made and get implemented. There is also an invisible level characterized by expressed values, underlying assumptions, and deep beliefs. Expressed values are consciously held convictions, clearly stated or practiced, that influence the behavior of group members. (Warrick, 2017, S. 398). Während expressed values an dieser Stelle als unsichtbar kategorisiert werden, wären die- se kognitiv eher der expliziten Ebene zuzuordnen, weil sie dem Bewusstsein zugänglich sind und in der Regel verbalisiert werden können. Kulturelle Grundannahmen hingegen entsprechen prozeduralen und heuristischen unbewussten Prozessen des Individuums. So ist bezüglich der von Schein (2010) beschriebenen drei Ebenen nur die dritte als primär implizit zu betrachten (siehe Tabelle 2) Tabelle 2 Drei Ebenen der Organisationskultur The Three Levels of Culture 1. Artifacts Visible and feelable structures and processes Observed behavior – Difficult to decipher 2. Espoused Beliefs and Values Ideals, goals, values, aspirations Ideologies Rationalizations – May or may not be congruent with behavior and other artifacts 3. Basic Underlying Assumptions Unconscious, taken-for-granted beliefs and values – Determine behavior, perception, thought, and feeling Anmerkung. In Anlehnung an Schein (2010, S. 24) 4 Organisationskultur 86 Schein (1988, S. 9-10) beschreibt, analog zum Lernen impliziter Prozesse durch explizite Übung (vgl. Kapitel 2.2.), wie explizite Denk- und Verhaltensweisen auf die Ebene der Basic Underlying Assumptions wechseln: Such assumptions often start out historically as values, but, as they stand the test of time, they gradually become assumptions and come to be taken for granted. [...] If the strategy works repeatedly over several generations of products, it will gradually be assumed that such a strategy is, in fact, correct and will cease to be questioned. The danger for the organization then is that it may not be able to unlearn this assumption even though the environment may change, especially if the original learning was based on traumatic mistakes. Derartige unbewusste und automatisierte Wahrnehmungs-, Denk- und Verhaltensprozes- se im Kontext der Organisationskultur werden für Organisationsmitglieder zur second nature, also stark verinnerlicht und stabil gegenüber Veränderungen. Die damit einherge- hende organisationale Effizienz kann, analog zur durch Heuristiken bewirkten kognitiven Effizienz, genau wie für das Individuum, soziale Prozesse vereinfachen und optimieren. Die automatisierten Denk- und Verhaltensmuster bringen den Gruppenmitgliedern außerdem ein Gefühl von Bedeutsamkeit und Stabilität und reduzieren somit die Angst davor, Er- eignisse nicht verstehen oder vorhersagen zu können. Allerdings birgt diese Optimierung kognitiver und organisationaler Ressourcen ein Risiko, weil sich die Umwelt und damit der Entscheidungskontext verändern kann, jedoch die überlernten impliziten Verhaltens- weisen häufig sehr resistent gegenüber Veränderungen sind (Schein, 1988). Dieses Risiko trifft umso mehr auf jene Planungsprozesse zu, die Gegenstand dieser Arbeit sind, da sich Planungsentscheidungen oft in neuartigen Kontexten abspielen, die vom Erfahrungsschatz der Entscheidungsverantwortlichen nicht vollständig abgedeckt werden und somit bezüg- lich kognitiver Biases, motivationaler und gruppendynamischer Biases ein hohes Risiko aufweisen (vgl. Kapitel 1.1). Die Stärke einer Kultur sieht Schein (1988) als Funktion der Stabilität der Gruppe, der Dauer der miteinander verbrachten Zeit sowie der Intensität der gemeinsamen Erfahrun- gen. Dabei spielt auch die Art der Lernerfahrung eine Rolle (zum Beispiel assoziatives Lernen, Modelllernen oder operante Konditionierung) sowie die Klarheit und Stärke der von den Führungskräften explizit und implizit kommunizierten Annahmen und Werte. Die Integration in eine Kultur umfasst perzeptive, kognitive und emotionale Reaktionen und erfolgt im Verhältnis des Individuums zur Eigengruppe (In-Group) sowie der Interaktion der Eigengruppe mit Fremdgruppen (Out-Groups). Im folgenden Abschnitt werden wesentliche inhaltliche Dimensionen, auf denen die Orga- nisationskultur wirkt, beschrieben. 4 Organisationskultur 87 4.2 Inhalte It’s about the culture. I could leave our strategy on an aeroplane seat and have a competitor read it and it would not make any difference – John Stumpf, CEO Wells Fargo (Guerrera, 2008, S. 1). Auf Basis und als Erweiterung der Erkenntnisse von Hofstede (1984) untersuchte das Glo- bal Leadership Organizational Behavior Effectiveness (GLOBE) Forschungsprogramm kul- turelle Unterschiede in 951 Organisationen unterschiedlicher Branchen in 62 verschiedenen Ländern. Dazu wurden zunächst auf Basis einer Literaturrecherche 735 Fragebogenitems entwickelt, um das Thema Organisationskultur erschöpfend zu erfassen. Aus der Beant- wortung der Fragen durch über 17.000 Führungskräfte im mittleren Management wurden anschließend mittels statistischer Verfahren, wie der explorativen Faktorenanalyse, acht Dimensionen abgeleitet, in denen sich die Organisationskultur widerspiegelt: Performance Orientation, Assertiveness, Future Orientation, Humane Orientation, Institutional Col- lectivism, In-Group Collectivism, Gender Egalitarianism, Power Distance, Uncertainty Avoidance (House, Hanges, Javidan, Dorfman & Gupta, 2004). Bezüglich Performance Orientation wird erfasst, ob Organisationsmitglieder eher nach ihrem Beitrag zum Erfolg beurteilt werden und somit ein Fokus auf Weiterbildung liegt – dies zeigte sich zum Beispiel für Organisationen in Singapur, Hong Kong und Neusee- land – oder ob eher die Herkunft und Familienverbindungen ausschlaggebend sind, was zum Beispiel häufig in Russland, Argentinien und Griechenland der Fall ist (Javidan & Dastmalchian, 2009). Assertiveness zeigt, ob in einer Organisation der Wettbewerb belohnt wird und Ziele eher mittels Konfrontation und Forschheit beziehungsweise Aggressivität durchgesetzt werden (Österreich, Spanien, Griechenland) oder ob eher Harmonie und Loyalität gefördert werden (Neuseeland, Schweden, Japan) (Javidan & Dastmalchian, 2009). Future Orientation einer Organisation beschreibt inwieweit langfristige Planung, Zukunft- sinvestitionen und allgemein Belohnungsaufschub praktiziert werden. Organisationen in Ländern wie Singapur, Schweiz und Kanada fokussieren in planvolleren Entscheidungspro- zessen tendenziell einen längeren Zeithorizont, während sich in russischen, argentinischen und polnischen Organisationen eine stärkere Tendenz zu opportunistischen Entscheidun- gen zeigt (Javidan & Dastmalchian, 2009). Humane Orientation definiert sich über das Ausmaß, in dem Werte wie Altruismus, Groß- zügigkeit und Fürsorge für andere gelebt werden.urch die Entsprechend wird zum Beispiel in Malaysia, den Philippinen und Indonesien Unterstützung und Sympathie für Schwä- chere gewertschätzt. Außerdem sind dort paternalistische Beziehungen üblicher und von Kindern wird stärkerer Gehorsam gefordert. In Gesellschaften beziehungsweise Organisa- tionen aus Deutschland, Spanien und Singapur spielen hingegen Macht, materieller Besitz, 4 Organisationskultur 88 die persönliche Entwicklung und Unabhängigkeit eine stärkere Rolle. Institutional Collectivism beschreibt die Tendenz zu gemeinschaftlichem Handeln und der gleichmäßigen Verteilung von Ressourcen. In Organisationen in Singapur, Südkorea und Japan wird Gruppenharmonie und Gruppenleistung betont, während in Ländern wie Grie- chenland, Ungarn und Argentinien tendenziell individuelle Leistungen bewertet und be- lohnt werden und entsprechend Autonomie und Eigeninteresse stärker ausgeprägt sind. Bei In-Group Collectivism geht es um die Bedeutung von Stolz, Loyalität und Kohäsion, die mit der Mitgliedschaft einer Organisation oder sonstigen Gruppe einhergehen. In Län- dern wie Iran, Indien und China hat es eine besondere Bedeutung, welcher Familie oder welchem Verwandtenkreis (In-Group) eine Person angehört und entsprechend hat es hohe Priorität, den Ansprüchen der Gruppe gerecht zu werden. In Dänemark, Schweden und Neuseeland wird von der Familie oder dem Freundeskreis deutlich weniger eine besondere Behandlung, wie zum Beispiel Regelbrüche, erwartet. Das Konstrukt Gender Egalitarianism zeigt, inwieweit Geschlechtergleichheit gelebt wird beziehungsweise Diskriminierung aufgrund des Geschlechts eine Rolle spielt. In Ländern wie Ungarn, Dänemark und Schweden haben Frauen einen höheren Status und sind stärker in Entscheidungsprozesse involviert als in männlich dominierten Gesellschaften wie Süd- korea, China oder Ägypten, in denen entsprechend weniger Frauen Führungspositionen besetzen. Power Distance beschreibt die Beschaffenheit von Hierarchien in einer Organisation. Wäh- rend in Ländern wie Russland, Thailand und Spanien stärker zwischen Personen verschie- dener Hierarchieebenen unterschieden und mehr Gehorsam gegenüber Vorgesetzten erwar- tet wird, sind die Hierarchien in Ländern wie Dänemark und den Niederlanden deutlich flacher. Uncertainty Avoidance zeigt sich in dem Grad, in dem Gesellschaften oder Organisationen versuchen, durch die Etablierung von Normen, Ritualen und bürokratischen Praktiken die Unvorhersehbarkeit zukünftiger Ereignisse zu reduzieren. Entsprechend werden in Ländern wie der Schweiz, Schweden und Dänemark Werte wie Ordnung, Konstanz, Struktur und Gesetze stärker gewürdigt. Auf der anderen Seite gibt es in Ländern wie Russland, Ungarn und Bolivien eine stärkere Toleranz für Unsicherheit, Ambiguität und Regelbrüche. Anschließend wurde der Zusammenhang der in den acht Dimensionen abgebildeten Orga- nisationskultur mit Kriterien wie dem ökonomischen Erfolg der Organisation sowie dem physischen und psychologischen Wohlbefinden der Mitarbeiter beleuchtet. Dass die in- haltlichen Ausprägungen der Organisationskultur mit dem Erfolg einer Organisation zu- sammenhängen, zeigen zum Beispiel Deshpandé, Farley und Webster (1993). Die Auto- ren fanden heraus, dass Organisationen, die eine Leistungs- und Wettbewerbsorientierung aufweisen sowie Unternehmertum und Innovation schätzen, bessere Ergebnisse erzielen als 4 Organisationskultur 89 Organisationen, die stärkeren Wert auf Kohäsion innerhalb der Organisation setzen und stark durch Hierarchien geprägt sind. Wie in Kapitel 3.4 beschrieben, lässt sich dieser Un- terschied potenziell durch Effekte wie Groupthink erklären, das insbesondere in Gruppen mit hoher Kohäsion und einem starken Hierarchiegefälle auftritt. Denison (1984) erfasste mittels Fragebogen die Organisationskultur von 34 börsengelis- teten amerikanischen Unternehmen und fand auf Basis der Befragung von über 43.000 Teilnehmern in über 6.000 Arbeitsgruppen heraus, dass Organisationen mit einer par- tizipativen Kultur – in der die Beteiligung der Mitarbeitern an Entscheidungsprozessen gefördert wird, also eine niedrige Power Distance herrscht – einen beinahe doppelt so hohen Return on Investment (ROI) aufweisen als Organisationen mit einer weniger ausgepräg- ten partizipativen Kultur. Dazu teilten Sie die befragten Organisationen in zwei Gruppen und verglichen den durchschnittlichen ROI der Gruppe, die bezüglich der partizipativen Kultur einen Prozentrang von mehr als 50 aufweisen mit dem Durchschnittswert der Or- ganisationen mit einem Prozentrang von 50 oder weniger. Abbildung 8 zeigt, wie sich die Performance beider Gruppen über die Jahre entwickelt hat. Abbildung 8 Organisationskultur und wirtschaftlicher Erfolg Anmerkung. Der Einfluss der Mitarbeiterpartizipation auf den Return on Investment. Vergleich von Organisationen mit Prozentrang 0-50 versus 50-100 bezüglich dem Grad an Partizipations- möglichkeiten. (Denison, 1984, S. 15) Dass die Differenz sich im Zeitverlauf vergrößert, deutet Denison (1984) als Hinweis für einen kausalen Zusammenhang zwischen der Organisationskultur und der Leistungsfähig- keit. Als möglicher Grund für diesen Zusammenhang sieht Denison (1984) die Auswirkung, die Partizipation an Entscheidungsprozessen auf das Commitment der Mitarbeiter hat, die durch mehr Entscheidungsverantwortung ein besseres Bewusstsein für die Konsequenzen 4 Organisationskultur 90 ihrer Handlungen erhalten. Durch eine höhere Identifikation mit der Organisation und deren Zielen übernehmen viele Mitarbeiter außerdem eine ganzheitlichere Sichtweise auf Probleme. Außerdem eignen sich Gruppen grundsätzlich besser als Individuen, um kom- plexe und vielschichtige Probleme zu lösen (vgl. Kapitel 2.3), besonders wenn Entschei- dungsprozesse effektiv strukturiert werden (Denison, 1984). Denison (1984) argumentiert, dass man die Ausprägung von Faktoren der Organisati- onskultur, wie der Partizipation an Entscheidungsprozessen beziehungsweise der Power Distance, nicht isoliert betrachten sollte, sondern auch situative Umweltfaktoren zu be- rücksichtigen sind. Ein hoher Grad an Inklusion in Entscheidungsprozessen hat, wie die Studienergebnisse zeigen, in den meisten Situationen und insgesamt einen positiven Ein- fluss auf den Erfolg von Organisationen. Potenziell ist der positive Effekt dann am höchs- ten, wenn eine Organisation in einem sich dynamisch ändernden Umfeld agiert und mit neuartigen Situationen konfrontiert ist, also Situationen, denen sich organisationale Pla- nungsprozesse zuschreiben lassen. Denison (1984) fand außerdem heraus, dass Items, die sich auf das Gesamtsystem der Organisation beziehen, wie zum Beispiel „People at all levels of an organization usually have know-how that could be of use to decision makers.“ (Denison, 1984, S. 10) oder „To what extent is information widely shared in this organiza- tion so that those who make decisions have access to such knowledge?“ (Denison, 1984, S. 10-11) die besten Prädiktoren für den Erfolg einer Organisation sind, insbesondere wenn es um die langfristige Perspektive geht, während Skalen, die sich auf einzelne Aspekte, wie den Führungsstil beziehen, gute Prädiktoren für kurz- und mittelfristige Erfolgsprognosen sind. Kotter (2008) fand heraus, dass die Organisationskultur einen starken Einfluss auf Leis- tungsindikatoren wie den Umsatz, den Gewinn, das Wachstum und den Aktienkurs von Unternehmen hat. Wichtig scheint dabei zu sein, dass die Kultur zu den Aufgaben und dem Kontext, in dem die Organisation agiert, passt. In einer sich immer schneller verändern- den Welt ist ein gewisser Grad an Flexibilität und Adaptivität der Organisationskultur wichtig (Kotter, 2008). Die Vorteile von Flexibilität, die eine Organisationskultur im Ge- gensatz zu formalen Strukturen und Prozessen beinhalten kann, sieht auch Reason (2013), der beschreibt, dass unerwünschte Ereignisse in komplexen Systemen in manchen Fällen durch das Verletzen regelkonformer Handlungsweisen entstehen können, in anderen Fällen aber auch das strikte Festhalten an Standardprozeduren ein negatives Ereignis verursacht. Wenn die Kultur an die Aufgaben der Organisation angepasst ist, hilft eine starke Aus- prägung dieser Kultur, dass sie Struktur für Arbeitsprozesse bietet, ohne dass diese auf erdrückenden formalen und bürokratischen Abläufen beruhen, welche die Motivation und Innovationsfreude der Mitarbeiter einschränken. Auf der anderen Seite kann eine dys- funktionale Kultur das positive Potenzial einer stark ausgeprägten Kultur ins Gegenteil verkehren (Kotter, 2008). Im Vergleich zwischen performanceförderlichen Kulturen und -hinderlichen Kulturen fanden Kotter (2008), dass Erstere ihre Umsätze in 11 Jahren um 4 Organisationskultur 91 vier mal mehr als Letztere erhöhten, acht mal so viele Mitarbeiter einstellten und den Aktienkurs 12 mal so stark steigerten. 4.3 Einfluss auf Biases Cultural influences on individual judgment and decision making are increasingly understood in terms of dynamic constructive processing and the structures in social environments that shape distinct processing styles, directing initial attentional foci, activating particular judgment schemas and decision strategies, and ultimately reinforcing some judgment and decision making (JDM) patterns over others. (Weber & Morris, 2010, S. 410). In den vorherigen Kapiteln wurde der allgegenwärtige Einfluss, den die Kultur allgemein und speziell die Organisationskultur auf Gruppenmitglieder ausübt, beschrieben. Dieser Einfluss beschränkt sich nicht auf bewusste Entscheidungen und Verhaltensweisen, son- dern wird durch kontinuierliche Lernprozesse – assoziatives Lernen, Modelllernen, Kondi- tionierung – auch Teil unbewusster, automatisierter Urteils- und Entscheidungsprozesse. Entsprechend dieser Argumentation beschreiben Kahan et al. (2011) mit Cultural Cogniti- on ein Konstrukt, das zeigt, wie sich soziale oder kulturelle Einflüsse auf die Wahrnehmung und Informationsverarbeitung von Individuen auswirken und damit auch einen Einfluss auf die Entstehung von Biases haben. In ihrer Studie zeigen die Autoren eine starke Kor- relation zwischen kulturellen Werten der Probanden und ihrer Einschätzung dazu, was der wissenschaftliche Stand beziehungsweise der Expertenkonsens zu bestimmten Themen ist. Die Probanden wurden mittels entsprechender Fragebögen in zwei Dimensionen differen- ziert: hierarchisch vs. egalitaristisch und individualistisch vs. kommunitaristisch. Es zeigt sich, dass sich hierarchisch und individualistische Probanden deutlich von egalitaristisch und kommunitaristischen Probanden unterscheiden, wenn es um die Einschätzung des allgemein akzeptierten Wissensstandes zu den Themen Klimawandel, der Endlagerung radioaktiver Abfälle sowie der Regulierung des Besitzes von Handfeuerwaffen geht. Beide Gruppen wichen dabei in der vermuteten Richtung vom tatsächlichen Expertenkonsens ab, der mittels verschiedener Expert Consensus Reports der US National Academy of Sciences operationalisiert wurde (z. B. National Research Council, 2007). Daraus lässt sich schlie- ßen, dass die Wahrnehmung und Informationsverarbeitung des wissenschaftlichen Konsens durch das bestehende Wertesystem der Probanden geprägt ist (Kahan et al., 2011). Die Ergebnisse zeigen, dass die Ausprägungen bestimmter motivationaler Biases, in diesem Fall des Confirmation Bias (Kapitel 3.2.4) beziehungsweise des Desirability Bias (Kapitel 3.3.4), von kulturellen Einflüssen abhängen. Wie beschrieben setzt sich eine Organisationskultur aus Annahmen und Verhaltensweisen zusammen, die, als Konsequenz von Lernprozessen, mitunter automatisiert und unbewusst agieren. In diesem Rahmen wird das Potenzial der Organisationskultur zur Formation von Heuristiken und Biases deutlich. Savani, Cho et al. (2015) diskutieren diesen bisher wenig 4 Organisationskultur 92 untersuchten Zusammenhang zwischen Kultur und der Ausprägung verschiedener Bia- ses. Ein Faktor ist die selektive Risikowahrnehmung in Abhängigkeit kultureller Werte. So überschätzen Menschen in individuelleren Kulturen potenziell die Risiken von Maß- nahmen, die individuelle Freiheiten einschränken – zum Beispiel Maßnahmen zum Um- weltschutz – während sie zum Beispiel Risiken durch Deregulierung der Finanzmärkte unterschätzen. Personen in hierarchisch geprägten Kulturen hingegen unterschätzen zum Beispiel Risiken durch autoritäre Organisationen und Vetternwirtschaft (Savani, Cho et al., 2015). Europäisch-amerikanische Männer haben beispielsweise eine geringere Risikowahr- nehmung bezüglich der globalen Erwärmung, Umweltverschmutzung und Waffenbesitz, als Frauen oder Männer mit einem anderen ethnischen Hintergrund. Kahan, Braman, Gastil, Slovic und Mertz (2007) sehen hier einen Effekt von cultural-identitiy-protective cognition. Derartige Effekte können durch kulturell geförderte Meinungshomogenität erklärt werden, die wiederum durch die eingeschränkte und hypothesenbestätigende Informationssuche beziehungsweise -interpretation im Rahmen des Confirmation Bias und gruppenbezogene Effekte wie Group Polarization verstärkt werden. Damit kann die Kultur, wie in den vor- herigen Beispielen, zum einen den Nährboden für bestimmte Biases bilden, zum anderen zeigen zum Beispiel Savani, Markus und Conner (2008) den direkten Einfluss der Kultur auf das Treffen von Urteilen und Entscheidungen. Die Autoren ließen jeweils 60 indische und 60 amerikanische Studenten mehrere Kugelschreiber auf unterschiedlichen Dimensio- nen bewerten. Dazu gehörten die Farbe, die Schreibqualität und ein Urteil, wie sehr der Kugelschreiber ihnen insgesamt gefällt. Anschließend durften die Probanden einen der Ku- gelschreiber als Geschenk behalten. 84% der amerikanischen, aber nur 62% der indischen Probanden entschieden sich für den Kugelschreiber, der ihrem höchsten Durchschnittsran- king entsprach. Ein möglicher Grund für diesen Unterschied liegt im kulturellen Wertesys- tem der Probanden, möglicherweise in Form einer individuellen vs. kollektiven Entschei- dung, wobei letztere die stärkere Abweichung von der eigenen Präferenz erklären würde (Savani, Cho et al., 2015). Eine weitere potenzielle Erklärung bezieht sich auf kognitive Prozesse, die eine holistischere Auswahl der indischen Probanden nahelegt. Amerikanische Probanden wählten zu 86% den Kugelschreiber, den sie auf die Frage, wie sehr ihnen der Kugelschreiber im Gesamturteil gefällt, am höchsten bewerteten, gegenüber 63% der in- dischen Probanden. Somit könnte es sein, dass die indischen Probanden parallel mehre Dimensionen bei ihrer Auswahl berücksichtigten. Eine dritte Erklärung bezieht sich auf den Einfluss sozialer Normen, die die Entscheidung der Probanden insofern beeinflussten, als dass sie sich Gedanken darum machten, wie andere ihre Auswahl bewerten würden (Savani et al., 2008). Unterstützung für diese Hypothese fanden Savani, Wadhwa, Uchida, Ding und Naidu (2015), die feststellten, dass indische Probanden inkonsistenter in ihren Urteilen wurden, wenn sie sich durch im Labor schematisch angebrachte Augen unbewusst beobachtet fühlten, während amerikanische Probanden sich dadurch kaum in ihrem Urteil beeinflussen ließen. 4 Organisationskultur 93 Der Fundamentale Attributionsfehler beziehungsweise die selbstwertdienliche Attribution wurden in Kapitel 3.3.1 als Ursachenfaktoren bei der Entstehung sämtlicher dort beschrie- bener motivationaler Biases – Overconfidence, Optimism und Desirability – angeführt. Dabei wurde in der Literatur zumeist angenommen, dass derartige Attributionseffekte ein Nebenprodukt universeller Wahrnehmungsprozesse seien (Savani, Cho et al., 2015). J. Mil- ler (1984) fand heraus, dass indische Probanden ihre eigenen alltäglichen Erfahrungen eher external und situativ attribuierten, während amerikanische Probanden Geschehnisse eher auf ihr eigenes Verhalten zurückführten, also internal und stabil. M. W. Morris und Peng (1994) ließen amerikanische und chinesische Schüler einen Cartoon bewerten, der einen Fisch zeigt, hinter dem weitere Fische schwimmen. Chinesische Schüler attribuierten das Verhalten des vorderen Fisches eher auf externe Faktoren, zum Beispiel, dass dieser von den anderen Fischen gejagt wird, während die amerikanischen Schüler die Situation eher mit internen Zielen begründeten, zum Beispiel, dass der vordere Fisch die Gruppe anführt. Die kulturelle Prägung bezüglich des Attributionsstil zeigt sich auch in automatisierten Verhaltensweisen wie der Sprache oder in Perzeptionsprozessen, wie der Blickbewegung. Maass et al. (2006) ließen westliche (italienische) und ostasiatische (japanische) Probanden jeweils einen männlichen und weiblichen Bekannten mit zehn Attributen beschreiben. Die italienischen Probanden nutzen bei der Beschreibung Adjektive und Verben im Verhältnis 20:1, während das Verhältnis bei japanischen Probanden lediglich 1,2:1 umfasste. Adjek- tive enthalten mehr Informationen bezüglich persönlicher Eigenschaften, während Verben mehr situative Informationen enthalten, was einen weiteren Hinweis für einen entspre- chenden Unterschied im Attributionsstil in Abhängigkeit des kulturellen Hintergrundes darstellt. Chua, Boland und Nisbett (2005) ließen Probanden mehrere Bilder auf einer Likert-Skala auf einer Reihe unterschiedlicher Dimensionen bewerten. Dabei erfassten die Autoren mit- tels Eye-Tracking-Technologie die Blickbewegungen der Probanden. Die insgesamt 36 Bil- der zeigten zum Beispiel einen Jet, der durch ein Gebirge fliegt oder einen Tiger, der an einem Fluss steht. Es zeigte sich, dass chinesische Probanden die Bilder holistischer wahrnahmen und speicherten, während bei amerikanischen Probanden die Figur-Grund- Trennung stärker ausgeprägt waren und das zentrale Objekt besser wahrgenommen be- ziehungsweise erinnert wurde. So zeigten die Blickbewegungen, dass die amerikanischen Probanden sich früher und länger auf die Figur fokussierten als die chinesischen Pro- banden. Die Erinnerungsleistung der Probanden entsprach diesem Ergebnis, insofern die chinesischen Probanden sich in Relation zu den amerikanischen Probanden stärker auf Basis des Hintergrunds erinnern konnten, ob sie ein Bild bereits gesehen hatten, während die amerikanischen Probanden im Vergleich die Figur im Vordergrund besser erinnerten. Hierbei zeigt sich die kulturelle Prägung auf implizite Wahrnehmungsprozesse und folgen- de Gedächtnis- und Entscheidungsprozesse, die mit dem Attributionsstil der betreffenden Personen und damit auch ihrer Neigung zu einer Reihe von motivationalen Biases asso- 4 Organisationskultur 94 ziiert sind. Buehler et al. (2009) stellten fest, dass kanadische Probanden einen höheren Self-Serving Bias zeigten als japanische Probanden, wenn es darum ging, Gründe für die verspätete Abgabe einer Hausarbeit zu nennen. Kanadische Probanden berichteten mehr externe, instabile und spezifische Ursachen für den eigenen Misserfolg im Vergleich zu dem vergleichbaren Misserfolg eines Freundes. Die japanischen Probanden zeigten ein gegen- teiliges Attributionsmuster, indem sie den eigenen Misserfolg häufiger intern, stabil und global attribuierten als sie das für andere taten. Bezüglich der Rolle der Kultur bei der Neigung zum Overconfidence Bias sind die Ergeb- nisse uneinheitlich (Moore, Dev & Goncharova, 2018). Eine Vielzahl an Studien legt nahe, dass ostasiatische Populationen weniger Overconfidence zeigen als westliche Populationen, weil ostasiatische Kulturen zu mehr Selbstkritik und weniger Selbsterhöhung im Sinne des Self-Serving Bias neigen (Heine, Takata & Lehman, 2000; Kitayama, Markus, Matsumoto & Norasakkunkit, 1997; Muthukrishna et al., 2018). Andere Autoren fanden eine stär- kere Ausprägung von Overconfidence bei ostasiatischen Probanden gegenüber westlichen Probanden (Moore et al., 2018; Yates, Lee & Shinotsuka, 1996). Eine Erklärung, dass westliche Kulturen trotz einer stärkeren Neigung zum Self-Serving Bias bisweilen weniger Overconfidence zeigen, kann in der Rolle des Bildungssystems und der Fähigkeit zum kriti- schen Denken liegen. So zeigte sich, dass amerikanische und japanische Probanden ähnlich häufig Argumente generierten, die ihrer Schätzung widersprachen, während chinesische Probanden dies deutlich seltener taten. Die kulturelle Prägung hatte demnach einen ge- ringeren Einfluss als die höhere Ähnlichkeit des Bildungssystems zwischen den USA und Japan (Savani, Cho et al., 2015). Die Erkenntnisse, dass ostasiatische Probanden mo- tivational zu einem geringeren Self-Serving Bias neigen, aber dennoch einen gleichstark oder sogar stärker ausgeprägten Overconfidence Bias aufweisen, deckt sich mit weiteren Studienergebnissen: Research to date suggests that Japanese adults show little or no self-enhancing biases in self-evaluation (and in fact, sometimes show a self-effacing bias) (Heine & Lehman, 1995). However, the level of ’cognitive’ overconfidence, as revealed in studies using general knowledge questions, is as great in Japan as in the United States (Lee, Yates, Shinotsuka, Singh, Onglatco, Yen, Gupta, & Bhatnagar, 1995). (Buehler et al., 2009, S. 259) Im Rahmen der Abhängigkeit des Optimism Bias vom Self-Serving Bias (vgl. Kapitel 3.3.3), zeigen sich die entsprechend zu erwartenden kulturellen Unterschiede, obwohl auch diese beiden Effekte in der Vergangenheit häufig als universell betrachtet wurden. So zeig- ten zum Beispiel Heine und Lehman (1995), dass kanadische Probanden ihre Zukunftser- wartungen im Vergleich positiv einschätzten, indem sie negative Risiken, wie zum Beispiel an Hautkrebs oder Demenz zu erkranken, für sich selbst als unterdurchschnittlich ein- schätzten und positive Ereignisse, wie ein hohes Einstiegsgehalt oder das Erreichen des 80. Lebensjahrs, als überdurchschnittlich. Japanische Probanden hingegen bewerteten ihre eigenen Risiken beziehungsweise Chancen als ähnlich hoch ein, wie sie es für andere taten. 4 Organisationskultur 95 Dass in diesem Kontext nicht nur von der frühen Kindheit an über die Kultur absorbierte Wahrnehmungs- und Verhaltensweisen einen derartigen Einfluss haben, sondern im Sinne eines kulturellen Primings Probanden ebenfalls durch unmittelbare Kontextfaktoren die beschriebenen Unterschiede aufweisen, zeigen verschiedene Studien mit bikulturellen Pro- banden. Benet-Martínez, Leu, Lee und Morris (2002) zeigten, dass in den USA lebende chinesische Immigranten verschiedene Situationen eher internal (westlich) beziehungsweise external (ostasiatisch) attribuierten und zwar in Abhängigkeit von vor einer Aufgabe ge- zeigten Stimuli, die westliche beziehungsweise ostasiatische Symbolik aufwiesen. LeBoeuf, Shafir und Bayuk (2010) zeigten ebenfalls Effekte kulturellen Primings in Urteils- und Ent- scheidungsprozessen. 120 in China aufgewachsenen und seit durchschnittlich 15,7 Jahren in den USA lebenden Probanden wurden zunächst kulturelle Primes präsentiert, indem sie entweder Fragen zu ihrer ursprünglichen kulturellen Identität oder zu ihrer amerika- nischen Identität beantworteten, zum Beispiel: „Where were you born“ oder „What is your favorite Chinese holiday?“ versus „Where do you live?“ oder „What is your favorite American holiday?“. Im nächsten Schritt wurden die Probanden aufgefordert, bezüglich verschiedener Szenarien Urteile und Entscheidungen zu treffen. Dazu gehörte die Wahl zwischen einem Auto in ungewöhnlicher oder traditioneller Farbe sowie die Wahl eines traditionellen oder exotischen Gerichts beim Abendessen mit Freunden. Außerdem wurde die Neigung zur Reziprozität bezüglich der Erwiderung eines Gefallens erfasst sowie die Bereitschaft zur Kooperation in einem Prisoners-Dilemma-Spiel. Zur Verstärkung des Pri- mingeffekts wurden die Instruktionen bei Aktivierung der chinesischen beziehungsweise amerikanischen Identität dazu passend auf chinesisch beziehungsweise englisch präsen- tiert. Bei Aktivierung der amerikanischen (chinesischen) Identität wählten 31,6% (24,6%) der Probanden die ungewöhnliche Farbe, 71,9% (40,4%) das exotische Essen, 86% (80%) erwiderten den Gefallen nicht und 31,6% (12,3%) kooperierten nicht. Neben nationalen Identitäten stellten die Autoren ähnliche Effekte bezüglich sozialer Rollen als Studierende und Familienmitglieder und damit assoziierten Identitäten fest. Die Effekte zeigten sich nur bei Probanden, die sich mit den aktivierten Kulturen identifizierten, was dafür spricht, dass die Primingeffekte tatsächlich kulturbedingt sind. Außerdem zeigte sich, dass die Zu- friedenheit mit den zuvor getroffenen Entscheidungen sank, wenn im Anschluss, die jeweils andere Identität aktiviert wurde (LeBoeuf et al., 2010). Im Rahmen dieses Kapitels wurde beschrieben, dass vor allem motivationale Biases nicht universell gleichmäßig ausgeprägt sind, sondern durch kulturelle Prägungen beeinflusst werden, die insbesondere durch wiederholte und andauernde Exposition in unbewusste Denk- und Verhaltensweisen münden. Dabei hat sich in Studien mit bikulturellen Proban- den gezeigt, dass nicht etwa nur familiäre und frühkindliche Einflüsse einen signifikanten Effekt haben, sondern auch im Erwachsenenalter kulturelle Prägungen Urteils- und Ent- scheidungsprozesse unbewusst beeinflussen. Einen entsprechend großen Einfluss hat die Organisationskultur auf die Organisationsmitglieder und damit eine besondere Bedeutung 4 Organisationskultur 96 für organisationale Planungsprozesse, welche besonders anfällig für kognitive, motivatio- nale und gruppendynamische Biases sind. Den Grad der Manipulierbarkeit der Organisa- tionskultur, im Vergleich zu übergreifenden Kulturen, zum Beispiel auf nationaler Ebene, ist ebenfalls eine zentrale Annahme dieser Arbeit: „Whereas national cultures arise large- ly out of shared values, organizational cultures are shaped mainly by shared practices.“ (Reason, 2016, S. 192) Da die Organisationskultur ein sehr umfassendes Konzept darstellt, und der Fokus die- ser Arbeit auf der Diagnostik organisationaler Planungsprozesse liegt, wird im folgenden Kapitel das Konzept Sicherheitskultur näher beleuchtet. Die Sicherheitskultur ist im Rah- men dieser Arbeit besonders relevant, weil sie den Teilaspekt der Organisationskultur beschreibt, der sich mit dem Umgang mit Chancen und Risiken beschäftigt sowie mit der Art und Weise, wie Informationen geteilt und genutzt werden, um adäquate Urteile und Entscheidungen zu treffen. 4.4 Relevanz im Planungsprozess It has been stated that strategic decisions are made within the context of an overall philosophy or driving force. From this realisation, it is but a short conceptual step to the notion that all information is gathered and interpreted in the light of a corporate or organisational culture. (Wright & Geroy, 1991, S. 6) Das Konstrukt Sicherheitskultur wurde in den 1980er Jahren geprägt und beschreibt den Teilbereich der Organisationskultur, der die Wahrnehmung und den Umgang mit Risiken betrifft (Reason, 2016). Im Anschluss an die Nuklearkatastrophe von Tschernobyl im Jahr 1986, die sich auf massive Defizite in der Organisationskultur zurückführen lässt, the- matisierte die International Atomic Energy Agency (1991) das Thema Sicherheitskultur, das in der Folge stark an Bedeutung gewann und bis heute in vielen weiteren Fällen als wichtiger Faktor bei folgenreichen Planungs- und Entscheidungsfehlern identifiziert wurde (Reason, 2013). Turner, Pidgeon, Blockley und Toft (1989, S. 4) definieren Sicherheitskul- tur „as that specific set of beliefs, norms, attitudes, roles, and social and technical practices within an organization which is concerned with minimising exposure of employees, mana- gers, customers, suppliers and members of the general public to conditions considered to be dangerous or injurious“. Aktuelle Modelle zur Sicherheitskultur betonen eine systemische Sichtweise auf eine Orga- nisation, die einer parallelen Betrachtung verschiedener Entscheidungs- und Handlungs- ebenen bedarf. Reason unterscheidet im Wesentlichen latente Bedingungen und aktive Ausfälle (Reason, 2016). Der aktive Ausfall beschreibt die unmittelbare, offensichtliche Ur- sache für den Ausfall einer Systemkomponente beziehungsweise eines Systems. Während sich die Suche nach der Ursache für unerwünschte Ereignisse lange Zeit auf die unmittelba- ren Auslöser beschränkte, hat sich in den letzten Jahrzehnten die Erkenntnis durchgesetzt, 4 Organisationskultur 97 dass es sich hierbei eher um Konsequenzen tieferliegender Ursachen handelt (Woods, Jo- hannesen, Cook & Sarter, 1994). Damit einher geht die Einsicht, dass die Anfälligkeit für Fehler ein zwangsläufiger Teil der menschlichen Natur ist, was insbesondere für komplexe Systeme gilt (Reason, 2016), wie in den vorhergehenden Kapiteln am Beispiel menschlicher Biases detailliert erläutert wurde. Latente Bedingungen werden auf der Ebene strategischer Entscheidungsprozesse geschaf- fen. Dazu gehören Entscheidungen über die Verteilung von Ressourcen oder die Gestaltung von Strukturen, die in negativen Fällen zum Beispiel zu wenig oder schlecht ausgebil- detes Personal, lückenhafte Aufsicht oder schlecht praktizierbare Abläufe hervorbringen (Reason, 2016). Durch Entscheidungen auf der Planungsebene geprägte latente Bedingun- gen können eine lange Zeit bestehen, und dabei zunächst erfolgreich bestimmte Ziele wie Kosteneinsparungen erfüllen, bevor ein sichtbares negatives Ereignis auftritt. Eine ergeb- niesorientierte Betrachtung ist deshalb nicht sinnvoll und ist zur Bewertung des Systems bezüglich Sicherheitsrisiken ungeeignet . Die Bedeutsamkeit der Sicherheitskultur zeigt (Reason, 2016) am Beispiel der Luftfahrtin- dustrie, wo es in den 90er Jahren, trotz weltweit sehr einheitlicher Standards, zwischen den verschiedenen Fluggesellschaften enorme Unterschiede bezüglich fataler Unfälle gab. Zwi- schen 1988 und 1998 wies die amerikanische Fluglinie United Airlines eine Absturzrate von 0,27 pro 1.000.000 Flüge auf. Bei Korean Air waren es in der gleichen Zeit 4,79 Abstürze pro 1.000.000 Flüge, 17 mal so viele (Gladwell, 2008). Die Sicherheitsbedenken bezüglich Korean Air waren so eklatant, dass die US Army ihrem Personal in Südkorea verbot, mit Korean Air zu fliegen, und seitens Kanadas Behörden wurde bereits die Absicht geäußert, Korean Air die Flug und- Landeerlaubnis zu entziehen. In der Folge, von 1999 bis heute, ist die Sicherheitsbilanz von Korean Air tadellos, nachdem Programme mit einschneiden- den kulturellen Interventionen durchgeführt wurden. Zuvor war als Hauptursache für die Abstürze das Hierarchiegefälle (Power Distance) zwischen dem Kapitän und dem Copilo- ten – das zum Beispiel in ostasiatischen Kulturen grundsätzlich stärker ausgeprägt ist als in westlichen Kulturen (vgl. Kapitel 4.2) – identifiziert worden. Dieses Hierarchiegefälle führte dazu, dass wenn der Kapitän Fehlentscheidungen traf, der Copilot diese häufig zu spät, zu zurückhaltend oder gar nicht kommunizierte: Of all of Hofstede’s Dimensions, though, perhaps the most interesting is what he called the ’Power Distance Index’ (PDI). Power distance is concerned with attitudes toward hierarchy, specifically with how much a particular culture values and respects authority. To measure it, Hofstede asked questions like ’How frequently, in your experience, does the following problem occur: employees being afraid to express disagreement with their managers?’ (Gladwell, 2008, S. 204) Wesentlicher Gegenstand dieser Arbeit ist die Tatsache, dass Entscheidungen auch auf der Planungsebene systematischen Biases unterliegen. Verzerrungen von Urteilen und Ent- scheidungen in Planungsprozessen können die Basis für inadäquate latente Bedingungen im Gesamtsystem bilden und unbemerkt ein erhöhtes Risiko für unerwünschte Ereignisse 4 Organisationskultur 98 darstellen, welches sich früher oder später durch einen Fehler auf der operativen Ebene manifestiert. Beispiele für derartige Konstellationen werden in den Fallstudien detailliert beschrieben (Kapitel 6.1). Die Sicherheitskultur wird oft im Kontext von HROs und Risiken für das Leben oder die Gesundheit von Menschen beschrieben, ist aber nicht darauf begrenzt. Sicherheitsorien- tierte Verhaltensweisen im Umgang mit Chancen und Risiken sind auch für betriebswirt- schaftlich orientierte Organisationen bedeutend, um unternehmerischen Problemstellungen adäquat zu begegnen und nachhaltig am Markt bestehen zu können. So lässt sich der Kol- laps der Barrings Bank mit einer mangelhaften Sicherheitskultur in Verbindung bringen (Reason, 2016). In einer ausgeprägten Sicherheitskultur sind Annahmen, Normen und Verhaltensweisen innerhalb der Organisation auf einen angemessenen Umgang mit Chancen und Risiken – also Entscheidungen und Urteilen unter Unsicherheit – ausgerichtet. Entscheidungen und Urteile unter Unsicherheit stellen gleichzeitig den Kontext dar, in dem Biases ihre negative Wirkung entfalten und Urteile, auf denen folgenschwere Entscheidungen basieren, unbe- wusst verzerren (vgl. Kapitel 3.2). In den vorherigen Kapiteln wurde die Wirkung der Organisationskultur auf unbewusste Denk- und Verhaltensmuster beschrieben, die sich auch in direkten Zusammenhang mit der Entstehung unterschiedlicher Biases bringen las- sen. Entsprechend kann die Ausprägung unterschiedlicher Facetten der Sicherheitskultur einer Organisation oder Abteilung potenziell einen Hinweis darauf geben, wie anfällig Ur- teile unter Unsicherheit für bestimmte Biases sind beziehungsweise ob Verhaltensweisen vorherrschen, die das Risiko für das Auftreten bestimmter Biases erhöhen oder reduzieren. Für die Entstehung von kognitiven Biases spielen vor allem die eingeschränkten Kapazitä- ten der menschlichen Informationsverarbeitung eine wichtige Rolle, wobei die Akzeptanz von Methoden und Strategien zur Mitigation kognitiver Einschränkungen von motivatio- nalen und gruppendynamischen Prozessen abhängt (vgl. Kapitel 2). Reason (2016) definiert eine Sicherheitskultur im Wesentlichen als eine Informed Culture. In einer Informed Culture haben diejenigen, die das System managen, aktuelles Wissen über die menschlichen, technischen, organisationalen und kontextuellen Faktoren präsent (Reason, 2016). Eine Informed Culture bedeutet, dass in der Organisation relevante Infor- mationen aktiv gesammelt, analysiert und verbreitet werden. Dies ist besonders wichtig, da Probleme in komplexen Systemen lange Zeit quasi unsichtbar sein können, somit keine Aufmerksamkeit auf sich ziehen und viele kleinere Probleme unbemerkt bleiben, wodurch weniger Lernmöglichkeiten erzeugt werden, bis es zu großen Problemen kommt (Reason, 1998). Anhand des Phänomens WYSIATI wurde bereits die Tendenz beschrieben, dass Menschen die ihnen bekannten Informationen implizit und fälschlicherweise als erschöp- fend wahrnehmen (vgl. Kapitel 3.2). Wenn Menschen also ein Problem nicht sehen, ver- muten sie entsprechend, dass auch kein Problem beziehungsweise keine Risiken vorliegen. 4 Organisationskultur 99 Taleb (2010, S. 303) beschreibt diese Folge mit dem Effekt Round-trip fallacy: Round-trip fallacy: the confusion of absence of evidence of Black Swans (or something else) for evidence of absence of Black Swans (or something else). It affects statisticians and other people who have lost part of their reasoning by solving too many equations. Dem Ziel einer Informed Culture stehen mitunter kognitive Biases entgegen, die nach den Prinzipien der Bounded Rationality und des Cognitive Misers in komplexen Planungspro- zessen zwangsläufig zu einer eingeschränkten Informationssammlung, -verarbeitung und -interpretation führen, wenn keine entsprechenden Methoden und Strategien eingesetzt werden, um Urteile und Entscheidungen in diesen Prozessen zu unterstützen. Dabei hängt die Informationssammlung in komplexen Systemen wesentlich von einer Reporting Culture ab. Um trotz des fehlenden Feedbacks in Planungsprozessen (vgl. Kapitel 1.1) ein Risiko- bewusstsein zu entwickeln, benötigt eine Organisation ein Informationssystem, in dem In- formationen von unerwünschten Ereignissen und Beinahe-Unfällen gesammelt, analysiert und unter den Organisationsmitgliedern verbreitet werden. Für eine Reporting Culture ist es essenziell, dass Organisationsmitglieder bereitwillig Informationen teilen, ohne dass sie für das Berichten von Fehlern, Problemen oder abweichenden Meinungen negative Konse- quenzen befürchten müssen. Außerdem muss sichergestellt sein, dass Mitarbeiter in dem Mehraufwand einen Mehrwert sehen, was davon abhängt, ob sie die Erfahrung machen, dass die Verantwortlichen die Informationen ernst nehmen und entsprechend handeln, oh- ne dass es negativ auf den Informanten oder sein Team zurückfällt (Reason, 2016). Ein solches System benötigt die aktive Partizipation und transparente Kommunikation der Mitarbeiter und geht damit Hand in Hand mit einer Just Culture. Die Just Culture be- zieht sich auf den Umgang einer Organisation mit Fehlern. Während die Schuldfrage in der Vergangenheit in vielen Organisationen sehr starr gehandhabt wurde und der Fokus in der Regel auf der ausführenden Person lag, zeichnet sich eine Just Culture dadurch aus, dass die Ursache von Fehlern und Problemen im gesamten System und dem Zusammenspiel von dessen Subsystemen gesucht wird. Dabei sollte eine Grenze definiert werden zwischen akzeptablem und inakzeptablem Verhalten, zum Beispiel bei Vorsatz, damit das System als gerecht wahrgenommen wird (Reason, 2016). Eine adäquate Gestaltung der Reporting Culture und Just Culture kann in diesem Kon- text potenziell die negative Wirkung des Self-Serving Bias reduzieren, wenn keine Not- wendigkeit besteht, den Selbstwert und anschließend die Self-Presentation vor negativer Bewertung zu schützen. Das Berichten der Fehler anderer Organisationsmitglieder würde entsprechend dazu führen, dass das im Self-Serving Bias implizierte Bedürfnis zum Ver- gleich der eigenen Leistung mit der von anderen Personen reduziert wird. Insgesamt wäre somit der Anreiz zum Verschweigen von Fehlern und Problemen, die als latente Bedingung unbemerkt das System belasten könnten, reduziert. Die höhere Verfügbarkeit von Infor- mationen insgesamt sowie die höhere Repräsentativität der Informationen – die sowohl positive, als auch negative Informationen beinhalten – wirkt den Auswirkungen kognitiver 4 Organisationskultur 100 Biases wie der Availability Heuristic und dem Confirmation Bias entgegen beziehungsweise führt dazu, dass diese Heuristiken zumindest auf einer repräsentativeren Informationsbasis im semantischen Gedächtnis basieren. Davon ist wiederum die Güte der Eingaben in DSS und Entscheidungsanalysetools abhängig. Die Flexible Culture beschreibt die kurzfristige Anpassungsfähigkeit an sich ändernde Ent- scheidungsbedingungen. Diese Anpassungsfähigkeit bezieht sich häufig auf Krisen, in de- nen ein Wechsel von starren hierarchischen Strukturen zu flacheren Strukturen stattfin- det, in denen die Kontrolle an die entsprechenden Fachleute beziehungsweise operatives Personal abgegeben wird. Wenn die Krise vorüber ist, wird wieder in den traditionellen bürokratischen Modus gewechselt (Reason, 2016). Eine solche Flexibilität ist insbesondere in Command & Control Situationen wichtig, in denen klare Befehlsstrukturen notwendig sind, die aber in bestimmten Situationen, ggf. unter Zeitdruck, flexibel anpassbar sein müssen. In organisationalen Planungsprozessen hingegen sollte der Fokus grundsätzlich auf flachen Hierarchien liegen und in den allermeisten Fällen die fachliche Expertise der Organisationsmitglieder handlungsleitend sein. Die negative Auswirkung von starren Hier- archien in Planungsprozessen wird zum Beispiel im Rahmen der durch Konformitätsdruck ausgelösten Facetten von Groupthink deutlich (vgl. Kapitel 3.4.1). Learning Culture beschreibt die Lernfähigkeit und Reformbereitschaft einer Organisati- on. In einer Learning Culture besteht der Wille und die Kompetenz der Organisation beziehungsweise deren Mitgliedern, aus den unterschiedlichen Informationsströmen und Erfahrungen die richtigen Schlüsse zu ziehen und diese konsequent zur Systemgestaltung anzuwenden (Reason, 2016). Bezüglich organisationalen Planungsprozessen kann die Lear- ning Culture auf der Metaebene als Veränderungsbereitschaft der Prozesse selbst gesehen werden – zum Beispiel bei der Anwendung neuer Methoden oder Strategien zum Debia- sing. Dementsprechend ist eine Learning Culture eine notwendige Voraussetzung für die Organisationsdiagnostik, wie sie im Rahmen dieser Arbeit beschrieben wird. Eine Lear- ning Culture ist entsprechend eine hinterfragende Kultur, die ähnlich wie bei der Just Culture und Reporting Culture beschrieben, motivationalen Biases wie Overconfidence oder Optimism potenziell entgegenwirkt und zudem kognitive Biases, wie die hypothesen- bestätigenden Informationssuche und Interpretation des Confirmation Bias, reduziert. Die zuvor beschriebenen Facetten der Sicherheitskultur nach Reason (2016) weisen gewisse Parallelen zu den in Kapitel 4.2 beschriebenen Dimensionen der Organisationskultur nach House et al. (2004) auf. Insbesondere das Konstrukt Power Distance, das in diesem Ka- pitel im Zusammenhang mit der Organisationskultur bei Korean Air besprochen wurde, hat starke Implikationen für eine Informed Culture. Die Sicherheitskultur ist im Rahmen dieser Arbeit spezifischer und lässt sich potenziell besser auf Denk- und Verhaltenswei- sen im Rahmen organisationaler Planungs- und Entscheidungsprozesse unter Unsicherheit übertragen. Die Sicherheitskultur nach Reason beschreibt, wie Informationen gesammelt, 4 Organisationskultur 101 ausgewertet, interpretiert und genutzt werden. Die entsprechenden Facetten der Sicher- heitskultur wurden in diesem Kapitel beispielhaft mit assoziierten kognitiven, motivationa- len und gruppendynamischen Biases in Verbindung gebracht, deren Auftreten einer stark ausgeprägten Sicherheitskultur potenziell entgegenwirkt. Nach dieser Sichtweise hat die Ausprägung der Sicherheitskultur einen Einfluss auf die Urteils- und Entscheidungsqua- lität in Planungsprozessen und dieser Zusammenhang wird über unterschiedliche Biases mediiert. Dazu gehören unmittelbar kulturabhängige Biases, wie der Self-Serving Bias und damit assoziiert Optimism, Desirability oder Overconfidence. Zudem kann ein Zusammen- hang zwischen der Sicherheitskultur und der Entscheidungsqualität angenommen werden, der zusätzlich über die bessere Informationsbasis mediiert wird. Zum Beispiel führt eine vollständige und repräsentative Informationsbasis dazu, dass die Availability Heuristic zu akkurateren Urteilen führt. Im besten Fall wird ein Urteil, falls es möglich ist, mithilfe von Decision-Support-Systems und Entscheidungsanalysetools getroffen. Eine adäquate Sicherheitskultur und eine damit einhergehende hinterfragende Fehlerkultur verringern potenziell motivationale und gruppendynamische Biases und erhöhen die Compliance be- züglich der Nutzung derartiger Tools. 102 5 Untersuchungsmodell Despite its early stage, the current review of research on culture and JDM [Judgment and Decision Making] demons- trates ways in which cultural analyses can lead to theoretical progress in the field of JDM. The review highlights that cultural influences of JDM are not blanket or invariant but are instead highly sensitive both to individual factors and to the external environment. This nuanced approach represents a constructivist perspective on culture and JDM. In the constructivist view, the activation of particular schemas within individuals and the external features of the social environment are two unique features that help maintain cultural patterns of judgments and decisions. Cultu- ral representations are not just chronic personality traits but rather dynamic mental schemas that are differentially activated in different situations (Hong et al., 2000). (Savani, Cho et al., 2015, S. 469f.) In den Kapiteln 1-4 wurden grundlegende Aspekte menschlicher Problemlöseprozesse all- gemein und speziell im Kontext organisationaler Planungsprozesse erörtert. Der Fokus lag dabei auf dem Thema der Urteile und Entscheidungen unter Ungewissheit und damit ein- hergehenden kognitiven, motivationalen und gruppendynamischen Biases, die insbesondere im Kontext eines volatilen, unsicheren, komplexen und ambigen Entscheidungskontextes ihre negative Wirkung entfalten. Bezüglich des Ziels, derartige Effekte diagnostizieren und letztlich mitigieren zu können, wurde das Konstrukt Organisationskultur und des- sen Wirkung auf implizite Verhaltensweisen untersucht. Im folgenden Methodenteil wird die Konzeptualisierung dieser Erkenntnisse und deren Operationalisierung zur Entwick- lung eines Fragebogeninstruments zur Erfassung der beschriebenen Biases im Kontext der Organisationskultur hergeleitet. 5.1 Der organisationale Planungsprozess Given that organizations are the coordinated actions of a group of individuals performing specific tasks, it would seem equally logical to propose that culture and memory development might directly influence the activity of the individual. It is only through the critical link of the individual that culture and memory can ultimately affect organizational performance. (Berthon, Pitt & Ewing, 2001, S. 136) Abbildung 9 fasst auf Basis der in den Kapitel 1-4 herausgearbeiteten Erkenntnisse den organisationalen Planungsprozess beziehungsweise Gruppenentscheidungsprozess zusam- men. Demnach wird die Gruppe mit einer Problemstellung konfrontiert, die mit einem Urteil beziehungsweise einer Entscheidung beantwortet werden soll. Damit ist in erster Linie nicht die übergeordnete Problemstellung für ein großes Vorhaben gemeint, sondern die Vielzahl an Urteilen beziehungsweise Entscheidungen oder Einschätzungen, die in um- 5 Untersuchungsmodell 103 fangreichen Planungsprozessen getroffen werden und die gemeinsam und sukzessive das Gesamtvorhaben beeinflussen. Abbildung 9 Der organisationale Planungs- und Entscheidungsprozess Anmerkung. Skizze des organisationalen Planungs- und Entscheidungsprozesses und der Einflüsse der Organisationskultur und unterschiedlicher Biases. Eigene Darstellung. Die Individuen treffen bereits Urteile, bevor sie in Interaktion treten, die häufig durch kognitive beziehungsweise motivationale Biases beeinflusst sind. In der Interaktion sum- mieren sich diese Urteile, wobei das Gruppenurteil mehr ist als die Summe seiner Teile, insofern spezifische gruppendynamische Biases diese Interaktion beeinflussen. Das bedeu- tet nicht, dass gruppendynamische Biases erst in der Interaktion auftreten, sondern Effekte wie Groupthink, Social Loafing oder Group Polarization beeinflussen die Individuen be- reits in der Antizipation, dass ihre Urteile in einer sozialen Interaktion stattfinden werden. Die Organisationskultur ist ein allgegenwärtiger Kontextfaktor im Urteilsprozess, der Ein- fluss auf sämtliche Aspekte der Entscheidungssituation hat. Wie in Kapitel 4 beschrieben wurde, beeinflusst die Organisationskultur die Denk- und Verhaltensweisen der Individu- en auf expliziter und impliziter Ebene, was die Tendenz zu kognitiven und motivationalen Biases einschließt. Außerdem hat die Organisationskultur einen starken Einfluss auf die sozialen Aspekte der Entscheidungssituation und damit insbesondere auf die Entstehung von gruppendynamischen Biases. Der im Rahmen dieser Arbeit angenommene Einfluss der Organisationskultur beziehungs- weise Sicherheitskultur auf die Qualität von Planungs- und Entscheidungsprozessen und 5 Untersuchungsmodell 104 die Mediation dieses Zusammenhangs durch die in Kapitel 1-4 beschriebenen Variablen wird in Abbildung 10 dargestellt. Abbildung 10 Organisationskultur, Biases und Entscheidungsqualität Anmerkung. Eigene Darstellung des Untersuchungsmodells, das den Zusammenhang zwischen der Organisationskultur, den betrachteten Biases und der Entscheidungsqualität als Basis für die zu entwickelnde Methode bildet. Wie in Kapitel 1.1 beschrieben wurde, erhöht eine adäquate Organisationskultur potenziell die Compliance bezüglich der Nutzung von Tools und Strategien zum Debiasing (OD). Er- klären lässt sich dieser Zusammenhang über die reduzierende Wirkung der Organisations- kultur auf bestimmte motivationale und gruppendynamische Biases (OG-GD & OM-MD), die einer Nutzung von Debiasingtools gegebenenfalls im Weg stehen (vgl. Montibeller & von Winterfeldt, 2015). Die Nutzung von Entscheidungsanalysetools – zum Beispiel quan- titative Analysen (vgl. Kapitel 1.2) – kann unmittelbar zu einer besseren Informationsbasis führen (DI) und damit eine zu bevorzugende Handlungsalternative implizieren (IQ). Stra- tegien zum Debiasing reduzieren kognitive Biases direkt (DK) und führen damit zu einer besseren Informationsbasis (KI). Zum Beispiel kann die Technik Premortem einen Prompt bieten, der zur hypothesenfalsifizierenden Informationssuche anregt und damit den Confir- mation Bias reduziert (vgl. Kapitel 1.1). Wird anschließend ein Wahrscheinlichkeitsurteil getroffen, beruht die Availability Heuristic auf einer repräsentativeren Informationsba- sis, wodurch die Entscheidungsqualität verbessert wird. Kulturelle Einflüsse haben zudem einen direkten Einfluss auf Biases, insbesondere motivationale und gruppendynamische Biases (OG & OM; vgl. Kapitel 4.3). Diese Biases haben wiederum einen unmittelbaren negativen Einfluss auf die Entscheidungsqualität, zum Beispiel durch Overconfidence und Optimism (GQ & MQ; vgl. Kapitel 3). Die Wirkung der Organisationskultur auf die In- dividuen und auf die Gruppeninteraktion ist natürlich nicht auf einen mediierten Effekt, auf die Entscheidung über kognitive, motivationale und gruppendynamische Biases, be- schränkt. Die Organisationskultur beeinflusst die Individuen und die Gruppe auf vielfältige Weise (OQ; in Abbildung 10 nicht ersichtlich): 5 Untersuchungsmodell 105 If culture is the pattern of conscious and unconscious assumptions, values, and beliefs held by a collective, then it could be proposed, following the thinking of writers on corporate culture such as Handy (1978, 1993), that organizational cultures influence decision making on both a collective and an individual basis. The logic of the link between culture and decision making can be articulated as follows. First, culture specifies what information is of value – it directs and focuses information scanning (e.g., Brown and Starkey 1994). Second, culture influences the interpretation of information (e.g., Harris 1994) – it is the collective symbolic context that gives meaning to data. Culture can even determine the speed at which decisions are taken in organizations, the way in which decisions are made, and how information is communicated (of. Handy 1978:27). Finally, culture coordinates collective action taking (cf. Hofstede 1980; Schein 1985; Weick 1994). (Berthon et al., 2001, S. 140) In Abbildung 11 werden Wechselwirkungen zwischen kognitiven, motivationalen und grup- pendynamischen Biases skizziert. So verstärken beispielsweise Reputationsbedenken, die durch den Self-Serving Bias beziehungsweise Self-Presentation ausgelöst werden, die Aus- wirkung der Sunk-Cost Fallacy (MK; vgl. Kapitel 3.2.3). Die hypothesenbestätigende In- formationssuche im Kontext des Confirmation Bias kann den Overconfidence Bias und den Optimism Bias verstärken (MK). In Kapitel 3.4.1 wurde beschrieben, inwieweit Wech- selwirkungen zwischen gruppendynamischen und kognitiven sowie motivationalen Biases bestehen (MG & KG). Abbildung 11 Wechselwirkung zwischen unterschiedlichen Arten von Biases Anmerkung. Eigene Darstellung zur Verdeutlichung der teilweise starken gegenseitigen Abhängig- keiten unterschiedlicher Arten von Biases. Die Bedeutung der Sammlung, Interpretation und Verarbeitung von Informationen für organisationale Planungsprozesse bestätigt den Fokus dieser Arbeit auf dem nach Reason (2016) definierten Konzept der Sicherheitskultur für deren Bewertung. Demnach spielt die Informationsbasis zu einem Sachverhalt, die von den in Kapitel 4.4 beschriebenen Facetten abhängt, eine zentrale Rolle für die Entscheidungsqualität. Diesbezüglich wird die Wirkung der Organisationskultur auf die Qualität von organisationalen Planungsprozessen poten- ziell über unterschiedliche Biases mediiert (Abbildung 10). Abbildung 9 skizziert die in Kapitel 4 beschriebene allgegenwärtige Auswirkung der Organisationskultur und die Wir- kungsweise der in Kapitel 3 beschriebenen Arten von Biases. Der Einfluss der Kultur auf 5 Untersuchungsmodell 106 implizite und explizite Denk- und Verhaltensprozesse von Individuen und Gruppen setzt, wie in Kapitel 4.3 beschrieben wurde, nicht zwingend eine jahrelange oder im Kindesalter beginnende Exposition voraus und kann damit auch der Organisationskultur zugerechnet werden, soweit sich die im Untersuchungsmodell angenommene Wirkungsweise bewährt. Im nächsten Abschnitt wird auf Basis des aus der Theorie abgeleiteten und in diesem Kapitel präsentierten Untersuchungsmodells die Struktur des zu entwickelnden Fragebo- gens zur Diagnostik kognitiver, motivationaler und gruppenbezogener Biases in organi- sationalen Planungsprozessen abgeleitet und anschließend die Operationalisierungen der Fragebogenitems erläutert. 5.2 Entwicklung des Fragebogens It is reasonable to expect human cognition to be well adapted to the general environment, but not completely adaptable to each subenvironment encountered. One can recognize human judgmental errors as real and perhaps remediable, while also acknowledging that evolution, social transmission, and learning are powerful forces for shaping appropriate behavior. In other words, it is possible to be very impressed with both the successes and the failures of human judgment, and to wonder why there is not more of the former and less of the latter. Knowing more about what makes the difference is important for being able to design effective interventions that can improve performance. And seeing what does and does not aid performance can reveal a good deal about underlying processes, too. (Klayman, 1993, S. 116-117) In den vorherigen Kapiteln wurde der Zusammenhang zwischen der Organisationskultur und der Qualität organisationaler Planungsprozesse im Kontext impliziter Heuristiken und Biases aufgezeigt. Hierbei wird deutlich, dass mit dem Konzept der Sicherheitskultur ein Teil der Organisationskultur identifiziert wurde, der in seinen unterschiedlichen Facetten starke Implikationen für die unterschiedlichen Formen von Biases hat. Um das Thema Biases in der Urteilsfindung so zu operationalisieren, dass der resultierende Fragebogen Verhaltensweisen abbildet, die für organisationale Entscheidungsprozesse rele- vant sind – und die somit eine Selbsteinschätzung durch Führungskräfte und Mitarbeiter ermöglichen – werden für alle Biases Items entwickelt, die kulturell geprägte Situationen beziehungsweise Verhaltensweisen mit potenziellem Einfluss auf die Auftretenswahrschein- lichkeit der entsprechenden Biases beschrieben. Im folgenden Kapitel wird das Vorgehen bei der Entwicklung der Fragebogenitems genauer beschrieben und der Zusammenhang zwischen der kulturbezogenen Verhaltensweise und der Auftretenswahrscheinlichkeit des jeweiligen Bias erläutert. Es werden zu jedem Bias zwei bis drei Items konstruiert, die bestimmte Situationen beziehungsweise Verhaltensweisen in organisationalen Planungs- prozessen erfassen. Die Instruktion zur Bewertung der Items lautet: Bitte geben Sie an, inwieweit die folgenden Aussagen die Situation bei Ihrer Arbeit beschreiben. Anschließend bewerten die Probanden beziehungsweise Nutzer die jeweilige Situation auf einer sechs- stufigen Likert-Skala von (1) trifft überhaupt nicht zu bis (6) trifft völlig zu. Eine hohe 5 Untersuchungsmodell 107 Zustimmung beschreibt dabei eine positive Situation, die eine geringe Anfälligkeit für Biases indiziert. Zudem gibt es invertierte Items, bei denen eine hohe Bewertung ein nega- tives Ergebnis indiziert. Diese Items werden im Folgenden mit [invertiert] gekennzeichnet. Weitere Details zu dem Fragebogen, wie der Instruktion und demographischen Variablen, werden in Kapitel 6.2 und 6.3 bezüglich der in dieser Arbeit durchzuführenden empirischen Erhebung beschrieben. Eine vollständige Übersicht der Fragebogenitems befindet sich in Anhang A. 5.3 Operationalisierung der Fragebogenitems Culture is thus powerful and ubiquitous, especially so because much of what we learn in groups is ’overlearned,’ and, therefore, drops out of awareness until someone calls our attention to it. Thus the patterns of assumptions that I am calling the culture are largely unconscious in day to day activity, but can be called up into consciousness if someone raises the right set of questions. (Schein, 1988, S. 8) Kognitive Biases Die Availability Heuristic lässt sich den primär kognitiven cold Biases zuordnen, da sie sich im Gegensatz zu motivationalen hot Biases, wie zum Beispiel Overconfidence oder Optimism, weniger auf motivationale oder affektive Ursachen zurückführen lässt, sondern auf die begrenzte Kapazität der menschlichen Kognition, die bei komplexen Urteilen an ihre Grenzen stößt. Dazu wurden die Prinzipien Bounded Rationality und Cognitive Miser beschrieben (z. B. Kapitel 2.2). Die Availability Heuristic ist zum Beispiel nützlich und notwendig, da Menschen ständig Häufigkeits- und Wahrscheinlichkeitsurteile treffen müs- sen, ohne dass es dabei stets möglich und nötig wäre, vorab eine aufwendige Datenanalyse durchzuführen. Im Alltag sind annähernd korrekte Urteile, bei zumeist niedrigen Stakes bzw. Einsätzen, meistens ausreichend. Problematisch ist, wie bei allen Biases, dass die men- tale Abkürzung dem Bewusstsein unzugänglich ist, da im Sinne der Attribute Substitution unbewusst eine mittels Gedächtnisprozessen gar nicht oder nur unter großer Anstrengung lösbare Frage unbewusst durch eine einfach lösbare Frage ersetzt wird (vgl. Kapitel 3.2.1). Die meisten organisationalen Planungsprozesse sind komplex und die Einsätze sind hoch, weshalb die Availability Heuristic dort zu verzerrten Urteilen mit potenziell negativen Konsequenzen führt, wenn keine entgegenwirkenden Verhaltensweisen etabliert sind. Die folgenden Items sollen das Vorhandensein beziehungsweise Nichtvorhandensein entspre- chender Verhaltensweisen erfassen: • Bei Problemdiskussionen werden häufig Ad-hoc-Argumente erfahrener Mitarbeiter*innen als Daten- quelle verwendet [invertiert] • Bei Problemdiskussionen dienen in der Regel qualitative und/oder quantitative Analysen empirischer Daten als Diskussionsgrundlage 5 Untersuchungsmodell 108 Wie in Kapitel 1.1 beschrieben, lassen sich cold Biases aufgrund kognitiver Limitationen häufig nicht in ihrer Entstehung reduzieren, sondern der Fokus liegt auf der Mitigation deren Auswirkungen durch die Implementierung von qualitativen oder quantitativen Ana- lysen, zum Beispiel im Rahmen von Entscheidungsanalysetools. In ähnlicher Weise lässt sich der Confirmation Bias, also die allgegenwärtige Neigung zur hypothesenbestätigenden Informationssuche überwiegend durch kognitive Tendenzen erklären (vgl. Kapitel 3.2.4). Als Gegenmaßnahme können Strategien hilfreich sein, die bewusst Hinweisreize zur hypo- thesenfalsifizierenden Informationssuche- beziehungsweise -interpretation liefern (Soll & Klayman, 2004). Die folgenden Items bewerten generisch, inwieweit entsprechende Ver- haltensweisen etabliert sind. Konkrete Techniken, wie Premortem oder Red Team (vgl. Kapitel 1.1.2), werden bei der Itemkonstruktion nicht berücksichtigt, sondern als Inter- ventionsmöglichkeiten im Diskussionsteil (Kapitel 7) beschrieben. • In Entscheidungsprozessen wird eine selbstkritische und hinterfragende Herangehensweise bei der Ur- teilsfindung bestärkt • Mitarbeiter*innen und Führungskräfte sind lernwillig und offen für negatives Feedback bezüglich ihres Vorgehens beziehungsweise des Vorgehens ihrer Abteilung • In Entscheidungsprozessen werden primär den bestehenden Ansichten zustimmende Argumente aufge- nommen und ausgetauscht Der Anchoring Effect scheint stabil in der menschlichen Kognition verankert zu sein (no pun intended). So zeigen Studien, dass Probanden selbst bei Instruktion über den An- choring Effect, plus Aufforderung, diesen bei der anschließenden Aufgabe zu vermeiden, der entsprechenden Verzerrung unterlagen und schlechter urteilten als die Kontrollgruppe (Wilson et al., 1996). Wie im Fall der Availability Heuristic sollte der Entscheidungskontext so gestaltet sein, dass der Anchoring Effect die Urteile so wenig wie möglich beeinflusst, während eine Vermeidung auf kognitiver Ebene nicht praktikabel erscheint. Die folgenden Items erfassen förderliche, beziehungsweise hinderliche Verhaltensweisen bezüglich des An- choring Effects: • Meinungen und Einschätzungen unterschiedlicher Mitarbeiter*innen werden zunächst individuell und unabhängig voneinander entwickelt, bevor sie im Entscheidungsprozess aggregiert oder diskutiert wer- den • Es entstehen spontane Diskussionen auf Basis anfänglicher Informationen [invertiert] Die Sunk-Cost Fallacy, die durch motivationale Aspekte verstärkt wird, kann bezüglich der Ursache eher den Cold Biases zugeordnet werden. So ist das Framing der Situation und eine dadurch ausgelöste Loss Aversion, die sich durch die Prospect Theory erklären lässt, ein entscheidender Faktor (Kahneman & Tversky, 1979). Loss Aversion kann insofern als primär kognitiv betrachtet werden, als dass ein verändertes Framing der Situation den Effekt auflösen kann. Darauf geht zum Beispiel Thaler (1999) im Rahmen des Konzepts 5 Untersuchungsmodell 109 Mental Accounting genauer ein. Die motivationale Komponente ist eher sekundär und verstärkt das Ausmaß der Sunk Cost Fallacy zum Beispiel beim Festhalten an einem Vor- haben aufgrund von Reputationsbedenken, obwohl dessen Chance-/Risikoverhältnis einen Abbruch suggerieren würde. Dabei spielen zum Beispiel soziale und selbstwerterhaltende Mechanismen eine Rolle (vgl. Kapitel 3.2.3). Die folgenden Items erfassen, inwieweit sich die Sunk-Cost Fallacy bei der Bewertung von Vorhaben zeigt: • Es wird häufig versucht ein schlecht laufendes Projekt fortzuführen, obwohl der finanzielle Aufwand oder das Risiko unverhältnismäßig hoch sind [invertiert] • Wenn sich ein Projekt als teurer oder riskanter als erwartet herausstellt, wird stets auch ein Abbruch als gangbare Alternative diskutiert • Der Abbruch eines Projekts wird in der Organisation wertfrei und als unter Umständen angemessene Reaktion auf sich ändernde Bedingungen oder Einschätzungen betrachtet Motivationale Biases Der Self-Serving Bias beschreibt die menschliche Tendenz zur selbstwertdienlichen Attri- bution, also zum Beispiel das Zurückführen positiver Ergebnisse auf stabile und interne Faktoren und negativer Ereignisse auf variable externe Faktoren. Diese verzerrte Attri- bution kann potenziell als Ursache für weitere Biases, wie Desirability, Optimism und Overconfidence gedeutet werden (vgl. Kapitel 3.3.1). Kulturelle Einflüsse, wie die Leis- tungsorientierung und die Dimension individualistisch vs. kollektivistisch, haben einen Einfluss auf die Entstehung des Self-Serving Bias (vgl. Kapitel 4). Bei niedrigerer Leis- tungsorientierung gibt es potenziell insgesamt weniger Anreize für eine selbstwertdienliche Attribution. Bezüglich der individuellen beziehungsweise kollektivistischen Orientierung können Unterschiede darüber angenommen werden, welche Verhaltensweisen als nega- tiv beziehungsweise positiv gelten und somit Ziel selbstwertdienlicher Attribution sein könnten. So bestimmt eine Organisationskultur, was erwünschte beziehungsweise positive Verhaltensweisen sind. Hilfreich zur Minimierung negativer Effekte durch den Self-Serving Bias kann es entsprechend sein, dass die Organisationskultur weniger auf Leistung in Form individueller Ergebnisse fokussiert ist, sondern stattdessen gegenseitige Unterstützung der Gruppenmitglieder (ein hohes Maß an Institutional Collectivism; Kapitel 4.2) und eine hinterfragende Grundhaltung in Form einer gut ausgeprägten Fehlerkultur aufweist – in der es als positive Leistung gilt, wenn man Verhaltensweisen im Einklang mit letzteren Werten zeigt. So kann man mittels kultureller Einflüsse potenziell dafür sorgen, dass kein negatives Feedback für erwünschte Verhaltensweisen, wie dem Berichten von Fehlern und Problemen, zu befürchten ist und gleichzeitig egoistisches oder riskantes Verhalten nicht belohnt wird. Dazu ist es auch wichtig, dass die Intention der Handlung in den Vorder- grund gerückt wird und sich die Verhaltensevaluation nicht primär am Ergebnis orientiert, da irrationales und riskantes Verhalten auch zu positiven Ergebnissen führen kann, wäh- rend auch rationales und angemessenes Verhalten negative Konsequenzen nach sich ziehen 5 Untersuchungsmodell 110 kann. Dabei gilt, je komplexer und vernetzter das System ist, desto größer ist der Einfluss des Zufalls beziehungsweise von Störvarianz. Die folgenden Items dienen diesbezüglich als Indikatoren der auf den Self-Serving Bias bezogenen kulturellen Werte: • Konkurrenzdenken führt dazu, dass es besonders wichtig ist, die eigene, individuelle, Leistung hervor- zuheben [invertiert] • Erfolge werden als verdiente Leistung bewertet und Probleme eher auf unglückliche Umstände zurück- geführt [invertiert] • Es findet eine kritische Reflektion der Ergebnisse sowohl bei Erfolgen als auch bei Misserfolgen statt Es wird angenommen, dass eine Ursache für den Overconfidence Bias im Self-Serving Bias liegt (vgl. Kapitel 3.3.1), also einer Attribution positiver Ereignisse auf die persönliche Leis- tung und negativer Ereignisse auf externe Umstände, wodurch letztlich auch die Einschät- zung der eigenen Fähigkeiten übertrieben hoch ausfällt. Der Self-Serving Bias wiederum lässt sich auf motivationale Prozesse, wie der Steigerung des psychologischen Wohlbefin- dens oder einer verbesserten Präsentation nach außen zurückführen (vgl. Kapitel 3.3.1). Die Ausprägung des Self-Serving Bias variiert, wie zuvor beschrieben, in Abhängigkeit des kulturellen Kontexts. Es wird ein entsprechender Einfluss der Organisationskultur auf die Ausprägung des Overconfidence Bias der Organisationsmitglieder angenommen. Zudem können kognitive Faktoren, wie der Confirmation Bias, die Ausprägung des Overconfi- dence Bias potenziell beeinflussen (siehe oben). Die kognitiven und motivationalen Aspek- te des Overconfidence Bias im Rahmen kulturell geprägter Verhaltensweisen werden mit folgenden Items operationalisiert: • Mögliche Schwächen in der eigenen Planung werden proaktiv thematisiert und diskutiert • Mitarbeiter*innen informieren sich gegenseitig über Schwierigkeiten und Probleme bei der Erreichung ihrer Ziele • Informationen und Daten aus vergangenen Projekten, aus denen Erfolgs- sowie Misserfolgsfaktoren ("lessons learned") hervorgehen, werden regelmäßig präsentiert und diskutiert Der Optimism Bias umfasst die Tendenz, den negativen Einfluss externer Ereignisse, mit- unter unbekannter Variablen, zu unterschätzen und den positiver Ereignisse zu überschät- zen (vgl. Kapitel 3.3.3). Wie für viele andere Biases, kann ein starkes Argument dafür angeführt werden, dass es sich nur um die Schattenseite einer grundsätzlich nützlichen und evolutionär adaptiven Heuristik handelt und diese deshalb weit verbreitet ist. So geht die Theorie des Depressive Realism davon aus, dass depressive Personen zwar gegebenen- falls einem pessimistischen Bias unterliegen, in der Regel aber näher an einer realistischen Einschätzung der Situation liegen als gesunde Probanden aufgrund des Optimism Bi- as (vgl. Kapitel 3.3.3). Optimism Bias führt also im Zuge einer positiven Sicht auf die Zukunft zu psychologischem Wohlbefinden, kann aber gleichzeitig mit einer mangelnden Vorbereitung auf negative Ereignisse einhergehen, was sich in Planungsprozessen häufig 5 Untersuchungsmodell 111 in Form der Planning Fallacy niederschlägt oder in der Vernachlässigung von Sicherheits- maßnahmen. Es erscheint nicht wünschenswert zu versuchen, Einfluss auf den Optimism Bias gesunder Personen zu nehmen. Potenziell können aber durch Gestaltungsmaßnahmen im Sinne einer entsprechend gestalteten Organisationskultur – beziehungsweise hinterfra- genden Kultur – Entscheidungsprozesse so manipuliert werden, dass sie den Einfluss des Optimism Bias auf die Entscheidung im Sinne eines moderierten Effekts abmildern (vgl. Abbildung 12). Abbildung 12 Moderierender Effekt der Organisationskultur Anmerkung. Potenzieller moderierender Effekt auf den Zusammenhang zwischen der Sicherheits- kultur und der Urteilsqualität. Eigene Darstellung. Im Vergleich dazu wurde zuvor, im Kontext des Self-Serving Bias beschrieben, dass die Kultur einen direkten Einfluss auf das Ausmaß an selbstwertdienlicher Attribution nehmen kann oder zumindest über die Definition von erwünschten Verhaltensweisen impliziert, wel- che Verhaltensweisen positiv verstärkt werden und somit zur Steigerung des Selbstwertes eher gezeigt werden (vgl. Abbildung 13). Die folgenden Items beziehen sich entsprechend auf die Prozessgestaltung, die mit einer hinterfragenden Kultur zur Reduktion des Optimism Bias in Verbindung stehen: • In Entscheidungsprozessen werden bei qualitativen und quantitativen Analysen auch externe Risiken, die außerhalb des Einflusses der Organisation liegen, berücksichtigt • Dem Einfluss unvorhersehbarer externer Ereignisse wird durch Schaffung von Redundanz (zusätzlichen Ressourcen) Rechnung getragen Analog zu, aber anders als der Confirmation Bias, beschreibt der Desirability Bias den Effekt, demnach neue Informationen tendenziell zugunsten der eigenen Wünsche oder Prä- ferenzen gesucht und interpretiert werden. Während der Confirmation Bias auch bei vor- heriger Indifferenz gegenüber unterschiedlichen Einstellungen, zum Beispiel allein durch Reihenfolgeeffekte, auftreten kann, definiert sich der Desirability Bias über die Suche und 5 Untersuchungsmodell 112 Abbildung 13 Direkter Effekt der Organisationskultur Anmerkung. Potenzieller Effekt der Sicherheitskultur auf den Self-Serving Bias und damit indirekt auf die Urteilsqualität. Eigene Darstellung. Interpretation neuer Informationen zugunsten des emotional erwünschten Ergebnisses. Die beiden Biases sind potenziell konfundiert, entsprechend vermuten Tappin et al. (2017), dass in vielen Fällen, in denen der Confirmation Bias berichtet wird, tatsächlich der Desirability Bias für die verzerrte Informationsverarbeitung verantwortlich sein könnte. Auf der ande- ren Seite wird der Desirability Bias auch häufig mit dem Self-Serving Bias (Kapitel 3.3.1) oder Optimism Bias (Kapitel 3.3.3) konfundiert. Die Problematik der uneinheitlichen be- grifflichen Definitionen und Abgrenzungen im Bereich Heuristiken und Biases wurde in Kapitel 3.5 thematisiert. Im Rahmen dieser Arbeit werden die verschiedenen Biases folgendermaßen abgegrenzt: Der Self-Serving Bias, bezieht sich allgemein auf selbstwertdienliche Attributionen, der Confirmation Bias bezieht sich auf die hypothesenbestätigende Informationssuche und -interpretation aufgrund kognitiver Effekte, der Desirability Bias bezieht sich auf die hy- pothesenbestätigende Informationssuche und -interpretation bezüglich wünschenswerter Ergebnisse und der Optimism Bias beschreibt die optimistische Prognose zukünftiger Er- eignisse bezüglich externer Einflussvariablen. Damit unterscheidet sich der Optimism Bias wiederum vom Overconfidence Bias, der die Überschätzung der eigenen Fähigkeiten betrifft und damit ebenfalls zu optimistischen Fehleinschätzungen führt. Folgendes Zitat, indem es primär um den Optimism Bias geht, spiegelt diese Unterscheidung wider. Gleichzeitig zeigen sich dabei erneut die starken Wechselwirkungen der verschiedenen Biases: In general, people tend to hold subjective beliefs with great confidence and are resistant to acknowledging new evidence (Slovic et al., 1982) [Confirmation Bias]. However, our findings indicate that this general tendency has to be differentially weighted. When people make judgments about the future, they tend to learn from desirable, but not from undesirable information [Desirability Bias]. Thus, the persistence of beliefs seems to be specifically strong when it leads to protective rejections of new information that would support negative expectations toward the future [Optimism Bias]. (Kuzmanovic, Jefferson & Vogeley, 2015, S. 291) 5 Untersuchungsmodell 113 Bezüglich der Prävalenz und der interindividuellen beziehungsweise interkulturellen Va- rianz des Desirability Bias gelten entsprechend der gegenseitigen Abhängigkeit ähnliche Annahmen, wie für den Self-Serving Bias. Die den eigenen Wünschen entsprechende Wahr- nehmung und Verarbeitung von Informationen betrifft mit ca. 80% der Population die Mehrheit (Sharot, 2011). Dabei zeigt sich, dass das Auftreten des Desirability Bias mit einer reduzierten Kodierung unerwünschter zukunftsbezogener Informationen in Regionen des frontalen Kortex – die sensitiv für die Verarbeitung negativer Informationen sind – kor- reliert. Die resultierende verzerrte Sichtweise scheint, wie bereits beschrieben, adaptiv zu sein, da Personen, die diesen Biases nicht unterliegen, eine erhöhte Neigung für depressive Verstimmungen haben (Korn, Sharot, Walter, Heekeren & Dolan, 2014). Der Fokus sollte also hier, analog zum Self-Serving Bias sowie Overconfidence Bias, auf der entsprechenden Gestaltung des kulturellen Kontextes organisationaler Planungsprozesse liegen, indem die Zwangsläufigkeit des Effekts antizipiert wird und Maßnahmen etabliert werden, die den Auswirkungen des Desirability Bias entgegenwirken. Dabei kann die Organisationskultur potenziell auch mitbestimmen, was erwünschte beziehungsweise unerwünschte Informatio- nen sind beziehungsweise definieren, dass insbesondere Informationen, die das bestehende Lagebild hinterfragen, erwünschte Informationen sind. Dazu beinhaltet der Fragebogen die Items: • Im Planungsprozess herrscht eine offene Diskussionskultur, in der auch die Nachteile eines bevorzugten Vorhabens diskutiert und Alternativen ernsthaft betrachtet werden • Es wird unabhängig vom erwünschten Ziel abgewogen beziehungsweise kalkuliert, was realistisch und sicher erreichbar ist, ohne dass Wunschdenken diese Abwägungen beeinflusst Gruppendynamische Biases Das Auftreten von und der Grad an Groupthink weisen einen direkten Bezug zu Ausprä- gungen verschiedener Aspekte der Organisationskultur auf. Als ein wichtiger Aspekt von Kultur wurde in Kapitel 4.2 In-Group Collectivism identifiziert, womit das Ausmaß der Bedeutung von Stolz, Loyalität und Kohäsion beschrieben wird, die mit der Mitgliedschaft in einer Gruppe oder Organisation einhergehen. Wie in Kapitel 3.4.1 beschrieben, ist der Grad der Gruppenkohäsion ein wichtiger Prädiktor sowohl für positive Outcomes, wie die Gruppenleistung und -zufriedenheit, als auch im negativen Sinne für das Auftreten von Groupthink. In-Group Collectivism ist potenziell mit verschiedenen Facetten von Group- think assoziiert. Dazu gehören Belief in Inherent Morality of the Group, dass mit den folgenden beiden Items erfasst wird: • Es kann vorkommen, dass ethische Konsequenzen im Einzelfall weniger genau betrachtet werden, weil sich die Gruppe/Organisation insgesamt als moralische Instanz betrachtet [invertiert] • Die Gruppe reagiert irritiert oder ablehnend auf selbstkritische Anmerkungen einzelner Mitglieder [invertiert] 5 Untersuchungsmodell 114 Ähnlicherweise kann angenommen werden, dass gruppenbezogener Stolz das Phänomen Illusion of Invulnerability hervorruft, bei der vor allem positive Eigenschaften der Gruppe und vergangene Erfolge betont werden: • Vergangene Erfolge führen in der Gruppe zu Selbstüberschätzung und in der Folge zu einem sorgloseren Umgang mit Risiken [invertiert] • Erfolge steigen der Gruppe nicht zu Kopf und sie ist stets bemüht, die eigenen Pläne zu hinterfragen und Verbesserungspotenziale abzuleiten Des Weiteren kann ein ausgeprägter In-Group Collectivism potenziell das Aufkommen von Out-Group Stereotypes verstärken: • Innerhalb der Gruppe sind häufig die Unfähigkeit oder ähnliche negative Eigenschaften anderer Akteure ein Thema [invertiert] • Es kommt vor, dass negative Einstellungen gegenüber externen Gruppen die Kommunikation und den Informationsaustausch mit diesen beeinträchtigen [invertiert] Sowohl In-Group Collectivism, als auch Uncertainty Avoidance können potenziell dazu führen, dass Führungskräfte die Gruppenmitglieder nicht ermutigen, abweichende Mei- nungen zu teilen – Self-Censorship – oder abweichende Argumente vorschnell ablehnen – Collective Rationalization (Taylor, 2006). Self-Censorship sowie Collective Rationalization können wiederum die Illusion of Unanimity bewirken. Die Diagnose von Self-Censorship erfolgt mittels der Items: • Manchmal hält man sich mit seiner Meinung zurück, um nicht bei der Führungskraft oder anderen Gruppenmitgliedern anzuecken [invertiert] • Im Planungsprozess wird sichergestellt, dass alle Gruppenmitglieder ihre Standpunkte äußern Collective Rationalization wird durch folgende Items operationalisiert: • Kritische Meinungen gegenüber dem von der Führungskraft oder der gesamten Gruppe favorisiertem Plan werden offen aufgenommen und weiterdiskutiert • Kritische Hinweise und Warnungen bezüglich eines Plans werden häufig nicht ausreichend ernst genom- men [invertiert] Die Items zur Erfassung von Illusion of Unanimity lauten: • Das Schweigen einzelner Gruppenmitglieder wird von der Gruppe als stille Zustimmung interpretiert [invertiert] • Bei scheinbarer Meinungshomogenität wird bewusst nachgehakt, ob es auch alternative Sichtweisen gibt, die von der bisherigen Gruppenmeinung abweichen 5 Untersuchungsmodell 115 Wenn Power Distance, also ein Hierarchiegefälle, Einfluss auf den Entscheidungsprozess nimmt und der Gehorsam der Gruppenmitglieder impliziert ist, hat dies potenziell ei- ne verstärkende Wirkung auf In-Group Collectivism und Uncertainty Avoidance. So ist zum Beispiel die Hemmschwelle für kontroverse Anmerkungen weiter erhöht, wenn die bevorzugte Meinung von einer höher gestellten Führungskraft bestimmt wird, zu der die Gruppenmitglieder zu einem gewissen Grad in einem Abhängigkeitsverhältnis stehen. Weitere Folgen, die sich mutmaßlich einerseits auf In-Group Collectivism und Uncertain- ty Avoidance zurückführen lassen und andererseits durch Power Distance deutlich ver- stärkt werden, sind Direct Pressure on Dissenters und Self-Appointed Mindguards. So ist der direkte Druck, der von der Gruppe auf einzelne Gruppenmitglieder ausgeübt werden kann, zusätzlich erhöht, wenn ein von der Organisation definiertes Machtgefälle zwischen einzelnen Gruppenmitgliedern besteht. Ähnlich verhält es sich beim Auftreten von Self- Appointed Mindguards. Je stärker das Hierarchiegefälle, desto eher gibt es einen Grund für einzelne Gruppenmitglieder, kontroverse Informationen von der Führungskraft fernzu- halten – zum Beispiel um die eigene Rolle zu stärken oder negative Konsequenzen für die gesamte Gruppe zu vermeiden. Im Fragebogen wird Direct Pressure on Dissenters durch diese Items erfasst: • Es kommt vor, dass Druck auf Gruppenmitglieder mit abweichender Meinung ausgeübt wird [invertiert] • Es kommt vor, dass kritische Meinungsträger von Gruppenprozessen ausgeschlossen werden [invertiert] • Gruppenmitglieder nutzen ihre hierarchische Position, um ihre Meinung durchzusetzen [invertiert] Self-Appointed Mindguards wird mittels dieser Items erfasst: • Manche Gruppenmitglieder versuchen kritische Meinungen anderer Mitglieder aus Loyalität zur Füh- rungskraft abzuwehren [invertiert] • Es kommt vor, dass Minderheitsmeinungen vorschnell durch einzelne Gruppenmitglieder schlechtgere- det werden [invertiert] Social Loafing tritt vor allem bei geringer Bewertbarkeit der Einzelleistungen, bei gerin- ger Erwartung an die Einsatzbereitschaft der Kollegen, bei geringer Bedeutsamkeit der Aufgabe und eher in individualistisch geprägten Organisationskulturen auf (vgl. Kapitel 3.4.2). Während sich die negativen Auswirkungen von In-Group Collectivism vor allem durch die Abgrenzung zu Fremdgruppen definieren, beschreibt Institutional Collectivism die Tendenz zu gemeinschaftlichem Handeln und der gleichmäßigen Verteilung von Res- sourcen. Belohnt wird eher gegenseitige Unterstützung und die Teamleistung anstatt des Hervorhebens von Einzelleistungen (vgl. Kapitel 4.2). Neben einem stark ausgeprägten Individualismus spielen bei Social Loafing Verantwortungsdiffusion beziehungsweise Rol- lenambiguität und schlecht definierte Ziele eine Rolle (siehe oben). Social Loafing wird 5 Untersuchungsmodell 116 über diese Aspekte folgendermaßen erfasst: • Zwischenziele werden konkret und mit festgelegtem Zeithorizont definiert • Arbeitspakete werden für einzelne Gruppenmitglieder konkret zugeordnet • Zwischenergebnisse aus den einzelnen Verantwortungsbereichen werden Führungskräften und anderen Gruppenmitgliedern in regelmäßigen Abständen präsentiert Der False Consensus Effect, der sich primär auf den Fundamentalen Attributionsfehler zurückführen lässt, wirkt auf individueller Ebene, betrifft aber besonders Gruppen. Im Gruppenkontext zeigt sich der False Consensus Effect darin, dass die einzelnen Grup- penmitglieder zur Annahme tendieren, dass die Meinung ihrer Gruppe der erweiterten Population entspricht. Als ein Ursachenfaktor für den False Consensus Effect gilt die se- lektive Exposition gegenüber anderen Menschen. Da Menschen primär Kontakt zu anderen Menschen suchen, die ihnen überdurchschnittlich ähnlich sind und die gemeinsamen Er- fahrungen diese Ähnlichkeit – zum Beispiel durch kulturelle Einflüsse – weiter verstärken, ergibt sich eine Verzerrung in der Wahrnehmung der Ähnlichkeit mit einer Gesamtpopu- lation (vgl. Kapitel 3.4.4). So erklären Choi und Cha (2019) die Ergebnisse ihrer Studie, dernach Koreaner einen stärker ausgeprägten False Consensus Effect aufweisen als Ameri- kaner. In ostasiatischen Kulturen besteht ein stärkerer Fokus auf Konformität und der Po- sition in abgegrenzten sozialen Netzwerken, was die selektive Wahrnehmung im Vergleich zu unabhängigeren westlichen Kulturen potenziell steigert. Auch im Sinne des Attributi- onsstil haben interdependente Kulturen eine noch stärkere Neigung, Verhaltensweisen auf situative Faktoren zurückzuführen als individuellere westliche Kulturen. In weniger star- ker Ausprägung betrifft der False Consensus Effect auch westliche Kulturen und kann als allgegenwärtig betrachtet werden. Die Auswirkungen lassen sich potenziell im Sinne einer hinterfragenden Kultur, im bewussten Austausch mit externen Personen beziehungsweise Gruppen, mitigieren. Die entsprechenden Items lauten: • Das Verhalten und die Pläne der Gruppe werden kritisch – auch im Austausch mit Personen außerhalb der Gruppe – reflektiert • Führungskräfte beziehen auch Informationen von externen Quellen ausreichend mit ein Eine Übersicht über den gesamten Fragebogen befindet sich in Anhang A. 117 6 Studien Im Folgenden werden im Rahmen der eingangs beschriebenen Zielstellung drei empirische Studien durchgeführt, um die im Theorieteil beschriebene Relevanz der unterschiedlichen Biases zu untermauern sowie die Reliabilität und Validität des neu entwickelten und zuletzt beschriebenen Fragebogens zu prüfen. Dazu wird zunächst anhand von zwei Fallstudien die externe Validität der im Theorieteil identifizierten Biases im Kontext von realen Planungs- prozessen dargestellt. Gleichzeitig werden Hinweise auf die augenscheinliche Validität der Fragebogenitems beschrieben. Als nächstes wird in einer quantitativen Expertenbefragung die Inhaltsvalidität des Fra- gebogens beleuchtet, in dem Probanden die Passung der Items zu Konstruktdefinitionen der Biases bewerten. Schließlich wird in einer Validierungsstudie die Testgüte des Fragebo- gens bestimmt. Dazu wird der Fragebogen Probanden vorgelegt, die aktiv und regelmäßig in organisationale Planungsprozesse eingebunden sind, und diese Prozesse bezüglich der Anfälligkeit für Biases bewerten. 6.1 Fallstudien Managers should not be averse to learning from the mistakes of others. The tools of the historian, objectivity, critical analysis and the synthesis of widely-varied data (which may involve quantitative techniques) into meaningful wholes, can be used to chart change through time and to point out where alternative responses might have been possible. The planning function, therefore, while oriented to the future, is rooted in the past, as the examination of background issues can support arguments for change and aid in the definition of issues that require attention. (Wright & Geroy, 1991, S. 10) Flyfbjerg (2011) argumentiert, dass Einzelfallstudien von vielen Forschern zu Unrecht als gegenüber quantitativen Verfahren unterlegene Methode betrachtet werden. Als wichtiges Argument für die Durchführung von Einzelfallstudien nennt er die Kontextabhängigkeit von Wissen und Erfahrung. In ähnlicher Weise wurde in dieser Arbeit für den Bedarf nach externer Validität von in Laborstudien gewonnenen Erkenntnissen zu Heuristiken und Biases plädiert. Der organisationale Planungsprozess stellt den bisher wenig erforschten Kontext dar. Um zu einem Thema in einem relativ neuen Kontext das Verständnis des Autors beziehungsweise des Lesers zu fördern, bieten Fallstudien einen adäquaten Zugang. So kommt Beveridge (1951) zu dem Schluss „that there are more discoveries stemming from 6 Studien 118 intense observation of individual cases than from statistics applied to large groups“ (zitiert nach Flyfbjerg, 2011, S. 310). Im Folgenden werden zwei Fallbeispiele analysiert, die sich durch fehlgeleitete Planungs- prozesse charakterisieren lassen. Dazu gehören zum einen der Planungsprozess, der zu den katastrophalen Ereignissen im Rahmen zweier Flugzeugabstürze mit Maschinen des Typs Boeing 737-MAX führte, und zum anderen der Planungsprozess, der dem tödlichen Massengedränge auf der Loveparade 2010 in Duisburg vorausging. Zu Beginn dieser Arbeit wurde die Problematik der Urteils- und Entscheidungsfindung unter Unsicherheit im Kontext organisationaler Planungsprozesse beschrieben, die in der Regel durch Unstrukturiertheit, Situationsspezifität und Komplexität charakterisiert sind. In diesem Zusammenhang wurden die Grenzen von insbesondere quantitativen Entschei- dungsanalysetools bezüglich derartiger Settings aufgegriffen (vgl. Kapitel 1.1). Analog dazu beschreibt Seibel (2017) diese Problematik für die retrospektive Analyse von ent- sprechenden Planungsprozessen und geht dabei auf das Verallgemeinerungspotenzial von Einzelfallstudien ein. So können im Rahmen von Einzelfallstudien keine statistischen Hypo- thesen über Kausalzusammenhänge mittels Korrelations- oder Regressionskoeffizienten be- rechnet werden. Im Sinne der von Taleb (2010) popularisierten Schwarze-Schwan-Metapher ist eine Analyse von extrem seltenen negativen Ereignissen aufgrund der katastrophalen Auswirkungen dennoch wichtig und sinnvoll. Flyfbjerg (2011) stellt fest, dass bezüglich des Ziels einer Fallstudie, möglichst viele Infor- mationen über ein Phänomen zu erhalten, die Auswahl eines repräsentativen Falls nicht die beste Strategie sei, denn ein durchschnittlicher Fall beinhaltet in der Regel weniger reichhaltige Informationen zum Untersuchungsgegenstand als sogenannte Extreme cases. Diese eignen sich besonders, um tieferliegende Ursachen eines Phänomens und dessen Konsequenzen zu erfassen. So sieht auch Seibel (2017) einen Vorteil bei der Auswahl seltener und extremer Ereignisse darin, dass sich dabei eine besondere Ausprägung der Wirkmächtigkeit bestimmter Mechanismen – in Rahmen dieser Arbeit der potenziellen Wirkmächtigkeit diverser Biases – bezüglich des interessierenden Kriteriums zeigen. Das interessierende Kriterium dieser Arbeit ist nicht der desaströse Ausgang der betreffenden Planungsprozesse, sondern der fehlgeleitete Planungsprozess selbst, der nicht zwangsläu- fig zu einer Katastrophe hätte führen müssen. So wird eine ergebnisorientierte Sichtweise abgelehnt, es ist aber hochwahrscheinlich, dass bei schwerwiegenden Katastrophen, wie bei den beschriebenen Fällen, Fehler im Planungsprozess vorausgegangen sind, weshalb diese sich besonders als zu untersuchende Extrem cases eignen. In der Statistik spricht man, bei einer aufgrund des Eintritt des Kriteriums verzerrten Stichprobe – in diesem Kontext etwas ironisch anmutend – von einem Survivorship-Bias. Da in dieser Arbeit be- züglich kausaler Zusammenhänge nur auf inhaltlicher Ebene argumentiert wird, entsteht dadurch zunächst keine Einschränkung bei der Interpretierbarkeit der Ergebnisse. Für die 6 Studien 119 Quantifizierung der Effektstärke eines potenziellen Zusammenhangs zwischen bestimmten Biases und der Qualität von Planungsprozessen, sollte zukünftig eine ausreichend große Stichprobe repräsentativer Fälle erhoben werden. Die beiden ausgewählten extreme Ca- ses wurden zudem ausgewählt, weil die Planungsprozesse und Umstände der Ereignisse gut dokumentiert sind und damit die Möglichkeit für eine detaillierte Aufbereitung und Analyse bieten. Fehlentscheidungen im Planungsprozess können als Voraussetzung für eine Katastrophe betrachtet werden, insofern diese Fehlentscheidungen als latente Bedingungen beziehungs- weise Risikofaktoren im System bestehen (vgl. Kapitel 5.1). Je nach Ausmaß der Fehlent- scheidungen manifestieren sich diese Risikofaktoren gegebenenfalls erst in Kombination mit Fehlern oder unglücklichen Umständen auf der operativen Ebene. Wie später disku- tiert wird, kann dieser Sachverhalt dazu führen, dass die Ursachen der Katastrophe auf die operative Ebene verkürzt werden. Eine weitere Konsequenz ist, dass, wenn trotz im Planungsprozess produzierter fataler Risiken, sich selbige nicht materialisieren, die verur- sachenden Fehler häufig unsichtbar bleiben – insbesondere im Kontext einer inadäquaten Sicherheitskultur (vgl. Kapitel 4.4) – und Planungsrisiken in der Zukunft folglich unter- schätzt werden. Nach Blatter, Janning und Wagemann (2007) sollten Einzelfallstudien zwei analytische Strategien umfassen: 1. Eine Prozessanalyse innerhalb der Einzelfälle und 2. Vergleiche von Faktoren und Prozessen in einem oder mehreren Fällen mit theoretischen Konzepten (d. h. der Vergleich zwischen mehreren Fällen ist immer über das theoretische Konzept vermittelt). Dabei erfolgen kausalanalytische Schlussfolgerungen nicht über quantitative Zusammenhangs- oder Unterschiedsanalysen – wie zum Beispiel Regressionsverfahren be- ziehungsweise Varianzanalysen – sondern vor allem über die Feststellung von Kongruenz zwischen theoretischen Erwartungen und empirischen Informationen (Blatter et al., 2007). In den Fallstudien werden, parallel zur inhaltlichen Rekonstruktion der Planungsprozesse, diejenigen Situationen und Verhaltensweisen identifiziert, die potenziell im Zusammenhang mit den in Kapitel 3 beschriebenen Biases stehen. Dazu werden die entsprechenden Items, deren Konstruktion in Kapitel 5.3. beschrieben wurde, auf diese Situationen angewendet. Dieses Vorgehen entspricht einem von Seibel (2017) beschriebenen deduktiven und va- riablenorientierten Analyseverfahren. So ist die Suche nach verallgemeinerbaren kausalen Mechanismen naturgemäß deduktiv, weil diese Mechanismen sich nur mithilfe eines theo- retischen Instrumentariums identifizieren lassen, das auf die entsprechenden Pathologien von Organisationen, in diesem Fall der Neigung zu bestimmten Biases, abgestimmt ist (vgl. Seibel, 2017). So wird, im Sinne der externen Validität, die Relevanz der unterschiedlichen Biases im Kontext organisationaler Planungsprozesse aufgezeigt, und es werden Hinweise auf die inhaltliche Validität des in Kapitel 5.3 beschriebenen Fragebogens geprüft. Der Umfang der Fallstudien kann variieren, da dieser von den Zeiträumen der jeweiligen Pla- 6 Studien 120 nungsgeschehnisse sowie der Art der verfügbaren Dokumentation abhängt. Neben den Vorteilen von Fallstudien, weisen diese natürlich auch einige Limitationen auf, insbesondere wenn diese auf einer reinen Dokumentenanalyse basieren. In Kapitel 6.1.3 werden diese Limitationen aufgegriffen und in Kapitel 7 werden Vorschläge für durch ver- schiedene Methoden erweiterte Fallstudien abgeleitet. Erkenntnisse aus Fallstudien sind zukünftig auch durch quantitative und repräsentative Erhebungen zu validieren bezie- hungsweise mögliche Effekte zu quantifizieren. In dieser Arbeit geht es nicht um die Diskussion der Schuldfrage und potenzielle Fehler der Beteiligten werden nicht als das Ende, sondern als der Anfang bei der Suche nach Ursachen betrachtet. Die Frage nach der moralischen oder juristischen Verantwortung ist nicht Gegenstand dieser Arbeit, insofern in den folgenden Kapiteln der Fokus auf unbe- wussten, systematischen Biases als Ursachen für Fehlverhalten liegt, die durch bestimmte Kontextfaktoren beeinflusst werden und damit zu einem gewissen Grad personenüber- greifend auftreten. Ein Ziel dieser Arbeit ist es, aus diesem Fehlverhalten Lehren für die Zukunft abzuleiten und mit dem in Kapitel 5 entwickelten Fragebogen diesbezüglich rele- vante Aspekte erfassen zu können: At the time of writing, I have before me a newspaper headline that reads ’Human error is blamed for crash’. This is a source of confusion rather than clarification. In aviation and elsewhere, human error is one of a long-established list of ’causes’ used by the press and accident investigators. But human error is a consequence not a cause. Errors, as we have seen in earlier chapters, are shaped and provoked by upstream workplace and organizational factors. (Reason, 2016, S. 126) Die Rekonstruktion und Analyse der beschriebenen Szenarien basiert auf Primärquellen, wie Besprechungsprotokollen und prozessbezogen Dokumentationen sowie Sekundärquel- len wie Zeitungsartikeln, Fernsehreportagen oder weiteren Fallstudien. Da sämtliche Quel- len den Verlauf der Ereignisse zu einem gewissen Grad subjektiv wiedergeben, wird kein Anspruch auf die Richtigkeit und Vollständigkeit der Darstellung erhoben. Die Ereignisse werden dennoch so realitätsnah wie möglich wiedergegeben, um eine ausreichend objek- tive Datenbasis für die Aufbereitung und Analysen zu gewährleisten. Insbesondere die Zuschreibung unbewusster kognitiver, motivationaler und gruppendynamischer Biases zu bestimmten Verhaltensweisen beziehungsweise Kontextfaktoren unterliegt im Rahmen von Fallstudien und der unvollständigen Datenbasis einem gewissen Maß an Unsicherheit. 6.1.1 The Boeing Company If it ain’t Boeing, I ain’t going lautet ein altes Sprichwort aus der Luftfahrtindustrie, das von der hohen Reputation zeugt, die der Flugzeugbauer aus Seattle, Washington, in Bezug auf die Sicherheit seiner Flugzeuge jahrzehntelang genoss (Kennedy, 2022). Das Vertrauen der Mitarbeiter und der Öffentlichkeit in die Zuverlässigkeit von Boeings Produkten hat in 6 Studien 121 den letzten Jahren jedoch gelitten. Den Höhepunkt dieser Vertrauenskrise markierten zwei Flugzeugabstürze innerhalb von fünf Monaten mit dem brandneuen Flugzeugtyp Boeing 737-MAX (Abbildung 14). Die Abstürze lösten ein weltweites Grounding des Flugzeug- typs aus, das knapp zwei Jahre andauerte, bis es im November 2020, nach technisch und softwaretechnischen Modifikationen am Flugzeug, wieder aufgehoben wurde. Abbildung 14 Die Boeing 737-MAX Anmerkung. Ein Flugzeug des Typs Boeing 737-MAX. Darstellung von Boeing (o. J.). Der erste Absturz der 737-MAX ereignete sich am 29. Oktober 2018, als Lion Air Flight 610 13 Minuten nach dem Start in Jakarta abstürzte. Wenige Monate später, am 10. März 2019, verunglückte Ethopian Airlines Flight 302 sechs Minuten nach dem Start in Addis Abeba. Insgesamt verlieren bei den beiden Abstürzen 346 Passagiere und Crewmitglieder ihr Leben. In beiden Fällen herrschten vergleichbare Bedingungen. Die Abstürze ereigneten sich kurz nach dem Start, in relativ geringer Höhe und bei guten Wetterbedingungen (Kennedy, 2022). Bei der Suche nach den Absturzursachen geriet in beiden Fällen vor allem das in der 737-MAX neu implementierte Maneuvering Characteristics Augmentation System (MCAS) in den Fokus der Ermittlungen. Die Funktionsweise von MCAS beschreibt Richard Reed, der 2007 bis 2017 Systems Engineer bei der Federal Aviation Administration (FAA) war, folgendermaßen (Kennedy, 2022, 0:13:16): The MCAS, or the Maneuvering Characteristics Augmentation System, really is just some Software connected to the Angle Of Attack Sensor. Because of the Flight characteristics of the new MAX, when certain Angles of Attacks were reached at certain speeds, the airplane tended to stall out. So the MCAS was designed to automatically push the nose back down. Simple concept, all they had to do was add a few lines of code to an existing system. 6 Studien 122 Abbildung 15 skizziert die Funktionsweise von MCAS, wenn das System wie vorgesehen funktioniert. Abbildung 15 Funktionsweise des MCAS Anmerkung. Die Funktionsweise des Maneuvering Characteristics Augmentation System. Darstel- lung von Gates und Baker (2019). Bei beiden Abstürzen führte ein defekter Angle of Attack (AoA)-Sensor dazu, dass der Anstiegswinkel der Flugzeuge falsch erfasst wurde. Das System nahm fälschlicherweise an, dass das Flugzeug sich in einem stark steigenden Winkel befindet und sendete ein ent- sprechendes Signal an MCAS. MCAS betätigte automatisch das Höhenleitwerk am Heck des Flugzeugs und drückte damit die Nase des Flugzeugs mehrmals und stark nach unten. In beiden Fällen gelang es den Piloten nicht, das Flugzeug rechtzeitig unter Kontrolle zu bringen. Um die Funktion und den Zweck von MCAS – und die zugrundeliegenden Planungsprozesse – besser zu verstehen, werden im folgenden die internen und externen Einflüsse bei Boeing vor und während der Entwicklung des Modells Boeing 737-MAX näher erläutert. Die Boe- ing Company wurde 1916 in Seattle, Washington, gegründet und produziert unter anderem Raketen, Satelliten, Verteidigungssysteme sowie militärische und zivile Flugzeuge (Cruz & de Oliveira Dias, 2020). Das Unternehmen weist derzeit eine Marktkapitalisierung von ca. 110 Milliarden Dollar auf (Google Finance, 2022). Boeing hatte in der Vergangenheit enormen Erfolg mit der Entwicklung und Fertigung zuverlässiger Passagierflugzeuge und einen entsprechend guten Ruf in der Öffentlichkeit. So beschreiben viele Ingenieure und 6 Studien 123 Qualitätsmanager, die insbesondere in den 1980er, 1990er und 2000er Jahren bei Boeing tätig waren, dass Boeing in der Vergangenheit sehr qualitätsorientiert gearbeitet hat und eine Kultur gegenseitigen Vertrauens vorherrschte (Kennedy, 2022). So äußert sich zum Beispiel – ähnlich wie viele andere (ehemalige) Mitarbeiter – Cynthia Cole, Ingenieurin bei Boeing zwischen 1978 und 2010 (Kennedy, 2022, 0:42:16): I really loved working there because I had a say. And when something wasn’t right I could bring it up, and I wasn’t afraid of being fired. Boeing management knew that safety came first, and if we’d say ’Hey, it’s not safe. It’s not ready to fly’, we’re not going. 1997 fusioniert Boeing mit McDonnell Douglas, damals ebenfalls einer der weltweit größten Hersteller von zivilen und militärischen Flugzeugen, aus St. Louis, Missouri. Infolge der Fusion wurde Harry Stonecipher, zuvor CEO bei McDonnell Douglas, CEO bei Boeing und der Einfluss der neuen Führungsriege und einer neuen Unternehmensstrategie wirkte sich laut dem Luftfahrtexperten Michael Goldfarb stark auf die Organisationskultur der neuen Boeing Company aus: The 1996 acquisition of McDonnell Douglas by Boeing was part and parcel of what was happening across the country. Merger, buyouts, consolidation. That was the way companies viewed their ability to stay competitive. Boeing’s place in the aviation industry was preeminent, they were the gold standard. They were the people you looked up to for their engineering excellence. But that began to fall apart when McDonell Douglas and Boeing merged. (Kennedy, 2022, 0:43:56). Zusätzlich zu dem stärkeren Profitfokus, im Rahmen der Fusion mit McDonnell Dou- glas, verschärfte sich in den 2000er Jahren die Konkurrenzsituation mit dem europäischen Flugzeugbauer Airbus, der einen immer höheren Marktanteil im Bereich der Passagierflug- zeuge für sich beanspruchte. Der betreffende Markt lässt sich als Duopol zwischen Boeing und Airbus charakterisieren und Airbus steigerte seine Anteile kontinuierlich zulasten von Boeing (vgl. Abbildung 16). Die dadurch bei Boeing ausgelöste Krise fand ihren Höhepunkt, als Airbus 2010 den Flug- zeugtyp A320neo vorstellte, der starke Verbesserungen bezüglich Treibstoffeffizienz und Reichweite versprach. Im folgenden Jahr kündigte American Airlines an, darüber nachzu- denken, ihre Flotte von Boeing auf Airbus umzustellen und hunderte Flugzeuge des Typs A320neo in Auftrag zu geben. Boeings Management war über diese Entwicklung extrem beunruhigt und entschied sich für ein Eilprogramm zur Überarbeitung der aktuellen 737-Generation. Ziel war es, un- ter anderem die Flügel und Triebwerke zu modifizieren, um die Leistung des Flugzeuges zu verbessern und nicht nur effizienter als das aktuelle Modell zu werden, sondern auch einen geringfügigen Effizienzvorteil gegenüber dem A320Neo zu erlangen (Langewiesche, 2019). Ein weiteres Ziel Boeings war es, dass die 737-MAX von der FAA als Weiterent- wicklung der 737-NG bewertet wird und nicht als neuer Flugzeugtyp. Zum einen wäre die Reklassifizierung teuer und langwierig für Boeing geworden, zum anderen war es Boeing 6 Studien 124 Abbildung 16 Marktanteil Boeing vs. Airbus Anmerkung. Vergleich von Boeings und Airbus Auslieferungszahlen und Marktanteilen bezüglich Passagierflugzeugen. Darstellung von Rubick (2019). wichtig, dass Piloten, ohne zusätzliche Simulatortrainings von der 737-NG auf die 737- MAX umsteigen können beziehungsweise dürfen, da Simulatortrainings für die Airlines teuer sind und somit die Konkurrenzfähigkeit zum A320Neo geschwächt wäre. So schrieb Boeing in seiner Marketingliteratur zum Verhältnis zwischen 737-NG und -MAX: „same pilot type rating, same ground handling, same maintenance program, same flight simu- lators, same reliability“ (zitiert nach Langewiesche, 2019, S. 12). Somit wird frühzeitig im Planungsprozess das erwünschte Vorgehen festgelegt, wodurch Alternativen mutmaß- lich nicht ausreichend diskutiert werden und sich das Risiko des Desirability Bias, also eine Suche und Interpretation neuer Informationen zugunsten der von Anfang an stark erwünschten Handlungsalternative, erhöht. Die im Rahmen von Kapitel 5.3 beschriebenen Items zur Erfassung des Desirability Bias lauten: • Im Planungsprozess herrscht eine offene Diskussionskultur, in der auch die Nachteile eines bevorzugten Vorhabens diskutiert und Alternativen ernsthaft betrachtet werden • Es wird unabhängig vom erwünschten Ziel abgewogen beziehungsweise kalkuliert, was realistisch und sicher erreichbar ist, ohne dass Wunschdenken diese Abwägungen beeinflusst Um die Effizienzziele zu erreichen, wurde die 737-MAX mit größeren Triebwerken ausge- stattet, die etwas weiter vorne und höher am Flugzeug angebracht waren, als bei den Vor- gängerversionen. Ein aerodynamischer Effekt dieser Veränderungen führte dazu, dass die Nase des Flugzeugs in bestimmten Situationen beim Beschleunigen zu steil nach oben zieht und damit die Gefahr eines Strömungsabrisses besteht. Boeing wollte, dass sich die 737- MAX genauso verhält, wie die Vorgängerversionen, jedoch – um besagte langwierige und teurere Rezertifizierung sowie Pilotentrainings zu vermeiden – ohne die von Ingenieuren präferierten aerodynamischen Veränderungen am Flugzeug vorzunehmen (Seyer & Lond- ner, 2020). Die frühe Zielfixierung und der Desirability beziehungsweise Confirmation Bias 6 Studien 125 auf der Managementebene führten potenziell dazu, dass die abweichenden Meinungen der Ingenieure nicht als gangbare Alternative berücksichtigt wurden. Auf Gruppenebene kann hier von Collective Rationalization, einer Facette von Groupthink, gesprochen werden, wenn abweichende Meinungen leichtfertig verworfen werden. Collective Rationalization wird mit den folgenden Items erfasst: • Kritische Meinungen gegenüber dem von der Führungskraft oder der gesamten Gruppe favorisiertem Plan werden offen aufgenommen und weiterdiskutiert • Kritische Hinweise und Warnungen bezüglich eines Plans werden häufig nicht ausreichend ernst genom- men [invertiert] Dass die Sichtweise der Ingenieure keine Berücksichtigung gefunden hat, lässt die Validität der Items unter der Einschränkung, dass keine entsprechenden Details aus den Besprechun- gen bekannt sind, zumindest plausibel erscheinen. In der Folge entschied man sich für die Implementierung einer Softwarelösung – MCAS (Langewiesche, 2019). MCAS sollte, wie in Abbildung 15 skizziert, dafür sorgen, dass die Software unmittelbar auf den ungewohnt steilen Anstieg reagiert und die Nase in glei- chem Maße nach unten drückt. Wenn alles korrekt funktioniert, würde MCAS nur in sehr seltenen Bedingungen aktiviert werden und würde dann beim Erkennen des zu steilen AoA dem Anstieg so nahtlos entgegenwirken, dass sich das Flugzeug wie der Vorgänger, die 737-NG, verhält und den Piloten die Existenz des Systems gar nicht auffallen würde. Die softwaregesteuerte Modifikation des Flugverhaltens war so originalgetreu, dass Boe- ing sich selbst und die FAA überzeugte, dass es nicht einmal nötig sei, die Piloten über die Existenz des Systems zu informieren. Sie gingen davon aus, dass Piloten bei einer Fehlaktivierung, auch ohne Kenntnis über das System, rechtzeitig die Problematik einer überrissenen Trimmung erkennen würden und unmittelbar darauf reagieren, indem sie die elektrische Trimmung durch eine vermeintlich einfache Betätigung zweier Schalter deakti- vieren (Langewiesche, 2019). Dass Mitarbeiter bei Boeing und der FAA sich so leicht von der Zuverlässigkeit des Systems überzeugen ließen, kann potenziell auf den Desirability Bias (siehe oben) und einer folgenden vorschnellen Einstellung der Informationssuche – nach dem Prinzip von WYSIATI – (Kapitel 3.2) zurückgeführt werden. Es wurden zu Testzwecken Simulationen und Flüge mit MCAS durchgeführt, und es ist anzunehmen, dass dabei auch diverse unterschiedliche Bedingungen berücksichtigt wurden, in denen MCAS tadellos funktionierte. Mutmaßlich hatten die Manager, deren Sichtweise stark durch den Desirability Bias geprägt war, sich auf diese positiven Ergebnisse fixiert, ohne dass die Komplexität des Gesamtsystems und unterschiedliche Einflussfaktoren erschöp- fend erfasst wurden. Diese Situation führte potenziell dazu, dass die Suche nach konträren Informationen zu früh eingestellt wurde, dieses Unterlassen nach dem Prinzip WYSIATI aber nicht bewusst wahrgenommen wurde, weil sich bei den Verantwortlichen bereits ein Gefühl der Zufriedenheit und Sicherheit eingestellt hatte. 6 Studien 126 Entsprechend fiel Boeings Reaktion nach dem ersten Absturz aus, als starke Vorwürfe bezüglich fehlender Pilotentrainings und dem Verschweigen von MCAS Existenz laut wur- den. Boeing verteidigte sich mit der Aussage, dass die Piloten hätten erkennen sollen, dass sich das Höhenleitwerk unerwünscht verhält und, als Standardprozedur gemäß Piloten- checkliste, entsprechend eines Stabilizer Runaway reagieren sollen. Demnach hätten sie durch die Betätigung der Stabilizer Cutoff Switches die automatische Trimmung deakti- vieren können und damit auch das Eingreifen durch MCAS (Gates, 2019). Zu beachten ist dabei jedoch, dass das wiederholte starke Trimmen in Intervallen durch MCAS un- typisch war und nicht dem den Piloten bekannten kontinuierlichen Standard Stabilizer Runaway entsprach, was zu Verwirrungen führen konnte – insbesondere im Kontext der vielen Warnsignale, die zeitgleich aktiviert wurden (Gates, 2019). Captain Dennis Tajer kommentiert die Situation folgendermaßen (Kennedy, 2022, 0:10:37): Right away, not only did the stick shaker go off, but there was a master caution light, airspeed disagree alerts, and the altitude’s not reading right. You have this tidal wave of distraction. And on top of all that, something was putting repeated nose-down pressure on the airplane. These pilots are fighting, and are pulling back up on the airplane and trying to get it to come back up. But it happens again and drives the nose back down. So they’re having this oscillating battle. I remember thinking ’what’s making that happen?’ Hier kann man den Optimism Bias unterstellen. Aus Sicht der Manager sind die Piloten als externe Faktoren zu betrachten, deren Einfluss sie zu optimistisch eingeschätzt haben, indem sie von perfekten Reaktionen auf die geschilderten Probleme ausgingen. Optimism wird im Fragebogen wie folgt erfasst: • In Entscheidungsprozessen werden bei qualitativen und quantitativen Analysen auch externe Risiken, die außerhalb des Einflusses der Organisation liegen, berücksichtigt • Dem Einfluss unvorhersehbarer externer Ereignisse wird durch Schaffung von Redundanz (zusätzlichen Ressourcen) Rechnung getragen Bezüglich des ersten Items fällt auf, dass die externen Risiken (in diesem Fall die Piloten) sich innerhalb der Organisation befinden, was durchaus auch in anderen Szenarien denk- bar ist und entsprechend auf „[...] außerhalb des Einflusses der Entscheidungsträger [...]“ verallgemeinert werden kann. Auch nach dem zweiten Absturz behauptete Boeing weiter beharrlich, dass primär Pi- lotenfehler für die Abstürze verantwortlich seien. Teilweise wird auch von dritter Seite zu bedenken gegeben, dass es schwankende Qualitätsstandards der Pilotenausbildung in unterschiedlichen Ländern gibt und dies als Einflussfaktor im Falle der 737-MAX eine Rol- le spielte (Langewiesche, 2019). Diese Sichtweise geht allerdings am Kern des Problems vorbei, insofern Leistungsschwankungen der Piloten bei der Systemgestaltung berücksich- tigt werden müssen. Die Verantwortlichen bei Boeing sind mutmaßlich geneigt, neue In- formationen stark gemäß ihren bisherigen Überzeugungen zu interpretieren, wie es der Confirmation Bias beschreibt: 6 Studien 127 • In Entscheidungsprozessen wird eine selbstkritische und hinterfragende Herangehensweise bei der Ur- teilsfindung bestärkt • In Entscheidungsprozessen werden primär den bestehenden Ansichten zustimmende Argumente aufge- nommen und ausgetauscht [invertiert] • Mitarbeiter*innen und Führungskräfte sind lernwillig und offen für negatives Feedback bezüglich ihres Vorgehens beziehungsweise des Vorgehens ihrer Abteilung. Die Items erscheinen wirksam, um in der beschriebenen Situation die Confirmation Bi- as zu erfassen. Allerdings gilt es im konkreten Beispiel zu beachten, dass es zu diesem Zeitpunkt Boeings bewusste Strategie ist, die 737-MAX und damit auch MCAS als si- cher darzustellen, um ein Grounding der Flugzeuge zu verhindern, wodurch hier keine unbewusste kognitive Verzerrung vorliegen muss. So engagierte Boeing mutmaßlich Lob- byisten, um in der Öffentlichkeit das Bild mangelhafter Qualitätsstandard der Piloten in bestimmten Ländern zu zeichnen (Buse et al., 2019). Glaubten die Verantwortlichen dies tatsächlich selbst, können Out-Group Stereotypes eine Rolle spielen, die das Erkennen eigener Probleme zusätzlich erschweren: • Innerhalb der Gruppe sind häufig die Unfähigkeit oder ähnliche negative Eigenschaften anderer Akteure ein Thema [invertiert] • Es kommt vor, dass negative Einstellungen gegenüber externen Gruppen die Kommunikation und den Informationsaustausch mit diesen beeinträchtigen [invertiert] Einen Monat nach dem ersten Absturz besuchten hochrangige Boeing Manager und Lob- byisten die Pilotengewerkschaft Allied Pilots Association, um über die Sicherheit der 737- MAX zu sprechen. John Carey zeichnet das Gespräch mit seinem Handy auf (Kennedy, 2022, 0:18:23): pilot 1: These guys didn’t even know the damn system was on there. Nor did anybody else. executive: We try not to overload the crews with information that’s unnecessary. pilot 2: I would think there would be a priority on explanations of things that could kill you. executive: We take your point. We really do. pilot 2: Is there something being done where Boeing might address ways to make sure it doesn’t happen again? executive: We’re looking at relatively straightforward software changes that we expect we can get out in a fairly short period of time. Maybe six weeks. Carey: „They told us at that meeting, they’re gonna have a software fix in six weeks. Nothing gets done in six weeks. So we asked: ’Why don’t you just ground the airplane till you have this fix?’“ executive: ’cause no one has yet concluded, that the sole cause of this was a dysfunction of the airplane. Die letzte Aussage deutet wie zuvor beschrieben auf den Confirmation Bias hin. Auf der 6 Studien 128 Managementebene werden alle Informationen zum Absturz so interpretiert, dass MCAS nicht als entscheidende Absturzursache gilt. Ähnliches gilt für die Aussage: „They told us at that meeting, they’re gonna have a software fix in six weeks. Nothing gets done in six weeks.“ (siehe oben). Hier scheint die Planning Fallacy als Folge des Optimism Bias plausibel. Boeing reagierte lediglich mit der Veröffentlichung eines Bulletin, dass Piloten darauf hinweist, dass das Problem einer fehlerhaften MCAS-Aktivierung aufgrund eines defekten Sensors durch Abschaltung der automatischen Trimmung gelöst werden könne. Entsprechend wussten wenige Monate später, am 10.03.2019, auch die Piloten des Flugs Ethopian Airlines Flight 302 von der Existenz der Software und reagierten korrekt, indem sie das, wie beim ersten Absturz durch einen fehlerhaften Sensor aktivierte MCAS, deaktivierten. Sie reagierten jedoch zu spät, um den durch MCAS ausgelösten Sturzflug abzuwenden (Kennedy, 2022). Bei der Analyse interner Boeing-Dokumente stellte sich heraus, dass ein Coordination Sheet vom 11.6.2018, vier Monate vor dem ersten Absturz, eine Sicherheitsanalyse zur fehlerhaften Auslösung von MCAS enthält. Darin kommt Boeing zu dem Ergebnis, dass eine typische Reaktionszeit zur Deaktivierung vier Sekunden seien und eine Reaktionszeit von über zehn Sekunden zu katastrophalen Konsequenzen führen kann. Zur Zertifizierung gehörte auch eine Funcional Hazard Analysis (FHA) des MCAS. Darin wird die Kritikalität des Systems identifiziert beziehungsweise die Konsequenzen einer Fehlaktivierung. MCAS wurde als hazardous eingestuft, was wie folgt definiert wird: Reduces the capability of the system or the operator ability to cope with adverse conditions to the extent that there would be: large reduction in safety margin or functional capability, crew physical distress/excessive workload such that operators cannot be relied upon to perform required tasks accurately or completely. (Seyer & Londner, 2020, S. 98) Eine solche Systemkomponente darf eine Fehlerrate von 10−7 pro Flugstunde nicht über- steigen. Es wird also maximal ein Fehler pro 10 Millionen Flugstunden toleriert. Dabei legt die Definition nahe, dass nicht davon ausgegangen werden kann, dass Piloten bei einer Fehlaktivierung verlässlich in der Lage sind, MCAS korrekt und vollständig zu de- aktivieren, indem sie die elektrische Trimmung ausschalten. Eine Annahme, die sich bei den beiden Abstürzen bestätigt hat, als MCAS gar nicht deaktiviert wurde (Lion Air) beziehungsweise zu spät (Ethopian Air): The pilots in the first crash had no inkling. Their plane was behaving completely differently from the way they had ever seen it, and they didn’t know what to do. In the Ethiopian airplane, it was a crew that had been briefed by Boeing on how this MCAS system worked. And they did what they were supposed to do. They turned the system off, and they still crashed. (Andy Pasztor; Kennedy, 2022, 0:37:12). Dabei ist anzumerken, dass einige aktuelle und ehemalige Ingenieure, die an der Sicher- heitsanalyse von MCAS beteiligt waren, der Seattle Times anonym berichteten, dass die Sicherheitsanalyse die Stärke von MCAS untertrieb (Gates, 2019). So war vorgesehen, 6 Studien 129 dass das Höhenleitwerk am Heck des Flugzeugs durch MCAS höchstens um 0.6 Grad getrimmt wird, während knapp 5 Grad das technische Maximum wären. Bei Simulatio- nen und Testflügen zeigte sich, dass die Trimmung in bestimmten Situationen nicht aus- reicht und die Einflussmöglichkeiten von MCAS deshalb nachträglich verstärkt wurden. Als Boeing, nach dem ersten Absturz der 737-MAX, die Airlines in einem Bulletin das ers- te mal über die Existenz von MCAS informierte, gaben die Verantwortlichen das Limit der MCAS-Aktivierung mit 2,5 Grad an – zur Überraschung der FAA-Ingenieure – denen aus der FHA nur das Limit von 0,6 Grad bekannt war. Laut ehemaliger FAA Ingenieure sei es inakzeptabel, solche Änderungen nicht in der Sicherheitsanalyse zu berücksichtigen. Eine weiterer Fakt, der in der Sicherheitsanalyse nicht berücksichtigt wurde, ist, dass MCAS die Macht hatte, unbegrenzt wiederholt einzugreifen, solange die automatische Trimmung nicht deaktiviert wird (Gates, 2019). Dass diese kritischen Punkte nicht stärker themati- siert wurden, kann mutmaßlich auf die hypothesenbestätigende Informationsverarbeitung im Rahmen des Confirmation Bias beziehungsweise Desirability Bias zurückgeführt wer- den (siehe oben) und auf Gruppenebene auf Collective Rationalization. Kritische negative Informationen wurden zugunsten des bevorzugten Plans potenziell nicht ausreichend the- matisiert. In dem Ausmaß, in dem die Problematik thematisiert, aber nicht weitergetragen wurde, kann man von Self-Appointed-Mindguards sprechen. Die oben beschriebenen Items zu Collective Rationalization scheinen auch in diesem Fall valide, unter der Einschränkung, dass keine Details aus den Besprechungen vorhanden sind, die das konkrete Verhalten be- legen könnten. Self-Appointed Mindguards werden im Fragebogen wie folgt erfasst: • Manche Gruppenmitglieder versuchen kritische Meinungen anderer Mitglieder aus Loyalität zur Füh- rungskraft abzuwehren [invertiert] • Es kommt vor, dass Minderheitsmeinungen vorschnell durch einzelne Gruppenmitglieder schlechtgere- det werden [invertiert] An dieser Stelle kann im Rahmen der zur Verfügung stehenden Informationen nur vermutet werden, dass derartige Verhaltensweisen eine Rolle gespielt haben könnten und in dem Fall auf Collective Rationalization beziehungsweise Self-Appointed Mindguards hindeuten würden. Das wiederholte Eingreifen durch MCAS führte bei den Unglücksflügen dazu, dass wäh- rend die Piloten von den vielen Warnsignalen und Meldungen überfordert wurden, MCAS sich aufgrund des defekten Signals alle fünf Sekunden erneut aktivierte und die Nase des Flugzeugs nach unten drückte. Da sich die Trimmung des Höhenleitwerks durch die wie- derholte Aktivierung aufsummierte, erreichte das Flugzeug somit nach wenigen Iterationen den maximalen Abwärtsdruck von 5 Grad, im Gegensatz zu den ursprünglich vorgesehe- nen 0,6 Grad und den später kommunizierten 2,5 Grad (Gates, 2019). An dieser Stelle ist die Problematik potenziell nicht aufgefallen, weil die Informationssuche nach abweichen- den Informationen voreilig eingestellt wurde, nachdem die gewünschte Alternative gewählt 6 Studien 130 wurde und diese potenziell kurzgefasste Informationssuche keine kognitive Dissonanz er- zeugte (WYSIATI). Hier kann erneut der Desirability Bias angenommen werden, der mit diesen beiden Items augenscheinlich hätte erfasst werden können (siehe oben). So sagt Pe- ter Lemme, ein ehemaliger Boeing Flight Controls Ingenieur: „it effectively has unlimited authority... It had full authority to move the stabilizer the full amount. There was no need for that. Nobody should have agreed to giving it unlimited authority“ (Gates, 2019, S. 8). Schließlich wurde MCAS bereits mit diesen untertriebenen Annahmen mit der zweithöchs- ten Gefahrenstufe Hazardous klassifiziert (siehe oben). Diese Einstufung erfordert es, dass die Aktivierung des Systems nicht abhängig von einem einzelnen Sensor sein darf, um keinen Single Point of Failure zu erzeugen. Dass Boeing schließlich MCAS’ Eingreifen von einem einzelnen AoA-Sensor abhängig machte, ist vor dem Hintergrund, dass bei der 737-MAX ohnehin zwei AoA-Sensoren verbaut sind, umso überraschender. So könnte man bei der Einbindung beider Sensoren mögliche Diskrepanzen bereits vor dem Start iden- tifizieren oder die MCAS-Aktivierung unmittelbar davon abhängig machen, dass beide Sensoren den gleichen Winkel anzeigen (Gates, 2019). Der Fakt, dass Boeing auf diese effektive Redundanz verzichtete, obwohl diese ohne besonders großen Aufwand umsetzbar gewesen wäre, deutet darauf hin, dass das Risiko von den Verantwortlichen tatsächlich massiv unterschätzt wurde und dieses Vorgehen zu einem signifikanten Anteil auf un- bewusste Urteilsverzerrungen zurückzuführen ist. Informationen wurden zwar mitunter bewusst zurückgehalten, allerdings war man im Boeing Management allem Anschein nach vollkommen überzeugt, dass MCAS eine unproblematische Systemkomponente sei. Der bereits weiter oben attestierte Optimism Bias wird wie folgt erfasst: • In Entscheidungsprozessen werden bei qualitativen und quantitativen Analysen auch externe Risiken, die außerhalb des Einflusses der Organisation liegen, berücksichtigt • Dem Einfluss unvorhersehbarer externer Ereignisse wird durch Schaffung von Redundanz (zusätzlichen Ressourcen) Rechnung getragen Laut Lemme sei außerdem die in kurzen Abständen automatische und wiederholte Akti- vierung von MCAS, die in beiden Fällen zu den fatalen Abstürzen beigetragen hat, bei der Sicherheitsanalyse nicht thematisiert worden (Gates, 2019). Dieser Aspekt ist insofern nicht überraschend, da die Verantwortlichen so überzeugt waren, dass das System stets völlig unbemerkt im Hintergrund laufen würde, dass die Piloten vor dem ersten Absturz gar nicht über dessen Existenz informiert wurden (siehe oben). Die Seattle Times konfrontierte die FAA sowie Boeing am 07.03.2019 mit diesen Warnun- gen bezüglich der Wirkungsmacht und fehlenden Redundanz von MCAS – drei Tage vor dem zweiten Absturz der 737 MAX am 10.03.2019. Die Reaktionen darauf erfolgten am 15.03.2019 respektive 16.03.2019. Die FAA antwortete lediglich mit der Aussage, sie ha- be den Standardzertifizierungsprozess durchgeführt. Boeing wiederum berief sich auf die 6 Studien 131 FAA, die MCAS bewertet, und alle Voraussetzungen zum Flugbetrieb als erfüllt erachtet hat. Zu den konkreten Vorwürfen nahmen weder die FAA noch Boeing Stellung. Boeing kommentierte diese lediglich mit „there are some significant mischaracterizations“ (zitiert nach Gates, 2019, S. 3). Mehrere technische Experten der FAA berichteten zudem, dass die Problematik mit MCAS lediglich ein weiterer Hinweis dafür sei, dass die Delegation von Zertifizierungsprozessen an Boeings eigene Mitarbeiter zu weit gegangen sei und diese zu viel Macht bezüglich der Sicherheitsanalysen von Boeings Flugzeugen hätten. Die FAA begründet es mit mangeln- der Finanzierung, dass immer mehr Sicherheitsbewertungen an Boeingingenieure abgege- ben wurden, während einige FAA-Mitarbeiter zusätzlich von Problemen wegen Zeitdrucks durch das Boeingmanagement sprechen (Gates, 2019). Das Einbinden einer unabhängigen Regulierungsbehörde soll verhindern, dass Zielkonflikte auftreten. Symptome von Group- think und diverser kognitiver Biases, lassen sich durch das Hinzuziehen unabhängiger Instanzen mitigieren. Dazu verwenden viele Organisationen bewusst Techniken wie Red Team oder Devil’s Advocate. Die Delegationsprozesse führen dazu, dass Mitarbeiter von Boeing in Zielkonflikte geraten, die eine Rolle bei den in diesem Kapitel beschriebenen Biases spielen. Die negativen Folgen des starken Profitfokuses auf die Qualität von Boeingprodukten zeig- ten sich bereits Jahre vor der Planung der 737-MAX. 2013 erhielt der neue Boeing 787 Dreamliner weltweit ein vorübergehendes Flugverbot, da es innerhalb von neun Tagen zu zwei Fällen von Batteriebränden mit anschließender Notlandung in Japan beziehungsweise den USA kam (Shaffer, 2014). Die Recherchen und Interviews, die Shaffer (2014) veröf- fentlichte, zeigen, dass als Ursache bereits ähnliche planungsbezogene Fehlentscheidungen erkennbar waren wie im Fall der 737-MAX. Bezüglich der einzusetzenden Batterien ent- schied sich Boeing aus Effizienzgründen für Lithium Cobalt, die ein vergleichsweise hohes Gefahrenpotenzial aufweisen. Die FAA testete die Batterien laut Shaffer (2014) nach ei- nem schwachen Standard, der speziell für den Dreamliner geschrieben wurde. Darüber hinaus delegierte die FAA Zertifizierungsprozesse größtenteils an Boeing. Das Mindern von Standards, um ein gewünschtes Ergebnis zu erreichen, erscheint sehr fahrlässig und spricht für den Optimism Bias (siehe oben) bis hin zur Einstellung, dass man unantastbar sei (Illusion of Invulnerability). Illusion of Invulnerability: • Vergangene Erfolge führen in der Gruppe zu Selbstüberschätzung und in der Folge zu einem sorgloseren Umgang mit Risiken [invertiert] • Erfolge steigen der Gruppe nicht zu Kopf und sie ist stets bemüht, die eigenen Pläne zu hinterfragen und Verbesserungspotenziale abzuleiten Um Kosten zu sparen, wurde die Produktion teilweise nach Italien zur Firma Alania aus- gegliedert, bei der Sicherheitsinspekteure 2010 Qualitätsmängel feststellten und den Stop 6 Studien 132 der Produktion anordneten. Boeings Manager verwarfen den Produktionsstopp jedoch und ordneten an, dass die Produktion ohne Verzögerung weiterlaufen solle. Ein internes Boeing Memo dazu stellt fest: „Schedule may require deviations to the preferred quality process.“ (Shaffer, 2014, 0:20:50). Dieses Verhalten kann erneut potenziell auf den Optimism Bias beziehungsweise die Illu- sion of Invulnerability (siehe oben) zurückgeführt werden. Um Kosten zu senken und die Bildung von Gewerkschaften zu vermeiden, gliederte Boeing auch innerhalb der USA seine Produktion teilweise nach Charleston in South Carolina aus. Dort hätte man zur Produk- tion vor allem auf ungelerntes Personal zurückgegriffen, das nicht entsprechend qualifiziert gewesen sei und entsprechend wären gewisse Qualitätsstandards nicht eingehalten worden (Shaffer, 2014). Der ehemalige Boeing-Ingenieur John Woods berichtet, dass er versuchte, Qualitätsstan- dards durchzusetzen und dafür von seinen Vorgesetzten beleidigt wurde, die ihn in Mee- tings anschrien und aufforderten, seine Arbeitsvorschriften herunterzusetzen (dumb down), um die Arbeit zu beschleunigen (Shaffer, 2014). Hier wird starker Druck auf den Mitar- beiter mit abweichender Meinung ausgeübt, Direct Pressure on Dissenters: • Es kommt vor, dass Druck auf Gruppenmitglieder mit abweichender Meinung ausgeübt wird [invertiert] • Es kommt vor, dass kritische Meinungsträger von Gruppenprozessen ausgeschlossen werden [invertiert] • Gruppenmitglieder nutzen ihre hierarchische Position, um ihre Meinung durchzusetzen [invertiert] Woods habe gesehen, dass beschädigte Teile ignoriert oder verdeckt wurden und ist über- zeugt, dass mangelhafte Reparaturen an dem 787 Dreamliner das Werk verließen. Nachdem er sich an die Personalabteilung gewandt und ausgesagt hatte, dass er dafür schikaniert wurde, dass er seine Tätigkeit korrekt ausführen wollte, wurde er wenige Wochen später entlassen. Dass Woods’ Beschwerden auch abteilungsübergreifend von der Personalabtei- lung nicht Ernst genommen wurden und sogar zu seiner Entlassung führten, zeigt, wie stark Groupthink zu dieser Zeit in der Kultur Boeings verankert war und wie schlecht ausgeprägt Aspekte wie die Fehlerkultur und psychologische Sicherheit waren. Daraufhin wendete sich Woods mit einer Whistleblower-Beschwerde an die FAA. Das entsprechende Dokument beinhaltet sieben schwerwiegende Verstöße im Werk in South Carolina. Mary Schiavo – ehemalig US Transportation Inspector General – sagt über die Beschwerde: So I’ve gone to the page where they reach their conclusions in their discussion, and what they found is all the allegations, all but one of them they could not substantiate, and the one that they could substantiate they asked Boeing to fix it, Boeing said ’OK, we fixed it’, and then they closed the investigation. And that’s pretty much how they all go. I mean, I’ve seen this so many times. (Shaffer, 2014, 0:35:40). Im Rahmen der Reportage wurde recherchiert, dass ein Mitarbeiter der FAA, Ali Bahrami, eine wichtige Rolle für Boeing spielte. Er war bei der FAA verantwortlich für Boeings 787- 6 Studien 133 Dreamliner und bearbeitete auch Woods’ Beschwerde. Er war ebenfalls für die ursprüng- liche Freigabe der kritischen Batterien verantwortlich und derjenige, der den Dreamliner nach dem Grounding wieder freigab. Kurze Zeit später beendete er seine Karriere bei der FAA. Zwei Wochen darauf wurde Bahrami Vizepräsident der Aerospace Industries Asso- ciation, die als Lobbyist für Boeing tätig ist. Eine seiner ersten Amtshandlungen war es, im Kongress für mehr Selbstregulation bei Unternehmen wie Boeing zu plädieren (Shaffer, 2014). Mary Schiavo sagt, dass derartige Interessenskonflikte generell dazu führen, dass Regulatoren nicht strikt genug mit den zu regulierenden Unternehmen umgehen. Shaffer (2014, 0:47:34) schließt mit einer Aussage, die ca. fünf Jahre später, nach den Abstürzen der 737-MAX, ähnlich klingen könnte: Boeing says the 787 has no more problems than previous models. The FAA says there’s never been a safer time to fly. The Dreamliner is the fastest selling plane in the world. One day we may all find ourselves on board. When we do, we will trust Boeing has put quality first. We will trust the regulators have been rigorous. Ultimately we will trust the plane is safe. Zusammenfassung Wie in Kapitel 4 beschrieben, haben die Kultur einer Organisation und damit einherge- hende Normen einen Einfluss auf bewusste wie auch unbewusste kognitive, motivationale und gruppendynamische Prozesse. Die Organisationskultur prägt also auch auf unbewus- ster Ebene die Wahrnehmung und Kognition der Gruppenmitglieder und damit auch die Auftretenswahrscheinlichkeit von Heuristiken beziehungsweise Biases. Die Planungs- und Entwicklungsprozesse im Rahmen der Boeing 737 MAX liefern dabei vielfältige Hinweise für die Relevanz diverser Biases. Die Kultur bei Boeing ist geprägt von vergangenen Erfolgen und einer glorreichen Ge- schichte. Dadurch wird übergreifend Groupthink in den Facetten Illusion of Invulnerability und Belief in Inherent Morality of the Group gefördert. Bei der Entscheidung zur Modifikation der Boeing 737 – anstelle der Entwicklung ei- nes neuen Flugzeugtyps – und der Entscheidung, ob diese Modifikation hardware- oder softwaretechnisch umgesetzt werden soll, beeinflussten Zeit- und Konkurrenzdruck (bias- verstärkende Faktoren) den Prozess. Die von vielen Ingenieuren bevorzugten Alternativen wurden potenziell vorschnell ver- worfen (Collective Rationalization), und es wurde sich sehr früh für die softwaretechnische Modifikation der 737-MAX entschieden, die schneller und kostengünstiger umzusetzen war (Desirability Bias). Die leichtfertige Überzeugung von Boeing selbst und der FAA im Rahmen von Simulator- tests beziehungsweise Testflügen, dass das Flugverhalten unter MCAS so originalgetreu sei, dass es nicht einmal für nötig erachtet wurde, die Piloten über die Existenz des Systems zu informieren, ist potenziell darin begründet, dass die Suche nach konträren Informatio- 6 Studien 134 nen voreilig eingestellt wurde (Desirability Bias), nachdem das Wunschergebnis erreicht war und man dies als ausreichend wahrnahm (WYSIATI). Die Annahme, dass Piloten MCAS ohne Training bei Fehlaktivierung wie einen Stabilizer Runaway behandeln würden und innerhalb von zehn Sekunden richtig reagieren, indem sie die automatische Trimmung deaktivieren, stellte sich als überoptimistisch heraus (Op- timism Bias). Nach dem ersten Absturz fokussierte Boeing die Aufmerksamkeit auf das Verhalten der Piloten und würdigte deutliche Hinweise auf Schwächen von MCAS und eigenes Fehlver- halten in der Kommunikation des Systems nicht ausreichend (Confirmation Bias). Statt- dessen suchte Boeing die Ursache bei mangelhaften Ausbildungsstandards in bestimmten Regionen (Out-Group Stereotypes), insofern sie mutmaßlich sogar Lobbyisten in Washing- ton engagierten, ein solches Bild zu zeichnen. Selbst wenn eine gewisse Variabilität in den Ausbildungsstandards existieren sollte, ist die Argumentation nicht zielführend. Dass es bezüglich der Expertise von Piloten neben interindividuellen Unterschieden auch systema- tische Variation auf nationaler Ebene gibt, hätte Boeing bei der Entwicklung eines neuen Systems antizipieren können und das System umso resilienter gestalten müssen – mehr Redundanz und Sicherheitsmargen (siehe FHA) – anstatt zuzulassen, dass eine Fehlakti- vierung von MCAS leicht zu einem Absturz führen kann, wenn die Piloten nicht optimal reagieren. Das Festhalten an dem aktuellem System und Verhinderung eines vorübergehenden Groun- dings bis zum Systemupdate sowie die Annahme, dass ein Softwareupdate in ca. sechs Wo- chen nachgeliefert werden könne, zeugt von unrealistischem Optimismus (Optimism Bias), wobei der wirtschaftliche Druck bei den Verantwortlichen auch zu bewusster Risikoneigung geführt haben kann. Kritische Informationen aus probabilistischen Sicherheitsanalysen zur Wahrscheinlichkeit und dem Ausmaß einer Fehlaktivierung von MCAS sowie Möglichkeiten zur Kompensation durch die Piloten wurden entweder nicht ausreichend an die Leitungsebene weitergetra- gen (Self-Appointed Mindguards) oder von von dieser nicht ausreichend berücksichtigt (Collective Rationalization). Bezüglich der Nichtbeachtung bestimmter Effekte, wie dem Aufsummieren der Winkelän- derungen durch MCAS, kann auch hier unterstellt werden, dass im Rahmen des Desirabi- lity Bias nach Erreichung des erwünschten Ergebnisses die Informationssuche eingestellt wurde und somit keine oder zu wenige konträre Szenarien generiert wurden, deren mögli- che Existenz kognitiv unbewusst blieb (WYSIATI). Ein Indiz dafür, dass es sich bei den zuvor erläuterten Fehlentscheidungen primär um unbewusste Biases und nicht bewusste Täuschungen handelt, ist der Fakt, dass Boeing die Aktivierung von MCAS von einem ein- zigen AoA-Sensor abhängig machte und somit einen Single-Point of Failure kreierte, der 6 Studien 135 mit verhältnismäßig geringem Aufwand durch Einbindung des ohnehin verbauten zweiten AoA-Sensors hätte verhindert werden können. Dies unterstreicht den starken Einfluss von Optimismus (Optimism Bias) und Wunschdenken (Desirability Bias). Fast zehn Jahre zuvor waren bei Boeing bereits ähnliche kulturelle Prägungen und Ent- scheidungsverzerrungen bemerkbar, die im Zusammenhang mit den Batteriebränden des Boeing 787 Dreamliners stehen. Der Fakt, dass die Batterien mit einem extra dafür angefertigten schwächeren Standard getestet wurden, spricht für einen extremen Optimismus (Optimism Bias) bis hin zur An- nahme, dass man unantastbar sei (Illusion of Invulnerability). Das gleiche gilt für den Fakt, dass man Abweichungen von Qualitätsstandards in der Produktion in Italien akzeptiert, um nicht weiter in Zeitverzug zu geraten. Eine extreme Ausprägung von Groupthink zeigt sich in der Behandlung des Ingenieurs, der versucht, bestimmte Sicherheitsstandards durchzusetzen. Er bekommt zunächst star- ken Druck durch seine direkten Vorgesetzten (Direct Pressure on Dissenters) und an- schließend auch durch die Personalabteilung, die schließlich seine Kündigung einleitet. Nachdem er sich mit seinen Bedenken als Whistleblower an die FAA wendet, versagt auch diese Instanz und widmet den Bedenken keine Aufmerksamkeit. An dieser Stelle werden die Interessenskonflikte deutlich, die sich im engen Verhältnis zwischen Boeing und der FAA zeigen und der dazu führt, dass die Problematik von Groupthink teilweise sogar or- ganisationsübergreifend auftritt und diejenige Organisation einschließt, die eigentlich als unabhängige staatliche Genehmigungsbehörde agieren soll. Der Fakt, dass von der Führungsebene kommuniziert wurde, dass wirtschaftliche Effizienz wichtig ist und Sicherheitsbedenken negative Reaktionen hervorrufen, prägt die Organisa- tionskultur und somit auch heuristische Entscheidungen, die einen Großteil der kognitiven Prozesse ausmachen (vgl. Kapitel 4.3) und die im Rahmen der beschriebenen Ereignisse potenziell einen starker Einfluss auf die organisationalen Planungs- und Entscheidungs- prozesse hatten. 6.1.2 Die Loveparade 2010 Am 24.07.2010 findet in Duisburg zum letzten Mal das Musikfestival Loveparade statt (Abbildung 17). Dabei ereignet sich das schlimmste Veranstaltungsunglück der deutschen Nachkriegsgeschichte. Im Eingangsbereich des Veranstaltungsgeländes, der sich aus einem Tunnel und einer Rampe zusammensetzt, kommt es zu einem Massengedränge, bei dem 21 Menschen sterben. 652 Menschen werden teils schwer verletzt und viele weitere leiden nachhaltig an den psychologischen Folgen der Ereignisse. An der vorausgegangenen monatelangen Planung war eine Vielzahl von Akteuren aus 6 Studien 136 Abbildung 17 Das Veranstaltungsgelände der Loveparade 2010 Anmerkung. Foto des Veranstaltungsgeländes der Loveparade 2010 (Fromme, 2010) 6 Studien 137 unterschiedlichen Bereichen beteiligt. Dazu gehören neben dem privaten Veranstalter ver- schiedene Akteure aus der Politik, der Stadtverwaltung sowie der Polizei und der Feuer- wehr. Dass die Vielzahl der beteiligten Akteure und deren Interaktion untereinander es schwer machen, die Verantwortung für die Katastrophe einzelnen Entscheidungsträgern zuzuordnen, ist typisch für komplexe Planungs- und Entscheidungsprozesse und spiegelt sich auch in der juristischen Aufarbeitung der Katastrophe wider. Das Gerichtsverfahren wird im Frühjahr 2020 – nach 180 Verhandlungstagen und kurz vor der drohenden Ver- jährung – ohne Urteil eingestellt. Das Gericht bezeichnet das Ereignis als multikausales Geschehen, bei dem die Schuld der einzelnen Angeklagten eher gering einzustufen sei. Die Angeklagten hätten sich bemüht, die Loveparade sicher zu gestalten, auch wenn diese Be- mühungen unzureichend waren. Entsprechend hätte niemand gewissenlos oder aus ethisch verwerflichen Motiven gehandelt. Zudem könne nicht ausgeschlossen werden, dass nicht angeklagte Dritte Mitverantwortung für das Unglück tragen (LTO-Redaktion, 2020). Schwierigkeiten bezüglich der Ausrichtung der Loveparade 2010 in Duisburg zeichneten sich schon im Vorfeld des Planungsprozesses ab und beeinflussten diesen maßgeblich, wes- halb bestimmte Ereignisse in den vorherigen Jahren bei dieser Fallstudie ebenfalls berück- sichtigt werden. Die Loveparade fand 1989 zum ersten Mal als Friedensdemonstration mit 150 Teilneh- mern in Berlin statt und entwickelte sich im Laufe der Jahre zu einem stetig wachsenden Techno-Musikfestival. Sie fand seitdem, mit wenigen Unterbrechungen und stark steigen- den Besucherzahlen, jährlich statt. 1995 kamen bereits 500.000 Besucher zur Loveparade, woraufhin die Veranstaltung ab 1996 auf das weitläufige Areal des Stadtteils Tiergarten verlegt wurde. Bis 2006 fand die Loveparade dort mit Besucherzahlen zwischen 500.000 und 1,5 Millionen Menschen statt. Nachdem der Loveparade 2001 der Demonstrationssta- tus aberkannt wurde und deshalb erhebliche Zusatzkosten für die Veranstalter enstanden, fiel die Loveparade 2004 und 2005 aus, bevor 2005 die Fitnessstudiokette McFit bei dem pleitebedrohten Veranstalter Planetcom GmbH einstieg (Die Loveparade Geschichte: Vom Protestmarsch zum Millionen-Event! , 2020). Im Februar 2007 entschlossen sich die neuen Verantwortlichen – aufgrund einer noch aus- stehenden Genehmigung und damit einhergehenden Meinungsverschiedenheiten mit der Stadt Berlin – die Loveparade in Berlin abzusagen und Verhandlungen mit anderen Städ- ten aufzunehmen. Als Gesamtkonzept für das Ruhrgebiet und in Kooperation mit der Wirt- schaftsförderungsgesellschaft Metropoleruhr GmbH (WiFö) sollte die Loveparade 2007 bis 2011 unter dem Motto Ruhr-Love-Weekend in Essen, Dortmund, Bochum, Duisburg und Gelsenkirchen stattfinden. Somit wurde – mit großer Unterstützung durch die Öffentlich- keit und Landespolitiker aller Parteien – im Juni 2007 die Durchführung der Loveparade 2010 in Duisburg durch den dortigen Stadtrat beschlossen. Die Loveparades 2007 und 2008 fanden zuvor wie geplant in Essen und in Dortmund statt. In beiden Fällen wurde 6 Studien 138 das Modell der für Berlin konzipierten Loveparade übernommen, indem sie auf öffentlich zugänglichen Straßen ausgerichtet wurde. In Duisburg waren sich bereits im Herbst 2008 das Polizeipräsidium, die Feuerwehr und das Ordnungsamt einig, dass die Loveparade in Duisburg aus Kapazitätsgründen nicht auf öffentlichen Verkehrsflächen durchführbar ist (Seibel & Wenzel, 2017). Im Januar 2009 sagte die Stadt Bochum die Loveparade ein halbes Jahr vor der dort ge- planten Veranstaltung ab. Hauptgrund für die Absage war die unzureichende Infrastruktur, insbesondere die mangelnde Kapazität des Bochumer Hauptbahnhofs und Schwierigkeiten mit dem Finden einer geeigneten Strecke für die Veranstaltung (“Loveparade Fällt 2009 in Bochum Aus”, 2009). Nach der Absage durch den Bochumer Polizeipräsidenten Thomas Wenner folgte starke Kritik aus Politik und Öffentlichkeit. Nordrhein-Westfalens Verkehrs- minister kommentierte die Bochumer Absage mit den Worten: „Denn die Absage ist ein kräftiger Schlag gegen den Anspruch des Ruhrgebiets, eine Metropole zu sein. Eine Me- tropole muss so etwas leisten“ (Szymaniak, 2009, S. 1). Wenner reagiert in einem offenen Brief auf die Kritik: Was denken sich eigentlich Politiker und Journalisten, die die Metropole Ruhr als Monstranz ihrer Popularität vor sich hertragen, wenn es um die Verantwortung derer geht, die als Amtsträger für die Folgen ihres Handelns persönlich haften? Die mit ihrem Tun die öffentliche Sicherheit zu gewährleisten haben? Die die Enge des Veranstaltungsraumes und die Disfunktionalität der Zu- und Abfahrtströme kennen, die wissen, dass es schon in Dortmund diesbezüglich heikle Situationen gegeben hat? [...] Eine Metropole, die als solche überhaupt keine verantwortlich Handelnden kennt, weil die Politik dafür keine Voraussetzungen geschaffen hat. Wer manifeste Sicherheitsbedenken so wenig ernst nimmt, obwohl sie offenkundig sind, sollte sich von Verantwortung fernhalten, statt auf die einzuprügeln, die sich ihrer Verantwortung bewusst sind und sich ihr stellen. (“Polizeipräsident Schreibt Offenen Brief Zur Loveparade”, 2009, S. 1) Wenner hatte Rückhalt von der Oberbürgermeisterin Bochums, galt aber vielen als der Verursacher der Absage (Hans, 2010). Er wurde einige Monate später – aus offiziell anderen Gründen – vom damaligen NRW-Innenminister gegen seinen Willen in den einstweiligen Ruhestand versetzt (“NRW-Regierung Schasst Missliebigen Beamten”, 2009). Die WiFö kritisierte die Absage ebenfalls und hatte Sorge: „Wenn nämlich Bochum für die Love Parade zu klein ist, dann sind eigentlich auch Duisburg und Gelsenkirchen als Veranstal- tungsorte gestorben“ (Hans, 2010, S. 1). 2010 war das Ruhr-Love-Weekend und damit die Loveparade zudem zentraler und aus Marketingperspektive besonders wichtiger Bestandteil des Programms Ruhr. 2010 Kultur- hauptstadt Europas, für das ebenfalls die WiFö zuständig war (Seibel & Wenzel, 2017). Die Loveparade 2010 war somit zu einem Politikum für das gesamte Bundesland Nordrhein- Westfalen geworden, wodurch schon vor Beginn der eigentlichen Planung ein enormer Druck zur Ausrichtung der Loveparade 2010 auf Duisburgs Politik und Verwaltung lastete. Das zeigte sich auch, als der Duisburger Polizeipräsident im Februar 2009 wegen erheb- licher Sicherheitsbedenken öffentlich vor der Durchführung der Loveparade in Duisburg 6 Studien 139 warnte. Daraufhin forderte ein Bundestagsabgeordneter in einem Schreiben an Nordrhein- Westfalens Innenminister dessen Ablösung. Dazu führte der Abgeordnete zunächst eini- ge von der Loveparade unabhängige Kritikpunkte am Polizeipräsidenten auf und schrieb dann: Am vergangenen Wochenende ließ die Duisburger Polizei nunmehr erklären, eklatante Sicherheitsmängel stünden einer Durchführung der Love Parade [sic!] in Duisburg im Jahre 2010 entgegen. Während der Veranstalter der Love Parade noch nicht einmal eine Strecke angemeldet hat und die Gespräche zwischen Stadt und Veranstalter ge- führt werden, sagt [der Polizeipräsident], wenn man die Presseberichterstattung richtig interpretiert, die Loveparade für Duisburg ab. Eine Negativberichterstattung in der gesamten Republik ist die Folge [...] Der neuerliche Eklat veranlasst mich zu der Bitte, Duisburg von einer schweren Bürde zu befreien und den personellen Neuanfang im Polizeipräsidium Duisburg zu wagen. (Grünendahl, 2012, S. 1) Es wird hier bereits ein halbes Jahr vor Beginn der eigentlichen Planung starker Druck auf Kritiker ausgeübt. Dieser Direct Pressure on Dissenters, eine Facette von Groupthink, schafft ein Klima, dass sich später offensichtlich auch auf die Entscheidungen der Pla- nungsverantwortlichen auswirkt: • Es kommt vor, dass Druck auf Gruppenmitglieder mit abweichender Meinung ausgeübt wird [invertiert] • Es kommt vor, dass kritische Meinungsträger von Gruppenprozessen ausgeschlossen werden [invertiert] • Gruppenmitglieder nutzen ihre hierarchische Position, um ihre Meinung durchzusetzen [invertiert] Gleichzeitig bekräftigt Duisburgs Oberbürgermeister, dass die Stadt alles daran setzen würde, dass die Loveparade nach Duisburg kommt und von ihm nicht abgesagt werden würde (Seidlitz, 2010). Die konkrete Planungsphase der Loveparade 2010 in Duisburg begann knapp ein Jahr vor der Veranstaltung im September 2009. Zur Übersicht werden die wichtigsten Akteure und deren Rolle im Planungs- und Entscheidungsprozess vorab kurz beschrieben (vgl. auch Seibel & Wenzel, 2017). Dazu gehören: • Der private Veranstalter Lopavent GmbH, der die Rechte an der Loveparade nach dem Aus in Berlin erwarb und diese seit 2006 durchführte. • Der Leiter des Dezernat für Sicherheit und Recht (Dezernat II). Dieser agierte im Planungsprozess als Vertreter von Duisburgs Oberbürgermeister und nahm entsprechend eine Schlüsselrolle im Planungs- prozess ein. Zu seinem Verantwortungsbereich gehörte das Ordnungsamt (Amt 32), das federführend für die Planung der Loveparade zuständig war. • Als im späteren Planungsverlauf offiziell beschlossen wurde die Loveparade stationär, auf einem voll- ständig umzäunten Gelände zu veranstalten, nahmen das Amt für Baurecht und Bauberatung (Amt 62) und dessen Dienstvorgesetzter – der Leiter des Dezernat V – eine entscheidende Rolle ein, da diese nun für die Genehmigung der Veranstaltung verantwortlich waren. • Später wird darüber hinaus ein Professor für Physik und Experte für Transport und Verkehr von der Universität Duisburg-Essen als Gutachter engagiert. Das Gutachten wird auf Basis einer Simulation der Firma TraffGo GmbH erstellt, die von ehemaligen Mitarbeitern des Professors gegründet wurde. • Weitere beteiligte Akteure umfassen den Eigentümer des Veranstaltungsgeländes (Firma Aurelis), die 6 Studien 140 WiFö, die Bundespolizei sowie die Polizei und Feuerwehr Duisburgs. Beim ersten Treffen, am 25.09.2009, wird in einer Ergebnisniederschrift festgehalten, dass der Veranstalter 1.000.000 Besucher anstrebt, während bei der internen Planung weiterhin mit einer Besuchermenge von 500.000 bis 600.000 gerechnet werden solle – ohne dass die- se Diskrepanz schriftlich begründet wird (WikiLeaks, 2009a). Die logistische Umsetzung der Loveparade ist noch ungewiss. Die Verantwortlichen gehen zu diesem Zeitpunk noch davon aus, dass es wie in der Vergangenheit zunächst einen Paradezug geben wird, der später in eine stationäre Abschlusskundgebung übergeht. Die Firma Aurelis beziffert die zur Verfügung stehende Gesamtfläche des Veranstaltungsgeländes, das für die Abschluss- kundgebung genutzt werden soll, mit ca. 258.000 qm (WikiLeaks, 2009a). In einem weiteren Treffen am 02.10.2009 wird in einer Sachverhaltsdarstellung durch den Leiter des Dezernat II zu Beginn betont, dass die Loveparade in Duisburg politisch er- wünscht sei und nach erster Einschätzung auch möglich erscheine (WikiLeaks, 2009b). Die nutzbare Fläche des ehemaligen Güterbahnhofs wird auf 220.000 qm revidiert, da man Teile des Geländes als nicht nutzbar bewertetet. Es wird zudem festgehalten, dass die Loveparade dort „mehr oder weniger ’stationär’“ durchgeführt werden soll (WikiLeaks, 2009b, S. 1). Man strebe zwar keinen neuen Besucherrekord an, ginge aber weiterhin von ca. 1.000.000 Besuchern aus – eine Zahl die im Sinne des Veranstalters insbesondere auch medial genannt werden soll. Es zeigt sich bereits hier, im Zuge einer „angeregten Diskussion“ der Teilnehmer, dass der unbedingte Wille zur Durchführung die Wahrnehmung und Urteilsprozesse des Leiters des Dezernat II maßgeblich prägt. So betont er als Reaktion auf Kritik erneut den star- ken politischen Willen zur Durchführung der Loveparade und unterstreicht seine Aussage mit einem Verweis auf eine entsprechende Äußerung der damaligen Ministerpräsidentin Nordrhein-Westfalens, die gesagt habe, dass die Loveparade in Duisburg stattfinden solle (WikiLeaks, 2009b). Dass der Leiter des Dezernat II bereits zu Beginn des Planungs- prozesses ständig betont, dass die Loveparade in Duisburg politisch stark erwünscht sei, hemmt, nach dem Prinzip des Desirability Bias, eine kritischere Reflektion verschiedener Alternativen. Hier setzt er zudem frühzeitig einen Anker für die anderen Beteiligten bezüg- lich des gewünschten Ergebnisses des Prozesses. Es wird sich zeigen, dass dieses Ergebnis, also die Genehmigung der Loveparade und die assoziierten eingeschränkten Handlungsal- ternativen im weiteren Planungsverlauf von allen Beteiligten zunehmend als alternativlos wahrgenommen werden. Desirability Bias: • Im Planungsprozess herrscht eine offene Diskussionskultur, in der auch die Nachteile eines bevorzugten Vorhabens diskutiert und Alternativen ernsthaft betrachtet werden. • Es wird unabhängig vom erwünschten Ziel abgewogen beziehungsweise kalkuliert, was realistisch und sicher erreichbar ist, ohne dass Wunschdenken diese Abwägungen beeinflusst. 6 Studien 141 Anchoring Effect: • Meinungen und Einschätzungen unterschiedlicher Mitarbeiter*innen werden zunächst individuell und unabhängig voneinander entwickelt, bevor sie im Entscheidungsprozess aggregiert oder diskutiert wer- den • Es entstehen spontane Diskussionen auf Basis anfänglicher Informationen [invertiert] • Im Planungsprozess wird hinreichend über unterschiedliche Alternativen diskutiert, bevor man sich für eine Vorgehensweise entscheidet Mutmaßlich kann der Leiter des Dezernat II hier auch als Self-Appointed Mindguard, eine Facette von Groupthink, bezeichnet werden. Er vermittelt zwischen der Verwaltungs- und politischen Ebene und steht zum Beispiel im engen Kontakt mit Duisburgs Oberbürger- meister, der als starker Verfechter der Loveparade in Duisburg wenig von Planungsproble- men mitbekommen haben will: • Manche Gruppenmitglieder versuchen kritische Meinungen anderer Mitglieder aus Loyalität zur Füh- rungskraft abzuwehren [invertiert] • Es kommt vor, dass Minderheitsmeinungen vorschnell durch einzelne Gruppenmitglieder schlechtgere- det werden [invertiert] Am 20.10.2009 findet ein Treffen zum Thema Verkehr/Transporte statt, bei dem neben verschiedenen Verkehrsbetrieben auch das Ordnungsamt, der Veranstalter sowie Polizei und Feuerwehr vertreten sind (WikiLeaks, 2009c). Es wird über die Handhabung der An- und Abreise von und nach Duisburg gesprochen und auch die Lenkung der Besucherströme zum und vom anvisierten Veranstaltungsgelände. Das Ordnungsamt informiert bei diesem Treffen über Aussagen des später begutachtenden Professors für Physik. Laut diesem gäbe es grundsätzlich drei Möglichkeiten der Besucherführung, von denen zwei aus Sicherheits- und Kostengründen nicht möglich seien. Nicht möglich seien ein direkter Zugang vom Bahnhofsgelände sowie die Nutzung der A59 als Zu- oder Abmarschstrecke. Als einzig machbare Möglichkeit sieht er eine „weitläufige Umgehung vom Hbf zum Veranstaltungs- gelände“ (WikiLeaks, 2009c, S. 3). Dazu werden zwei mögliche Strecken und damit ein- hergehende Herausforderungen genannt. Die kritische Implikation dieses Vorgehens, dass der Tunnel von der Karl-Lehr-Straße dann der einzige und gleichzeitige Ein- und Aus- gang des Veranstaltungsgeländes wäre, findet in der Einschätzung und dem Treffen keine Beachtung. Die frühzeitige, und, wie sich später zeigen wird, fatale Festlegung auf dieses Konzept der Besucherführung, lässt sich als Fall von Anchoring bezeichnen (siehe oben). Es wird nicht ergebnisoffen diskutiert, stattdessen werden die Überlegungen des Professors als final hingenommen und daraufhin auch im späteren Verlauf keine Alternativen mehr besprochen. Einige Monate später appelliert ein Brandschutzexperte noch eindringlich, die ohnehin zu sperrende A59 als zusätzlichen Ein- beziehungsweise Ausgang zu öffnen, findet aber für diesen Vorschlag – den der Veranstalter als zu teuer ablehnt – kein Gehör mehr. 6 Studien 142 Abbildung 18 zeigt das Veranstaltungsgelände sowie die Zu- und Ablaufwege. Abbildung 18 Skizze des Veranstaltungsgeländes der Loveparade 2010 Anmerkung. Darstellung der Zu- und Ablaufwege zwischen dem Hauptbahnhof und der Loveparade in Duisburg (WikiLeaks, 2010m). Bei einem Treffen am 29.10.2009 stellt der Veranstalter den Sachstand in einer Präsentati- on dar, bei dem die Problematik des gleichzeitigen Ein- und Ausgangs zumindest in einem Punkt erwähnt wird. So heißt es in der Präsentation: „Ist ein Zu- und Abweg zur Veranstal- tungsfläche, der auch noch in einem Tunnel liegt, (Karl-Lehr-Str.) ausreichend, besteht die Gefahr, dass der Tunnel ggf. mit Wasser volläuft? evtl. Gutachten erstellen lassen“ (Wi- kiLeaks, 2009d, S. 6). Später wird die Problematik des gleichzeitigen Ein- und Ausgangs in keinen Unterlagen mehr festgehalten. Die Genehmigungsbehörde beschränkt sich dar- auf, die Einhaltung jener gesetzlichen Vorschriften zu fordern, die – wie sich im weiteren Verlauf zeigt – durch Ausnahmegenehmigungen ausgehebelt werden, während die spezielle Ein-/Ausgangssituation anscheinend nicht explizit von den gesetzlichen Bestimmungen der Sonderbauverordnung erfasst wird. Auf der anderen Seite ist die politische Ebene, deren Vertreter in der Verwaltung sowie der Veranstalter vollständig darauf fixiert, die Lovepa- rade um jeden Preis zur Genehmigung zu bringen, wie die weiteren Ausführungen zeigen werden. Möglicherweise ist die Problematik neben den zahlreichen anderen Sicherheitsbe- denken und dem Zeitdruck in den Hintergrund gerückt. Teilweise wird gemutmaßt, dass die Schwierigkeiten mit der Ein- und Ausgangssituation bewusst ausgeklammert wurden: Ich habe geschrieben, man hat den Tunnel vergessen, aber je mehr ich mich mit der Sache beschäftige, umso mehr drängt sich doch der Verdacht auf, dass man hier ganz bewusst übliche Planungsmechanismen nicht angewendet 6 Studien 143 hat, möglicherweise weil einem klar sein musste, dass diese Menschenzahl durch diesen Tunnel so nicht zu steuern war. Richard Wittsiepe – Wirtschaftsprüfer und Analyst (Roeingh, Lenz & Jankuhn, 2010, 0:23:38) Man muss dann, wenn man schon sagt, und das ist mein Kernpunkt, ich kapriziere mich auf diese Tunnellösung und ich gehe davon aus, dass sie funktioniert, wobei ich meine – und würde es auch belegen können – dass hätte nie funktionieren können, ja, aber gesetzt den Fall, derjenige ist der Meinung es funktioniert. Da muss ich doch sicherstellen, dass [...] bei nachhaltigeren Störungen, ich noch raus komme aus der Nummer und das haben sie alle versäumt. Dr. Rainer Könnecke – Sicherheitsforscher (Roeingh et al., 2010, 0:20:31). Bei einem Treffen im März 2010 wird festgehalten: „Nach den in der letzten Woche be- kannt gewordenen Planungen des Veranstalter [sic!] lopavent GmbH soll jedoch die gesam- te Veranstaltungsfläche durch stabile Zäune eingegrenzt werden und lediglich der Zugang an der Karl-Lehr-Straße offen sein.“ (WikiLeaks, 2010e, S. 2). Aufgrund dieser anvisier- ten Nutzungsänderung – von einer mobilen Parade mit einem später offenen Veranstal- tungsgelände zu einer stationären und durch stabile Zäune begrenzten Veranstaltung – wird nun erstmals das in dem Fall zuständige Amt für Baurecht und Bauberatung (Amt 62) in die Planung einbezogen. Für ein abgeschlossenes Gelände gelten eigene gesetzliche Bestimmungen, in diesem Fall die Sonderbauverordnung, laut derer die maximale Zahl der zugelassenen Besucher bei zwei Personen pro Quadratmeter liegt. In diesem Kontext wird kritisiert, dass sich „die Veranstaltungsfläche nach den Planungen des Veranstal- ters/Eigentümer immer weiter verkleinern würde“ (WikiLeaks, 2010e, S. 3). Nach den ursprünglich angekündigten 258.000 qm wäre „dann schon immer vage von der Fa. Lopa- vent GmbH angedeutet worden, dass der Südteil der Fläche nur für Logistik und ähnliches genutzt werden sollte. Bereits hiergegen wurden Bedenken durch 32 [Ordnungsamt] geäu- ßert.“ (WikiLeaks, 2010e, S. 3). Zuvor, am 25.02.2010, hatte der Veranstalter dem Ordnungsamt (Amt 32) demnach erst- mals die Zahl von nunmehr noch 90.000 qm inklusive der Zuwege genannt und dabei auch die geplante Eingrenzung des Geländes mit massiven Zäunen kommuniziert. Weiter heißt es im Protokoll: Danach ist die Durchführung der Veranstaltung auf dem jetzt beplanten Gelände nicht möglich, da es höchstens 180.000 Besucher fassen würde. [...] Diese Problematik ist nicht lösbar! Auf die möglichen strafrechtlichen Konse- quenzen für die MA von Genehmigungsbehörden wurde hingewiesen. (WikiLeaks, 2010e, S. 3). Diese Bewertung zeigt, dass den Beteiligten der Verwaltung das Ausmaß der Problematik und die potenziell dramatischen Konsequenzen bewusst waren. Sie schließen daraus: Es muss daher dringend ein Gespräch zwischen lopavent GmbH [Veranstalter], dem Bauordnungsamt [Amt 62], dem Ordnungsamt [Amt 32] und evtl. der Fa. Aurelis [Eigentümer des Geländes] stattfinden, in dem das endgültige Veranstaltungskonzept mit der geplanten qm-Zahl für die Besucher vorgelegt wird. Auch ist dringend ein formeller Antrag mit fundierten Unterlagen an das Bauordnungsamt zu stellen. (WikiLeaks, 2010e, S. 3) Es sollte bis zum 10.06.2010 dauern, bis die zuständige Anwaltskanzlei im Auftrag des Veranstalters den formellen „Antrag auf Erteilung erforderlicher baurechtlicher Genehmi- 6 Studien 144 gungen für die Durchführung der Loveparade 2010“ beim Amt für Baurecht und Bau- beratung (Amt 62) einreichte. Zwischenzeitlich machte der Veranstalter keine Anstalten, einen solchen Antrag überhaupt anzufertigen. So heißt es in einem nach der Katastrophe veröffentlichten Sachverhaltsbericht der Stadt Duisburg: In einem Gespräch mit dem Veranstalter wies die Untere Bauaufsicht noch einmal auf die Notwendigkeit der Ein- reichung eines konkreten Antrags mit Bauvorlagen hin. Der Veranstalter machte keine konkreten Angaben, sondern Ausführungen allgemeiner Art zum Versammlungsstättenrecht, die begründen sollten, warum Antrag und Geneh- migung nicht erforderlich wären. (Wojtek, 2010, S. 53) Hier verfestigt sich der Eindruck, dass der Veranstalter versucht, Zeit zu gewinnen, in dem Wissen über den ohnehin starken politischen Druck zur Durchführung der Loveparade, der mit der Zeit immer größer werden würde, da im Kontext der im politischen Umfeld getätigten Aussagen (siehe oben) eine Absage eine große Blamage für die betreffenden Politiker wäre. Diese steigenden monetären sowie vor allem psychologischen Kosten lassen sich mittels der Sunk-Cost Fallacy erklären und erhöhen zunehmend die von Beginn an starken Hemmungen, auf eine Absage hinzuwirken: • Es wird häufig versucht ein schlecht laufendes Projekt fortzuführen, obwohl der finanzielle Aufwand oder das Risiko unverhältnismäßig hoch sind [invertiert] • Wenn sich ein Projekt als teurer oder riskanter als erwartet herausstellt, wird stets auch ein Abbruch als gangbare Alternative diskutiert • Der Abbruch eines Projekts wird in der Organisation wertfrei und als unter Umständen angemessene Reaktion auf sich ändernde Bedingungen oder Einschätzungen betrachtet Beim nächsten Treffen wird aufgegriffen, dass die nach neuester Planung zur Verfügung ste- hende Fläche von 90.000 qm zu klein für die geplante Besucherzahl sei (WikiLeaks, 2010f). Die Vertreterin des Amts für Baurecht und Bauberatung (Amt 62) weist noch einmal aus- drücklich auf die Grenze von zwei Personen pro Quadratmeter Fläche hin. Deswegen will der Veranstalter nun ca. 20.000 – 30.000 qm Fläche im Süden des Veranstaltungsgeländes aufbereiten lassen, auf die die Besucher bei drohender Überfüllung „zwangsumgeleitet“ werden würden, um die Veranstaltung von dort über eine Videoleinwand weiterzuverfol- gen. Bei einer Gesamtfläche von bestenfalls 90.000 + 30.000 = 120.000 qm wären demnach qua Gesetz 240.000 Besucher zulässig. Dazu macht der Veranstalter folgende Rechnung: Die Hauptzahl der Besucher ist zwischen 17.00 Uhr und 21.00 Uhr vor Ort. Es findet aber ein ständiges Kommen und Gehen statt – nur die wenigsten würden sich über eine Vielzahl von Stunden auf dem Veranstaltungsgelände aufhalten. Bei einer echten Gesamtbesucherzahl von 400.000 Leuten (mehr können auch kaum durch die Bahn befördert werden, die von ca. 90% der Anreisenden genutzt wird) würden sich aber gleichzeitig höchstens 200.000 bis 250.000 Leute auf der Fläche aufhalten da eben ein ständiger Austausch stattfinden würde (WikiLeaks, 2010f, S. 3). Auffällig ist, dass analog zur verfügbaren Veranstaltungsfläche, nun auch die erwartete Besucherzahl schrumpft. Während zu Beginn 1.000.000 Besucher angestrebt wurden, und 6 Studien 145 man intern von 500.000 bis 600.000 Besuchern ausging (siehe oben), rechnet der Veran- stalter nunmehr nur noch mit 400.000 Besuchern. Es drängt sich der Eindruck auf, dass der Veranstalter die Schätzungen unter dem Druck zur Einhaltung der zulässigen Ober- grenze an die gesetzlichen Bestimmungen anpasst. Entsprechend lässt sich ein ausgepräger Desirability Bias beim Veranstalter erkennen, dessen einziges Ziel es zu sein scheint, die Loveparade als werbewirksames Event zur Genehmigung zu bringen. Sicherheitsbedenken spielen für den Veranstalter keine Rolle, wie sich im Planungsprozess immer wieder zeigen wird. Zu dem später kritischen Bereich, dem gleichzeitigen Ein- und Ausgang, heißt es: Der Bersucherzu- und abstrom soll auf jeden Fall durch den Karl-Lehr-Tunnel gelenkt werden. Es können [sic!] al- lenfalls zu kurzfristigen Zugangsperrungen [sic!] kommen, um eine Bewegungsdynamik zu erreichen. Nachströmende Besucher würden dann wie geschildert ggf. auf die Auslauffläche im Süden umgeleitet. (WikiLeaks, 2010f, S. 3). Als Redundanz für den Fall eines zu starken Besucherstroms zum Tunnel des Eingangsbe- reichs sollte also ebenfalls die für die notwendige Gesamtfläche essenzielle „Auslauffläche“ im Süden dienen. Tatsächlich stellte sich später heraus, dass besagte Fläche bei der Ver- anstaltung dafür nicht zur Verfügung stand (Seibel & Wenzel, 2017). Am 22.03.2010 findet ein Workshop statt, an dem das Ordnungsamt (Amt 32) und Amt für Baurecht und Bauberatung (Amt 62) anwesend sind. Ein Brandschutzexperte, der an der Planung der Loveparade 2008 in Dortmund mitgewirkt hat, berichtet davon, dass es bereits in Dortmund zu brenzligen Szenen kam (Brandt, Bönisch, Dahlkamp & Röbel, 2011). Der Tunnel der Karl-Lehr-Staße sei an der schmalsten Stelle nur 30 Meter breit, was für höchstens 40.000 bis 60.000 Menschen pro Stunde reiche, ohne Gegenverkehr. Dass die Besucher auf diese Weise auf und von dem Gelände gelotst werden sollen, hält der Brandschutzexperte für Irrsinn und sagt später in kleinerer Runde, dass einer, der so etwas plane, sie nicht mehr alle habe. Er appelliert dafür, einen Ausgang über die ohnehin am Tag der Veranstaltung gesperrten A59 aufzumachen, was vom Veranstalter als zu teuer abgelehnt worden war. Zudem berichtet er, dass die Mitarbeiter der Stadt ihm Recht gegeben hätten, aber über politischen Druck geklagt hätten (Brandt et al., 2011). Hier wird explizit von Direct Pressure on Dissenters berichtet, der von der politischen Ebene auf die Verwaltungsebene wirkt: • Es kommt vor, dass Druck auf Gruppenmitglieder mit abweichender Meinung ausgeübt wird [invertiert] • Es kommt vor, dass kritische Meinungsträger von Gruppenprozessen ausgeschlossen werden [invertiert] • Gruppenmitglieder nutzen ihre hierarchische Position, um ihre Meinung durchzusetzen [invertiert] Eine Mitarbeiterin des Amt 32 hätte gesagt, dass ihr Chef kritische Hinweise schlicht ausblende (Brandt et al., 2011). Das Ignorieren kritischer Informationen lässt sich auf Collective Rationalization, ebenfalls eine Facette von Groupthink, zurückführen. So ist es nicht überraschend, dass der Leiter des Dezernats II, der von Beginn an immer wieder betonte, dass die Loveparade politisch erwünscht sei, kritische Informationen, die eine 6 Studien 146 Genehmigung der Loveparade in Frage stellen, verwirft: • Kritische Meinungen gegenüber dem von der Führungskraft oder der gesamten Gruppe favorisiertem Plan werden offen aufgenommen und weiterdiskutiert • Kritische Hinweise und Warnungen bezüglich eines Plans werden häufig nicht ausreichend ernst genom- men [invertiert] Am 28.04.2010 findet ein Treffen zwischen dem Veranstalter, dem Leiter des Dezernats II, dem Leiter des Amt 32 und einem Sprecher des Oberbürgemeisters – ohne Beteiligung des Amts 62 – statt. Der Veranstalter klagt darüber, dass das Amt 62 ständig mit der Sonderbauverordnung querkäme, besonders die Mitarbeiterin Frau G. Der Ordnungsamt- chef sagte laut einem Vermerk, dass die Dame anscheinend mangelnde Übung in solchen Dingen habe, sich an ihrer Zuständigkeit jedoch nichts rütteln lasse. Der Leiter des De- zernats II werde mit ihrem Vorgesetzten sprechen, um „positiven Einfluss“ auf Frau G. zu nehmen (Brandt et al., 2011). Derartige Äußerungen stempeln jene Gruppe von Mit- arbeitern, die auf ein ordentliches Verwaltungsvorgehen pochen, als unerfahren ab und erzeugen damit im Zuge der eben erwähnten Collective Rationalization auch Out-Group Stereotypes, ebenfalls eine Facette von Groupthink: • Innerhalb der Gruppe sind häufig die Unfähigkeit oder ähnliche negative Eigenschaften anderer Akteure ein Thema [invertiert] • Es kommt vor, dass negative Einstellungen gegenüber externen Gruppen die Kommunikation und den Informationsaustausch mit diesen beeinträchtigen [invertiert] Im Protokoll der Besprechung bringt der Leiter des Dezernats II außerdem die Idee ein, ein Expertengutachten erstellen zu lassen, wenn bei der Stadt keiner bereit sei, das Risiko für die Genehmigung zu übernehmen (Brandt et al., 2011). Die logische Konsequenz seines starken Desirability Bias ist hier, dass er einen Lösungsweg sucht, um die gesetzlichen Bestimmungen zu umgehen. Ein entsprechendes Gutachten soll die Rechtfertigung hierfür erbringen: • Im Planungsprozess herrscht eine offene Diskussionskultur, in der auch die Nachteile eines bevorzugten Vorhabens diskutiert und Alternativen ernsthaft betrachtet werden • Es wird unabhängig vom erwünschten Ziel abgewogen beziehungsweise kalkuliert, was realistisch und sicher erreichbar ist, ohne dass Wunschdenken diese Abwägungen beeinflusst An dieser Stelle wird der Professor für Physik erneut ins Spiel gebracht, mit der Begrün- dung, dass es gut wäre, ihn ins Boot zu holen. Dadurch würde man von vorneherein ver- hindern, dass dieser in der Öffentlichkeit unerwünschte Äußerungen zur Loveparade tätige (Brandt et al., 2011). Zusätzlich wird auf ein Büro in Duisburg verwiesen, dass für veran- stalterfreundliche Gutachten bekannt sei und schließlich tatsächlich den Auftrag für eine Entfluchtungsanalyse bekommen sollte. Dieses Verhalten, potenziell kritische Meinungen 6 Studien 147 abzuwehren, bevor diese getätigt werden, kann als Form von Self-Appointed Mindguards betrachtet werden: • Manche Gruppenmitglieder versuchen kritische Meinungen anderer Mitglieder aus Loyalität zur Füh- rungskraft abzuwehren [invertiert] • Es kommt vor, dass Minderheitsmeinungen vorschnell durch einzelne Gruppenmitglieder schlechtgere- det werden [invertiert] Am 11.05.2010 schreibt Frau G. – die sich bislang so vehement gegen die Loveparade gestellt hatte – in einer E-Mail, dass die Leiter der Dezernate V und II besprochen hätten, dass der Veranstalter der Stadtverwaltung schriftlich versichern soll, am Veranstaltungstag die Besucherzahlen und -ströme zu kontrollieren, dafür bleiben alle Mitarbeiter des Amts 62 zuhause. Dass sei laut Frau G. doch eine charmante Lösung und so wird es schließlich auch gemacht – am Tag der Loveparade ist niemand vom Amt 62 anwesend (Brandt et al., 2011; Seibel & Wenzel, 2017). Am 20.05.2010, zwei Monate vor der Veranstaltung, legt der Veranstalter eine interne Entwurfsfassung des Veranstaltungskonzept – Sicherheit vor. Darin räumt der Veranstal- ter selbst ein: „Im aktuellen Zustand birgt das zukünftige Veranstaltungsgelände noch immense Sicherheitsrisiken, die eine Veranstaltung mit mehreren 100.000 Besuchern un- möglich machen“ (WikiLeaks, 2010c, S. 3). Allerdings betreffe diese Aussage nicht den Verantwortungsbereich des Veranstalters, sondern läge allein in der Verantwortung des Grundstückeigentümers. Diese Situation spricht für Verantwortungsdiffusion beziehungs- weise mangelnde Rollenklarheit und führt zu Social Loafing: • Zwischenziele werden konkret und mit festgelegtem Zeithorizont definiert • Arbeitspakete werden für einzelne Gruppenmitglieder konkret zugeordnet • Zwischenergebnisse aus den einzelnen Verantwortungsbereichen werden Führungskräften und anderen Gruppenmitgliedern in regelmäßigen Abständen präsentiert Das in weiten Teilen vage und inhaltlich irrelevante Konzept enthält Aussagen wie: Zu gravierenden Personen oder Sachschäden ist es in der Vergangenheit nicht gekommen. Angesichts der wiederhol- ten Durchführung der Veranstaltung unter Wahrung gleichbleibender Standards in wechselndem Umfeld ist davon auszugehen, dass es sich um der Veranstaltung immanente Elemente und nicht um zufällige Befunde handelt. (Wi- kiLeaks, 2010c, S. 2). Dabei liegt das Problem darin, dass sich gleichbleibende Standards nicht zwangsläufig auf ein wechselndes Umfeld übertragen lassen. Die Argumentation klingt vor allem deshalb pa- radox, weil der Veranstalter erst zwei Loveparades durchgeführt hat und das Umfeld dieses Mal – mit einem festumzäunten Gelände und einem unterdimensionierten Tunnel als Ein- und Ausgang – mit vorangegangenen Veranstaltungen nicht vergleichbar ist. Genau dieser Sachverhalt spiegelt sich in den geänderten gesetzlichen Bedingungen für geschlossene Ver- 6 Studien 148 anstaltungsgelände wider, auf deren Einhaltung das Amt für Baurecht und Bauberatung (Amt 62) nach wie vor pocht. Die mangelhafte Wahrnehmung von Risiken durch sich stark verändernde Bedingungen kann als Ergebnis des Optimism Bias betrachtet werden: • In Entscheidungsprozessen werden bei qualitativen und quantitativen Analysen auch externe Risiken, die außerhalb des Einflusses der Organisation liegen, berücksichtigt • Dem Einfluss unvorhersehbarer externer Ereignisse wird durch Schaffung von Redundanz (zusätzlichen Ressourcen) Rechnung getragen Eine weitere unbelegte Behauptung des Konzepts betrifft die der Steuerbarkeit der Besu- chermasse durch die Bewegung der Floats. So schreibt der Veranstalter: „Aus den bisheri- gen Loveparade- Erfahrungen orientieren sich die Besucher sehr stark an den Floats! [...] So lässt sich die Masse je nach Bedarf hervorragend dynamisch steuern. (Rattenfänger- Methode)“ (WikiLeaks, 2010c, S. 5). Ganz im Gegensatz zu dieser Aussage blockierten die Floats den Besucherstrom auf das Gelände am Veranstaltungstag sogar, indem sie das Einfädeln der Besuchermenge verzögerten, was als Mitursache maßgeblich zum tödli- chen Gedränge auf der Rampe beitrug (Rehm, 2020). Der Veranstalter überschätzt seine Fähigkeiten, das Geschehen kontrollieren zu können, was auf den Overconfidence Bias hindeutet: • Mögliche Schwächen in der eigenen Planung werden proaktiv thematisiert und diskutiert • Mitarbeiter*innen informieren sich gegenseitig über Schwierigkeiten und Probleme bei der Erreichung ihrer Ziele • Informationen und Daten aus vergangenen Projekten, aus denen Erfolgs- sowie Misserfolgsfaktoren („lessons learned“) hervorgehen, werden regelmäßig präsentiert und diskutiert Als Basis des Überoptimismus und der Selbstüberschätzung kann die Availability Heuri- stic dazu geführt haben, dass die sehr beschränkten Erfahrungen von zwei Loveparades, die unter anderen Bedingungen stattfanden, als ausreichende Informationsbasis wahrge- nommen wird. Tversky und Kahneman (1971) sprechen in einem solchen Fall auch auch von einem Belief in the Law of Small Numbers. Availability Heuristic: • Bei Problemdiskussionen werden häufig Ad-hoc-Argumente erfahrener Mitarbeiter*innen als Daten- quelle verwendet [invertiert] • Bei Problemdiskussionen dienen in der Regel qualitative und/oder quantitative Analysen empirischer Daten als Diskussionsgrundlage Der formelle Antrag des Veranstalters, der sich inhaltlich lediglich auf das eben beschrie- bene Veranstaltungskonzept bezieht, geht am 31.05.2010 beim Amt für Baurecht und Bauberatung (Amt 62) ein und wird am 14.06.2010 mit einer umfangreichen Liste an Be- anstandungen beantwortet. Darin fordert das Amt 62 auf fünf Seiten etliche durch staatlich 6 Studien 149 anerkannte Sachverständige erstellte Nachweise zur Veranstaltungsfläche und zur Statik ein (WikiLeaks, 2010g). In dem Schreiben zeigt sich die Irritation der Mitarbeiter des Amt 62 über die unprofessionelle Arbeitsweise des Veranstalters. So wird impliziert, dass das Sicherheitskonzept in der vorgelegten Form unbrauchbar sei. Es enthalte in weiten Teilen irrelevante Ausführungen – zum Beispiel die Verweise auf Erfahrungen mit bishe- rigen Loveparades – die für die Genehmigung keinen Wert haben. Auf der anderen Seite fehlen Bezüge zu der tatsächlich geplanten Veranstaltung und den damit einhergehenden gesetzlichen Bestimmungen: Gemäß BauPrüfVO beschränkt sich der Inhalt der Bauvorlagen, also auch des Sicherheitskonzeptes und der Veran- staltungsbeschreibung, auf das für dieses Vorhaben Erforderliche. Das bisher vorliegende Sicherheitskonzept wurde mit der Prüfbehörde nicht abgestimmt. Hinweise auf vertragliche Gegebenheiten und Abstimmungsgespräche sind nicht Gegenstand eines Sicherheitskonzeptes oder der Veranstaltungsbeschreibung. Bauvorlagen müssen bestimmt sein und derartige Darstellungen führen nur zur Unbestimmtheit der Vorlagen. (WikiLeaks, 2010g, S. 4) Anschließend zweifelt das Amt 62 die Genehmigungsfähigkeit der Loveparade in Duisburg offen an: „Obwohl die bisher vorgelegten Unterlagen nicht ausreichend, teilweise unbe- stimmt und nicht geeignet sind eine hinreichend bestimmte Genehmigung erteilen zu kön- nen, sind allerdings aus den Angaben bereits bestimmte Punkte erkennbar, die Fragen zur Genehmigungsfähigkeit aufwerfen“ (WikiLeaks, 2010g, S. 5). Die erläuterten Kritikpunkte beziehen sich auf jene Aspekte, die allen Beteiligten seit Monaten bekannt sind und die das Amt 62 bereits im März als „unlösbar“ bezeichnet hatte und dabei auf mögliche strafrecht- liche Konsequenzen für die Mitarbeiter verwies (siehe oben). Dazu gehört ein Hinweise auf die Grenze für die maximale Besucherzahl von zwei Personen pro Quadratmeter, die der Veranstalter in seiner Rechnung unbegründet auf 2,5 Personen pro Quadratmeter erhöht hat (WikiLeaks, 2010g). So erfordern die vom Veranstalter errechneten maximal 220.000 zeitgleich erwarteten Besucher bezüglich der Entfluchtung insgesamt 440m (Not-)ausgänge für das gesamte Gelände, während die Aufstellung des Verantalters nur 154,8m darstellt (WikiLeaks, 2010g). Man verbleibt mit dem Hinweis, dass der Antrag „aufgrund der feh- lenden Unterlagen nicht abschließend bearbeitet“ werden kann und fehlende Unterlagen bis zum 29.06.2010 einzureichen sind (WikiLeaks, 2010g, S. 6). Drei Tage später, am 17. Juni, findet eine Pressekonferenz statt, auf der werbewirksam über die Loveparade 2010 informiert wird. Anwesend waren unter anderem der Geschäfts- führer und Projektmanager des Veranstalters sowie Duisburgs Oberbürgermeister. Ent- gegen des drei Tage zuvor vom Amt für Baurecht und Bauberatung (Amt 62) verfassten Schreibens bezüglich der eklatanten Mängel und zahlreicher Nachforderungen, das dem Büro des Oberbürgermeisters in Kopie zugegangen war sagt der Oberbürgermeister, dass die endültige Genehmigung zur Durchführung der Loveparade auf gutem Weg und die Genehmigungsunterlagen komplett seien. Zum Thema Besucherzahl betont der Geschäfts- führer des Veranstalters, dass die Loveparade in Duisburg größer werde als geplant und dass sie weiter mit über 1 Million Zuschauern rechnen würden (Seibel & Wenzel, 2017). 6 Studien 150 Einen Tag später kritisiert die Polizei Duisburg in einer Sitzung der Arbeitsgruppe 4 – Sicherheit die in der Pressekonferenz getätigten Aussagen: Die Aussagen des Veranstalters in der o.g. Pressekonferenz zu den Eckdaten der Veranstaltung weichen erheblich von denen ab, die in Sicherheitsbesprechungen benannt wurden. Insbesondere die Aussagen zur Größe der geplanten Veranstaltung (größte Bühne aller Zeiten, zweite Bühne etc.) und zu den erwarteten Zuschauerzahlen (’weit’ über 1 Mio.) lassen eine Werbestrategie vermuten, die den tatsächlichen Möglichkeiten des Veranstaltungsraumes und damit notwendigen Sicherheitsüberlegungen nicht entsprechen beziehungsweise diesen zuwiderlaufen. Das Erreichen der in der Pressekonferenz kommunizierten Zahlen erscheint zwar auf Grund der zu erwarteten Transportkapazitäten der Bahn AG tatsächlich nicht realisierbar. Gleichwohl wird der Öffentlichkeit und insb. potentiellen Besuchern sug- geriert, eine Teilnahme an der Veranstaltung sei – auch bei derart hohen Teilnehmerzahlen – vollkommen problemlos möglich. Fakt ist hingegen, dass die eigentliche Veranstaltungsfläche ab einer gewissen Besucherzahl überfüllt sein wird und es beim Zulauf weiterer Besucher zu Rückstauungen auf den Wegführungen bis hin zu der nicht geringen Wahrscheinlichkeit kommt, dass angereiste Besucher die Veranstaltungsfläche selbst gar nicht erreichen. Diese Rück- stauungen können bei entsprechenden Menschenmengen – insbesondere auf der weniger leistungsstarken Ostroute – bis hin zu einer Befüllung der Wegführung aufwachsen. Dass dies Auswirkungen auf die (Un-)Zufriedenheit der Besucher hat, zu einem nicht mehr funktionierenden Wegekonzept führt (Besucher bleiben auf ihrer „Anreiseseite“ und wählen diese – anders als geplant – letztlich auch für die Abreise) und damit letztlich sicherheitsrelevant ist, bedarf keiner weiteren Darstellung. Diese Entwicklung kann bereits bei deutlich geringeren, aber bei einer derart offensiven Bewerbung der Veranstaltung erreichbaren Besucherzahl eintreten. (Polizeipräsidium Duisburg, 2010, S. 3) Am 18.06.2010 findet außerdem ein Gespräch statt, an dem zwei Vertreter des Amts für Baurecht und Bauberatung (Amt 62), drei Vertreter des Veranstalters, drei Mitarbeiter des Dezernat für Sicherheit und Recht (Derzernat II; inkl. des Leiters), ein Verterter der Feuerwehr sowie zwei Mitarbeiter des Ordnungsamts (Amt 32) teilnehmen (WikiLeaks, 2010h). Anlass des Gesprächs ist die Klärung der vom Amt 62 in Frage gestellten Ge- nehmigungsfähigkeit der Loveparade 2010. Eingangs wird die Problematik aufgegriffen, dass nach Sonderbauverordnung nur zwei Personen pro Quadratmeter zugelassen werden dürfen, was der Veranstalter anders sieht, obwohl er durch das Amt 62 wiederholt darauf hingewiesen worden war. Dazu kommt der Umstand, dass Lopavent – trotz der durch die Sonderbauverordnung gestellte Anforderung von insgesamt 440m Fluchtwegen bei 220.000 Besuchern – nur 155 Meter nachgewiesen hat, da sie es „aus ihrer Erfahrung für ausrei- chend halten, wenn 1/3 der Personen entfluchtet werden können.“ (WikiLeaks, 2010h, S. 1). Diese Aussagen deuten auf Overconfidence oder Optimism Biases hin (Items siehe oben). Als nächstes hält eine Mitarbeiterin des Amt 62 im Protokoll folgendes fest: Hier entspannte [sic!] sich eine ’engagierte’ Diskussion, in der Lopavent darauf hinwies, dass Fluchtwege mit 440 Metern von ihnen nicht dargestellt werden könnten. Diese rechtlichen Voraussetzungen hätten sie noch nie machen müssen. Sie seien überrascht, welche rechtlichen und formalen Anforderungen die Bauordnung stellen würde, ihnen ginge es allein um die praktische Seite. Mein Hinweis, dass dies sich daraus ergäbe, dass zum ersten Mal [sic!] eine Genehmigung im Sinne der Sonderbauverordnung erteilt werden müsse, konnten sie nicht nachvollziehen. Es könne nicht um rechtliche sondern nur um die tatsächlichen Probleme gehen (WikiLeaks, 2010h, S. 1). Diese absurde Gegenüberstellung von rechtlichen und praktischen Fragen kann als Hin- weis gedeutet werden, dass der Veranstalter fest entschlossen war, die geltenden Sicher- 6 Studien 151 heitsbestimmungen zu missachten (Seibel & Wenzel, 2017). Die Einstellung, die hier zum Ausdruck kommt – und sich bei manchen Akteuren durch den gesamten Planungsprozess zieht – impliziert potenziell, dass man meint, zu den Guten zu gehören, weil man der Stadt Duisburg und der Region ein tolles Fest bescheren möchte, und man den zur Sicherheit dienenden gesetzlichen Rahmen als Hindernis betrachtet, der diesem noblen Anliegen ent- gegensteht. Eine derartige Einstellung deutet auf Belief In Inherent Morality of the Group hin: • Es kann vorkommen, dass ethische Konsequenzen im Einzelfall weniger genau betrachtet werden, weil sich die Gruppe/Organisation insgesamt als moralische Instanz betrachtet [invertiert] • Die Gruppe reagiert irritiert oder ablehnend auf selbstkritische Anmerkungen einzelner Mitglieder [invertiert] Als Hindernis wird dabei, wie aus den bisherigen Erörterungen hervorgeht, nicht nur der gesetzliche Rahmen gesehen, sondern auch die Personen, die sich für dessen Einhaltung einsetzen (Out-Group Stereotypes; siehe oben). Weiter heißt es: [Leiter des Dezernat II] stellte in diesem Zusammenhang fest, dass der OB [Oberbürgermeister] die Veranstaltung wünsche und dass daher hierfür eine Lösung gefunden werden müsse. Die Anforderung der Bauordnung, dass der Veranstalter ein taugliches Konzept vorlegen müsse, ließ er nicht gelten. Er forderte [Amt] 62 auf, an dem Ret- tungswegkonzept konstruktiv mitzuarbeiten und sich Gedanken darüber zu machen, wie die Fluchtwege dargestellt werden könnten. Die Feuerwehr solle sich ebenfalls an der Erarbeitung beteiligen, es könne nicht sein, dass [Amt] 62 diese Pflicht nur auf die Antragsteller abwälzen würden, schließlich wolle der OB die Veranstaltung. Er würde die rechtlichen Verantwortlichkeiten von [Amt] 62 anerkennen, aber hier sei konstruktiv zu handeln, er habe dies mit [Leiter des Dezernat V] so abgesprochen. (WikiLeaks, 2010h, S. 1-2) Durch das Amt 62 wird noch festgehalten, dass ein Rettungswegekonzept grundsätzlich vom Veranstalter vorzulegen sei, und es nicht die Aufgabe der Bauordnungsbehörde sei, ein solches Konzept zu erarbeiten. Der bei der Besprechung nicht anwesende Leiter des Dezernat V notiert später handschriftlich auf dem Protokoll: Ich lehne aufgrund dieser Problemstellung eine Zuständigkeit und Verantwortung von [Amt] 62 ab. Dieses ent- spricht in keinerlei Hinsicht einem ordentlichen Verwaltungshandeln und einer sachgerechten Projektsteuerung. Die Entscheidung in allen Belangen obliegt [Dezernat] II. [Leiter des Dezernats V], Ø OB. (WikiLeaks, 2010h, S. 2) Die Aussage ist irrig, da es dem Leiter des Dezernat V nicht freisteht, die Verantwortung, die das ihm unterstehende Amt 62 trägt, an den Leiter des Dezernat II abzugeben. So war es seine Aufgabe, dafür zu sorgen, dass die Mitarbeiter des Amts 62 ihre staatlichen Aufgaben frei von sachfremden Einflüssen erfüllen können (Seibel & Wenzel, 2017). An- scheinend spürte auch der Leiter des Dezernat V den politischen Druck, denn anstatt seinen Mitarbeitern im Amt 62 den Rücken zu stärken, zieht er sich vollständig aus der Verantwortung und aus der Pflicht seines Amtes. Der Leiter des Dezernat II stellte sich hinter den Veranstalter und baut weiteren Druck auf die Mitarbeiter des Amt 62 auf, in- dem er diese auffordert, sich an der Erarbeitung des Sicherheitskonzepts zu beteiligen. Die 6 Studien 152 Beteiligung an der Erarbeitung eines Sicherheitskonzept gehört dabei nicht zum Aufga- benbereich des Amt 62, und dessen Mitarbeiter hatten schon im März darauf hingewiesen, dass die Problematik bezüglich der maximalen Besucherzahl sowie der Verfügbarkeit von Fluchtwegen unlösbar sei (siehe oben). Direct Pressure on Dissenters: • Es kommt vor, dass Druck auf Gruppenmitglieder mit abweichender Meinung ausgeübt wird [invertiert] • Es kommt vor, dass kritische Meinungsträger von Gruppenprozessen ausgeschlossen werden [invertiert] • Gruppenmitglieder nutzen ihre hierarchische Position, um ihre Meinung durchzusetzen [invertiert] Der unbedingte Wille des Leiters des Dezernat II spricht, wie bereits beschrieben, für eine starke Ausprägung des Desirability Bias beziehungsweise einer Zielorientierung, insofern der Wunsch zur Durchführung der Loveparade seine Wahrnehmung und Entscheidungen stark dominiert. Beim nächsten Treffen, am 25.06.2010, sind zwei Vertreter des Veranstalters, vier Verterter des Amts 62, zwei Vertreter der Berufsfeuerwehr, ein Vertreter der Duisburger Marketing GmbH und ein Vertreter der Firma Ökotec anwesend (WikiLeaks, 2010i). Thema des Gesprächs ist die durch das Amt 62 festgestellte fehlende Rechtsgrundlage zur Durchfüh- rung der Loveparade am 24.07.2010. Der Vertreter der Firma Ökotec verweist auf seine Erfahrungen mit anderen Großveranstaltungen und erläutert, dass das Aufstellen einer Fluchtanalyse die Möglichkeit bietet, an bestimmten Stellen – zum Beispiel „vor den Sze- neflächen“ – Verdichtungen von mehr als zwei Personen pro Quadratmeter darzustellen und „daraus kann dann evtl. eine erforderliche Abweichung zur SBauVO Teil 1 formuliert werden“ (WikiLeaks, 2010i, S. 1). Ein Mitarbeiter des Ministeriums für Bauen und Verkehr in NRW habe ihm das telefonisch bestätigt. Die Logik dieses Arguments erschließt sich nicht ohne Weiteres. Dass auf einem Veranstaltungsgelände, auf dem sich insgesamt die maximale Kapazität von zwei Personen pro Quadratmeter befinden, nicht überall genau zwei Personen pro Quadratmeter stehen und sich an bestimmten Stellen, zum Beispiel vor Veranstaltungsbühnen, mehr Menschen aufhalten und dafür woanders weniger, ist offensichtlich (Seibel & Wenzel, 2017). Dass dieser Fakt Einfluss auf die gesetzlich vorge- schriebene maximale Gesamtbesucherzahl oder auf die Gesamtbreite der Fluchtwege haben soll, erscheint nicht nachvollziehbar. Die vom Vertreter der Firma Ökotec genannten Refe- renzbeispiele, der Papstbesuch in Köln und der Kirchentag in Kleve, fanden zudem unter anderen Bedingungen, auf offenen Verkehrsflächen, statt. Die Firma Ökotec war somit im Sinne des Veranstalters bemüht, die Vorschriften der Sonderbauverordnung in dessen Sinne zu interpretieren, anstatt die tatsächlichen Gegebenheiten zu prüfen. Der Vetreter der Firma Ökotec schlägt auch direkt ein Unternehmen vor, Traffgo HT GmbH, die er für die Erstellung der von ihm vorgeschlagenen Entfluchtungsanalyse für qualifiziert hält und mit denen er bereits Vorgespräche geführt habe. Die Mitarbeiter des Amt 62 stimmen dem Vorgehen zu und geben damit defacto ihre Amtspflicht zum Einhalten sicherheitskri- 6 Studien 153 tischer gesetzlicher Anforderungen an ein privates Unternehmen ab, dessen Simulationen nun diese gesetzlichen Anforderungen ersetzen sollen (Seibel & Wenzel, 2017). Dass die Mitarbeiter des Amt 62 ihren Widerstand nun aufgeben, lässt sich potenziell dadurch er- klären, dass sie in den Wochen zuvor kontinuierlich eine starke kognitive Dissonanz erlebt haben – zwischen einerseits ihrer Motivation zur korrekten Ausführung ihres Berufs und andererseits dem damit unvereinbaren politischen Druck zur Genehmigung der Loveparade – den die Politik, die mediale Berichterstattung, der Leiter des Dezernat II und der Ver- anstalter auf sie ausübten (Direct Pressure on Dissenters). Kurz zuvor hatte sich bereits ihr Dienstvorgesetzter – der Leiter des Dezernat V – der Verantwortung entzogen, und sie folgten nun diesem Beispiel, was mutmaßlich zur Auflösung der kognitiven Dissonanz und einem damit einhergehenden Gefühl der Erleichterung geführt hat. Diesen entschei- denden Wendepunkt im Planungsprozess kommentiert Rainer Wendt, Chef der Deutschen Polizeigewerkschaft, später wie folgt: Die Loveparade war nie genehmigungsfähig. Schon deshalb nicht, weil ganz offensichtlich die erforderlichen Unter- lagen nicht beigebracht wurden. Die sind ja auch mehrfach noch angemahnt worden, aber man kann schon aus den Unterlagen ersehen, dass der Veranstalter einen gehörigen politischen Druck aufgebaut hat, der wohl nicht nur vom Veranstalter, sondern auch von anderer interessierter politischer Seite auf die Verantwortlichen der Stadt zugekommen ist. Von daher war da auch von vielen Seiten erheblicher Druck, aber das sind alles Profis, das sind Spitzenbeamte, die hätten diesem Druck standhalten müssen und sagen müssen ’Aus Sicherheitsgründen geht es nicht’. (Roeingh et al., 2010, 1:52:56). Am 08.07.2010 versucht der Veranstalter in einem Schreiben an das Ordnungsamt (Amt 32) die Diskrepanz zwischen den intern versus öffentlich kommunizierten Besucherzahlen zu erklären. Dabei hält der Veranstalter im Anschreiben fest: „Bitte behandeln Sie diese Unterlagen streng vertraulich! – Eine Veröffentlichung dieser Zahlen könnte dem öffent- lichen Ansehen der Veranstaltung immensen Schaden zuführen [sic!], was sicher weder im Interesse des Veranstalters liegt noch im Interesse der Stadt Duisburg.“ (WikiLeaks, 2010a, S. 1). Der Veranstalter zeigt hier also noch einmal sein unprofessionelles Vorgehen, bezüglich der medial und intern unterschiedlich kommunizierten Besucherzahlen, welches die Polizei zuvor als Sicherheitsrisiko bewertet hat. Inhatlich wiederholt der Veranstal- ter größtenteils nur die zurvor schon in der Veranstaltungsbeschreibung vom 28.05.2010 angestellten Berechnungen. Diese Veranstaltungsbeschreibung war wiederum die Grund- lage des formellen Genehmigungsantrags, der als nicht genehmigungsfähig zurückgewiesen wurde (siehe oben). Der Veranstalter wiederholt hier einen bereits zuvor zurückgewiese- nen „nur geringfügig erhöhten“ Schlüssel von 2,5 Personen pro qm und impliziert, dass die Vorschriften der Sonderbauverordnung eine solche Abweichung „für Versammlungsstätten im Freien“ zuließen (WikiLeaks, 2010b, S. 14) – entgegen der Aussagen des zuständigen Amts 62. Die damals als unlösbare Problematik beschriebene Situation der Notausgän- ge, die insgesamt 440m aufweisen müssten, wird erneut nicht erwähnt. Die Ignoranz des Veranstalters deutet neben dem bereits beschriebenen Belief in the Inherent Morality of the Group auch auf den Aspekt Illusion of Invulnerability hin, da sich Sicherheitsrisiken 6 Studien 154 anscheinend seiner Vorstellungskraft entziehen: • Vergangene Erfolge führen in der Gruppe zu Selbstüberschätzung und in der Folge zu einem sorgloseren Umgang mit Risiken [invertiert] • Erfolge steigen der Gruppe nicht zu Kopf und sie ist stets bemüht, die eigenen Pläne zu hinterfragen und Verbesserungspotenziale abzuleiten Am 15.07.2010 findet die letzte Planungssitzung vor der Loveparade statt, bei der von allen beteiligten Akteuren jeweils ein Vetreter anwesend ist, der den aktuellen Stand aus seiner Perspektive vortragen soll (WikiLeaks, 2010d). Der Vertreter des Amts für Baurecht und Bauberatung muss dabei allerdings zu Protokoll geben, dass er noch keine Aussage zum Genehmigungsverfahren machen kann. Einen Tag zuvor hatte das Amt 62 in einen Schreiben an den Veranstalter festgestellt, dass nach wie vor fast alle geforderten Unter- lagen und Nachweise fehlen (WikiLeaks, 2010j). Zum Schluss gibt es keine Einwände auf die Frage des Leiters des Dezernats II, ob es noch „Fragen, Kritik oder Anregungen“ gäbe (WikiLeaks, 2010d, S. 1), wobei aufgrund des Fehlens genehmigungsfähiger Unterlagen gar keine Geschäftsgrundlage für Fragen, Anregungen oder Kritik bestand (Seibel & Wenzel, 2017). Dass hier niemand mehr protestiert, ist potenziell auch auf den starken Druck zu- rückzuführen, den der Leiter des Dezernat II und der Veranstalter auf die anderen Akteure während des gesamten Planungsprozesses ausgeübt haben. Das Schweigen wäre demnach auf Self-Censorship zurückzuführen: • Manchmal hält man sich mit seiner Meinung zurück, um nicht bei der Führungskraft oder anderen Gruppenmitgliedern anzuecken [invertiert] • Im Planungsprozess wird sichergestellt, dass alle Gruppenmitglieder ihre Standpunkte äußern Die direkte Folge ist eine Illusion of Unanimity: • Das Schweigen einzelner Gruppenmitglieder wird von der Gruppe als stille Zustimmung interpretiert [invertiert] • Bei scheinbarer Meinungshomogenität wird bewusst nachgehakt, ob es auch alternative Sichtweisen gibt, die von der bisherigen Gruppenmeinung abweichen In der finalen Modifikation seiner Veranstaltungsbeschreibung, die am 19.07.2010 – fünf Tage vor der Loveparade – beim Amt für Baurecht und Bauberatung (Amt 62) zur Ge- nehmigung eingeht, macht der Veranstalter folgende Aussage zur maximalen Besucherzahl: Damit reicht die auf der geplanten Veranstaltungsfläche zur Verfügung stehende Nettogesamtfläche von ca. 110.000 qm nach den Vorgaben der Sonderbauverordnung unter Verwendung eines ca. 10%-igen Sicherheitspuffers aus, um während des gesamten Zeitraumes die zuströmenden Personen aufzunehmen. (WikiLeaks, 2010k, S. 14) Während es in der Fassung vom 28.05.2010 noch hieß: Damit reicht die auf der geplanten Veranstaltungsfläche zur Verfügung stehende Nettogesamtfläche von ca. 110.000 6 Studien 155 qm selbst bei Annahme eines gegenüber der Sonderbauverordnung (diese schreibt für Versammlungsstätten im Freien ohnehin nur eine entsprechende Anwendung des Personenschlüssels vor) nur geringfügig erhöten Schlüssels von lediglich 2,5 Personen Pro qm aus, um während des gesamten Zeitraumes die zuströmenden Personen aufzunehmen. (WikiLeaks, 2010b, S. 14) Dabei geht der Veranstalter in beiden Fällen von maximal 250.000 Personen aus und verstößt somit nach wie vor in gleichem Maße gegen die Bestimmungen der Sonderbau- verordnung, geändert hat sich nur die Formulierung. Zusammenfassend lässt sich hinzufü- gen, dass bezüglich der für die spätere Katastrophe relevanten, zu geringen Kapazitäten der Notausgänge immer noch keine Lösungsmöglichkeit vorgeschlagen wurde – vermutlich konnte es diese auch gar nicht geben, wie das Amt 62 bereits angedeutet hatte, als es die Genehmigungsfähigkeit der Loveparade anzweifelte (siehe oben). Inzwischen hatte das Sachverständigenbüro TraffGo HT die mittels Simulationen erstell- te Entfluchtungsanalyse fertiggestellt. Auf Basis dieser Analyse erfolgte das Gutachten des Professors für Physik, der sich wie folgt äußert: „Innerhalb der Möglichkeiten von Si- mulationsuntersuchungen sind die Ergebnisse nachvollziehbar und für die beschriebenen Szenarien als realistisch anzusehen. Damit ist nicht ausgesagt, dass sich evtl. die Menschen vor Ort in den entsprechenden Situationen anders verhalten und abweichende Szenarien entstehen.“ (Schreckenberg, 2010, S. 1). Es folgt ein Hinweis auf den späteren Ort der Katastrophe: „Allerdings kommt dem Zugang zum Gelände durch den Tunnel Karl-Lehr- Straße eine besondere Rolle zu, die in jedem Falle detailliertere Betrachtung benötigt.“ (Schreckenberg, 2010, S. 1). Und schließlich folgt noch ein Fazit zur Entfluchtungsanalyse: „Dieser Meinung schließen [sic!] ich mich im Rahmen der mir zur Verfügung stehenden Informationen und Unterlagen an.“ (Schreckenberg, 2010, S. 1). Der Gutachter bleibt in seiner Bewertung der Analyse betont unverbindlich und versieht sein Gutachten mit diver- sen Relativierungen, weswegen daraus eigentlich keine belastbaren Schlüsse bezüglich der Sicherheitsbedenken hervorgehen. Allerdings wurde die Aussagekraft der Analyse und des Gutachtens nicht in Frage gestellt, da sie dem Auftraggeber – dem Leiter des Dezernats II – mutmaßlich ohnehin lediglich als Rechtfertigung für die Umgehung der gesetzlichen Bestimmungen dienen sollte, um den Wunsch zur Genehmigung der Loveparade durch- zusetzen (Seibel & Wenzel, 2017) – woraus sich ein weiterer Hinweis für den Desirability Bias ergibt (siehe oben). In einem Schreiben am 21.07.2010 genehmigt das Amt 62 nach monatelangem Widerstand schließlich die Durchführung der Loveparade am 24.07.2010 mit einem Hinweis, dass eine Abweichung von den Vorschriften bezüglich der „§ 7 (4) SBauVO Teil 1 – Unterschreitung der erf. Fluchtwegausgangsbreiten“ erteilt wird (WikiLeaks, 2010l, S. 1). Am 24.07.2010 findet in Duisburg die letzte Loveparade statt. Im Eingangsbereich des Güterbahnhofs, der aus einem Tunnel und einer Rampe besteht, kommt es zu einem Mas- sengedränge, bei dem 21 Menschen sterben, 652 Menschen teils schwer verletzt werden und 6 Studien 156 viele bis heute psychisch unter den traumatischen Erlebnissen leiden. In der Öffentlichkeit und in den Medien war im Kontext der Katastrophe häufig von einer Massenpanik die Rede. Helbing und Mukerji (2012) betonen, dass es sich bei der Loveparade nicht um eine Massenpanik gehandelt habe, ein Begriff der impliziert, dass sich die Masse aufgrund eines plötzlich eintretenden Ereignisses panisch in Bewegung setzt und aus diesem Verhalten ei- ne Gefahr entsteht. Dementsprechend könnte der Eindruck entstehen, dass die Besucher durch ihr panisches Verhalten zu der Katastrophe beigetragen haben oder dass die Si- tuation weniger vorhersehbar war, was im Fall der Loveparadekatastrophe beides nicht zutrifft. Stattdessen handelte es sich bei der Loveparade um Massenturbulenzen oder ein Massenbeben, das letztlich eine kaum vermeidbare Konsequenz aus der stetig zunehmen- den Dichte an Besuchern im Eingangsbereich der Loveparade als antizipierbare Folge der in diesem Kapitel beschriebenen Fehlplanung war (vgl. Abbildung 19): Abbildung 19 Ein- und Ausgangsbereich der Loveparade 2010 Anmerkung. Foto des gleichzeitigen Ein- und Ausgangsbereich der Loveparade 2010, in dem es zu dem fatalen Massengedränge kam (Stollowsky, 2010). As a consequence, an uncontrollable kind of collective dynamics occurs in the crowd, which is called ’crowd turbu- lence’ or ’crowd quake’. The forces in this dynamical state of the crowd can cause various injuries (in particular of the chest, as in crowd crushes). They are so high that they cannot even be controlled by large numbers of police forces. Individuals can handle the situation even less. They are exposed to a large risk of losing balance and stumbling. Once people have fallen, they constitute obstacles to others and are endangered by others falling on top of them, since these can also not control their steps anymore as they wish. Hence, the surrounding people are likely to stumble as well, which creates a ’domino effect’. The resulting number of falling people may be large. This creates a heap of people, in which nobody can easily get back on their feet again. Those on the bottom have serious difficulties to breathe, and they are likely to suffocate if this state lasts too long, given the weight of others on their top. (Helbing 6 Studien 157 & Mukerji, 2012, S. 14-15). Die medizinischen Diagnosen spiegeln ein solches Geschehen auf der Loveparade wider: In fact, suffocation was diagnosed as the reason for the death of people during the Love Parade [sic!] disaster. In simple words, this means that the lungs of the victims have been compressed so much that they were unable to breathe enough to get the required amount of oxygen to survive. (Helbing & Mukerji, 2012, S. 14). Im Anschluss an die Katastrophe war bezüglich der Attribuierung der unterschiedlichen Akteure ein starkes Maß an Self-Serving Bias zu erkennen. So übernahmen zwar zumin- dest einige der Verantwortlichen eine moralische Schuld, die ausschlaggebenden Ursachen wurden jedoch stets bei anderen Akteuren verortet. Vom Self-Serving Bias muss natürlich die Sorge vor expliziten strafrechtlichen oder sozialen Konsequenzen abgegrenzt werden, die mutmaßlich ebenfalls eine Rolle bei der Ablehnung von Verantwortung gespielt hat. Nichtsdestotrotz kann davon ausgegangen werden, dass die Verantwortlichen die vorlie- genden Informationen im Rahmen der kognitiven Dissonanzreduktion so interpretierten, dass sie tatsächlich dachten, dass sie jeweils keine oder kaum Schuld trifft. Das ist insbe- sondere wahrscheinlich, da die komplexe Gesamtkonstellation – bei der unterschiedliche Faktoren und deren Interaktion eine Rolle spielten – dazu führte, dass die Verantwortung sich auf mehrere Akteure verteilt, wie sich auch in der juristischen Aufarbeitung gezeigt hat (siehe oben), was eine Verzerrung der Wahrnehmung von Verantwortung einfacher macht. Self-Serving Bias: • Konkurrenzdenken führt dazu, dass es besonders wichtig ist, die eigene, individuelle, Leistung hervor- zuheben [invertiert] • Erfolge werden als verdiente Leistung bewertet und Probleme eher auf unglückliche Umstände zurück- geführt [invertiert] • Es findet eine kritische Reflektion der Ergebnisse sowohl bei Erfolgen als auch bei Misserfolgen statt Der begutachtende Professor für Physik von Transport und Verkehr macht zwei Tage nach der Katastrophe zunächst das Verhalten einiger Besucher als Auslöser der Katastrophe aus, die sich „nicht an die Spielregeln gehalten“ hätten (Fromme, 2010, S. 1). Er sagt, dass es oft kleine Sachen seien, die Katastrophen auslösen, und man die Treppe vorher hätte sprengen müssen, die er als Ursache für die Katastrophe betrachtet. Die besagte Treppe ist der Ort, den viele der Besucher während der Katastrophe als potenziellen Ausweg aus dem tödlichen Gedränge sahen, weswegen dort ein besonders starker Druck entstand und eine Vielzahl der Opfer in deren Nähe zu Tode kamen. Tatsächlich ist es so, dass viele Faktoren bei der Entstehung oder dem Verlauf der Kata- strophe eine Rolle gespielt haben. Eine Fokussierung auf einzelne derartige Faktoren geht aber am Kern des Problems vorbei, denn es hätte nicht zu einer Situation kommen dürfen, in der die vom Gutachter beschriebenen „kleinen Sachen“ über Leben und Tod der Be- sucher entscheiden. Ein ordentliches Planungskonzept hätte ausschließen müssen, dass es 6 Studien 158 zu einer so gefährlich hohen Personendichte im Ein- und Ausgangsbereich der Loveparade kommen kann. Ein vergleichbarer Faktor war, dass der Veranstalter im Genehmigungs- verfahren hätte garantieren müssen, dass eine Lautsprecheranlage bereitstehen würde, mit der die Polizei die Musik stummschalten könnte, um Durchsagen zu tätigen. Als die Po- lizei wenige Stunden vor der Katastrophe von Problemen im Ein- und Ausgangsbereich erfahren hatte und von dieser Anlage Gebrauch machen wollte, hieß es vom Veranstal- ter nur, dass dies technisch nicht möglich sei. Bekanntermaßen war am Veranstaltungstag niemand vom Amt 32 oder Amt 62 vor Ort, um die Einhaltung der Genehmigungsaufla- gen zu überprüfen (siehe oben). Laut Staatsanwaltschaft hätte zu diesem Zeitpunkt eine funktionierende Lautsprecheranlage die Katastrophe wahrscheinlich noch verhindern kön- nen (Brandt et al., 2011). Auch eine Kombination derartiger Faktoren muss ein resilientes System in Form von Redundanz beziehungsweise Sicherheitsmargen berücksichtigen. Der Veranstalter übernimmt nach der Katastrophe zunächst nicht nur keinerlei Verantwortung für die Geschehnisse, sondern versucht aktiv, diese auf andere Akteure abzuwälzen, indem er zum Beispiel animierte Filme erstellt und verbreitet, die vermitteln sollen, dass das Ver- halten der Polizei am Veranstaltungstag maßgeblich für die Katastrophe verantwortlich gewesen sei (Rehm, 2020). Der Self-Serving-Bias bei der Aufarbeitung von Fehlentscheidungen kann dazu führen, dass sich Akteure ihrer Verantwortung nicht bewusst sind, und das hat Konsequenzen für zukünftige Vorhaben. Zum einen führt die selbstwertdienliche Attribution dazu, dass eigene Fehler und Schwächen nicht erkannt und eigene Fähigkeiten grundsätzlich über- schätzt werden, wodurch sich situationsübergreifend der Overconfidence Bias verstärkt. Zum anderen erscheinen die Ereignisse aufgrund des Hindsight Bias rückwirkend erklär- barer und steuerbarer, als sie es in komplexen Planungssituationen tatsächlich sind. So führen simple Erklärungsmuster in komplexen Systemen – wie jenes, dass die Treppe die Loveparadekatastrophe ausgelöst habe und deren Sprengung die Katastrophe verhindert hätte – fälschlicherweise dazu, dass ähnliche Probleme in Zukunft durch einfache Inter- ventionen beherrschbar erscheinen. Der Hindsightbias führt also dazu, dass der Einfluss unvorhersehbarer Einflussfaktoren unterschätzt wird, womit wiederum die Grundlage für den Optimism Bias geschaffen ist. Zusammenfassung Trotz der deutlich unterschiedlichen Beschaffenheit der beiden Fälle bezüglich des Pla- nungshorizonts – viele Jahre bei Boeing vs. wenige Monate bei der Loveparade – und der Organisationsgröße und Komplexität – Boeing als globaler Großkonzern vs. Lopavent mit einer handvoll Mitarbeitern – zeigen sich deutliche Parallelen in den Planungsprozessen, die im nächsten Kapitel genauer beschrieben werden. Zunächst werden die Ergebnisse aus der Fallstudie zur Loveparade 2010 zusammengefasst: Nachdem bereits zuvor Bochums Polizeipräsident nach der Absage der Loveparade in 6 Studien 159 Bochum gegen seinen Willen in den Ruhestand versetzt wurde, führten die Warnungen des Duisburger Polizeipräsidenten ebenfalls zu Rücktrittsforderungen. Dieser starke öffentliche Druck hatte Signalwirkung und hat die Duisburger Behördenmitarbeiter von Anfang an stark beeinflusst (Direct Pressure on Dissenters). Entsprechend pocht der Leiter des Dezernats II vom ersten Planungstag an darauf, dass die Loveparade in Duisburg erwünscht sei und möglich erscheine, anstatt den Planungsprozess ergebnisoffen zu starten (Desirability Bias). Hier zeigt sich auch schon zu Beginn seine mutmaßliche Rolle als Self-Appointed Mind- guard, soweit er kritische Informationen nicht an den Oberbürgermeister weitergeleitet haben sollte, wie dieser später behauptet. Der beratende Professor für Physik rät direkt zu Beginn der Planung dazu, zwei von drei Varianten zur Besucherführung aus Kosten- und Sicherheitsgründen auszuschließen. Übrig bleibt nur die Variante des einzigen und gleichzeitigen Ein- und Ausgangs durch den Tunnel in der Karl-Lehr-Straße. Die frühe Festlegung eines fachlichen Experten, hat die anderen Beteiligten mutmaßlich durch das Setzen eines mentalen Ankers beeinflusst (Anchoring Effect). Passend dazu finden die problematischen Implikationen dieser Lösung wenige Tage später letztmalig explizite Erwähnung in einer Präsentation und tauchen anschließend in keinem der verfügbaren Protokolle mehr auf, da sie mutmaßlich als gegeben betrachtet werden und kaum noch Alternativen ins Bewusstsein rücken. Ähnlich wie im Fall von MCAS bei Boeing, kann dieser Sachverhalt so interpretiert wer- den, dass, nachdem eine wünschenswerte Alternative gefunden wurde – primär nach dem Kriterium geringer Kosten – die Suche nach konträren Informationen eingestellt wurde (Desirability Bias), in der unbewussten Annahme, dass man genug weiß (WYSIATI). Das Verzögern des Veranstalters beim Einreichen der zur Genehmigung nötigen Unterlagen könnte Teil einer Strategie gewesen sein, die darauf abzielt, die monetären und psychologi- schen Kosten einer Absage zu erhöhen, in dem Wissen, dass der Druck zur Durchführung der Loveparade von Öffentlichkeit und Medien auf die Politik sowie von der Politik auf die Verwaltung groß ist und im Laufe der Zeit weiter zunimmt, was bei den Entscheidungs- verantwortlichen den Effekt der Sunk-Cost Fallacy verstärkte. Die Anpassung der Prognose der erwarteten Besucherzahl durch den Veranstalter, um den Bedingungen der Bauordnung gerecht zu werden, ist zielgerichtet anstatt ergebnisoffen (Desirability Bias). Mitarbeiter der Verwaltung klagen über politischen Druck (Direct Pressure on Dissen- ters) und sagen, dass kritische Hinweise von Vorgesetzten schlicht ausgeblendet würden (Collective Rationalization). Das Abstempeln von Mitarbeitern, die sich richtigerweise gegen das Vorgehen stellen, als 6 Studien 160 Akteure mit „mangelnder Übung“, spricht für das Bilden von Out-Group-Stereotypes, was das eben beschriebene Ausblenden von Kritik erleichtert. Die Idee des Leiters des Dezernats II, ein Gutachten erstellen zu lassen, um die rechtlichen Anforderungen zu überbrücken, spricht erneut für einen ausgeprägten Desirability Bias. Der Vorschlag, eine potenziell kritische Stimme „ins Boot zu holen“, indem man die betref- fende Person als Gutachter beauftragt, läuft den Prinzipien einer guten Entscheidungs- findung vollständig entgegen und bedeutet, dass man kritische Informationen blockiert (Self-Appointed Mindguards), bevor diese überhaupt geäußert werden. Dass zwei Monate vor Durchführung der Veranstaltung noch Unklarheiten bezüglich Ver- antwortungsbereichen herrschen, ist bezeichnend für den gesamten Prozess und spricht für Social Loafing. Die Annahme des Veranstalters, dass sich sein gleichbleibendes Konzept in wechselnden Umfeldern bewährt hat (Stichprobe der Umfelder: 2) ist überoptimistisch (Optimism Bi- as), insbesondere unter den in Duisburg besonders stark veränderten Bedingungen. Die Fehlannahme des Veranstalters, dass sich die Besucherströme „hervorragend“ durch die Bewegung der Floats steuern ließen, überschätzt dessen Einflussmöglichkeiten (Overcon- fidence) und verkehrt sich später auf fatale Weise ins Gegenteil, wenn das Warten auf die Floats den Stau im Tunnel verstärkt und die Katastrophe maßgeblich mitverursacht. Hier lässt sich die Availability Heuristic als Einflussfaktor benennen, welche Zuversicht in ein Häufigkeits- beziehungsweise Wahrscheinlichkeitsurteil auf Basis einer nicht repräsentati- ven Stichprobe verursachen kann. Auch die falsche Interpretation der gesetzlichen Bestimmungen, auf die der Veranstalter trotz gegenteiliger Hinweise der Baubehörde beharrt, sowie die Aussage „Es könne nicht um rechtliche, sondern nur um die tatsächlichen Probleme gehen“, zeigt die Ignoranz, die sich mitunter in der Sichtweise des Veranstalters begründet, zu den „Guten“ zu ge- hören, die der Stadt und der Region ein tolle Fest bescheren wollen (Belief in Inherent Morality of the Group). Diese implizierte Sichtweise bewertet auf der anderen Seite das Amt 62 beziehungsweise dessen Mitarbeiter als Antagonisten, die versuchen, an gesetzli- chen Bestimmungen festzuhalten und diesem vermeintlich noblen Anliegen entgegenstehen (Out-Group Stereotypes). Der Leiter des Dezernats II stellt sich hinter den Veranstalter und baut Druck auf die Mitarbeiter des Amt 62 auf, indem er diese auffordert, sich an der Erarbeitung des Sicher- heitskonzepts zu beteiligen, obwohl das nicht zu deren Aufgabenbereich gehört und diese die Probleme bereits drei Monate zuvor als unlösbar bezeichnet hatten (Direct Pressure on Dissenters). Der Veranstalter hat zwei Wochen vor der Veranstaltung immer noch keine Lösung für 6 Studien 161 die beschriebenen Probleme vorgebracht und behauptet weiterhin, dass die Sonderbauver- ordnung Abweichungen für Veranstaltungen im Freien zulassen würde, was das zuständige Amt 62 längst verneint hat. Sicherheitsbedenken spielen für den Veranstalter keine Rol- le, und die Möglichkeit von Gefahren entzieht sich anscheinend seiner Vorstellungskraft (Illusion of Invulnerability). Neun Tage vor der Loveparade findet die letzte Planungssitzung statt, bei der auf Nachfra- ge niemand Einwände erhebt. Die kritischen Stimmen sind nach dem monatelangen Druck vom Veranstalter, der Politik und der Verwaltung verstummt (Self-Censorship), was zur Illusion of Unanimity führt. Der Professor für Physik bleibt in seinem halbseitigen Gutachten unbestimmt und relati- viert sämtliche seiner Aussagen, vermutlich, um sich nicht angreifbar zu machen und lässt damit viel Interpretationsspielraum zu. Der Leiter des Dezernats II nutzt das Gutachten für den Zweck, für den er es in Auftrag gegeben hat – als Rechtfertigung zur Umgehung der Bauordnung (Desirability Bias). Anschließend an das Ereignis folgen gegenseitige Schuldzuweisungen und unplausible Recht- fertigungen, die ein Lernen aus Fehlern erschweren (Self-Serving Bias). 6.1.3 Fazit Most accident sequences, like the road to hell, are paved with good intentions — or with what seemed like good ideas at the time. (Reason, 2016, S. 21) Die Fallstudien bieten interessante Erkenntnisse zu der Relevanz und Häufigkeit verschie- dener Biases in organisationalen Planungs- und Entscheidungsprozessen sowie Hinweise auf ein zufriedenstellendes Maß an Augenscheinvalidität bezüglich der im Rahmen dieser Arbeit konstruierten Fragebogenitems, die in den folgenden Kapiteln im Rahmen empi- rischer Erhebungen weiter auf ihre Testgüte hin geprüft werden. Abbildung 20 zeigt die Häufigkeit der in den beiden Fällen identifizierten biasbezogenen Effekte. Dabei gibt es bezüglich der aus den Fallstudien abgeleiteten Erkenntnisse bestimmte Aspekte zu beachten. Zum einen muss einschränkend angemerkt werden, dass der Zusam- menhang zwischen der Häufigkeit und der Relevanz der Effekte mit einer methodischen Einschränkung, nämlich der Identifizierbarkeit der einzelnen Effekte mittels Dokumen- tenanalyse, konfundiert ist. Die Ausführungen aus den unterschiedlichen Quellen stellen lediglich eine Zusammenfassung der Ereignisse dar und bevorzugen damit potenziell be- stimmte Effekte. So unterliegen zwar alle Zuschreibungen spezifischer Effekte im Rahmen dieser Analyse einem gewissen Grad an Unsicherheit, davon sind jedoch primär kognitive Cold Biases – Gedächtnis- und Statistikbezogene Effekte – wie zum Beispiel der Availa- bility Bias, stärker betroffen als motivations- und emotionsbezogene Hot Biases, wie der 6 Studien 162 Abbildung 20 Häufigkeit verschiedener Biases in den Fallstudien Anmerkung. Darstellung der Häufigkeit der durch den Autor identifizierten Biases in den Fallstu- dien. Desirability Bias, da letztere in Fallstudien potenziell besser erkennbar sind. Des Weiteren wurden die Zuschreibung der Effekte im Rahmen der Fallstudien durch eine Problematik erschwert, die bezüglich der Klassifikation von Heuristiken und Biases bereits in Kapitel 3.5 beschrieben wurde. Dabei geht es um die gegenseitige Beeinflussung der einzelnen Ef- fekte sowie teilweise auch konzeptuelle Überschneidungen. Der Confirmation Bias und der Desirability Bias ließen sich in den Fallstudien kaum voneinander abgrenzen, was nicht überraschend ist, wenn man die starke inhaltliche Überschneidung der Effekte betrachtet. Der Unterschied besteht lediglich darin, dass beim Confirmation Bias die bestehenden Ansichten und beim Desirability Bias die erwünschten Ansichten die Informationssuche, Speicherung und Interpretation beeinflussen und die bestehenden und gewünschten An- sichten häufig – jedoch nicht zwangsläufig – übereinstimmen. Diese Erkenntnis steht im Einklang mit der von Tappin et al. (2017) geäußerten Vermutung, dass in vielen Fällen, in denen der Confirmation Bias angeführt wird, das Urteil tatsächlich auf den Desirability Bias zurückgeführt werden kann (vgl. Kapitel 3.3.4). Zudem hat sich bei der Identifika- tion der Eindruck bestätigt, der in Kapitel 3.4.1 zu Groupthink herausgearbeitet wurde, demnach einzelne Facetten von Groupthink eine durch den Gruppenkontext verstärkte Form intraindividueller Biases darstellen. So wurde zum Beispiel die Facette Illusion of Invulnerability als gruppenbezogene Form des Overconfidence Bias betrachtet. Schließlich ist es wichtig, dass die Validität der Erkenntnisse zukünftig durch weitere Expertenbeur- teilungen geprüft wird. Abgesehen von den bei Fallstudien zum Teil unabdingbaren Limitationen lassen sich in- 6 Studien 163 teressante Erkenntnisse zum Einfluss von kognitiven, motivationalen und gruppendynami- schen Biases in realen Bedingungen ableiten. Auffällig ist, wie stark die Entscheidungspro- zesse in beiden Fällen durch den Desirability Bias geprägt sind. Man kann den Entschei- dungsträgern in beiden Fällen eine übergeordnete Zielorientierung unterstellen, die sich jeweils durch den gesamten Prozess zieht und diesen durchgehend stark beeinflusst. Aus der selektiven Wahrnehmung und Verarbeitung wünschenswerter Informationen entstehen in der Folge überoptimistische Zukunftsprognosen (Optimism Bias), die sich in einer zu ge- ringen Beachtung externer Risikofaktoren zeigen. Dazu gehört eine Unterschätzung bereits bekannter Risikofaktoren – zum Beispiel die zu knapp bemessene Kapazität des Geländes bei der Loveparade – sowie eine unzureichende Suche nach unbekannten, aber erfassbaren Risiken – zum Beispiel das Testen von MCAS in umfangreicheren Bedingungen, wie der Fehlaktivierung des Systems – die zu konkreten Maßnahmen hätten führen können. Zudem sollten in komplexen Systemen unvorhersehbare Risiken beziehungsweise deren Verkettung mit zusätzlicher Redundanz beziehungsweise Sicherheitsmargen bedacht werden. So wur- den bezüglich der Loveparade unterschiedliche verstärkende Faktoren auf der operativen Ebene berichtet. Dazu gehören eine Verzögerung der Eröffnung aufgrund von Bauarbeiten, das Verpassen einer Priorisierung des überlasteten Mobilfunknetzes für Kommunikations- geräte der Polizei sowie ein Schichtwechsel der Polizei im kritischen Zeitraum (Helbing & Mukerji, 2012). Da bei komplexen, unstrukturierten und situationsspezifischen Vorhaben Erfahrungswerte nur einen begrenzten Nutzen bringen, stehen – neben dem Desirability Bias – in dieser Arbeit beschriebene Effekte, wie Optimism oder Overconfidence, einer Antizipation derartiger Ereignisse im Weg. Overconfidence wurde nur einmal im Fall der Loveparade genannt, im Zuge der starken Selbstüberschätzung des Veranstalters. Die Überschätzung der Möglichkeiten der Ausfüh- rungsebene bezüglich der Kontrollierbarkeit der Situation wird wie oben dem Optimism Bias zugeschrieben, da die ausführenden Akteure aus Sicht der Planungsebene externe Faktoren darstellen, die durch eine zu optimistische Sichtweise auf der Planungsebene in die betreffenden Situationen geraten. Dafür wurde in beiden Fällen der potenziell mit Optimism und Overconfidence konfundierte Effekt Illusion of Invulnerability festgestellt. Illusion of Invulnerability beschreibt, in ähnlicher Form, ein durch vergangene Erfolge gespeistes überhöhte Selbstbewusstsein auf Gruppenebene. Bei der Rekonstruktion der Planungsprozesse fällt besonders der starke Einfluss durch Groupthink auf. Vor allem bei der Planung der Loveparade, bei der durch die Veröffent- lichung der Protokolle Detailwissen aus den einzelnen Planungssitzungen vorliegt, lassen sich alle Facetten von Groupthink identifizieren: Illusion of Invulnerability: Lopavent verweist immer wieder auf die erfolgreiche Durchfüh- rung vergangener Loveparades und blendet in der Folge Sicherheitsbedenken völlig aus. Boeing blickt als einziger relevanter amerikanischer Flugzeugbauer auf eine jahrzehntelan- 6 Studien 164 ge Erfolgsgeschichte zurück, die bis zu den beschriebenen Ereignissen in der öffentlichen Wahrnehmung nur selten in Frage gestellt wurde. Dazu genoss man als einzig großer Flug- zeugbauer in den USA besondere Privilegien, die sich zum Beispiel in den Beziehungen zu staatlichen Behörden wie der FAA zeigten, und die mutmaßlich das Gefühl vermittelten, dass der Organisation von außen kaum Grenzen gesetzt werden. Die National Aeronau- tics and Space Administration (NASA), der Janis (1971) im Rahmen des Absturzes des Challenger-Spaceshuttles Groupthink zugeschrieben hat, war in einer ähnlichen Situation und deren Mitarbeiter zeigten ähnliche Verhaltensmuster. Belief in Inherent Morality of the Group: Bezüglich der Loveparde sahen sich der Veran- stalter und führende Verwaltungsmitarbeiter als Kämpfer für die gute Sache, die weltoffen sind und die Stadt sowie die ganze Region mit der Veranstaltung aufwerten wollen. Boeing genoss lange Zeit einen besonders guten Ruf bei den Mitarbeitern und in der Bevölkerung und die wichtige wirtschaftlichen Funktionen, die Boeing im Duopol neben Airbus ein- nimmt, prägte das Selbstverständnis der Organisation. Auch hier zeigen sich Parallelen zu den Ereignissen bei der NASA (vgl. Janis, 1971). Collective Rationalization: Konkrete Warnungen werden bei der Planung der Loveparade in der Regel nicht aufgegriffen, sondern mit teils inhaltslosen Argumenten verdrängt. Als Reaktion auf Zweifel an der Durchführbarkeit der Loveparade in Duisburg verweist zum Beispiel der Leiter des Dezernats II darauf, dass der Oberbürgermeister die Veranstaltung wünsche und deshalb eine Lösung gefunden werden müsse. An einer anderen Stelle sagt der Veranstalter, dass es ihm um „tatsächliche“ Probleme gehe und nicht um rechtliche. Bei Boeing gibt es Hinweise, dass Ingenieure in unterschiedlichen Planungsphasen Kritik äußerten, die im Management nicht ausreichend beachtet wurden. Die anonymen Berichte von Ingenieuren besagen, dass bekannt war, dass die Sicherheitsanalysen die Einflussmög- lichkeiten von MCAS untertrieben. Out-Group Stereotypes: Es zeigt sich während der Planung der Loveparade immer wieder, dass kritische Akteure direkt oder indirekt als „Sicherheitsfanatiker“ abgetan wurden, die dem als nobel wahrgenommenen Vorhaben – die Loveparade nach Duisburg im Ruhrgebiet zu holen – entgegenstünden. Bei Boeing zeigt sich der Effekt bei der Ursachenbewertung in der Behauptung, dass die fehlende Kompetenz einiger Piloten aufgrund mangelhafter Ausbildungsstandards in bestimmten Regionen für die Abstürze verantwortlich seien. Self-Censorship: Der Effekt zeigt sich in der letzten Planungssitzung kurz vor der Love- parade mit allen Beteiligten, in der keiner der Kritiker die zuvor geäußerten und nicht gelösten Bedenken anspricht. Illusion of Unanimity: Als Folge der zuvor beschriebenen Effekte, wie Self-Censorship und Collective Rationalization, entsteht die Illusion von Einstimmigkeit, da zuvor kritische Stimmen nicht geäußert oder unterdrückt wurden. Der Effekt zeigt sich zum Beispiel 6 Studien 165 in der eben beschriebenen Planungssitzung vor der Loveparade, in der keine kritischen Meinungen mehr geäußert wurden. Direct Pressure on Dissenters: Direkter Druck auf Personen mit abweichender Meinung zieht sich von Beginn an durch den gesamten Planungsprozess der Loveparade 2010. Der Effekt zeigt sich besonders stark in den Forderungen nach dem Rücktritt des damaligen Duisburger Polizeipräsidenten und in dem Druck, den der Veranstalter und Leiter des Dezernats II auf die Mitarbeiter des Bauamts ausübten. Bei Boeing zeigt sich der Effekt am Beispiel des Ingenieurs, der später als Whistleblower Kritik an den Sicherheitsstandards äußerte und zuvor abteilungsübergreifend zunächst unter Druck gesetzt und anschließend gekündigt wurde. Self-Appointed Mindguards: Als Self-Appointed Mindguard agierte mutmaßlich der Lei- ter des Dezernats II, insofern er kritische Informationen nicht an den Oberbürgermeister weiterleitete. Bei Boeing agierten Mitarbeiter als Self-Appointed Mindguards, wenn sie Probleme, die sich aus der Sicherheitsanalyse ergeben haben, nicht vollständig an ihre Führungskräfte kommuniziert haben sollten, was jedoch nicht eindeutig aus den Unterla- gen hervorgeht. In den Fallstudien zeigen sich einige auffällige Parallelen bezüglich des Entscheidungs- kontextes. Beide Fälle sind durch Zeit- und Erfolgsdruck gekennzeichnet. Boeing wollte unbedingt in wenigen Jahren einen neuen effizienteren Flugzeugtyp auf den Markt brin- gen, um gegenüber Airbus konkurrenzfähig zu bleiben. Bei der Planung der Loveparade hatten die Verantwortlichen nur zehn Monate Zeit, das Event zu planen, was insbesondere aufgrund der ungeeigneten geographischen und logistischen Verhältnisse sowie der mut- maßlichen Verzögerungstaktiken des Veranstalters zu starkem Zeitdruck führte. Zeitdruck führt generell dazu, dass durch die enge Planungstaktung Entscheidungen häufiger durch heuristische Prozesse geprägt sind (Kahneman & Frederick, 2009). In beiden Fällen herrschte ein besonderer Erfolgsdruck. Wenn das erwünschte Ergebnis von vorneherein als so existentiell wahrgenommen und kommuniziert wird, legt dieser starke Wunsch die Grundlage für eine sehr starke Zielorientierung beziehungsweise einen stark ausgeprägten Desirability Bias bei den Verantwortlichen. Der eben beschriebene Zeitdruck verschärft die Situation, weil nicht nur das Ziel selbst nicht zur Debatte steht, sondern auch kaum verschiedene Alternativen zur Erreichung dieses Ziels entwickelt werden. Zum Bei- spiel wurde bei der Loveparade nicht nur – entgegen unterschiedlicher Expertenmeinungen bezüglich der sicherheitskritischen Situation in Duisburg – stark darauf hingewirkt, dass die Loveparade dort dennoch staffindet – es wurde anschließend viel zu wenig ergebnisoffen darüber diskutiert, wie man beispielsweise Wegekonzepte gestalten kann, obwohl bekannt war, dass es Alternativen zur fatalen Tunnellösung gegeben hätte. Bei Boeing hat man sich nicht nur entgegen der Empfehlung der Ingenieure gegen die Entwicklung eines neu- en Flugzeugtyps entschieden, man hat auch bei der Weiterentwicklung der 737-MAX auf 6 Studien 166 einfach umsetzbare Sicherheitsmechanismen verzichtet, die das Risiko für katastrophale Fehlaktivierungen hätten minimieren können. Eine weitere Gemeinsamkeit der beiden Fälle besteht darin, dass jeweils die Kontrollfunkti- on der zuständigen Behörden versagte. Bezüglich der Loveparade wurde der Druck seitens der Politik vom Leiter des Dezernats II übernommen, der, gemeinsam mit dem Veran- stalter, Druck auf die ihm unterstellten und weitere Verwaltungsmitarbeiter ausübte, was diesen die gewissenhafte Ausführung ihrer Tätigkeit stark erschwerte. Im Falle Boeings sourcte die FAA, um den eigenen Ressourcenaufwand zu reduzieren, viele Kontrolltätig- keiten an Boeing selbst aus, die sich folglich zum Teil selbst kontrollierten. Des Weiteren erhoffen sich viele FAA-Mitarbeiter lukrative Anschlussbeschäftigungen bei Boeing oder mit Boeing assoziierten Organisationen und halten sich deshalb mit Kritik an Boeing zurück, wie es mutmaßlich im Falle der Beschwerden des Ingenieurs Woods geschehen ist. In beiden Fällen zeigen sich auch Parallelen darin, wie die Verantwortlichen mit In- formationen zu Fehlern und Problemen aus der Vergangenheit umgehen beziehungsweise diese ignorieren und welche Schlüsse sie nach den beschriebenen Ereignissen über den eigenen Planungsprozess ziehen beziehungsweise nicht ziehen. Bei Boeing waren bereits einige Jahre vor den beiden Abstürzen mit der 737-Max Klagen über Probleme bezüg- lich der Organisationskultur laut geworden, die sich zum Beispiel anhand der gefährlichen Situationen im Zusammenhang mit den Batteriebränden des Dreamliners zeigten. Es fan- den anscheinend keine Lernprozesse statt, denn Kritik wurde nicht angenommen, sondern unterdrückt, wie sich am Beispiel des Ingenieurs Woods zeigte. Diese Kultur und die assoziierten Strukturen bildeten die Grundlage für die fatalen Planungsfehler bei der Ent- wicklung der 737-MAX. Nach dem ersten Absturz hielt Boeing trotz massiver Hinweise auf MCAS als Ursache an dem Standpunkt fest, dass die 737-MAX sicher sei und selbst nach dem zweiten Absturz, als eigentlich kaum noch Zweifel über die Gefahr, die von MCAS ausgingen, blieben, beharrte Boeing auf diesem Standpunkt. Erst nachdem die interna- tionalen Luftfahrtbehörden ein Grounding der 737-MAX erzwungen haben, überarbeitete Boeing die Wirkungsweise von MCAS, das inzwischen als zuverlässig gilt. An dieser Stelle kommt, bei mangelnder Reflektion der Verantwortlichen, die obstruktive Wirkung des Hindsightbias zur Geltung. Wenn sich, wie zuvor bei den Batteriebränden, die Maßnahmen nur auf die technische Weiterentwicklung des betreffenden Systems be- schränken, wird das Symptom bekämpft, nicht aber die tieferliegende Ursache. Die Suche nach der Ursache muss das gesamte System berücksichtigen und liegt in den beschriebenen Fällen unter anderem in einer mangelnden Berücksichtigung des Einflusses der Organisati- onskultur und assoziierter Biases auf organisationale Entscheidungsprozesse. Die Wirkung des Hindsightbias im Nachgang der Loveparadekatastrophe wurde in Kapitel 6.1.2 aus- führlich besprochen. Auch hier führt, neben der Angst vor juristischen Konsequenzen, die mangelnde Einsicht der Akteure dazu, dass eigene Planungsfehler nicht ausreichend oder gar nicht reflektiert werden und stattdessen versucht wird, die Ursache in Einzelheiten 6 Studien 167 des Geschehens vor Ort, wie der Treppe oder dem Verhalten der Polizei zu suchen, die nicht den Kern des Problems darstellen, wie sich bei detaillierter Betrachtung des Gesamt- systems herausstellt. Im Sinne der kognitiven Dissonanzreduktion ist es nachvollziehbar, dass Menschen versuchen das Geschehen so zu attribuieren, dass sie selbst der Meinung sind, keine Verantwortung für ein tragisches Ereignis zu tragen (Self-Serving Bias). Um als Organisation – und auch als Gesellschaft als Ganzes – aus solchen Ereignissen besser lernen zu können, ist es wichtig, eine angemessene Fehlerkultur zu etablieren. Wie zu- vor beschrieben wurde, ist ein zu starker Fokus auf der Schuldfrage nicht hilfreich, weil es dadurch erschwert wird, aus unerwünschten Ereignissen die richtigen Schlüsse zur System- gestaltung zu ziehen. Darüber hinaus verhindert eine mangelhafte Fehlerkultur, dass aus Angst vor Repressalien bereits im Planungsprozess Fehler und Probleme offen diskutiert werden, was essenziell für adäquate Entscheidungsprozesse ist. Im Anschluss an die Ereignisse der Loveparade 2010 äußerten viele der trauernden und leidenden Opfer und Hinterbliebenen das Bedürfnis nach Gerechtigkeit und den Wunsch, dass die Schuldigen zur Verantwortung gezogen werden. Entsprechend groß ist – neben dem Fakt, dass einige kritische Akteure bis heute nicht einmal eine moralische Schuld an- erkannt haben – die Enttäuschung über die juristische Aufarbeitung der Ereignisse (vgl. Kapitel 6.1.2). Bei derartigen Ereignissen, die auf multikausale Ursachen mit vielen betei- ligten Akteuren zurückzuführen sind, kann die Schuldfrage, wie vom Gericht betont, häufig nicht zufriedenstellend geklärt werden. Sicher ist, dass keiner der Akteure die Ereignisse vorsätzlich herbeigeführt hat und im Rahmen dieser Arbeit wurde gezeigt, dass das mitun- ter grob fahrlässige Handeln bestimmter Akteure zumindest zum Teil auf systematischen Biases basiert. Ein weiteres wichtiges Anliegen von Opfern und Hinterbliebenen ist es, dass viel dafür getan wird, dass sich derartige Katastrophen nicht wiederholen. Diesbezüglich hat jede Organisation das Potenzial, die Chancen auf nachhaltigen Erfolg zu erhöhen, wenn es Ressourcen für die Etablierung einer Kultur und entsprechender Strukturen bereitstellt, die das Ausmaß von Biases reduzieren oder deren Auswirkung mitigieren. 6.2 Expertenbefragung Die im Folgenden beschriebene Expertenbefragung entspricht nicht dem praktischen Ein- satz des Fragebogens zur Organisationsdiagnostik. Der zur Anwendung vorgesehene Frage- bogen wird in der Validierungsstudie in Kapitel 6.3 anhand einer Befragung von Probanden der Zielgruppe beschrieben. Die folgende Befragung dient ausschließlich der inhaltlichen Validierung der Items, wie im folgenden Abschnitt genauer beschrieben wird. Entspre- chend beschränken sich die Analysen der Expertenbefragung auf die Zustimmungstendenz und qualitative Kommentare bezüglich Verbesserungspotenzialen. 6 Studien 168 6.2.1 Vorgehen Die quantitative Expertenbefragung dient dem Ziel, Hinweise zur Inhaltsvalidität der in Kapitel 5 entwickelten Fragebogenitems zu erhalten. Dazu wurden, auf Basis der in Kapi- tel 3 erarbeiteten theoretischen Grundlagen, kurze Konstruktdefinitionen zu den Einzel- nen kognitiven, motivationalen und gruppendynamischen Biases beschrieben, welche zum besseren Verständnis mit kurzen Beispielen angereichert wurden. Zu den Konstruktdefini- tionen wurden den Probanden die zugehörigen Items des Fragebogens präsentiert, mit der Aufforderung zu bewerten, inwieweit das beschriebene Verhalten einen Hinweis für den entsprechenden Effekt darstellt. Abbildung 21 zeigt am Beispiel des Optimism Bias den Aufbau des Fragebogens. Abbildung 21 Expertenbefragung – Beispiel Optimism Bias Anmerkung. Beispiel der Expertenbefragung anhand des Optimism Bias. Die Bewertung wird auf einer vierstufigen Likert-Skala unter den Abstufungen trifft gar nicht zu bis trifft völlig zu festgelegt. Ein hoher Wert bedeutet, dass die im jeweiligen Item beschriebene Situation oder Verhaltensweise einen ausgeprägten Bezug zu dem entspre- chenden Bias aufweist. Darüber hinaus besteht auf jeder Seite die Möglichkeit, in einem Freitextfeld Anmerkungen zu den präsentierten Inhalten vorzunehmen. 6 Studien 169 Um die Verständlichkeit zu erhöhen, wurden positiv und negativ gepolte Items mit jeweils spezifischen Instruktionen präsentiert, wie in Abbildung 22, am Beispiel der Availability Heuristic, dargestellt wird. Abbildung 22 Expertenbefragung – Beispiel Availability Heuristic Anmerkung. Beispiel der Expertenbefragung anhand der Availability Heuristic (ohne Kommentar- feld). Die Befragung wurde ausschließlich in elektronischer Form über das Portal soscisurvery.de durchgeführt. Eine Übersicht der gesamten Expertenbefragung befindet sich in Anhang D. 6.2.2 Stichprobe Die Befragung fand zwischen dem 21.10.21 und 28.01.2022 statt. Die Stichprobe besteht zum einen aus Wissenschaftlichen Mitarbeitern der Universität Kassel und wurde zum anderen über die Plattform surveycircle.com aquiriert. Als Anreiz zur Teilnahme wurden fünf Amazongutscheine im Wert von jeweils 10 Euro ausgelobt. Zudem wurde pro Teil- nahme 1 Euro an die Welthungerhilfe gespendet. Um potenzielle Probanden nicht von vorneherein auszuschließen, wurde kein spezifisches Expertenwissen bezüglich individuel- ler oder gruppendynamischer Biases zur Teilnahme vorausgesetzt. Stattdessen wurde in den demographischen Daten erfasst, wie hoch die entsprechende Expertise der Probanden ist. Insgesamt wurde der Fragebogen 100 mal aufgerufen. Alle Fälle, bei denen weniger als 50% der Fragen beantwortet wurden oder die eine auffällig kurze Bearbeitungszeit von 6 Studien 170 weniger als fünf Minuten (Mittelwert: 11:45) aufweisen, wurden aus der Stichprobe aus- geschlossen. Zudem wurden fünf Probanden aus der Stichprobe entfernt, die insofern ein auffälliges Antwortmuster aufweisen, als dass sie bei allen Items den maximalen Wert von vier vergaben. Übrig geblieben sind 63 Probanden, davon 73% weiblich und 27% männlich. 92% der Be- fragten sind zwischen 20 und 34 Jahre alt . Als höchsten Abschluss geben 40% der Befrag- ten das Abitur an, 41% besitzen einen Bachelorabschluss, 13% einen Masterabschluss und 5% den Doktor-Grad. 63% der Probanden geben an, sich im Studium zu befinden, während 37% berufstätig sind. Bei den Studierenden sind die häufigsten Fächer Psychologie (17%), Wirtschaftspsychologie (11%) und Wirtschaftswissenschaften oder Betriebswirtschaftsleh- re (10%). Vorhandene Kenntnisse zu den Themen kognitive Biases und gruppendynamische Biases bewerteten die Probanden jeweils auf einer vierstufigen Skala, wie in den Abbildungen 23 und 24 dargestellt. Abbildung 23 Kenntnisse der Probanden im Bereich kognitiver Biases Anmerkung. Erfassung des Kenntnissstands zum Vergleich zwischen Laien und Experten. Ein ähnliches Bild zeigt sich bei der Angaben zu der Anzahl an Heuristiken und Biases, die den Befragten bereits bekannt sind. Diese Angaben korrelieren bei den individuellen Bia- ses mit r=.54 mit dem berichteten Kenntnissstand. Bei den gruppendynamischen Biases beträgt die entsprechende Korrelation r=.73. Die Erfassung des Kenntnissstands bietet später die Möglichkeit, die Ergebnisse in Ab- 6 Studien 171 Abbildung 24 Kenntnisse der Probanden im Bereich gruppendynamischer Biases Anmerkung. Erfassung des Kenntnissstands zum Vergleich zwischen Laien und Experten. hängigkeit der Expertise auszuwerten. Da die Beurteilung der Validität der präsentierten Items nicht trivial ist, kann somit potenziell die Plausibilität der Items aus Sicht von Laien von der Bewertung durch Fortgeschrittene beziehungsweise Experten unterschieden werden. 6.2.3 Ergebnisse Abbildung 25 zeigt für die 43 Items des Fragebogens jeweils das arithmetische Mittel sowie die Standardabweichung der Bewertungen durch die 63 Probanden. Die Zuordnung der Itemnamen zu den Itemlabels lässt sich Anhang A entnehmen. Der niedrigste Mittelwert liegt bei 2.85, und damit noch über der Skalenmitte der 4- stufigen Likert-Skala von 2.5, während der maximale Mittelwert 3.62 beträgt. Der Durch- schnitt der Mittelwerte über alle 43 Items liegt wiederum bei 3.21, die mittlere Standardab- weichung bei .87. Die Befragung zeigt somit insgesamt eine zufriedenstellende Bewertung der Passung zwischen den Operationalisierungen und den zu messenden Konstrukten. Im Folgenden wird analysiert, ob Unterschiede bei der Gütebewertung zwischen Laien und Experten bestehen. Bezüglich der individuellen Biases – und analog dazu bezüglich der gruppendynamischen Biases – werden jene Probanden der Gruppe der Laien zuge- ordnet, die in den demographischen Daten bei dem Item: „Bitte geben Sie an, inwieweit Sie bereits Kenntnisse im Bereich Cognitive Biases/kognitive Verzerrungen haben“ mit 1 oder 2 geantwortet haben (vgl. Abbildung 23). Die Gruppe der Experten umfasst ent- 6 Studien 172 Abbildung 25 Expertenbeurteilung bezüglich der Inhaltsvalidität Anmerkung. Darstellung der Mittelwerte und Standardabweichung der Validitätsurteile der n=63 Probanden. sprechend jene Probanden, die mit 3 oder 4 geantwortet haben. Insgesamt basiert der Laien-Experten-Vergleich bei den individuellen Biases demnach auf der Bewertung von n=32 Laien und n=31 Experten. Bei der Bewertung der gruppendynamischen Biases sind es n=34 Laien und n=28 Experten. Im Mittel bewerteten die Experten die Items mit 3,31 (stdv: .8) und schätzten diese damit als geringfügig adäquater zur Erfassung der Biases ein als die Laien (M=3.21; stdv: .87). Gemäß einem zweiseitigen t-Test unterscheiden sich die Mittelwerte nicht signifikant (p=.07). In den offenen Kommentarfeldern wurden zu den 18 Biases insgesamt 24 Eingaben getätigt. An dieser Stelle werden einige relevante Beispiele besprochen. So lautet eine Anmerkung: Mitarbeiter*innen UND Führungskräfte. Ist schwer zu beurteilen, wenn für die einen "ja"gilt und für die anderen "nein"gilt! Das gilt bei den meisten Items. Sie sind auf Organisationsebene formuliert. Wenn man aber an Mitarbei- ter*innen und die eigene Führungskraft gleichzeitig denken soll, ist es manchmal schwer ein Urteil zu abzugeben, wenn beide (Gruppen) sehr stark differieren. Die Kritik macht die Problematik deutlich, dass die Verknüpfung UND aus logischer Sicht impliziert, dass die Bedingung für beide Personengruppen gegeben sein müsste, damit eine Zustimmung erfolgen kann. Von daher sind die betreffenden Items zukünftig so abzuän- dern, dass anstatt und die Konjunktion oder oder beziehungsweise verwendet wird, um deutlich zu machen, dass es für eine Zustimmung ausreicht, wenn eine der beiden Perso- nengruppen das Verhalten zeigt. Alternativ können die beiden Gruppen Mitarbeiter und 6 Studien 173 Führungskräfte zur Vereinfachung auf die Ebene Organisationsmitglieder beziehungsweise Gruppenmitglieder verallgemeinert werden. Schließlich kann der Hinweis, dass beide Grup- pen ggf. stark differieren, implizieren, dass eine Bewertung für beide Gruppen getrennt durchgeführt werden sollte, was allerdings unter ökonomischen Gesichtspunkten bezüglich des Einsatzes zeitlicher und kognitiver Ressourcen bei der Durchführung des Fragebogens abgewogen werden muss. Zu dem Item „In Entscheidungsprozessen werden primär den bestehenden Ansichten zu- stimmende Argumente aufgenommen und ausgetauscht.“ (Confirmation Bias), schreibt ein Proband: „Bzgl. Frage 3: diese Phänomen könnte z.B. auch auf Groupthinking [sic!] zurückzuführen sein beziehungsweise auf weitere Phänomene“. Die Kritik macht ein Problem deutlich, dass zum einen mit konzeptuellen Überschnei- dungen sowie gegenseitigen Abhängigkeiten unterschiedlicher Biases zusammenhängt (vgl. Kapitel 3.5), aber vor allem auch damit, dass bestimmte Verhaltensweisen Ursache bezie- hungsweise Indikatoren für verschiedene Biases sein können. Zudem wurde in Kapitel 3.4.1 beschrieben, dass insbesondere diverse Facetten von Groupthink auf Verhaltensweisen hin- deuten, die als das Auftreten individueller Biases auf Gruppenebene interpretiert werden können. Diese Problematik beziehungsweise Limitation wird im Schlussteil der Arbeit noch einmal aufgegriffen. Eine itemübergreifende Anmerkung, die sich auf den gesamten Fragebogen bezieht, lautet: Ich finde es allgemein schwierig zu sagen, dass ein bestimmtes Verhalten in einer bestimmten Situation eindeutig ein Hinweis auf einen Bias ist oder nicht, das Verhalten kann situationsbedingt viele Ursachen haben und muss nicht unbedingt stabil auftreten. In ähnlicher Weise beschreibt die folgende Aussage diese Problematik anhand eines kon- kreten Beispiels : Ich finde alle drei Fragen nicht geeignet zur Bewertung beziehungsweise als Hinweise auf einen geringem oder hohen Grad an Social Loafing, da aus keiner Frage hervorgeht, wie sich die Mitglieder dann tatsächlich VERHALTEN. Zwi- schenziele können ja definiert werden, aber das heißt ja nicht, dass ein Mitglied trotzdem Kein Social Loafing zeigen kann. Genauso die Arbeitspakete: Mitgleider müssen die Pakete ja nicht erfüllen – dass sie existieren beziehungsweise individuell zugeordnet werden sagt ja noch nichts über das letztliche tatsächliche Verhalten der Gruppenmitglieder aus. Diese Anmerkungen sind potenziell darauf zurückzuführen, dass darauf verzichtet wur- de, die Logik des im Theorieteil dieser Arbeit beschriebenen Untersuchungsmodells zu erläutern, nach der bestimmte kulturabhängige Verhaltensweisen als wahrscheinlichkeits- steigernd, aber nicht als zwingende Ursache für bestimmte Biases betrachtet werden. So stellen die Items keine direkte Operationalisierung der Phänomenologie der Biases dar, son- dern kulturell geprägte Verhaltensweisen im Planungskontext, welche die Auftretenswahr- scheinlichkeit der entsprechenden Biases potenziell beeinflussen. Dieser Sachverhalt hätte ggf. expliziter erklärt werden sollen. Um die Verständlichkeit der Befragung zu gewährleis- 6 Studien 174 ten und eine bessere Rücklaufquote zu erhalten, wurde darauf verzichtet. Das Vorgehen stützt sich zudem auf den Fakt, dass den Befragten bei der Nutzung des tatsächlichen In- struments die Logik des potenziellen Zusammenhangs zwischen den Verhaltensweisen und den Biases nicht bewusst sein muss, um ihre eigene Arbeitssituation zu bewerten. So war es von Beginn an das Ziel, dass der Fragebogen einfach bewertbare Verhaltensweisen um- fasst, um dessen Praxistauglichkeit zu gewährleisten. Die eingangs beschriebene, trotzdem insgesamt recht hohe Zustimmung bezüglich der Passung zwischen Operationalisierungen und Konstruktdefinitionen deutet darauf hin, dass die meisten Probanden die Logik des Zusammenhangs intuitiv angenommen haben. Weitere Anmerkungen in den Kommentarfeldern bieten Potenzial, sie bei der Weiterent- wicklung des Fragebogens zu nutzen, werden an dieser Stelle aber nicht weiter thematisiert. Eine vollständige Übersicht der Kommentare befindet sich in Anhang E. 6.3 Validierungsstudie In diesem Abschnitt wird die Validierungsstudie beschrieben im Rahmen derer Organisa- tionsmitglieder mit Planungsverantwortung die eigenen Prozesse bewerteten. Dazu wurde eine Stichprobe mit Probanden unterschiedlicher Organisationen und Branchen gewählt, um eine repräsentative Datenbasis zu erhalten, die nicht durch die Gegebenheiten einer bestimmten Organisation geprägt ist. Wenn es um die tatsächliche Diagnostik geht, sollen natürlich pro Organisation bzw. Organisationseinheit alle verfügbaren Gruppenmitglieder befragt werden. Dabei könnte eine repräsentative Stichprobe, wie in dieser Studie, z. B. als Eichstichprobe für einen Normvergleich dienen. Allerdings haben sich in der zuvor be- schriebenen Expertenbefragung in den qualitativen Kommentaren bereits einige Verbesse- rungsvorschläge ableiten lassen. Das war im Rahmen der Neuentwicklung des Instruments und des explorativen Charakters der Thematik zu erwarten, weshalb – nach einer Anpas- sung verschiedener Items bzw. Skalen – mindestens eine weitere Befragung zur Validierung indiziert ist, wie auch die Analysen im folgenden Abschnitt zeigen werden. Dabei geben bereits deskriptive Statistiken zur Reliablität und Item- bzw. Skalenverteilungen sowie die qualitativen Kommentare hilfreiche Ansätze, die – neben den überwiegend zufriedenstel- lenden Ergebnissen – Verbesserungspotenzial aufzeigen. Insofern wurde auf tiefgreifendere Analysen, wie eine Faktorenanalyse, zur Bestimmung der faktoriellen Validität, zunächst verzichtet, da hierfür zum einen eine größere Stichprobe angebracht ist (Osborne & Co- stello, 2004). Zum anderen bieten sich bereits auf Basis der im folgenden beschriebenen Analysen einige Veränderungsansätze, so dass eine tiefergreifendere Analyse nach einer Überarbeitung des Fragebogens sinnvoll erscheint. 6 Studien 175 6.3.1 Vorgehen Das Ziel der Validierungsstudie ist es, die Testgüte und die Gebrauchstauglichkeit des Fra- gebogens anhand der tatsächlichen Zielgruppe – Probanden, die aktiv an organisationalen Planungsprozessen beteiligt sind – zu prüfen. Mittels der Instruktion „Bitte geben Sie an, inwieweit die folgenden Aussagen die Situation bei Ihrer Arbeit beschreiben“ werden die Probanden aufgefordert, die 43 Items des Fragebogens auf einer 6-stufigen Likert-Skala von „trifft überhaupt nicht zu“ bis „trifft völlig zu“ zu beantworten. Zudem kann mit- tels der Option „Kann ich nicht beantworten“ signalisiert werden, dass die Aussage sich inhaltlich nicht auf die eigene Arbeitssituation übertragen lässt (Abbildung 26). Abbildung 26 Ausschnitt des finalen Fragebogens Anmerkung. Beispielhafter Ausschnitts des finalen Fragebogens. Um kognitive Anforderungen zu verringern und bestimmte Antwortverzerrungen zu ver- meiden, wurden die positiv formulierten Items und die invertierten, also negativ formulier- ten Items, in getrennten Blöcken präsentiert. Als erstes wurden die 15 positiv formulierten Items zu individuellen Biases präsentiert, gefolgt von sechs negativen Items zu individu- ellen Biases. Anschließend folgen 13 negativ formulierte Items zu gruppendynamischen Biases, gefolgt von neun positiv formulierten Items zu gruppendynamischen Biases. Zum Schluss wird mit dem Item „Wie beantworten Sie insgesamt die Qualität der Planungs- und Entscheidungsprozesse in Ihrer Organisation oder Abteilung?“ ein Globalurteil er- fragt, das auf einem Schieberegler von „Sehr geringe Qualität“ bis „Sehr hohe Qualität“ beantwortet wird (1-100; Abbildung 27) und als Kriterium dient. Eine vollständige Übersicht des Fragebogens befindet sich in Anhang B (Paper-pencil) bzw. Anhang C (elektronisch). Eine Übersicht aller Items lässt sich Anhang A entnehmen. 6 Studien 176 Abbildung 27 Bewertung der Entscheidungsqualität als Kriterium Anmerkung. Bewertung der Entscheidungsqualität, als Basis zur Ermittlung der Kriteriumsvalidi- tät. 6.3.2 Stichprobe Die Befragung fand zwischen dem 13.09.2021 und 24.01.2022 statt. Die Stichprobe umfasst Personen, die in verschiedenen Berufen und Branchen aktiv in organisationale Planungs- prozesse einbezogen sind. Die Einladung zur Umfrage wurde per E-Mail an entsprechend ausgesuchte Personen versendet. Insgesamt wurde der Fragebogen 65 mal aufgerufen. Pro- banden, die weniger als 50% des Fragebogens bearbeitet haben sowie eine Person mit einer auffällig kurzen Bearbeitungszeit (19s), wurden aus dem Datensatz entfernt. Übrig bleibt eine Stichprobe von n=42. 62% der Befragten sind männlich, 36% weiblich und eine Person divers (2%). Knapp 50% sind zwischen 20 und 39 Jahren alt, die andere Hälfte entspre- chend 40 oder älter (Abbildung 28). Abbildung 28 Häufigkeitsverteilung der Altersgruppen Anmerkung. Absolute Häufigkeiten der Altersgruppen. Als höchsten Abschluss gaben 7% der Befragten den Bachelor-Abschluss, 45% einen Master- Abschluss und 48% den Doktor-Grad an. Zu den Angaben der Branchen gehören unter 6 Studien 177 anderem: Wissenschaft, Ingenieurwesen, Luftfahrt, Risikomanagement und Chemie. Bei- spiele für die angegebenen Berufe sind: Wissenschaftlicher Mitarbeiter, Ereignisanalytiker, Senior Consultant, Projektingenieurin, Principal Investigator und Cockpit Engineer. Die Probanden wurden zudem gefragt „Wie hoch ist der Anteil von Routinetätigkeiten an Ihrer Arbeit und wie hoch der Anteil von Prozessen, die neuartigen [sic!] Entschei- dungen erfordern.“ Wie sich Abbildung 29 entnehmen lässt, trifft ein Großteil der Proban- den überwiegend neuartige Entscheidungen. Neuartige Entscheidungen in organisationalen Planungsprozessen, die mit einem hohen Maß an Unsicherheit behaftet sind und die An- fälligkeit dafür, dass Heuristiken in situationsspezifischen Entscheidungssituationen eine verzerrte Entscheidung verursachen, sind der Kern der Problemstellung dieser Arbeit (vgl Kapitel 1.1.2), weshalb die Stichprobe adäquat erscheint. Abbildung 29 Anteil von Routinetätigkeiten gegenüber neuartigen Entscheidungen Anmerkung. Absolute Häufigkeiten bezüglich des Anteils neuartiger bzw. routinemäßiger Entschei- dungen an allen Entscheidungen. Schließlich wurden die Probanden gefragt: „Wie groß ist der Anteil von Gruppenprozes- sen an Ihrem Arbeitsalltag? (Besprechungen oder Aufgaben, die Sie mit mindestens zwei weiteren Personen erledigen).“ Abbildung 30 zeigt, dass ein überwiegender Anteil der Pro- banden einen bedeutsamen Anteil an ihrer Arbeit in Gruppenprozessen bewältigt und somit auch eine gute Basis zur Beantwortung der Items zu gruppendynamischen Biases besteht. 6.3.3 Ergebnisse Zur Auswertung wurden die invertierten Items zunächst so rekodiert, dass eine hohe po- sitive Ausprägung bei sämtlichen Items für ein geringes Risiko des entsprechenden Bias beziehungsweise für einen adäquaten Entscheidungsprozess steht. Anschließend wurden 6 Studien 178 Abbildung 30 Anteil von Gruppenprozessen an der Gesamttätigkeit Anmerkung. Absolute Häufigkeiten bezüglich des Anteils von Gruppenprozessen an allen Entschei- dungsprozessen. für die einzelnen Biases kurze Skalen (zwei beziehungsweise drei Items), basierend auf dem ungewichteten Mittelwert aller zugehörigen Items, gebildet. Um die Reliabilität zu bestimmen, wurde für alle Skalen mit drei Items Cronbachs Alpha berechnet, während für diejenigen Skalen, die nur aus zwei Items bestehen – in Anlehnung an die Empfehlung von Eisinga, te Grotenhuis und Pelzer (2013) – der Spearman-Brown-Koeffizient bestimmt wurde. Die Ergebnisse lassen sich Tabelle 3 entnehmen. Auffällig ist, dass die drei Skalen zum Availability Bias, zum Anchoring Bias und zur Illusi- on of Unanimity gar keine oder sogar eine negative interne Konsistenz aufweisen. Aufgrund der Kürze der Skalen mit zwei Items lässt sich auf statistischer Basis keine Aussage bezie- hungsweise bei drei Items nur sehr bedingt eine Aussage über die Ursache treffen. Deshalb wird die Reliabilität der betreffenden Skalen beziehungsweise Items später auf inhaltlicher Basis, auch unter Einbezug der Korrelationen mit dem Kriterium, ausführlicher beschrie- ben. Alle anderen Skalen weisen interne Konsistenzen zwischen .58 und .84 – im Mittel .67 – auf. Als Faustregel gelten Werte ab .7 als akzeptabel, allerdings sollte die Interpretation der internen Konsistenz nicht pauschal erfolgen, sondern von diversen weiteren Faktoren abhängig gemacht werden (Taber, 2018). Ein wichtiger Aspekt ist hierbei, dass Cronbachs Alpha, neben der durchschnittlichen Korrelation zwischen allen Einzelitems die Anzahl der Items berücksichtigt. Das Hinzufügen weiterer Items erhöht den Wert von Cronbachs Alpha entsprechend auch dann, wenn diese insgesamt zu keiner höheren durchschnittlichen Korrelation der Items untereinander führen. Das ist insofern plausibel, als dass zusätzli- che Items – auch bei gleichbleibendem Durchschnittswert – insgesamt die Fehlervarianz reduzieren. Allerdings gilt es zu bedenken, dass Cronbachs Alpha die Reliabilität längerer Skalen tendenziell überschätzt und entsprechend die sehr kurzer Skalen etwas unterschätzt, wie im Fall dieser Arbeit. Des Weiteren halten Schermelleh-Engel und Werner (2012) im Bereich der Kollektivdiagnostik, wie hier im Beispiel der Organisationsdiagnostik, eine 6 Studien 179 Tabelle 3 Reliabilität der Skalen Skala Reliabilität Individuelle Biases Overconfidence Bias α=.58 Optimism Bias ρ=.84 Availability Heuristic ρ=0 Confirmation Bias α=.67 Desirability Bias ρ=.59 Self-Serving Bias α=.72 Anchoring Bias α=0 Sunk-Cost Fallacy α.72 Gruppendynamische Biases GT – Illusion of invulnerability ρ=.65 GT – Belief in inherent morality of the group ρ=.65 GT – Collective Rationalization ρ=.59 GT – Out-group stereotypes ρ=.61 GT – Self-censorship ρ=.62 GT – Illusion of unanimity ρ=-.13 GT – Direct pressure on dissenters α=.62 GT – Self-appointed mindguards ρ=.81 Social loafing α=.79 False-consensus effect ρ=.59 Anmerkung. Angabe des Spearman-Brown-Koeffizienten (ρ) für Zwei-Item-Skalen sowie Cronbachs Alpha (α) für Drei-Item-Skalen. 6 Studien 180 geringere Reliabilität für vertretbar, da sich Messfehler durch die Mittelwertberechnung diverser Individuen reduzieren. Zudem sind beim Screening kürzere und ökonomische In- strumente zu bevorzugen, für die eine gewisse Einschränkung der Realibilität in Kauf genommen werden kann – ein Punkt, der bei der Konstruktion dieses Fragebogens eine wichtige Rolle spielte. Weiterhin spielt es bei der Interpretation von Cronbachs Alpha eine Rolle, ob die betreffenden Skalen ein sehr homogenes oder eher heterogenes Konstrukt messen (Schermelleh-Engel & Werner, 2012). Organisationale Verhaltensweisen, die das Auftreten bestimmter Biases wahrscheinlicher machen, lassen sich tendenziell als eher he- terogen einstufen. Hierbei kann die Ermittlung der Retest-Reliabilität zukünftig weitere Aufschlüsse liefern. In Anbetracht der genannten Aspekte wird, abgesehen von den drei hervorgehobenen Ska- len, die interne Konsistenz aller weiterer Skalen als akzeptabel betrachtet, auch wenn natürlich Optimierungsbedarf bezüglich der Änderung, Löschung beziehungsweise dem Hinzufügen weiterer Items in diesem Stadium einen wichtigen nächsten Schritt darstel- len, weswegen jedes Item und jede Skala unter parallelem Einbezug statistischer und in- haltlicher Überlegungen detailliert zu betrachten ist, was beispielhaft weiter unten und schließlich in Kapitel 7 noch einmal thematisiert wird. Abbildung 32 zeigt die Verteilung der unterschiedlichen Skalen als Boxplots, nach dem arithmetischen Mittel absteigend sortiert. Als Interpretationshilfe wird in Abbildung 31 die Bedeutung der in den Boxplots enthaltenen Statistiken erläutert. Im zukünftigen praktischen Einsatz lassen sich – bei Zugehörigkeit aller Befragten zu einer Organisation oder Organisationseinheit – im Sinne des Screenings potenziell erste Schlüsse über die Anfälligkeit bezüglich bestimmter Biases beziehungsweise der assoziierten Verhal- tensweisen erkennen. Im Rahmen der Validierung, bei der die Befragten unterschiedliche Organisationen bewerteten, zeigt dieser erste Blick keine besonderen Auffälligkeiten bezüg- lich der Skalenwertverteilung. Um einen besseren Eindruck über die Itemgüte zu erhalten, wird deshalb in Abbildung 33 die Verteilung der einzelnen Items, ebenfalls als Boxplots, dargestellt. Die Verteilung der Items ist zufriedenstellend, insofern kaum Boden- oder Deckeneffekte auftreten, die – im Sinne der Itemschwierigkeit – auf zu schwierige beziehungsweise zu ein- fache Items hindeuten würden. Analog zu einem Leistungstest steht bei einer derartigen Meinungsabfrage ein leichtes Item für eine starke Zustimmungstendenz beziehungsweise ein schwieriges Item für eine geringe Zustimmungstendenz. Weist ein Item starke Ablehnungs- oder Zustimmungstendenzen an den Enden der Likert-Skala auf, kann das Item nicht gut zwischen Probanden mit unterschiedlichen Ansichten unterscheiden, was sich wiederum negativ auf die Trennschärfe des Items auswirkt. Im vorliegenden Fall weisen lediglich zwei Items der Facette Direct pressure on dissenters von Groupthink Deckeneffekte auf. Die Items lauten wie folgt: „Es kommt vor, dass Druck auf Gruppenmitglieder mit abwei- 6 Studien 181 Abbildung 31 Erläuterung des Boxplot-Diagramms Anmerkung. Darstellung der unterschiedlichen Elemente eines Boxplot-Diagramms. Abbildung 32 Skalenwertverteilungen Anmerkung. Verteilung der Skalenwerte, dargestellt als Boxplots, absteigend sortiert. Hohe Werte indizieren eine geringe Anfälligkeit für den entsprechenden Effekt. 6 Studien 182 Abbildung 33 Itemwertverteilungen Anmerkung. Verteilung der Itemwerte, dargestellt als Boxplots, absteigend sortiert. Hohe Werte indizieren eine geringe Anfälligkeit für den entsprechenden Effekt. chender Meinung ausgeübt wird.“ und „Es kommt vor, dass kritische Meinungsträger von Gruppenprozessen ausgeschlossen werden.“. Hier werden sehr gravierende Verhaltenswei- sen angesprochen, weswegen eine tendenziell sehr positive Bewertung – welche eine geringe Ausprägung der Verhaltensweisen indiziert – zu erwarten ist. Denkbar ist eine weitere Stei- gerung der Schwierigkeit durch eine Formulierung wie „Es kommt hin und wieder vor, ... “, um Deckeneffekte zukünftig zu vermeiden. Am Ende des Fragbogens wurden die Probanden aufgefordert, ein Globalurteil zur Quali- tät der Planungs- und Entscheidungsprozesse in ihrer Organisation abzugeben. Das Item bewerteten die Probanden auf einem Schieberegler, der ein Ergebnis zwischen 0 (sehr ge- ringe Qualität) und 100 (sehr hohe Qualität) darstellt. Das Histogramm in Abbildung 34 zeigt die Verteilung der Bewertungen. Zwischen dem arithmetischen Mittel über sämtliche Items und dem Globalurteil besteht eine Korrelation von r=.6. Der Wert zeigt einen hohen Zusammenhang zwischen den im Fragebogen erfasssten biasbezogenen Verhaltensweisen und dem Qualitätsurteil der eige- nen Entscheidungsprozesse. Der Wert ist insofern zufriedenstellend, als dass das Quali- tätsurteil natürlich auch von anderen, nicht erfassten Variablen abhängt und – aufgrund der gleichen Erhebungsweise der Prädiktoren und des Kriteriums mittels Fragebogen – ein noch stärkerer Zusammenhang auch als Hinweis auf Methodenverzerrung hätte interpre- tiert werden können. 6 Studien 183 Abbildung 34 Häufigkeitsverteilung des Globalurteils bezüglich der Entscheidungsprozesse Anmerkung. Histrogramm der Verteilung des Globalurteils auf einer Skala von 1 bis 100. Zur Bestimmung der Kriteriumsvalidität wurde die Korrelation zwischen den Skalen und diesem Globalurteil herangezogen. Abbildung 35 zeigt die entsprechenden Ergebnisse, sor- tiert nach der Effektstärke. Abbildung 35 Korrelation zwischen den Skalen und dem Kriterium Anmerkung. Korrelation zwischen den Skalen und dem Kriterium zur Ermittlung der Kriteriums- validität. ** Signifikant bei p<.001 (zweiseitig); * Signifikant bei p<.05 (zweiseitig) Zehn der Effekte weisen einen signifikanten Zusammenhang mit dem Globalurteil auf, die anderen acht tun dies nicht. Die Fehlerbalken zeigen jeweils das 95%-Konfidenzintervall des Korrelationskoeffizienten. Auffällig ist, dass diejenigen Biases, deren Auftreten die größte Korrelation mit dem Qualitätsurteil der Planungs- und Entscheidungsprozesse auf- 6 Studien 184 weisen, eine augenscheinlich hohe Übereinstimmung mit den im Rahmen der Fallstudien am häufigsten identifizierten Effekten aufweisen. So stimmen drei der fünf jeweils als am relevantesten identifizierten Effekte überein (Tabelle 4). Tabelle 4 Die einflussreichsten Biases in den Fallstudien und der Validierungsstudie Fallstudien Validierungsstudie Desirability Bias Desirability Bias Optimism Bias Overconfidence Bias Direct Pressure on Dissenters Confirmation Bias Collective Rationalization Collective Rationalization Self-Appointed Mindguards Optimism Bias Anmerkung. Verlgeich der fünf als bedeutsamsten identifizierten Biases in den Fallstudien gegen- über der Validierungsstudie. In beiden Fällen sind die Operationalisierungen der Items sowie der Grad der Identifi- zierbarkeit der Effekte in Fallstudien beziehungsweise in den eigenen Planungsprozessen als mögliche Störvariablen gegenüber der tatsächlichen Relevanz zu berücksichtigen, wie in Kapitel 6.1.3 für die Fallstudien ausführlich beschrieben wurde. Die Rangkorrelation nach Spearman für alle in den Fallstudien identifizierten Biases mit deren entsprechenden Werten der Kriteriumskorrelation umfasst moderate r=.35. Dabei führen die in Kapitel 6.1.3 bezüglich der Fallstudien genannten einschränkenden Faktoren eher dazu, dass die Korrelation den wahren Zusammenhang unterschätzt und damit ein stärkerer Validitäts- hinweis für die Items des Fragebogens darstellt, als der Wert annehmen lässt. So wurde das Problem, dass viele Biases konzeptuell konfundiert sind, beschrieben. Ein deutliches Bei- spiel hierfür sind der Confirmation Bias und der Desirability Bias (vgl. auch Tappin et al., 2017). Während in den Fallstudien für jeden bewerteten Sachverhalt eine Entscheidung, meistens für den Desirability Bias, getroffen wurde, nehmen in der empirischen Erhebung – mit Platz 1 beziehungsweise Platz 3 bezüglich der Effektstärken – beide Phänomene eine bedeutsame Rolle ein. Ein weiteres Beispiel ist, dass Direct Presure on Dissenters bei den Fallstudien am dritthäufigsten auftritt, bei der Fragebogenstudie hingegen im Vergleich nur den 11. Rang einnimmt. So handelt es sich um einen sehr schwerwiegenden Sach- verhalt, der entsprechend selten auftritt, weswegen im Fragebogen bei den zugehörigen Items Deckeneffekte festgestellt wurden (vgl. Abbildung 33). Die Fallstudien stellen je- weils Extrembeispiele fehlgeschlagener Planungsprozesse dar, bei denen der direkte Druck auf Abweichler als gut dokumentierte Vorkommnisse leicht identifiziert werden konnte. In Anbetracht dieser Abweichungen lässt sich die dennoch hohe Übereinstimmung der re- levantesten Effekte in Abbildung 4, im Kontext unabhängiger Erhebungsmethoden, als vielversprechender Validitätshinweis deuten. 6 Studien 185 Eine ausführliche Diskussion der in Abbildung 35 dargestellten Ergebnisse und die darin implizierte Relevanz der einzelnen Effekte findet in Kapitel 7 statt. Zunächst sind Skalen, die keine signifikante und in einem Fall sogar eine negative Korrelation aufweisen, näher zu betrachten. Die am stärksten betroffenen Skalen fielen bereits bei der Berechnung der internen Konsistenzen auf, da die jeweils zugrunde liegenden Items kaum oder gar keine Konsistenz miteinander aufweisen. Insbesondere bei Skalen mit nur zwei Items konnte hier auf statistischer Ebene keine Aussage über die Ursache getroffen werden. Ersatzweise kann die Korrelation der Items mit dem Kriterium, also dem Globalurteil, und die Trenn- schärfe der Items, also deren Korrelation mit dem Mittelwert aller Items, Hinweise geben, die eine inhaltliche Thematisierung und anschließend ggf. eine Löschung oder Änderung der betreffenden Items impliziert. Abbildung 36 zeigt für sämtliche Items die korrigier- te Trennschärfe und deren Korrelation mit dem Kriterium, absteigend sortiert nach der Korrelation mit dem Kriterium. Abbildung 36 Trennschärfe und Korrelation mit dem Kriterium aller Items Anmerkung. Korrelation aller Items mit dem Kriterium und Trennschärfe aller Items, sortiert nach der Korrelation mit dem Kriterium. Beispielhaft soll das Item Anchoring 3 betrachtet werden: „Es entstehen spontane Dis- kussionen auf Basis anfänglicher Informationen“. Das Item, das den Anchoring Effect erfassen soll, weist eine negative Trennschärfe auf (r=-.29) und ist gleichzeitig deutlich negativ mit dem Kriterium korreliert (r=-.43). Entgegen der ursprünglichen Annahme, ist eine hohe Ausprägung dieses invertierten Items mit einer hohen Bewertung der Qualität der Planungs- und Entscheidungsprozesse assoziiert. An dieser Stelle kann inhaltlich argu- mentiert werden, dass das Item zu unspezifisch formuliert ist, denn spontane Diskussionen zu Beginn eines Planungsprozesses können positive Implikationen für den Planungspro- 6 Studien 186 zess haben, zum Beispiel im Kontext von Brainstorming. Das Item sollte eigentlich die negativen Aspekte des Anchoring Effects deutlich machen und könnte folglich zum Bei- spiel folgendermaßen umformuliert werden: „Es entstehen spontane Diskussionen auf Basis anfänglicher Informationen, bevor die Gruppenmitglieder genug Zeit hatten, alle verfüg- baren Informationen zu verarbeiten“ oder ein positiv formuliertes Item wie: „Bevor ein Lösungsweg ausführlich diskutiert wird, werden unterschiedliche Sichtweisen der Grup- penmitglieder ausreichend besprochen“. Ähnliches gilt für das Item Availability 2 zur Availability Heuristic: „Bei Problemdis- kussionen werden häufig Ad-hoc-Argumente erfahrener Mitarbeiter*innen als Datenquelle verwendet.“. Die Problematik bezüglich erfahrungsbasierter Expertise in neuartigen Situa- tionen im Kontext kognitiver Biases wurde zu Beginn der Arbeit beschrieben (vgl. Kapitel 1.1.2). Dabei wurde angemerkt, dass derartige Expertise auf der anderen Seite dennoch auch sehr hilfreich sein kann, was erklären könnte, warum das Item eine negative Trenn- schärfe (r=-.37) und einen ambivalenten beziehungsweise gar keinen Zusammenhang mit dem Kriterium (r=0) aufweist. Hier ist ebenfalls eine Umformulierung des Items indiziert, welche stärker auf negative Aspekte von erfahrungsbasierter Expertise abzielt, indem zum Beispiel hinzugefügt wird, dass derartige Ad-hoc-Argumente zulasten einer datenbasierten, tiefergreifenden Analyse verwendet werden. Ein weiteres Item, Sunk-Cost 2, beschäftigt sich mit der Sunk-Cost Fallacy: „Der Abbruch eines Projekts wird in der Organisation wertfrei und als unter Umständen angemessene Reaktion auf sich ändernde Bedingungen oder Einschätzungen betrachtet.“ Auffällig ist hier die Diskrepanz zwischen Trennschärfe (r=.34) und Korrelation mit dem Kriterium (r=-.24). Das Item korreliert also in gewissem Maß mit dem Auftreten anderer Biases, allerdings negativ mit der wahrgenommenen Qualität der Entscheidungsprozesse. Eine mögliche Erklärung liegt in dem in Kapitel 3.2.3 besprochenen Dilemma der Sunk-Cost Fallacy. Das Festhalten an einem schlecht laufenden Projekt ist insofern adaptiv, als dass es kognitive Redundanz reduzieren kann. Das unangenehme Gefühl der Ressourcenver- schwendung und mögliche Reputationsbedenken können durch ein Fortführen reduziert werden. Wenn ein Projekt zu einem viel zu hohen Preis fertigestellt wird, fühlt es sich für die Gruppe möglicherweise dennoch wie ein gemeinsamer Erfolg an, auch wenn ein Abbruch zu einem früheren Zeitpunkt besser gewesen wäre. Die negativen Konsequenzen betreffen möglicherweise auch gar nicht die verantwortliche Gruppe, sondern den Haus- halt der Organisation auf höherer Ebene oder im öffentlichen Bereich den Staatshaushalt, und werden somit von den Entscheidungsverantwortlichen nicht als negativ wahrgenom- men. Eine derartige Entkopplung zwischen Entscheidungsmacht und den Konsequenzen für die Entscheidungsverantwortlichen kritisiert Taleb (2018) als einen Mangel an Skin in the game, der sich auf die in Kapitel 3.1 bezüglich der Definition einer rationalen Ent- scheidung beschriebene Problematik beziehen lässt, demnach fehlgeleitete Anreizsysteme zu Zielkonflikten bei Entscheidungsträgern führen. Die drei besprochenen Items zeigen 6 Studien 187 beispielhaft das Vorgehen bei der Weiterentwicklung des Fragebogens, auf die im Ausblick dieser Arbeit noch einmal eingegangen wird. Ein Blick auf die Häufigkeit der Kategorie „Kann ich nicht beurteilen“ kann ebenfalls Hinweise über die Validität der Items liefern, insofern sich darin zeigt, ob die Befragten die geschilderten Situationen in ihrem eigenen Arbeitsalltag wiedererkennen. Abbildung 37 lässt sich pro Item die prozentuale Häufigkeit dieser Kategorie, bezüglich der 42 Befragten, entnehmen. Abbildung 37 Prozentualer Anteil der Antwortkategorie „Kann ich nicht beurteilen“ Anmerkung. Prozentualer Anteil der Antwortkategorie „Kann ich nicht beurteilen“, absteigend nach der Häufigkeit sortiert. Besonders auffällig ist, dass die drei Items zur Sunk-Cost Fallacy – die bereits bezüglich der Kriteriumsvalidität und der Trennschärfe negativ auffielen – sehr häufig als nicht beant- wortbar bewertet wurden (19% bis 26%), während der Mittelwert aller Items bei 5% liegt. Neben dem zuvor beschriebenen Item Sunk-Cost 2 sticht zum Beispiel das Item Sunk- Cost 3 mit einer Quote von 26% hevor: „Es wird häufig versucht, ein schlecht laufendes Projekt fortzuführen, obwohl der finanzielle Aufwand oder das Risiko unverhältnismäßig hoch sind.“. Möglicherweise wird die Beantwortung einer solchen Aussage als komplex wahrgenommen und lässt sich nicht ohne Weiteres beantworten. So wurde bezüglich der Sunk-Cost Fallacy zuvor beschrieben, dass die Entscheidungsverantwortung und die fi- nanzielle Verantwortung in einigen Fällen von unterschiedlichen Ebenen getragen wird. In komplexen Vorhaben gibt es zudem mitunter mehrere Gruppen mit Entscheidungs- verantwortung und eine Bewertung des Gesamtvorhabens ist nicht immer ohne Weiteres möglich. Das mit einem relativ hohen Anteil von 12% der Probanden als nicht beantwortbar be- 6 Studien 188 wertete Item GT – Invulnerability 2 lautet: „Vergangene Erfolge führen in der Gruppe zu Selbstüberschätzung und in der Folge zu einem sorgloserem Umgang mit Risiken.“ Hier kann argumentiert werden, dass die Operationalisierung nahe an der Definition des ent- sprechenden Konstruktes – der Illusion of Invulnerability als Facette von Groupthink – liegt, aber in diesem Fall dem Ziel nicht gerecht wird, einfach zu beobachtende Situationen und Verhaltensweisen darzustellen, die einen Zusammenhang mit dem Effekt aufweisen. Zudem sind zwei Bedingungen mit der Konjunktion und getrennt, was zu Unklarheiten führen kann, wie im nächsten Schritt im Rahmen der Freitextkommentare aufgegriffen wird. Grundsätzlich gilt es, solche Konjunktionen bei der Itemkonstruktion eher zu ver- meiden, und in diesem Fall sind potenziell etwas zu wenig stark assoziierte Sachverhalte zusammengefasst. Im Folgenden bieten die Kommentare der Probanden gegebenenfalls weitere Hinweise für Verbesserungspotenzial. Insgesamt wurden sieben Kommentare getätigt, davon vier zu individuellen Biases und drei zu gruppendynamischen Biases. Zwei Kommentare geben Aufschluss über die geringe Beurteilungsfähigkeit der Items zur Sunk-Cost Fallacy: „In aller Regel lassen vertragliche Vereinbarungen den Abbruch eines Vorhabens nicht zu. Entsprechend kann diese Alternative gar nicht in Betracht gezogen werden.“ und „Sonder- fall bezüglich ’Projektabbruch wird nicht erwogen’: Die Aufträge stammen in der Regel von der öffentlichen Hand (Staatsaufträge).“. Eine weitere Bemerkung bezieht sich itemübergreifend auf die Itemkonstruktion: Items mit ’häufig’ und ’manchmal’ vermeiden. Items mit Verknüpfungen sind schwierig, z.B. ’Vergangene Erfolge führen in der Gruppe zu Selbstüberschätzung und in der Folge zu einem sorgloserem Umgang mit Risiken.’ oder ’Es kann vorkommen, dass ethische Konsequenzen im Einzelfall weniger genau betrachtet werden, weil sich die Gruppe/Organisation insgesamt als moralische Instanz betrachtet. ’ Letztere Problematik bezüglich der Konjunktion zweier Sachverhalte mit und wurde wei- ter oben bereits beschrieben und legt in dem Fall eine entsprechende Überarbeitung des Items nahe, zum Beispiel durch die Streichung eines Teils und Modifikation des ande- ren zur Konkretisierung. An dieser Stelle bieten sich entsprechend weitere Anhaltspunkte zur Überarbeitung der Items. Im nächsten Schritt werden die Erkenntnisse und empiri- schen Ergebnisse dieser Arbeit reflektiert und theoretische und praktische Implikationen aufgezeigt. 189 7 Diskussion Wie zu Beginn der Arbeit anhand von Beispielen einfacher Wahrnehmungsheuristiken beschrieben wurde, trifft der Mensch kontinuierlich und zumeist implizit Urteile und Ent- scheidungen. Eine rein objektive Wahrnehmung existiert nicht, denn die Wahrnehmung von Stimuli wird stets durch Top-Down-Prozesse interpretiert. Top-Down-Prozesse kön- nen wiederum auch als subjektive erfahrungsbasierte Urteile bezeichnet werden. Analog zu Paul Watzlawicks berühmtem Axiom „Man kann nicht nicht kommunzieren“, könnte man ebenso sagen „Man kann nicht nicht urteilen“. Urteile stellen also einen allgegenwär- tigen Teil des Menschseins dar und entsprechend sind implizite Fehlurteile, die sich aus einem Mismatch zwischen vergangenen Erfahrungen und aktuellen Anforderungen spei- sen, ein zwangsläufiger Bestandteil des Alltags. Erstaunlich ist eher, wie gut und akkurat implizite Urteile in den allermeisten Fällen funktionieren, die aber immer häufiger an ihre Grenzen geraten, je komplexer der Entscheidungskontext ist und folglich zu unbemerkten Fehlurteilen führen. Organisationale Planungsprozesse stellen einen Kontext dar, der ein Maximum an Komplexität aufweist und somit einen Nährboden für durch Biases ausge- löste Fehlentscheidungen bildet. Der Fokus der Forschung zu Biases lag in der Vergangenheit vor allem auf der Demonstrati- on der betreffenden Effekte in Laborexperimenten. Die dort erlangten Erkenntnisse haben auf beeindruckende Weise die Mechanismen diverser Heuristiken und Biases belegt und damit eine Basis für Feldstudien und anwendungsorientierte Forschung bereitet. Zuletzt wurde häufig ein stärkerer Fokus auf praktische Implikationen von Biases gefordert (z. B. Milkman et al., 2009; Stafford et al., 2018). In diesem Sinne war ein Ziel der Arbeit, der übergeordneten Frage der Relevanz des Themas kognitive, motivationale und gruppendy- namische Biases in organisationalen Planungsprozessen nachzugehen und damit die Auf- merksamkeit auf die externe Validität laborbezogener Erkenntnisse zu lenken. Zu Beginn der Arbeit wurden unterschiedliche Charakteristiken beschrieben, anhand derer deutlich wird, warum diverse Biases einen immensen Einfluss auf organisationale Planungsprozesse haben. So zeichnen sich organisationale Planungsprozesse dadurch aus, dass sie unstruk- turiert, komplex und situationsspezifisch sind, in einer durch VUCA geprägten Umwelt stattfinden und erfahrungsbasierte Expertise nur einen eingeschränkten Nutzen bringt. Gleichzeitig fehlt für qualitative und vor allem quantitative Analysen häufig die entspre- chende Datenbasis (vgl. Kapitel 1.1.2). Somit müssen im Verlauf eines Vorhabens etli- che Entscheidungen unter Unsicherheit getroffen werden – mitunter von unterschiedlichen 7 Diskussion 190 Entscheidungsträgern auf unterschiedlichen Hierarchieebenen und mit unterschiedlichen fachlichen Hintergründen. Entscheidungen, die zwangsläufig ein gewisses Maß an Unsi- cherheit beinhalten, provozieren häufig eine verkürzte Analyse der Problemstellung und somit treten fehlgeleitete Heuristiken als entscheidungsverzerrende Biases in Erscheinung. Dass keine adäquate erfahrungsbasierte Informationsbasis zur Verfügung steht, bedeutet dabei mitnichten, dass verkürzte Urteils- und Entscheidungsprozesse unvermeidbar sind. Eine weitere Folge des Fokus auf der reinen Demonstration entscheidungsverzerrender Mechanismen ist jedoch, dass relativ wenig Forschung zur Mitigation derartiger Mecha- nismen vorliegt (Larrick, 2004). In Kapitel 1.1.2 wurden einige personen- beziehungsweise prozessbezogene Techniken zum Debiasing sowie erfahrungsunabhängige Analysestrategi- en vorgestellt, welche die Entscheidungsqualität im betreffenden Kontext steigern können. Viele dieser Strategien haben das Potenzial, Planungsprozesse zu verbessern, das jedoch je nach Situation und Strategie variiert. Außerdem steht auch hier die externe Validität, also der Transfer der Techniken in die Praxis sowie die Compliance bezüglich der Verwendung entsprechender Tools zur Debatte. Bei der Frage, welche Biases in organisationalen Planungsprozessen besonders relevant sind und wie sich diese in einem entsprechenden Kontext diagnostizieren lassen beziehungsweise welche Gestaltungsmaßnahmen letztlich welche Effekte reduzieren, wurde bereits bei der Literaturrecherche eine Problematik deutlich, die sich später auch in den Fallstudien und empirischen Befragungen bestätigte. Dabei geht es um die Problematik der unscharfen Kategorisierung von Biases (vgl. Kapitel 3.5). Es wird deutlich, dass insbesondere wenn – wie in dieser Arbeit – ein ganzheitlicher Blick auf die Thematik Heuristiken und Biases eingenommen wird und der Fokus auf der anwendungsorientierten Forschung liegt, damit einhergehende Probleme hervortreten. Die Laborforschung fokussiert sich in der Regel auf einzelne Effekte, da hier sinnvollerweise die interne Validität und ein inkrementeller Er- kenntnissgewinn zu einem bestimmten Bias Priorität haben. In diesem Zusammenhang stellt sich zunächst nicht die Frage nach der Einordnung der Effekte in eine Taxonomie bestehender Biases oder der trennscharfen Abgrenzung der identifizierten Effekte unter- einander. Des Weiteren können unterschiedliche Benennungen gleichförmiger Effekte das Aufbauen auf bestehenden Erkenntnissen erschweren. Schließlich führt die inflationäre Konzeption neuer Biases – die entsprechende Wikipediaseite weist über 200 Effekte auf – zu mindestens 176 davon existiert wissenschaftliche Literatur (Dimara et al., 2020) – zu ei- ner unübersichtlichen Forschungslage, erschwert die Kommunikation und wirkt potenziell abschreckend auf Praktiker. In Kapitel 3.5 wurden dazu beispielhaft einige wissenschaft- lich erforschte Biases aufgelistet, die auch als Spezialfall eines vorhandenen Effektes oder sogar nur als Beispiel eines basaleren Bias bewertet werden können. Im Rahmen dieser Arbeit – mit dem Ziel der Demonstration der Relevanz diverser Biases in organisationalen Planungsprozessen und der Entwicklung eines entsprechenden Diagnostikinstrumentes – stellte dieser Sachverhalt eine Herausforderung dar. Entsprechend explorativ gestaltete 7 Diskussion 191 sich das Vorgehen dieser Arbeit und entsprechend limitiert sind die Ergebnisse, die primär als Basis für weitere Forschungsanstrengungen zu betrachten sind. In den Fallstudien zeigte sich die Problematik in der Schwierigkeit, bestimmten Situatio- nen, in denen mutmaßlich implizite Biases eine Rolle spielten, trennscharf einen entspre- chenden Effekt zuzuordnen. Dabei fiel insbesondere die bereits im Theorieteil identifizierte Problematik auf (vgl. Kapitel 3.4.1), dernach sich bestimmte Facetten von Groupthink nicht von individuellen Effekten abgrenzen lassen – zum Beispiel Overconfidence vs. Illusi- on of Invulnerability oder Confirmation Bias vs. Collective Rationalization. Auch einzelne qualitative Kommentare der Probanden in den beiden Befragungen legen nahe, dass be- stimmte Verhaltensweisen auf diverse Biases hindeuten können (vgl. Kapitel 6.2.3). Neben Verbesserungspotenzial bezüglich der Operationalisierungen deuten auch diese Erfahrun- gen auf eine konzeptuelle Konfundierung unterschiedlicher Biases hin. Für die Praxis wäre diesbezüglich eine hierarchisch gegliederte Taxonomie nützlich, in der Biases entsprechend ihrer Ursachen verschiedene Cluster bilden, welche die „Komor- bidität“ der entsprechenden Effekte berücksichtigt und damit die Komplexität bezüglich der daraus folgenden Handlungsempfehlungen reduziert, die für ähnliche Biases potenzi- ell gleichförmig sind. Als Beispiel bezüglich der für diese Arbeit entwickelten Taxonomie könnte der Cluster motivationale Biases darüber definiert werden, dass sich die darin ent- haltenen Effekte zu einem bedeutsamen Anteil auf zugrundeliegende motivationale/soziale Mechanismen wie dem Selbstwerterhalt, der Selbstpräsentation und der kognitiven Dis- sonanzreduktion zurückführen lassen. Dabei handelt es sich um Effekte, die nur bedingt veränderbar sind und zudem auch erwünschte Charakteristiken aufweisen (vgl. Kapitel 3.3.1). Eine aus dem Modell dieser Arbeit abgeleitete Lösungsidee könnte kulturelle Verände- rungsprozesse umfassen, die nicht primär auf die Ursachen selbst abzielen, sondern auf die Definition, welche Verhaltensweisen in der Organisation als wünschenswert erachtet wer- den. Werden zum Beispiel Werte vertreten, welche die Teamleistung über die Einzelleis- tung stellen und eine Fehlerkultur vorgelebt, die es als positiv erarchtet, wenn Mitarbeiter Probleme frühzeitig ansprechen, wird die Entstehung kognitiver Dissonanz reduziert. Die positive Selbstpräsentation umfasst dann eher diese, durch die Kultur als positiv defi- nierte, Verhaltensweisen. Offensichtlich ist, wie in Kapitel 3.5 beschrieben wurde, keine Kategorisierung von Biases abschließend oder trennscharf, da zum Beispiel auch motiva- tionale Biases kognitive Elemente beinhalten und vice versa. Dieses Problematik ist in der Psychologie jedoch allgegenwärtig und betrifft zum Beispiel auch die klinische Psy- chologie und das am meisten verbreitete Manual DSM-V, in dem zum Beispiel Persönlich- keitsstörungen gewissen Clustern zugeordnet werden, Komorbiditäten jedoch auch clus- terübergreifend vorhanden sind. Trotz der beschriebenen Einschränkungen bezüglich der Trennschärfe, erlaubt eine hiearchische Kategorisierung Praktikern, bestimmte Probleme 7 Diskussion 192 besser zu diagnostizieren und Handlungsmaßnahmen abzuleiten. Analog zu dem Beispiel des DSM-V könnte – entsprechend der Logik des in dieser Arbeit entwickelten Fragebogens – eine Taxonomie für Biases in Planungsprozessen bestimmte Symptome gemäß der as- soziierten Verhaltensweisen umfassen. Eine solche Taxonomie hilft bei der Festlegung auf relevante Biases, deren einheitliche Bezeichnung, deren Interaktion untereinander sowie deren gegenseitige Beeinflussung und Abgrenzung voneinander. Beispielsweise könnte der Self-Serving Bias als basales Attributionsmuster ursächlich für komplexere Biases, wie den Optimism Bias oder den Overconfidence Bias betrachtet werden. Die Planning Fallacy kann wiederum als Spezialfall beziehungsweise Folge von Optimismus und Selbstüber- schätzung betrachtet werden. Derartige Zusammenhänge über verschiedene Ebenen sind entsprechend durch empirische Studien zu belegen. Potenziell steigert ein ganzheitlicher Blick auf das Thema Heuristiken und Biases in organisationalen Entscheidungsprozessen das wissenschaftliche Verständnis und ermöglicht gleichzeitig die viel geforderte bessere Integration in die Praxis. Die in der Theorie beschriebene Problematik der Abwesenheit unmittelbaren Feedbacks in komplexen Planungsprozessen spiegelt sich auch in den Fallstudien wieder, bei denen im Planungsprozess diverse Fehlurteile getroffen wurden, die als latente Systembedingungen die folgenden Katastrophen maßgeblich verursachten. Die Rolle einer zum Teil unglückli- chen Manifestierung verschiedener Risiken auf der operativen Ebene, die – vor allem im Fall der Loveparade – erst in ihrer kombinierten Wirkung zu der Katastrophe führten, sollte nicht darüber hinwegtäuschen, wie fahrlässig der vorangegangene Planungsprozess war, der derartige Risiken nicht ausreichend berücksichtigte. Das Problem ist vielmehr, dass die ergebnisorientierte Sichtweise in den allermeisten Fällen, in denen katastropha- le Konsequenzen trotz diverser Fehlentscheidungen ausbleiben, zu einer unerwünschten Verstärkung der vorangegangenen Verhaltensweisen führt. Angenommen dem Fall, die Lautsprecheranlage auf der Loveparade wäre einsatzbereit gewesen (vgl. Kapitel 6.1.2) und die Polizei hätte es geschafft, die gefährliche Situation rechtzeitig aufzulösen, dann wären die unverantwortlichen Risiken nie in das Bewusstsein der Öffentlichkeit gerückt. Stattdessen hätte der Veranstalter das Event mutmaßlich als vollen Erfolg vermarktet, inklusive frei erfundener Besucherrekorde, während die beteiligten Politiker und Mitar- beiter der Verwaltung von der Presse für ihren unbürokratischen Einsatz gelobt worden wären. Diese Beschaffenheit organisationaler Planungsprozesse, insbesondere im Bereich von Hochrisikoindustrien, verringert das Problembewusstsein bei den Verantwortlichen, denn das Feedback ist nicht nur zeitlich verzögert oder ambivalent, sondern kann sich bei hoher Komplexität ins Gegenteil verkehren. Im Bereich von Hochrisikoindustrien ist diese Charakteristik so relevant, weil man es hier mit sogenannten „Black-Swan-Events“ zu tun hat (Taleb, 2010). Dabei handelt es sich um Ereignisse, die eine sehr niedrige Eintrittswahrscheinlichkeit haben, deren potenzielle Konsequenzen allerdings so immens sind, dass sie sehr starke Sicherheitsvorkehrungen unabdingbar machen. Zudem sind Ent- 7 Diskussion 193 scheidungen in komplexen Planungsprozessen in der Regel nicht unabhängig voneinander, weshalb die Verkettung verschiedener Risiken einen schwer erfassbaren multiplikativen Ef- fekt annehmen kann, der in der Risikwahrnehmung unterschätzt wird, wie zum Beispiel in Experimenten zum Anchoring-Effect gezeigt wurde (vgl. Kapitel 3.2.2). Das möglicherwei- se kontinuierliche positive Feedback bei Nichteintreten des Ereignisses kann dazu führen, dass sich ein falsches Gefühl von Sicherheit einstellt und Sicherheitsmaßnahmen zuneh- mend erodieren. Dekker (2016) spricht in diesem Kontext von einem Drift into failure. Mutmaßlich kann im Fall der Boeing 737-MAX ein derartiger Prozess unterstellt werden, insofern in der Fallstudie festgestellt wurde, dass Boeing auf eine lange Erfolgsgeschichte zurückblickte und das damit einhergehende Selbstverständnis einen Erklärungsansatz für diverse fahrlässige Fehlentscheidungen bietet (vgl. Kapitel 6.1.1). Das Selbstverständnis der Gruppe kann hierbei als Teil der Organisationskultur betrachtet werden. Die Organisationskultur bildet wiederum einen wichtigen Einflussfaktor auf die Entschei- dungsqualität in Planungsprozessen und dieser Einfluss wird potenziell durch diverse ko- gnitive, motivationale und gruppendynamische Biases mediiert. So prägt die Organisati- onskultur sowohl die implizite als auch die explizite (soziale) Kognition der Organisati- onsmitglieder. Denn obwohl das Auftreten von Biases häufig als universell erachtet wird, gibt es deutliche Hinweise auf eine Abhängigkeit von kulturellen Einflüssen (vgl. Kapitel 4.3). Dabei wurden folgende potenzielle Wirkmechanismen abgeleitet: Erstens kann für die Organisationskultur ein direkter Einfluss auf die Ausprägung oder inhaltliche Ausrichtung motivationaler und gruppendynamischer Biases angenommen wer- den. So wurde in Kapitel 4.4 zum Beispiel argumentiert, dass organisationale Lernprozesse beeinflussen können, welche Verhaltensweisen im Sinne des Self-Serving Bias selbstwert- dienlich sind. Beinhalten diese Verhaltensweisen im Sinne einer adäquaten Fehlerkultur auch das Äußern und die Akzeptanz konstruktiver Kritik, besteht eine Kongruenz zwi- schen den Organisationszielen und der Motivationslage der Gruppenmitglieder. Zweitens kann für kognitive Heuristiken beziehungsweise Biases nur bedingt ein kulturel- ler Einfluss angenommen werden, auch wenn sich auf regionaler Ebene zeigt, dass kultu- relle Einflüsse auch basale Wahrnehmungsfunktionen beeinflussen (Kapitel 4.3). Auf der Organisationsebene besteht hierbei aber viel mehr das Potenzial, dass kulturell gepräg- te Verhaltensweisen dazu führen, dass ein implizites System-1-Urteil durch eine explizite Analyse ersetzt wird. So ist anzunehmen, dass Gruppenmitglieder im Kontext einer hin- terfragenden Kultur häufiger Hinweisreize erkennen beziehungsweise generieren, die auf eine verkürzte Verarbeitung einer Problemstellung hindeuten und diese durch explizite Analysen beziehungsweise den Einsatz entsprechender Strategien entgegenwirken. Drittens kann eine adäquate Organisationskultur zudem als notwendige Bedingung für die Akzeptanz von Entscheidungsanalysetools betrachtet werden, da diese Akzeptanz erfor- dert, dass Organisationsmitglieder einsehen, dass ihre bisherigen Prozesse Verbesserungs- 7 Diskussion 194 potenzial aufweisen, ohne dass diese Akzeptanz zu einer starken kognitiven Dissonanz führt. Somit hat die Organisationskultur auch einen Einfluss auf die Compliance bezüg- lich der Nutzung expliziter Strategien zum Debiasing. Auf Basis dieser Annahmen wurde das in Kapitel 5.1 beschriebene Untersuchungsmodell hergeleitet, das als Grundlage für die Operationalisierungen der Fragebogenitems dient. So erfassen die Items kulturabhängige Verhaltensweisen als Indikatoren für das Auftreten bestimmter Biases. Damit wurde das Ziel umgesetzt, einen Fragebogen als Screeninginstru- ment zu entwickeln, der zur Bewertung alltägliche Planungssituationen umfasst und beim Anwender keine spezifischen Kenntnisse voraussetzt. Die Erkenntnisse der Fallstudien und der empirischen Befragungen zeigen vielversprechende Ergebnisse bezüglich der Validität dieser Indikatoren. Dabei unterliegt das explorative Vorgehen diversen Limitationen, die es in zukünftigen Vorhaben zu adressieren gilt und bezüglich derer in diesem Kapitel ver- schiedene konkrete Ideen sowohl zur Theorieentwicklung als auch zur Weiterentwicklung des Fragebogens thematisiert werden. Anhand der Fallstudien lässt sich insgesamt eine zufriedenstellende Augenscheinvalidität der Fragebogenitems und damit auch der Relevanz der diesen zugrundeliegenden Biases feststellen. So gelang es zum einen, relevante Situationen, denen sich entsprechende Biases zuordnen lassen, zu identifizieren. Zum anderen lässt sich die Phänomenologie dieser Situa- tionen durch die im Fragebogen definierten Verhaltensweisen augenscheinlich gut erfassen. Ein besonders interessantes Ergebnis der Fallstudien ist, dass die Rangfolge der in den bei- den Fallstudien am häufigsten festgestellten Biases eine recht hohe Übereinstimmung mit der Rangfolge in der Validierungsstudie bezüglich der Kriteriumskorrelation relevantesten Biases aufweist. Da es sich um weitestgehend unabhängige Methoden handelt, kann dies, im Sinne der Logik des Prinzips Multitrait-multimethod, als Hinweis auf einen gewissen Grad an Konstruktvalidität gedeutet werden – allerdings, wie in Kapitel 6.3.3 beschrie- ben wurde, nur auf einer qualitativen Ebene unter Berücksichtigung diverser methodischer Limitationen. Durch die fallbezogenen Analysen konnte insgesamt der Einfluss durch die zum Teil kombinierte Wirkung verschiedener Biases in einem realen Umfeld festgestellt und dadurch zum einen das Verständnis der Wirkung von Biases in realen Planungspro- zessen gesteigert werden. Auf der anderen Seite bieten sich interessante Ansätze, diese Erkenntnisse aus der subjektiven Dokumentenanalyse in zukünftigen Forschungsvorhaben aufzugreifen. Dabei wurden unterschiedliche Limitationen der Fallstudien beschrieben, die dazu füh- ren, dass der Interpretationsspielraum bei der Zuschreibung von Biases zu bestimmten Situationen zum Teil sehr groß ist (Kapitel 6.1.3). Das liegt zum einen an der limitierten Datenbasis, die oft keine detaillierten Rückschlüsse auf die konkreten Planungssitzungen zulässt. Diese Limitation betrifft vor allem die Fallstudie bezüglich der Boeing Company, während bei der Loveparade die Dokumentenlage besser ist und Sitzungsprotokolle eine 7 Diskussion 195 detailliertere Rekonstruktion der psychologischen Prozesse ermöglichen. Die Validität ist jedoch auch hier eingeschränkt, da Protokolle nur eine verkürzte und subjektiv verzerrte Sicht auf die Ereignisse darstellen. Als weitere Problematik wurde die zum Teil schwierige Abgrenzung zwischen unterschiedlichen Biases beschrieben, die bereits weiter oben the- matisiert wurde und die sich insbesondere im Rahmen der Fallstudien als Schwierigkeit bei der Passung zwischen bestimmten Situationen und dem entsprechenden Bias zeigte. Dieser Sachverhalt zeigte sich insbesondere bezüglich der unterschiedlichen Facetten von Groupthink, die zum Teil sehr stark mit bestimmten individuellen Biases korrespondieren. Aber auch einzelne individuelle Biases lassen sich zum Teil schwer voneinander abgrenzen. Hier zeigt sich der zuvor beschriebene Bedarf einer Taxonomie, der unterschiedliche indi- viduelle sowie gruppendynamische Heuristiken und Biases klar definiert und voneinander abgrenzt. Abgesehen von den genannten Limitationen, die in zukünftigen Studien aufzugreifen sind, bedingt bereits der subjektive Charakter, dass derartige Studien beziehungsweise die ab- geleiteten Ergebnisse und Interpretationen durch eine Erhöhung der Anzahl der Rater erweitert werden müssen. Die Ergebnisse der Fallstudien in dieser Arbeit basieren allein auf der Einschätzung und Argumentation des Autors, der zuvor die Biases ausgewählt und den Fragebogen konstruiert hat. Auch unter großer Bemühung, die Fälle so unvoreinge- nommen wie möglich zu analysieren, wäre es bei einem derartigen Interpretationsspielraum – insbesondere in Anbetracht des Themas dieser Arbeit – naiv anzunehmen, dass sich im- plizite Einflüsse, zum Beispiel durch den Confirmation Bias, gänzlich ausschließen lassen. Um neben den Vorteilen der externen Validität von Fallstudien auch die interne Validität zu steigern, wären zudem aufwändigere Studien sinnvoll, die reale Planungsprozesse beglei- ten. Eine vollständige Wiedergabe von Planungsprozessen mittels Ton-/Videoaufzeichnung würde zum Beispiel eine deutlich bessere Datenbasis bilden und die interne Validität stark erhöhen. Diese Variante könnte durch andere Techniken, wie die Methode des lauten Den- kens oder zusätzliche individuelle Interviews nach den Planungssessions, ergänzt werden. Derartige Techniken könnten hilfreich sein, um die in Kapitel 6.1.3 beschriebene Pro- blematik der Identifizierbarkeit unterschiedlicher Biases im Kontext von Fallstudien zu begegnen. So wurde argumentiert, dass einige kognitive Biases potenziell schlechter in der Dokumentenanalyse identifiziert werden können als motivationale Biases. Der Einsatz von Techniken, welche die Gedankengänge der an Planungsprozessen beteiligten Personen transparent machen, können dieser Verzerrung potenziell entgegenwirken. Die beiden quantitativen empirischen Erhebungen zeigen insgesamt vielversprechende Er- gebnisse, insofern sie eine zufriedenstellende Reliabilität, Inhaltsvalidität sowie Kriteriums- validität des Fragebogens nahelegen. So zeigt sich in der quantitativen Expertenbefragung eine zufriedenstellende inhaltliche Passung zwischen den Operationalisierungen und den Konstruktdefinitionen der Biases als Indikator für die Inhaltsvalidität. In der Befragung wurden die Vorkenntnisse der Probanden zum Thema Heuristiken und Biases erhoben. Ein 7 Diskussion 196 Gruppenvergleich zwischen Laien und Experten wies jedoch keinen signifikanten Unter- schied bezüglich der Bewertung aus (Kapitel 6.2.3). Als Limitation ist anzumerken, dass die Konstruktdefinitionen sich an den theoretisch etablierten Definitionen der einzelnen Effekte orientieren, allerdings durch den Autor formuliert und mit zu dem Thema passen- den Beispielen ergänzt wurden. Dabei wurde jedoch darauf geachtete, dass die Beispiele keine inhaltlichen Überschneidungen mit den zugehörigen Items aufweisen. Des Weiteren zeigte sich eine potenzielle Einschränkung bei der Bewertbarkeit, da einzelne Probanden die Logik des Zusammenhangs zwischen den Verhaltensweisen und den Biases nicht her- stellten. Hier wäre es gegebenenfalls sinnvoll gewesen, in der Instruktion deutlicher darauf hinzuweisen, dass die zu bewertenden Items nicht unmittelbar den Bias, sondern ledig- lich potenziell assoziierte Verhaltensweisen beschreiben. Zu betonen ist hierbei, dass die Limitationen dieser Befragung nur die Expertenbefragung zur Inhaltsvalidität betreffen, die insgesamt ein zufriedenstellendes Ergebnis aufweist. Die Limitationen haben keine Im- plikationen für den praktischen Einsatz des Fragebogens, der in der Validierungsstudie getestet wurde. In der Validierungsstudie wurde eine repräsentative Stichprobe von Entscheidungsverant- wortlichen in organisationalen Planungsprozessen zur Bewertung der eigenen Planungs- prozesse befragt. Die Reliabilität der Skalen, die mit Cronbachs Alpha beziehungsweise dem Spearman-Brown-Koeffizienten ermittelt wurden, weist nur in einzelnen Fällen Ein- schränkungen auf, obwohl die Skalen aus ökonomischen Gründen bewusst jeweils nur zwei bis drei Items pro Bias umfassen (Kapitel 6.3.3). Für die meisten Skalen kann damit an- genommen werden, dass die Items die Anfälligkeit für die entsprechenden Biases mit einer zufriedenstellenden Genauigkeit erfassen. Bei Skalen, bei denen sich bezüglich der inter- nen Konsistenz Einschränkungen zeigten, wurden unter Einbezug weiterer Statistiken – wie der Trennschärfe und der Korrelation mit dem Kriterium – problematische Items iden- tifiziert und potenzielle inhaltliche Ursachen abgeleitet. Dazu wurden auch die qualitativen Kommentare berücksichtigt, aus denen sich inhaltliche Kritik an bestimmten Items ent- nehmen ließen. Eine Modifikation der betreffenden Items kann die Reliabilität und damit die Messgenauigkeit der Skalen zukünftig erhöhen. Zusätzlich kann in weiteren Erhebun- gen die Erfassung der Retest-Reliabilität weitere Aufschlüsse über die Messgenauigkeit liefern. Die Verbesserungspotenziale betreffen zudem inhaltliche Aspekte der Items, die auch Implikationen zur Steigerung der Validität beinhalten. Der Fragebogen zeigt insgesamt eine gute Kriteriumsvalidität, insofern die einzelnen Ska- len moderat bis hoch mit dem Kriterium – der Gesamtqualität der Planungsprozesse – korrelieren. Für Skalen, bei denen keine oder eine sehr niedrige Korrelation festgestellt wurde, konnten potenzielle Ursachen in der Analyse einzelner Items festgestellt werden. Abgesehen davon bewegen sich die Korrelationskoeffizienten zwischen r=.2 und r=.6. Für die Korrelationen von r<.3 sind die Zusammenhänge nicht signifikant, obwohl die Effekt- stärke als moderat, aber dennoch bedeutsam betrachtet werden kann. Hierbei spielt auch 7 Diskussion 197 die moderate Stichprobengröße von n=48 eine Rolle, die zukünftig durch weitere Erhe- bungen ergänzt werden sollte. Aus der parallelen Betrachtung statistischer und aus den Kommentaren abgeleiteter qualitativer Kommentare lassen sich eine Reihe von Verbesse- rungspotenzialen ableiten, die bezüglich einer weiteren Verbesserung der Reliabilität und Validität des Fragebogens vielversprechend sind. Eine größere Stichrpobe und gegebenen- falls eine Erweiterung der Itemanzahl pro Skala würde neben einer weiteren Steigerung der Reliabilität auch erlauben, mittels Einsatz faktoranalytischer Verfahren die faktorielle Validität der Skalen zu bestimmen. Konkrete Interventionsstrategien zur Reduzierung der beschriebenen Biases wurden im Rahmen dieser Arbeit nur oberflächlich – insbesondere auch bezüglich ihrer Limitationen – thematisiert (Kapitel 1.1.2), da es um die Diagnostik geht und diese von Interventionen weitestgehend abgegrenzt wurde. Die Items beziehen sich zudem auf kulturell geprägte Verhaltensweisen, deren Implikationen über die Anwendung konkreter Strategien hinaus- gehen sowie die Nutzung derartiger Strategien beeinflussen. Dies sind die Annahmen, die gemäß dem Untersuchungsmodell den Kern dieser Arbeit bilden. Entsprechend sollte die Entwicklung des Fragebogens zukünftig Interventionen hevorbringen, die kulturelle Ver- änderungsprozesse umfassen. Dabei bieten insbesondere die in Kapitel 4.4 beschriebenen, unterschiedlichen Facetten der Sicherheitskultur Ansätze, die eine Basis für Veränderungs- prozesse darstellen können. Organisationale Veränderungsprozesse sind langwierig, insbe- sondere wenn sie die Organisationskultur betreffen. Als wichtiger Faktor gilt dabei zum Beispiel, dass erwünschte Verhaltensweisen von Führungskräften nicht nur vorgeschrieben, sondern Tag für Tag vorgelebt werden (Kotter, 2008). Daneben bieten der Diagnostik ent- sprechende Entscheidungsanalysestrategien die Möglichkeit, unmittelbare Verbesserungen der Entscheidungsprozesse zu erreichen, die – wenn sie bestenfalls Hand in Hand mit kul- turellen Veränderungsprozessen stattfinden – besonders wirksam sind, wie im Folgenden näher erläutert wird. So sollten zukünftig, in Abhängigkeit der Ergebnisse einer Befragung, konkrete Ansätze als Feedback präsentiert werden. Dazu gehören zum Beispiel die in Kapitel 3.1 beschriebene MAUT oder die Analysis of competing hypotheses (Straus, Parker & Bruce, 2011), die mut- maßlich kognitiven Biases, wie der Availability Heuristic oder dem Anchoring-Effect sowie dem durch WYSIATI ausgelösten „Tunnelblick“ entgegenwirkt, indem die Planungsverant- wortlichen aufgefordert sind, so erschöpfend wie möglich alternative Handlungsmöglichkei- ten zu generieren sowie deren Konsequenzen mit zugehörigen Eintrittswahrscheinlichkeiten zu quantifizieren. Denkbar ist unter anderem auch eine Reduktion der Sunk-Cost Fallacy, da sich durch die Quantifizierung der Erwartungswerte verschiedener Handlungsalternati- ven auch eher ein Projektabbruch als dominante Handlungsalternative durchsetzen kann. Bezüglich motivationaler Biases, wie dem Confirmation Bias oder Desirability Bias, er- scheinen Techniken sinnvoll, die bewusst dazu auffordern, das bestehende Meinungsbild 7 Diskussion 198 zu hinterfragen. Dazu gehören Techniken wie Red Team beziehungsweise Contrarian Team A/Team B, Devil’s Advocate oder Premortem (vgl. Kapitel 1.1.2). Bei derartigen Tech- niken scheinen parallel stattfindende kulturelle Veränderungsprozesse besonders wichtig, da die Kritik am eigenen Vorgehen, im Sinne selbstwerterhaltender Attributionen, bei den betroffenen Gruppenmitgliedern kognitive Dissonanz erzeugen kann. Wenn keine entspre- chende Fehlerkultur etabliert ist und konstruktive Kritik als Angriff auf den Selbstwert wahrgenommen wird, führt dies potenziell zu Konflikten. Premortem oder die ähnlich gestaltete High-impact/low probability analysis (Straus et al., 2011) erscheinen im sicher- heitskritischen Kontext besonders sinnvoll, weil sie sehr seltene Ergebnisse mit enorm negativen Konsequenzen ins Blickfeld rücken. Im Beispiel der Loveparade fand die Proble- matik der Ein- und Ausgangssituation mehrmals Erwähnung, wie die Protokolle zeigen, leider stets als Randnotiz. Eine bewusste Vertiefung von Worst-Case-Szenarien im Sinne der Premortem-Technik hätte die später eintretende Problematik potenziell präsent ge- macht. Auf der anderen Seite gab es bereits etliche Warnungen und damit Chancen, sich vertieft mit der fatalen Problematik auseinanderzusetzen. In den Fallstudien wurde hier immer wieder der Desirability Bias als Ursache für das entsprechende Versäumnis ange- führt. Hier zeigt sich die im Untersuchungsmodell angesprochene Problematik, dass der Erfolg des Einsatzes von entscheidungsförderlichen Techniken davon abhängt, dass der Prozess tatsächlich ergebnisoffen durchgeführt wird und dafür bedarf es ebenfalls einer adäquaten Organisations- beziehungsweise Sicherheitskultur. Abschließend soll noch einmal der potenzielle Nutzen der Organisationsdiagnostik mittels des in dieser Arbeit entwickelten Fragebogens und der daran anzuschließenden Interven- tionen als Fazit thematisiert werden. Insbesondere im Bereich der HRO, denen sich die in dieser Arbeit behandelten Fallstudien zuordnen lassen, ist die Verhütung von schwer- wiegenden unerwünschten Ereignissen eine undankbare Aufgabe. Sicherheit als „dynami- sches Nichtereignis“ ist der Normalzustand und Bemühungen zu deren Aufrechterhaltung finden entsprechend wenig Wertschätzung. Im Zuge der Corona-Pandemie wurde diesbe- züglich der Satz „There’s no glory in prevention“ geprägt. Auf der anderen Seite können auch adäquate Planungsprozesse schwerwiegende Ereignisse nicht ausschließen. Es muss hier eine probabilistische Sichtweise eingenommen werden, da die komplexe Umwelt or- ganisationaler Planungsprozesse zwangsläufig auch von einer Reihe nicht kontrollierbarer Störvariablen beeinflusst wird. Das unzuverlässige Feedback solcher Prozesse bezüglich deren Ergebnis führt auch dazu, dass der potenzielle Nutzen von Interventionen zur Ver- besserung der Planungsprozesse von den Verantwortlichen nicht zwingend wahrgenommen wird und damit die Akzeptanz dieser Interventionen schwieriger zu erreichen ist. Neben zukünftiger Forschung zu diesem Thema, die weitere Erkenntnisse zum Nutzen derarti- ger Bemühungen erbringen sollte, spielt die Erwartungshaltung bezüglich der Effektstär- ke kultureller Veränderungen und dem Einsatz von Entscheidungsanalysestrategien eine Rolle. Aufgrund der Komplexität und Dynamik organisationaler Planungsprozesse haben 7 Diskussion 199 derartige Interventionen möglicherweise eine eher moderate Effektstärke. Wenn aber in der Konsequenz der Verringerung biasinduzierender Situationen und Verhaltensweisen die Qualität organisationaler Planungsprozesse nur um wenige Prozentpunkte gesteigert wer- den könnte, könnte diese inkrementelle Verbesserung, bei hohen Projektkosten oder in sicherheitskritischen Bereichen, bereits enorme positive Auswirkungen haben. Dabei sind auch Synergieeffekte bestimmter, in dieser Arbeit angesprochener kultureller Veränderun- gen zu anderen positiven Outcomes anzunehmen, da eine adäquate Kultur zum Beispiel zu einer höheren psychologischen Sicherheit und damit einer besseren Mitarbeiterbelas- tung und -zufriedenheit führen kann (Frazier, Fainshmidt, Klinger, Pezeshkan & Vracheva, 2017). Dass die Organisationskultur auf vielfältige Weise einen starken Einfluss auf den langfris- tigen Erfolg einer Organisation hat, ist lange bekannt (vgl. Kapitel 4.2). Die Ergebnisse dieser Arbeit legen nahe, dass diverse kognitive, motivationale und gruppendynamische Biases diesen Einfluss auf bedeutsame Weise mediieren, wenn es um die Qualität orga- nisationaler Planungsprozesse geht. Damit bietet die Organisationskultur und damit as- soziierte Verhaltensweisen einen vielversprechenden Zugang zur Diagnostik der Anfällig- keit für diverse unbewusste Biases und letztlich einen vielversprechenden Ansatzpunkt für entsprechende Interventionen. Der Autor hofft, mit dieser Arbeit und dem hierbei entwi- ckelten Fragebogen einen positiven Beitrag zur weiteren Erforschung des Themas „Biases in organisationalen Planungsprozessen“ und zur diesbezogenen Organisationsdiagnostik zu leisten, um weitere Forschung zu inspirieren und das Thema stärker in der Praxis zu integrieren. 200 Literaturverzeichnis Abu-Jarad, I. Y., Yusof, N. & Nikbin, D. (2010). A review paper on organizational cul- ture and organizational performance. International Journal of Business and Social Science, 1 (3), 26–46. Zugriff auf shorturl.at/csvMS Ahronson, A. & Cameron, J. E. (2007). The nature and consequences of group cohesion in a military sample. Military Psychology, 19 (1), 9–25. htt- ps://doi.org/10.1080/08995600701323277 Al-Zahrani, S. S. A. & Kaplowitz, S. A. (1993). Attributional biases in individualistic and collectivistic cultures: A comparison of Americans with Saudis. Social Psychology Quarterly, 223–233. https://doi.org/10.2307/2786780 Alloy, L. B. & Abramson, L. Y. (1988). Depressive realism: Four theoretical perspectives. In L. B. Alloy (Hrsg.), Cognitive Processes in Depression (S. 223–265). The Guilford Press. Alnuaimi, O. A., Robert, L. P. & Maruping, L. M. (2010). Team size, dispersion, and social loafing in technology-supported teams: A perspective on the theory of mo- ral disengagement. Journal of Management Information Systems, 27 (1), 203–230. https://doi.org/10.2753/MIS0742-1222270109 Arenius, M. & Sträter, O. (2013). Resilience engineering in railways - results from a systemic accident and event analysis in German railways. In R. D. J. M. Steenbergen, P. H. A. J. M. van Gelder, S. Miraglia & A. C. W. M. Ton Vrouwenvelder (Hrsg.), Safety, reliability and risk analysis: Beyond the horizon (S. 423–428). Boca Raton: CRC Press. Arkes, H. R. & Blumer, C. (1985). The psychology of sunk cost. Organizational Behavior and Human Decision Processes, 35 (1), 124–140. https://doi.org/10.1016/0749- 5978(85)90049-4 Asch, S. E. (1951). Effects of group pressure upon the modification and distortion of judgments. In H. Guetzkow (Hrsg.), Groups, leadership and men; research in human relations (Bd. 58, S. 177–190). Pittsburgh: Carnegie Mellon University Press. Baddeley, A. (2000). The episodic buffer: A new component of working memory? Trends in Cognitive Sciences, 4 (11), 417–423. https://doi.org/10.1016/S1364-6613(00)01538- 2 Literaturverzeichnis 201 Baddeley, A. (2007). Working memory, thought, and action (Bd. 45). Oxford University Press. Baddeley, A. & Andrade, J. (2000). Working memory and the vividness of imagery. Journal of Experimental Psychology: General, 129 (1), 126. https://doi.org/10.1037/0096- 3445.129.1.126 Bar-Hillel, M. (1973). On the subjective probability of compound events. Organizational Behavior and Human Performance, 9 (3), 396–406. https://doi.org/10.1016/0030- 5073(73)90061-5 Barnes, J. H. (1984). Cognitive biases and their impact on strategic planning. Strategic Management Journal, 5 (2), 129–137. https://doi.org/10.1002/smj.4250050204 Baron, J. (1995). Myside bias in thinking about abortion. Thinking and Reasoning, 1 (3), 221–235. https://doi.org/10.1080/13546789508256909 Barrett, L. F., Tugade, M. M. & Engle, R. W. (2004). Individual differences in working memory capacity and dual-process theories of the mind. Psychological Bulletin, 130 (4), 553–573. https://doi.org/10.1037/0033-2909.130.4.553 Baumeister, R. F., Ainsworth, S. E. & Vohs, K. D. (2016). Are groups more or less than the sum of their members? The moderating role of individual identification. Behavioral and Brain Sciences, 39 , S. 1-56. https://doi.org/10.1017/S0140525X15000618 Bazerman, M. H. & Moore, D. A. (2013). Judgment in managerial decision making (8. Aufl.). New York: John Wiley & Sons, Ltd. Beck, A. T. (1979). Cognitive therapy and the emotional disorders. New York: Penguin Group. Beck, D., Taskan, E., Elskamp, E., Gold, M., Gregersen, S., Klamroth, H., . . . Wittmann, S. (2022). Empfehlungen zur Umsetzung der Gefährdungsbeurteilung Psychischer Belastung. GDA-Arbeitsprogramm Psyche. Zugriff am 2022-07-08 auf shorturl.at/ euRZ1 Bénabou, R. & Tirole, J. (2002). Self-confidence and personal motivation. The Quar- terly Journal of Economics, 117 (3), 871–915. Zugriff am 2022-10-18 auf https:// EconPapers.repec.org/RePEc:oup:qjecon:v:117:y:2002:i:3:p:871-915 Benard, S. & Doan, L. (2011). The conflict–cohesion hypothesis: Past, present, and possible futures. In S. R. Thye & E. J. Lawler (Hrsg.), Advances in group processes (Bd. 28, S. 189–225). Bingley: Emerald Group Publishing Limited. Benet-Martínez, V., Leu, J., Lee, F. & Morris, M. W. (2002). Negotiating bicultura- lism: Cultural frame switching in biculturals with oppositional versus compatible cultural identities. Journal of Cross-Cultural Psychology, 33 (5), 492–516. htt- ps://doi.org/10.1177/0022022102033005005 Literaturverzeichnis 202 Bennet, A. & Bennet, D. (2008). The decision-making process for complex situations in a complex environment. In F. Burstein & C. W. Holsapple (Hrsg.), Handbook on decision support systems (S. 3–20). New York: Springer. Berthon, P., Pitt, L. F. & Ewing, M. T. (2001). Corollaries of the collective: The in- fluence of organizational culture and memory development on perceived decision- making context. Journal of the Academy of Marketing Science, 29 (2), 135–150. https://doi.org/10.1177/03079459994515 Beveridge, W. I. B. (1951). The art of scientific investigation. London: Heinemann. Zugriff am 2023-04-25 auf https://www.cabdirect.org/cabdirect/abstract/ 19511401246 Bierce, A. (1911). The unabridged devil’s dictionary. New York: The Neale Publishing Company. Blatter, J., Janning, F. & Wagemann, C. (2007). Qualitative Politikanalyse: eine Einfüh- rung in Forschungsansätze und Methoden (1. Aufl.) (Nr. 44). Wiesbaden: VS Verl. für Sozialwissenschaften. Boeing. (o. J.). 737 MAX. Zugriff am 2022-12-17 auf https://www.boeing.com/ commercial/737max/ Brandt, A., Bönisch, G., Dahlkamp, J. & Röbel, S. (2011, Mai). Schwarzer Sams- tag. Spiegel. Zugriff auf https://www.spiegel.de/politik/schwarzer-samstag -a-5195a478-0002-0001-0000-000078522270?context=issue Buehler, R., Griffin, D. & MacDonald, H. (1997). The role of motivated reasoning in optimistic time predictions. Personality and Social Psychology Bulletin, 23 (3), 238–247. https://doi.org/10.1177/0146167297233003 Buehler, R., Griffin, D. & Ross, M. (1994). Exploring the “planning fallacy”: Why peo- ple underestimate their task completion times. Journal of Personality and Social Psychology, 67 (3), 366–381. https://doi.org/10.1037/0022-3514.67.3.366 Buehler, R., Griffin, D. & Ross, M. (2009). Inside the planning fallacy: The causes and consequences of optimistic time predictions. In T. Gilovich, D. W. Griffin & D. Kahneman (Hrsg.), Heuristics and biases - The psychology of intuitive judgment (8. Aufl., S. 250–270). New York: Cambridge University Press. Burke, W. W. & Litwin, G. H. (1992). A causal model of organizational per- formance and change. Journal of Management, 18 (3), 523–545. htt- ps://doi.org/10.1177/014920639201800306 Buse, U., Deckstein, D., Evers, M., Fichtner, U., Großekathöfer, M., Mingels, G., . . . Trau- fetter, G. (2019). 737 Max: Boeing’s crashes expose systemic failings. Der Spiegel. Zugriff am 2022-12-17 auf https://www.spiegel.de/international/business/ 737-max-boeing-s-crashes-expose-systemic-failings-a-1282869.html Literaturverzeichnis 203 Camina, E. & Güell, F. (2017). The neuroanatomical, neurophysiological and psychological basis of memory: Current models and their origins. Frontiers in Pharmacology, 8 (438), 1–16. https://doi.org/10.3389/fphar.2017.00438 Campbell, W. K., Goodie, A. S. & Foster, J. D. (2004). Narcissism, confidence, and risk attitude. Journal of Behavioral Decision Making, 17 (4), 297–311. htt- ps://doi.org/10.1002/bdm.475 Campbell, W. K. & Sedikides, C. (1999). Self-threat magnifies the self-serving bias: A meta-analytic integration. Review of General Psychology, 3 (1), 23–43. htt- ps://doi.org/10.1037/1089-2680.3.1 Caputo, A. (2013). A literature review of cognitive biases in negotiation proces- ses. International Journal of Conflict Management, 24 (4), 374–398. htt- ps://doi.org/10.1108/IJCMA-08-2012-0064 Chaiken, S. & Trope, Y. (1999). Dual-process theories in social psychology. New York: Guilford Press. Choi, I. & Cha, O. (2019). Cross-cultural examination of the False Consensus Effect. Fron- tiers in Psychology, 10 (2747), 1–13. https://doi.org/10.3389/fpsyg.2019.02747 Chua, H. F., Boland, J. E. & Nisbett, R. E. (2005). Cultural variation in eye movements during scene perception. Proceedings of the National Academy of Sciences, 102 (35), 12629–12633. https://doi.org/10.1073/pnas.0506162102 Clayson, D. E. (2005). Performance overconfidence: Metacognitive effects or mispla- ced student expectations? Journal of Marketing Education, 27 (2), 122–129. htt- ps://doi.org/10.1177/0273475304273525 Collins, A. M. & Quillian, M. R. (1969). Retrieval time from semantic memo- ry. Journal of Verbal Learning and Verbal Behavior , 8 (2), 240–247. htt- ps://doi.org/10.1016/S0022-5371(69)80069-1 Cruz, B. S. & de Oliveira Dias, M. (2020). Crashed Boeing 737-MAX: Fatalities or malpractice? Global Scientific Journals, 8 (1), 11. Zugriff am 2021-10-08 auf shorturl.at/kDJMS Cunha, J. A., Viglioni, T., Thomaz, J. & Moura, H. (2014). Project Management in Light of Cognitive Biases: A Public Sector IT Organization Case. In In Proceedings of the 10th European Conference on Management, Leadership and Governance–ECMLG 2014 (S. 50–58). Darley, J. M. & Latané, B. (1968). Bystander intervention in emergencies: Diffusion of responsibility. Journal of Personality and Social Psychology, 8 (4p1), 377. htt- ps://doi.org/10.1037/h0025589 Dekker, S. (2016). Drift into failure: From hunting broken components to understanding complex systems. CRC Press. Literaturverzeichnis 204 Denison, D. R. (1984). Bringing corporate culture to the bottom line. Organizational Dynamics, 13 (2), 5–22. https://doi.org/10.1016/0090-2616(84)90015-9 Deshpandé, R., Farley, J. U. & Webster, F. E. (1993). Corporate culture, customer orientation, and innovativeness in Japanese firms: A quadrad analysis. Journal of Marketing, 57 (1), 23–37. https://doi.org/10.1177/002224299305700 Deutsches Institut für Normung. (2004). Ergonomische Grundlagen bezüglich Psychischer Arbeitsbelastung - Teil 3: Grundsätze und Anforderungen an Verfahren zur Messung und Erfassung Psychischer Arbeitsbelastung (ISO 10075-3:2004) (Bericht). Berlin: Deutsches Institut für Normung. Devos, T. & Banaji, M. R. (2003). Implicit self and identity. Annals of the New York Academy of Sciences, 1001 (1), 177–211. https://doi.org/10.1196/annals.1279.009 Die Loveparade Geschichte: Vom Protestmarsch zum Millionen-Event! (2020). Zugriff am 2022-12-26 auf https://www.djmag.de/einzelnews/die-loveparade-geschichte -vom-protestmarsch-zum-millionen-event/ Dimara, E., Franconeri, S., Plaisant, C., Bezerianos, A. & Dragicevic, P. (2020). A task-based taxonomy of cognitive biases for information visualization. IEEE Transactions on Visualization and Computer Graphics, 26 (2), 1413–1432. htt- ps://doi.org/10.1109/TVCG.2018.2872577 Dittes, J. E. & Kelley, H. H. (1956). Effects of different conditions of acceptance upon conformity to group norms. The Journal of Abnormal and Social Psychology, 53 (1), 100–107. https://doi.org/10.1037/h0047855 Dobbins, G. H. & Russell, J. M. (1986). Self-serving biases in leadership: A laboratory experiment. Journal of Management, 12 (4), 475–483. htt- ps://doi.org/10.1177/0149206386012004 Eil, D. & Rao, J. M. (2011). The good news - bad news effect: Asymmetric processing of objective information about yourself. American Economic Journal: Microeconomics, 3 (2), 114–138. https://doi.org/10.1257/mic.3.2.114 Einhorn, H. J. & Hogarth, R. M. (1978). Confidence in judgment: Persistence of the illusion of validity. Psychological Review, 85 (5), 395–416. https://doi.org/10.1037/0033- 295X.85.5.395 Eisinga, R., te Grotenhuis, M. & Pelzer, B. (2013). The reliability of a two-item scale: Pearson, Cronbach, or Spearman-Brown? Int J Public Health, 58 (4), 637–642. https://doi.org/10.1007/s00038-012-0416-3 Englich, B., Mussweiler, T. & Strack, F. (2006). Playing dice with criminal sen- tences: The influence of irrelevant anchors on experts’ judicial decision ma- king. Personality and Social Psychology Bulletin, 32 (2), 188–200. htt- ps://doi.org/10.1177/0146167205282152 Englisch, F. (2018). MABO – Ein ganzheitliches Verfahren zur Gefährdungsanalyse von Literaturverzeichnis 205 Psychischer Belastung am Arbeitsplatz. In R. Trimpop, J. Kampe, M. Bald, I. Seliger & G. Effenberger (Hrsg.), Psychologie der Arbeitssicherheit und Gesundheit (S. 725– 728). Kröning: Asanger. Esser, J. K. & Lindoerfer, J. S. (1989). Groupthink and the space shuttle Challenger acci- dent: Toward a quantitative case analysis. Journal of Behavioral Decision Making, 2 (3), 167–177. https://doi.org/10.1002/bdm.3960020304 Evans, J. S. B. T. (1989). Bias in human reasoning: Causes and consequences. Hilsdale, NJ: Lawrence Erlbaum Associates. Festinger, L. (1950). Informal social communication. Psychological Review, 57 (5), 271– 282. https://doi.org/10.1037/h0056932 Festinger, L. (1962). A theory of cognitive dissonance (Bd. 2). Redwood City: Stanford University Press. Fischhoff, B. (1982). Debiasing. In D. Kahneman, P. Slovic & A. Tversky (Hrsg.), Judg- ment under uncertainty: Heuristics and biases (S. 422–444). Cambridge: Cambridge University Press. Flyfbjerg, B. (2011). Case Study. In N. K. Denzin & Y. S. Lincoln (Hrsg.), The Sage Handbook of Qualitative Research (S. 301–316). Thousand Oaks: Sage Publications. Flynn, F. J. & Wiltermuth, S. S. (2010). Who’s with me? False consensus, brokerage, and ethical decision making in organizations. Academy of Management Journal, 53 (5), 1074–1089. https://doi.org/10.5465/amj.2010.54533202 Forsyth, D. R. (2008). Self-serving bias. In W. A. Darity (Hrsg.), International Encyclo- pedia of the Social Sciences (2. Aufl., Bd. 7, S. 429). Detroit: Macmillan Reference USA. Frankland, P. W., Josselyn, S. A. & Köhler, S. (2019). The neurobiological foun- dation of memory retrieval. Nature Neuroscience, 22 (10), 1576–1585. htt- ps://doi.org/10.1038/s41593-019-0493-1 Fraser, C., Gouge, C. & Billig, M. (1971). Risky shifts, cautious shifts, and group polariza- tion. Eur. J. Soc. Psychol., 1 (1), 7–30. https://doi.org/10.1002/ejsp.2420010103 Frazier, M. L., Fainshmidt, S., Klinger, R. L., Pezeshkan, A. & Vracheva, V. (2017). Psychological safety: A meta-analytic review and extension. Personnel psychology, 70 (1), 113–165. https://doi.org/10.1111/peps.12183 Friedman, D., Pommerenke, K., Lukose, R., Milam, G. & Huberman, B. A. (2007). Sear- ching for the sunk cost fallacy. Experimental Economics, 10 (1), 79–104. htt- ps://doi.org/10.1007/s10683-006-9134-0 Frith, C. D. (2008). Social cognition. Philosophical Transactions of the Royal Society B: Biological Sciences, 363 (1499), 2033–2039. htt- ps://doi.org/10.1098/rstb.2008.0005 Literaturverzeichnis 206 Fromme, C. (2010). Loveparade: Experte zur Unglücksursache: Die Trep- pe hätte man sprengen müssen. Süddeutsche Zeitung, 10. Zugriff am 2022-06-23 auf https://www.sueddeutsche.de/wissen/loveparade-experte-zur -ungluecksursache-die-treppe-haette-man-sprengen-muessen-1.979428-0 Gates, D. (2019). Flawed analysis, failed oversight: How boeing, FAA certified the suspect 737 MAX flight control system. The Seattle Times. Zugriff am 2022-04-20 auf https://www.seattletimes.com/business/boeing-aerospace/ failed-certification-faa-missed-safety-issues-in-the-737-max-system -implicated-in-the-lion-air-crash/ Gates, D. & Baker, M. (2019). The inside story of MCAS: How Boeing’s 737 MAX system gained power and lost safeguards. The Seattle Times. Zugriff am 2022- 04-29 auf https://www.seattletimes.com/seattle-news/times-watchdog/ the-inside-story-of-mcas-how-boeings-737-max-system-gained-power-and -lost-safeguards/ Gerrig, R. J. & Zimbardo, P. G. (2018). Psychologie (21. Aufl.; T. Dörfler & J. Roos, Hrsg. & A. Klatt, Übers.). Hallbergmoos: Pearson. Gilovich, T. & Griffin, D. (2009). Introduction - Heuristics and biases: Then and now. In T. Gilovich, D. W. Griffin & D. Kahneman (Hrsg.), Heuristics and biases: The psychology of intuitive judgment (8. Aufl., S. 1–18). New York: Cambridge University Press. Gilovich, T., Griffin, D. W. & Kahneman, D. (Hrsg.). (2009). Heuristics and biases: The psychology of intuitive judgment (8. Aufl.). New York: Cambridge University Press. Gladwell, M. T. (2008). Outliers: The story of success. New York: Little, Brown and Company. Google Finance. (2022). Boeing Co. Zugriff am 2022-12-17 auf https://www.google.com/finance/quote/BCO:ETR?sa=X&ved=2ahUKEwjl _s2KpYD8AhXj7rsIHSrfACUQ3ecFegQIKhAj Griffin, D. & Tversky, A. (2009). The weighing of evidence and the determinants of confidence. In T. Gilovich, D. W. Griffin & D. Kahneman (Hrsg.), Heuristics and biases - The psychology of intuitive judgment (8. Aufl., S. 229–249). New York: Cambridge University Press. Grünendahl, P. (2012). Der Brief von Thomas Mahlberg (CDU) an NRW-Innenminister Ingo Wolf (FDP). Duisburg am Rhein - Betrachtungen. Zugriff am 2022-06-17 auf https://duisburgamrhein-betrachtungen.de/loveparade-2010/der-brief -von-thomas-mahlberg-cdu-an-nrw-innenminister-ingo-wolf-fdp/ Guerrera, F. (2008). Wells Fargo cracks the whip. Financial Times. Zugriff am 2022-08-09 auf https://www.ft.com/content/83f02918-7069-11dd-b514-0000779fd18c Hamilton, D. L., Dugan, P. M. & Trolier, T. K. (1985). The formation of stereotypic Literaturverzeichnis 207 beliefs: Further evidence for distinctiveness-based illusory correlations. Journal of Personality and Social Psychology, 48 (1), 5–17. https://doi.org/10.1037/0022- 3514.48.1.5 Hans, B. (2010). Imageprojekt Love Parade - Party um jeden Preis. Spiegel. Zu- griff am 2022-06-17 auf https://www.spiegel.de/panorama/imageprojekt-love -parade-party-um-jeden-preis-a-708573.html Harkins, S. G. & Petty, R. E. (1982). Effects of task difficulty and task uniqueness on social loafing. Journal of Personality and Social Psychology, 43 (6), 1214–1229. https://doi.org/10.1037/0022-3514.43.6.1214 Harkins, S. G. & Szymanski, K. (1988). Social loafing and self-evaluation with an objec- tive standard. Journal of Experimental Social Psychology, 24 (4), 354–365. htt- ps://doi.org/10.1016/0022-1031(88)90025-X Hastorf, A. H. & Cantril, H. (1954). They saw a game; a case study. The Journal of Ab- normal and Social Psychology, 49 (1), 129–134. https://doi.org/10.1037/h0057880 Heath, C., Larrick, R. P. & Klayman, J. (1998). Cognitive repairs: How organizations compensate for the shortcoming of individual learners. Research in Organizational Behavior , 20 , 1–37. Zugriff am 2022-11-15 auf shorturl.at/mJMZ3 Heine, S. J. & Lehman, D. R. (1995). Cultural variation in unrealistic optimism: Does the West feel more vulnerable than the East? Journal of Personality and Social Psychology, 68 (4), 595–607. https://doi.org/10.1037/0022-3514.68.4.595 Heine, S. J., Takata, T. & Lehman, D. R. (2000). Beyond self-presentation: Evidence for self-criticism among Japanese. Personality and Social Psychology Bulletin, 26 (1), 71–78. https://doi.org/10.1177/0146167200261007 Helbing, D. & Mukerji, P. (2012). Crowd disasters as systemic failures: Analysis of the Love Parade disaster. EPJ Data Science, 1 (7), 1–40. https://doi.org/10.1140/epjds7 Heuer, R. J. (1999). Psychology of intelligence analysis. Washington DC: Center for the Study of Intelligence. Hoffrage, U. (2017). Overconfidence. In R. F. Pohl (Hrsg.), Cognitive illusions (2. Aufl., S. 291–314). New York: Routledge. Hofstede, G. (1984). Culture’s consequences: International differences in work-related values (Bd. 5). Thousand Oaks: Sage Publications Inc. Hopkins, A. (2001). Was Three Mile Island a ‘normal accident’? Journal of Contingencies and Crisis Management, 9 (2), 65–72. https://doi.org/10.1111/1468-5973.00155 Horney, K. C. T. (2013). New ways in psychoanalysis (Bd. 16). Abingdon-on-Thames: Routledge. Houghton, S. M., Simon, M., Aquino, K. & Goldberg, C. B. (2000). No safety in numbers: Persistence of biases and their effects on team risk perception and team Literaturverzeichnis 208 decision making. Group & Organization Management, 25 (4), 325–353. htt- ps://doi.org/10.1177/1059601100254002 House, R. J., Hanges, P. J., Javidan, M., Dorfman, P. W. & Gupta, V. (2004). Culture, leadership, and organizations: The GLOBE study of 62 societies. New York: Sage Publications. International Atomic Energy Agency. (1991). Safety culture: A report (Bericht). Vienna: Autor. Janis, I. L. (1971). Groupthink. Psychology Today, 5 (6), 43–46, 74–76. Zugriff auf http://agcommtheory.pbworks.com/f/GroupThink.pdf Janis, I. L. (1982). Groupthink: Psychological studies of policy decisions and fiascoes (2. Aufl.). Boston: Houghton Mifflin. Janis, I. L. (1991). Groupthink. In E. Griffin (Hrsg.), A first look at communication theory (S. 235–246). New York: McGraw Hill. Javidan, M. & Dastmalchian, A. (2009). Managerial implications of the GLOBE project: A study of 62 societies. Asia Pacific Journal of Human Resources, 47 (1), 41–58. https://doi.org/10.1177/1038411108099289 Jensen, A., Merz, S., Spence, C. & Frings, C. (2020). Perception it is: Processing le- vel in multisensory selection. Atten Percept Psychophys, 82 (3), 1391–1406. htt- ps://doi.org/10.3758/s13414-019-01830-4 Jonassen, D. H. (1997). Instructional design models for well-structured and iII-structured problem-solving learning outcomes. Educational Technology Research and Develop- ment, 45 (1), 65–94. https://doi.org/10.1007/BF02299613 Jonassen, D. H. (2000). Toward a design theory of problem solving. Educational Technology Research and Development, 48 (4), 63–85. https://doi.org/10.1007/BF02300500 Jones, P. E. & Roelofsma, P. H. M. P. (2000). The potential for social contextual and group biases in team decision-making: Biases, conditions and psychological mechanisms. Ergonomics, 43 (8), 1129–1152. https://doi.org/10.1080/00140130050084914 Kahan, D. M., Braman, D., Gastil, J., Slovic, P. & Mertz, C. K. (2007). Culture and identity-protective cognition: Explaining the white-male effect in risk perception. Journal of Empirical Legal Studies, 4 (3), 465–505. https://doi.org/10.1111/j.1740- 1461.2007.00097.x Kahan, D. M., Jenkins-Smith, H. & Braman, D. (2011). Cultural cognition of scientific consensus. Journal of Risk Research, 14 (2), 147–174. htt- ps://doi.org/10.1080/13669877.2010.511246 Kahneman, D. (1973). Attention and effort. Englewood Cliffs, NJ: Prentice-Hall Incorpo- rated. Kahneman, D. (2011). Thinking, fast and slow. New York: Macmillan Publishing Group, LLC. Literaturverzeichnis 209 Kahneman, D. & Frederick, S. (2009). Representativeness revisited: Attribute substitu- tion in intuitive judgment. In T. Gilovich, D. W. Griffin & D. Kahneman (Hrsg.), Heuristics and Biases: The Psychology of Intuitive Judgment (8. Aufl., S. 49–81). New York: Cambridge University Press. Kahneman, D. & Klein, G. (2009). Conditions for intuitive expertise: A failure to disagree. American Psychologist, 64 (6), 515–526. https://doi.org/10.1037/a0016755 Kahneman, D. & Tversky, A. (1979). Prospect theory: An analysis of decision under risk. Econometrica, 47 (2), 263–292. https://doi.org/10.2307/1914185 Katz, D., Allport, F. H. & Jenness, M. B. (1931). Students’ attitudes; a report of the Syracuse University reaction study. Burlington, IA: Craftsman Press. Kelly, J., Fisher, D. & Smith, M. (2005). Debate, division, and diversity: Political dis- course networks in Usenet newsgroups. In Online Deliberation Conference. Stanford University. Kennedy, R. (2022). Downfall: The case against boeing. Netflix. Zugriff auf shorturl.at/ bvGV4 Kerr, N. L. (1983). Motivation losses in small groups: A social dilemma analysis. Journal of Personality and Social Psychology, 45 (4), 819. https://doi.org/10.1037/0022- 3514.45.4.819 Kerr, N. L., MacCoun, R. J. & Kramer, G. P. (1996). Bias in judgment: Com- paring individuals and groups. Psychological Review, 103 (4), 687–719. htt- ps://doi.org/10.1037/0033-295X.103.4.687 Kerr, N. L. & Tindale, R. S. (2004). Group performance and decisi- on making. Annual Review of Psychology, 55 (1), 623–655. htt- ps://doi.org/10.1146/annurev.psych.55.090902.142009 Kitayama, S., Markus, H. R., Matsumoto, H. & Norasakkunkit, V. (1997). Individual and collective processes in the construction of the self: Self-enhancement in the United States and self-criticism in Japan. Journal of Personality and Social Psychology, 72 (6), 1245. https://doi.org/10.1037/0022-3514.72.6.1245 Klayman, J. (1993). Debias the environment instead of the judge: An alternative approach to reducing error in diagnostic (and other) judgment. Cognition, 49 (1-2), 97–122. https://doi.org/10.1016/0010-0277(93)90037-V Klayman, J., Soll, J. B., Gonzalez-Vallejo, C. & Barlas, S. (1999). Overconfidence: It depends on how, what, and whom you ask. Organizational Behavior and Human Decision Processes, 79 (3), 216–247. https://doi.org/10.1006/obhd.1999.2847 Klehe, U.-C. & Anderson, N. (2007). The moderating influence of personality and culture on social loafing in typical versus maximum performance situati- ons. International Journal of Selection and Assessment, 15 (2), 250–262. htt- ps://doi.org/10.1111/j.1468-2389.2007.00385.x Literaturverzeichnis 210 Klein, G. (2007). Performing a project premortem. Harvard business review, 85 (9), 18–19. Korn, C. W., Sharot, T., Walter, H., Heekeren, H. R. & Dolan, R. J. (2014). Depression is related to an absence of optimistically biased belief updating about future life events. Psychological Medicine, 44 (3), 579–592. htt- ps://doi.org/10.1017/S0033291713001074 Kotter, J. P. (2008). Corporate culture and performance. New York: Simon and Schuster. Krueger, J. I. & Funder, D. C. (2004, April). Towards a balanced social psycho- logy: Causes, consequences, and cures for the problem-seeking approach to so- cial behavior and cognition. Behavioral and Brain Sciences, 27 (03). htt- ps://doi.org/10.1017/S0140525X04000081 Kruglanski, A. W. & Webster, D. M. (1996). Motivated closing of the mind: “Seizing” and “Freezing”. Psychological Review, 103 (2), 263–283. https://doi.org/10.1037/0033- 295x.103.2.263 Kuhn, D. (1989). Children and adults as intuitive scientists. Psychological review, 96 (4), 674. https://doi.org/10.1037/0033-295X.96.4.674 Kunda, Z. (1990). The case for motivated reasoning. Psychological Bulletin, 108 (3), 480. https://doi.org/10.1037/0033-2909.108.3.480 Kuzmanovic, B., Jefferson, A. & Vogeley, K. (2015). Self-specific optimism bias in belief updating is associated with high trait optimism. Journal of Behavioral Decision Making, 28 (3), 281–293. https://doi.org/10.1002/bdm.1849 Labib, A. & Read, M. (2013). Not just rearranging the deckchairs on the Titanic: Learning from failures through Risk and Reliability Analysis. Safety Science, 51 (1), 397–413. https://doi.org/10.1016/j.ssci.2012.08.014 Langewiesche, W. (2019). What really brought down the Boeing 737 Max? New York Times. Zugriff am 2022-04-08 auf https://www.nytimes.com/2019/09/18/ magazine/boeing-737-max-crashes.html Larrick, R. P. (2004). Debiasing. In D. J. Koehler & N. Harvey (Hrsg.), Blackwell handbook of judgment and decision making (S. 316–337). Hoboken, NJ: Blackwell Publishing. Larrick, R. P., Burson, K. A. & Soll, J. B. (2007). Social comparison and confidence: When thinking you’re better than average predicts overconfidence (and when it does not). Organizational Behavior and Human Decision Processes, 102 (1), 76–94. https://doi.org/10.1016/j.obhdp.2006.10.002 Larson, J. R., Christensen, C., Abbott, A. S. & Franz, T. M. (1996). Diagnosing groups: Charting the flow of information in medical decision-making teams. Journal of Personality and Social Psychology, 71 (2), 315–330. https://doi.org/10.1037//0022- 3514.71.2.315 Larwood, L. & Whittaker, W. (1977). Managerial myopia: Self-serving biases in Literaturverzeichnis 211 organizational planning. Journal of Applied Psychology, 62 (2), 194. htt- ps://doi.org/10.1037/0021-9010.62.2.194 Latané, B., Williams, K. & Harkins, S. (1979). Many hands make light the work: The cau- ses and consequences of social loafing. Journal of Personality and Social Psychology, 37 (6), 822. https://doi.org/10.1037/0022-3514.37.6.822 LeBoeuf, R. A. & Shafir, E. (2006). The long and short of it: Physical ancho- ring effects. Journal of Behavioral Decision Making, 19 (4), 393–406. htt- ps://doi.org/10.1002/bdm.535 LeBoeuf, R. A., Shafir, E. & Bayuk, J. B. (2010). The conflicting choices of alternating selves. Organizational Behavior and Human Decision Processes, 111 (1), 48–61. https://doi.org/10.1016/j.obhdp.2009.08.004 Lewis, M. (2004). Moneyball: The art of winning an unfair game. New York: W.W. Norton & Company. Li, A., Early, S. F., Mahrer, N. E., Klaristenfeld, J. L. & Gold, J. I. (2014). Group cohesion and organizational commitment: Protective factors for nurse residents’ job satisfac- tion, compassion fatigue, compassion satisfaction, and burnout. Journal of Profes- sional Nursing, 30 (1), 89–99. https://doi.org/10.1016/j.profnurs.2013.04.004 Lichtenstein, S. & Fischhoff, B. (1980). Training for calibration. Organizational Be- havior and Human Performance, 26 (2), 149–171. https://doi.org/10.1016/0030- 5073(80)90052-5 Lichtenstein, S., Slovic, P., Fischhoff, B., Layman, M. & Combs, B. (1978). Judged frequency of lethal events. Journal of Experimental Psychology: Human Learning and Memory, 4 (6), 551–578. https://doi.org/10.1037/0278-7393.4.6.551 Liden, R. C., Wayne, S. J., Jaworski, R. A. & Bennett, N. (2004). Social loa- fing: A field investigation. Journal of Management, 30 (2), 285–304. htt- ps://doi.org/10.1016/j.jm.2003.02.002 Lin, L. C., Qu, Y. & Telzer, E. H. (2018). Intergroup social influence on emotion processing in the brain. Proceedings of the National Academy of Sciences, 115 (42), 10630– 10635. https://doi.org/10.1073/pnas.1802111115 List of cognitive biases. (2022). Wikipedia. Zugriff am 2022-11-27 auf https:// en.wikipedia.org/w/index.php?title=List_of_cognitive_biases&oldid= 1124220636 Logan, G. D. (2002). Parallel and serial processing. In H. Pashler (Hrsg.), Stevens’ handbook of experimental psychology: Methodology in experimental psychology (3. Aufl., Bd. 4, S. 271–300). New York: John Wiley & Sons. Longbine, D. F. (2008). Red teaming: Past and present (Bericht). Kansas: School of Advanced Military Studies United States Army Command and General Staff College Fort Leavenworth. Literaturverzeichnis 212 Loschelder, D. D., Stuppi, J. & Trötschel, R. (2014). “14,875?!”: Precision boosts the anchoring potency of first offers. Social Psychological and Personality Science, 5 (4), 491–499. https://doi.org/10.1177/194855061349994 Loveparade fällt 2009 in Bochum aus. (2009, Januar). Rheinische Post. Zugriff am 2022-06- 17 auf https://rp-online.de/panorama/deutschland/loveparade-faellt-2009 -in-bochum-aus_aid-12437931 LTO-Redaktion. (2020, April). Aus für Loveparade-Prozess rückt näher - Staats- anwaltschaft stimmt Einstellung zu. Legal Tribune Online. Zugriff am 2022-05-06 auf https://www.lto.de/recht/nachrichten/n/loveparade-prozess -einstellung-zustimmung-staatsanwaltschaft/ Luft, T., Schneider, S. & Wartzack, S. (2015). A methodical approach to model and map interconnected decision making situations and their consequences. In C. We- ber, S. Husung, G. Cascini, M. Cantamessa, D. Marjanovic & F. Rotini (Hrsg.), Proceedings of the 20th International on Engineering Design (ICED 15) (Bd. 5, S. 329–340). Polytechnic University of Milan. Maass, A., Karasawa, M., Politi, F. & Suga, S. (2006). Do verbs and adjectives play different roles in different cultures? A cross-linguistic analysis of person represen- tation. Journal of Personality and Social Psychology, 90 (5), 734–750. htt- ps://doi.org/10.1037/0022-3514.90.5.734 Mannion, R. & Thompson, C. (2014, Dezember). Systematic biases in group decision- making: Implications for patient safety. International Journal for Quality in Health Care, 26 (6), 606–612. https://doi.org/10.1093/intqhc/mzu083 Marchiori, D., Papies, E. K. & Klein, O. (2014, Oktober). The portion size effect on food intake. An anchoring and adjustment process? Appetite, 81 , 108–115. htt- ps://doi.org/10.1016/j.appet.2014.06.018 Marks, G. & Miller, N. (1987). Ten years of research on the false-consensus effect: An empirical and theoretical review. Psychological Bulletin, 102 (1), 72–90. htt- ps://doi.org/10.1037/0033-2909.102.1.72 McAfee, R. P., Mialon, H. M. & Mialon, S. H. (2010). Do sunk costs matter? Economic Inquiry, 48 (2), 323–336. https://doi.org/10.1111/j.1465-7295.2008.00184.x Medin, D. L., Ross, B. H. & Markman, A. B. (2005). Cognitive psychology. New York: Wiley. Mercier, H. (2017). Confirmation bias–myside bias. In R. F. Pohl (Hrsg.), Cognitive illusions (2. Aufl., S. 99–114). New York: Routledge. Meub, L. & Proeger, T. (2018). Are groups ‘less behavioral’? The case of anchoring. Theory and Decision, 85 (2), 117–150. https://doi.org/10.1007/s11238-017-9608-x Milgram, S. (1963). Behavioral study of obedience. The Journal of Abnormal and Social Psychology, 67 (4), 371–378. https://doi.org/10.1037/h0040525 Literaturverzeichnis 213 Milkman, K. L., Chugh, D. & Bazerman, M. H. (2009). How can decision ma- king be improved? Perspectives on Psychological Science, 4 (4), 379–383. htt- ps://doi.org/10.1111/j.1745-6924.2009.01142.x Miller, G. (1956). The magical number seven, plus or minus two: Some limits on our capacity for processing information. Psychological Review, 63 (2), 81–97. htt- ps://doi.org/10.1037/h0043158 Miller, J. (1984). Culture and the development of everyday social explanation. Journal of Personality and Social Psychology, 46 (5), 961–978. https://doi.org/10.1037/0022- 3514.46.5.961 Montibeller, G. & von Winterfeldt, D. (2015). Cognitive and motivational bia- ses in decision and risk analysis. Risk Analysis, 35 (7), 1230–1251. htt- ps://doi.org/10.1111/risa.12360 Montibeller, G. & von Winterfeldt, D. (2018). Individual and group biases in value and uncertainty judgments. In L. C. Dias, A. Morton & J. Quigley (Hrsg.), Elicitation - The science and art of structuring judgement (Bd. 261, S. 377–392). Cham: Springer International Publishing. Moore, D. A., Dev, A. S. & Goncharova, E. Y. (2018). Overconfidence across cultures. Collabra: Psychology, 4 (1), 36. https://doi.org/10.1525/collabra.153 Moore, D. A. & Healy, P. J. (2008). The trouble with overconfidence. Psychological Review, 115 (2), 502–517. https://doi.org/10.1037/0033-295X.115.2.502 Moore, D. A. & Swift, S. A. (2011). The three faces of overconfidence in organizations. In D. De Cremer, R. van Dick & J. K. Murnighan (Hrsg.), Social Psychology and Organizations (S. 179–216). New York: Routledge. Morris, M. W. & Peng, K. (1994). Culture and cause: American and Chinese attributions for social and physical events. Journal of Personality and Social psychology, 67 (6), 949. Morris, W. (Hrsg.). (1971). Culture (7. Aufl.). New York: American Heritage Publishing. Murata, A., Nakamura, T. & Karwowski, W. (2015). Influence of cognitive biases in distorting decision making and leading to critical unfavorable incidents. Safety, 1 (1), 44–58. https://doi.org/10.3390/safety1010044 Muthukrishna, M., Henrich, J., Toyokawa, W., Hamamura, T., Kameda, T. & Hei- ne, S. J. (2018). Overconfidence is universal? Elicitation of Genuine Overconfi- dence (EGO) procedure reveals systematic differences across domain, task know- ledge, and incentives in four populations. PLoS ONE , 13 (8), e0202288. htt- ps://doi.org/10.1371/journal.pone.0202288 National Research Council. (2007). Analysis of global change assessments: Lessons learned. Washington: National Academies Press. Newby-Clark, I. R., Ross, M., Buehler, R., Koehler, D. J. & Griffin, D. (2000). People Literaturverzeichnis 214 focus on optimistic scenarios and disregard pessimistic scenarios while predicting task completion times. Journal of Experimental Psychology: Applied, 6 (3), 171– 182. https://doi.org/10.1037//1076-898x.6.3.171 Newell, A. & Simon, H. A. (1972). Human problem solving. Englewood Cliffs, NJ: Prentice-Hall, Inc. Nickerson, R. S. (1998). Confirmation bias: A ubiquitous phenomenon in many gui- ses. Review of General Psychology, 2 (2), 175–220. https://doi.org/10.1037/1089- 2680.2.2.175 Niederle, M. & Vesterlund, L. (2007). Do women shy away from competition? Do men compete too much? The Quarterly Journal of Economics, 122 (3), 1067–1101. htt- ps://doi.org/10.1162/qjec.122.3.1067 Nisbett, R. E. & Ross, L. (1980). Human inference: Strategies and shortcomings of social judgment. Englewood Cliffs, NJ: Prentice-Hall. Nosek, B. A., Hawkins, C. B. & Frazier, R. S. (2011). Implicit social cognition: From measures to mechanisms. Trends in Cognitive Sciences, 15 (4), 152–159. htt- ps://doi.org/10.1016/j.tics.2011.01.005 NRW-Regierung schasst missliebigen Beamten. (2009). Frankfurter Rundschau. Zu- griff am 2022-06-17 auf https://www.fr.de/politik/nrw-regierung-schasst -missliebigen-beamten-11501928.html Orwell, G. (1944). London Letter. Osborne, J. W. & Costello, A. B. (2004). Sample size and subject to item ratio in principal components analysis. Practical Assessment, Research, and Evaluation, 9 (1), 11. https://doi.org/10.7275/ktzq-jq66 Parayre, R. (1995). The strategic implications of sunk costs: A behavioral perspec- tive. Journal of Economic Behavior & Organization, 28 (3), 417–442. htt- ps://doi.org/10.1016/0167-2681(95)00045-3 Pennebaker, J. W. & Skelton, J. A. (1978). Psychological parameters of physical symptoms. Personality and Social Psychology Bulletin, 4 (4), 524–530. htt- ps://doi.org/10.1177/01461672780040040 Petty, R. E., Cacioppo, J. T., Strathman, A. J. & Priester, J. R. (2005). To think or not to think: Exploring two routes to persuasion. In T. C. Brock & M. C. Green (Hrsg.), Persuasion: Psychological insights and perspectives (S. 81–116). New York: Sage Publications, Inc. Plous, S. (1989). Thinking the unthinkable: The effects of anchoring on likelihood esti- mates of nuclear war. Journal of Applied Social Psychology, 19 (1), 67–91. htt- ps://doi.org/10.1111/j.1559-1816.1989.tb01221.x Pohl, R. F. (Hrsg.). (2017a). Cognitive illusions: Intriguing phenomena in thinking, judgment and memory (2. Aufl.). New York: Routledge. Literaturverzeichnis 215 Pohl, R. F. (2017b). Introduction: Cognitive illusions. In R. F. Pohl (Hrsg.), Cognitive illusions (S. 3–21). New York: Routledge. Polizeipräsident schreibt Offenen Brief zur Loveparade. (2009). WAZ . Zugriff am 2022-06-17 auf https://www.waz.de/waz-info/polizeipraesident-schreibt -offenen-brief-zur-loveparade-id704676.html Polizeipräsidium Duisburg. (2010). Maßnahmen der Polizei aus Anlass der “Loveparade 2010” in Duisburg am 24. Juli 2010 (Bericht). Zugriff am 2022-10-10 auf https://loveparade2010doku.files.wordpress.com/2014/05/ massnahmen-polizei_110601_anlage_7_vorbereitungsstab.pdf Pyszczynski, T. & Greenberg, J. (1987). Toward an integration of cognitive and mo- tivational perspectives on social inference: A biased hypothesis-testing model. In L. Berkowitz (Hrsg.), Advances in experimental social psychology (Bd. 20, S. 297– 340). Amsterdam: Elsevier. Quattrone, G. A., Lawrence, C. P., Warren, D. L., Souza-Silva, K., Finkel, S. E. & Andrus, D. E. (1984). Explorations in anchoring: The effects of prior range, anchor extremity and suggestive hints. Unpublished manuscript, Stanford University. Quillan, M. R. (1966). Semantic memory. Cambridge, MA: Bolt Beranek and Newman Inc. Reason, J. (1998). Achieving a safe culture: Theory and practice. Work & Stress, 12 (3), 293–306. https://doi.org/10.1080/02678379808256868 Reason, J. (2013). A life in error: From little slips to big disasters. London: CRC Press. Reason, J. (2016). Managing the Risks of Organizational Accidents. London: Routledge. Rehm, A. (2020). Die Loveparade-Katastrophe: Die Geschichte einer Tragödie. München. Zugriff am 2022-05-06 auf https://www.youtube.com/watch?v=opg5Pt3rSzU Ringelmann, M. (1913). Recherches sur les moteurs animés: Travail de l’homme. Annales de l’Insitut National Agronomique, 12 , 1–40. Zugriff am 2020-04-25 auf https:// gallica.bnf.fr/ark:/12148/bpt6k54409695.image.f14.langEN Roeingh, M., Lenz, M. & Jankuhn, K. (2010). 100 Tage Loveparade - Die Tragödie von Duisburg. RTL2. Zugriff am 2022-06-26 auf https://www.youtube.com/watch?v= 104ckLsev84 Ronayne, D., Sgroi, D. & Tuckwell, A. (2021). Evaluating the sunk cost ef- fect. Journal of Economic Behavior & Organization, 186 , 318–327. htt- ps://doi.org/10.1016/j.jebo.2021.03.029 Rosenthal, U. & Hart, P. (2008). Experts and decision makers in crisis situations. In A. Boin (Hrsg.), Crisis management (Bd. 2, S. 250–266). London: Sage Publications Ltd. Ross, L., Greene, D. & House, P. (1977). The “false consensus effect”: An egocentric Literaturverzeichnis 216 bias in social perception and attribution processes. Journal of experimental social psychology, 13 (3), 279–301. Ross, M. & Sicoly, F. (1979). Egocentric biases in availability and attribution. Journal of Personality and Social Psychology, 37 (3), 322–336. https://doi.org/10.1037/0022- 3514.37.3.322 Rubick, N. (2019). Boeing vs Boeing’s stakeholders. Zugriff am 2022-12-17 auf https://rubicksjourneys.wordpress.com/2019/11/17/boeing-vs-boeings -stakeholders/ Sashkin, M. & Rosenbach, W. E. (2013). Organizational culture assessment questionnaire [Manuscript]. Savani, K., Cho, J., Baik, S. & Morris, M. W. (2015). Culture and judgment and de- cision making. In G. Keren & G. Wu (Hrsg.), The Wiley Blackwell handbook of judgment and decision making (S. 456–477). Chichester, UK: John Wiley & Sons, Ltd. https://doi.org/10.1002/9781118468333.ch16 Savani, K., Markus, H. R. & Conner, A. L. (2008). Let your preference be your gui- de? Preferences and choices are more tightly linked for North Americans than for Indians. Journal of Personality and Social Psychology, 95 (4), 861–876. htt- ps://doi.org/10.1037/a0011618 Savani, K., Wadhwa, M., Uchida, Y., Ding, Y. & Naidu, N. (2015). When norms loom larger than the self: Susceptibility of preference–choice consistency to normative influence across cultures. Organizational Behavior and Human Decision Processes, 129 , 70–79. https://doi.org/10.1016/j.obhdp.2014.09.001 Schaefer, P. S., Williams, C. C., Goodie, A. S. & Campbell, W. K. (2004). Overconfi- dence and the Big Five. Journal of research in Personality, 38 (5), 473–480. htt- ps://doi.org/10.1016/j.jrp.2003.09.010 Schein, E. H. (1988). Organizational Culture. Cambridge, MA: Sloan School of Manage- ment. Schein, E. H. (2010). Organizational culture and leadership (4. Aufl.). San Francisco: Jossey-Bass. Schermelleh-Engel, K. & Werner, C. S. (2012). Methoden der Reliabilitätsbestimmung. In H. Moosbrugger & A. Kelava (Hrsg.), Testtheorie und Fragebogenkonstruktion (S. 119–141). Berlin, Heidelberg: Springer. https://doi.org/10.1007/978-3-642-20072- 4_6 Schreckenberg, M. (2010, Juli). Entfluchtungsanalyse Loveparade. Zugriff am 2022-06-01 auf https://web.archive.org/web/20150509110758if_/https://www.duisburg .de/ratsinformationssystem/bi/getfile.php?id=1458602&type=do Schulz-Hardt, S., Frey, D., Lüthgens, C. & Moscovici, S. (2000). Biased information Literaturverzeichnis 217 search in group decision making. Journal of Personality and Social Psychology, 78 (4), 655–669. https://doi.org/10.1037/0022-3514.78.4.655 Schwarz, N., Vaughn, L. A., Gilovich, T., Griffin, D. & Kahneman, D. (2009). The Availability Heuristic revisited: Ease of recall and content of recall. In Heuristics and Biases: The Psychology of Intuitive Judgment (8. Aufl., S. 103–119). New York: Cambridge University Press. Schweiger, D. M., Sandberg, W. R. & Ragan, J. W. (1986). Group approaches for impro- ving strategic decision making: A comparative analysis of dialectical inquiry, devil’s advocacy, and consensus. Academy of Management Journal, 29 (1), 51–71. htt- ps://doi.org/10.5465/255859 Schwenk, C. R. (1984, April). Cognitive simplification processes in strate- gic decision-making. Strategic Management Journal, 5 (2), 111–128. htt- ps://doi.org/10.1002/smj.4250050203 Scott, T., Mannion, R., Davies, H. & Marshall, M. (2003). The quantitative measurement of organizational culture in health care: A review of the available instruments. Health Services Research, 38 (3), 923–945. https://doi.org/10.1111/1475-6773.00154 Seibel, W. (2017). Einleitung: Behördenversagen mit Todesfolge. In W. Seibel, K. Kla- mann & H. Treis (Hrsg.), Verwaltungsdesaster: Von der Loveparade bis zu den NSU- Ermittlungen (S. 9–21). Frankfurt: Campus Verlag. Seibel, W. & Wenzel, T. (2017). Die Loveparade-Katastrophe vom 24. Juli 2010. In W. Seibel, K. Klamann & H. Treis (Hrsg.), Verwaltungsdesaster: Von der Loveparade bis zu den NSU-Ermittlungen (S. 23–108). Frankfurt: Campus Verlag. Seidlitz, F. (2010, August). Duisburg - Die Chronologie des Versagens. Die Welt. Zugriff am 2022-05-13 auf https://www.welt.de/welt_print/regionales/koeln/ article8755890/Duisburg-Die-Chronologie-des-Versagens.html Seyer, K. & Londner, E. (2020). Case study of the Boeing 737 MAX 8 crashes using a Systems Thinking Approach. In Proceedings of the 2020 Annual General Donald R. Keith Memorial Capstone Conference (S. 93–100). West Point, NY. Shaffer, M. (2014, September). The Boeing 787: Broken Dreams. Al Jazeera. Zugriff am 2022-04-21 auf https://www.youtube.com/watch?v=rvkEpstd9os&t=646s Sharot, T. (2011). The optimism bias. Current Biology, 21 (23), R941-R945. htt- ps://doi.org/10.1016/j.cub.2011.10.030 Shepperd, J., Malone, W. & Sweeny, K. (2008). Exploring causes of the self- serving bias. Social and Personality Psychology Compass, 2 (2), 895–908. htt- ps://doi.org/10.1111/j.1751-9004.2008.00078.x Sherif, C. W. (1982). Social and psychological bases of social psychology. In A. G. Kraut (Hrsg.), The G. Stanley Hall lecture series (Bd. 2). Washington: American Psycho- logical Association. Literaturverzeichnis 218 Simon, H. A. (1947). Administrative behavior - A study of decision-making processes in administrative organization. New York: The Macmillan Company. Simon, H. A. (1956). Rational choice and the structure of the environment. Psychological Review, 63 (2), 129–138. https://doi.org/10.1037/h0042769 Simon, H. A. (1971). Designing organizations for an information-rich world. In M. Green- berger (Hrsg.), Computers, communications, an the public interest (Bd. 72). Baltimore, MD: The Johns Hopkins Press. Zugriff auf https://web.archive.org/ web/20201006235931/https://digitalcollections.library.cmu.edu/awweb/ awarchive?type=file&item=33748 Simon, H. A. (1973). The structure of ill structured problems. Artificial Intelligence, 4 (3-4), 181–201. https://doi.org/10.1016/0004-3702(73)90011-8 Simon, H. A. (1990). Bounded Rationality. In J. Eatwell, M. Milgate & P. Newman (Hrsg.), Utility and probability (S. 15–18). London: Palgrave Macmillan. htt- ps://doi.org/10.1007/978-1-349-20568-4_5 Simon, H. A. (1992). What is an “explanation” of behavior? Psychological Science, 3 (3), 150–161. https://doi.org/10.1111/j.1467-9280.1992.tb00017. Simons, D. J. & Chabris, C. F. (1999). Gorillas in our midst: Sustained inat- tentional blindness for dynamic events. Perception, 28 (9), 1059–1074. htt- ps://doi.org/10.1068/p281059 Sloman, S. A. (1996). The empirical case for two systems of reasoning. Psychological Bulletin, 119 (1), 3–22. https://doi.org/10.1037/0033-2909.119.1.3 Soll, J. B. & Klayman, J. (2004). Overconfidence in interval estimates. Journal of Experimental Psychology: Learning, Memory, and Cognition, 30 (2), 299–314. htt- ps://doi.org/10.1037/0278-7393.30.2.299 Sperling, G. (1960). The information available in brief visual presentati- ons. Psychological Monographs: General and Applied, 74 (11), 1–29. htt- ps://doi.org/10.1037/h0093759 Stafford, T., Holroyd, J. & Scaife, R. (2018). Confronting bias in judging: A framework for addressing psychological biases in decision making [Unpublished Manuscript]. Sheffield. Zugriff am 2019-03-15 auf https://doi.org/10.31234/osf.io/nzskm Stanovich, K. E., West, R. F. & Toplak, M. E. (2013). Myside Bias, rational thinking, and intelligence. Current Directions in Psychological Science, 22 (4), 259–264. htt- ps://doi.org/10.1177/0963721413480174 Stasser, G. & Titus, W. (1985). Pooling of unshared information in group decision making: Biased information sampling during discussion. Journal of Personality and Social Psychology, 48 (6), 1467–1478. https://doi.org/10.1037/0022-3514.48.6.1467 Staw, B. M. (1996). The escalation of commitment: An update and appraisal. In Z. Sha- pira (Hrsg.), Organizational decision making (S. 191–215). Cambridge Universi- Literaturverzeichnis 219 ty Press. Zugriff am 2020-07-15 auf https://www.cambridge.org/core/product/ identifier/CBO9780511584169A020/type/book_part Stollowsky, C. (2010). Massenpanik: Tote bei Loveparade in Duisburg. Der Tagesspiegel Online. Zugriff am 2022-12-27 auf https://www.tagesspiegel.de/gesellschaft/ panorama/tote-bei-loveparade-in-duisburg-4337176.html Sträter, O. (2005). Cognition and safety: An integrated approach to systems design and assessment. Aldershot: Ashgate. Straus, S. G., Parker, A. M. & Bruce, J. B. (2011, Juni). The group matters: A review of processes and outcomes in intelligence analysis. Group Dynamics: Theory, Research, and Practice, 15 (2), 128–146. https://doi.org/10.1037/a0022734 Strunk, D. R., Lopez, H. & DeRubeis, R. J. (2006). Depressive symptoms are associated with unrealistic negative predictions of future life events. Behaviour Research and Therapy, 44 (6), 861–882. https://doi.org/10.1016/j.brat.2005.07.001 Sunstein, C. R. (2000). Deliberative trouble? Why groups go to extremes. The Yale Law Journal, 110 (1), 71–119. https://doi.org/10.2307/797587 Sunstein, C. R. (2002). Why they hate us: The role of social dynamics. Harvard Journal of Law and Public Policy, 25 , 429–440. Zugriff auf https://dash.harvard.edu/ handle/1/12921736 Synolakis, C. & Kânoğlu, U. (2015). The Fukushima accident was preventable. Philosophical Transactions of the Royal Society A, 373 (2053), 1–23. htt- ps://doi.org/10.1098/rsta.2014.0379 Szymaniak, P. (2009, Januar). Wittke will Loveparade auf die A 40 verlagern. WAZ . Zu- griff am 2022-06-11 auf https://www.waz.de/waz-info/wittke-will-loveparade -auf-die-a-40-verlagern-id1355290.html Taber, K. S. (2018). The use of Cronbach’s alpha when developing and reporting research instruments in science education. Research in science education, 48 , 1273–1296. https://doi.org/10.1007/s11165-016-9602-2 Taleb, N. N. (2010). The black swan: The impact of the highly improbable (2. Aufl.). London: Penguin Books. Taleb, N. N. (2018). Skin in the game: Hidden asymmetries in daily life. Random House. Tappin, B. M., van der Leer, L. & McKay, R. T. (2017). The heart trumps the head: Desirability bias in political belief revision. Journal of Experimental Psychology: General, 146 (8), 1143–1149. https://doi.org/10.1037/xge0000298 Taylor, K. (2006). Brainwashing: The science of thought control. New York: Oxford University Press. Tetlock, P. E. (1979). Identifying victims of groupthink from public statements of de- cision makers. Journal of Personality and Social Psychology, 37 (8), 1314–1324. https://doi.org/10.1037/0022-3514.37.8.1314 Literaturverzeichnis 220 Tetlock, P. E., Peterson, R. S., McGuire, C., Chang, S.-j. & Feld, P. (1992). Assessing political group dynamics: A test of the groupthink model. Journal of Personality and Social Psychology, 63 (3), 403–425. https://doi.org/10.1037/0022-3514.63.3.403 Thaler, R. H. (1999). Mental Accounting matters. Journal of Behavioral Decision Making, 12 (3), 183–206. https://doi.org/10.1002/(SICI)1099-0771(199909)12:3<183::AID- BDM318>3.0.CO;2-F Tolstoy, L. (1894). The Kingdom of God is Within You. London: Cassell Publishing Company. Turner, B. A., Pidgeon, N., Blockley, D. & Toft, B. (1989). Safety Culture: Its importance in future risk management. In Position paper for the second World Bank workshop on safety control and risk management (S. 1–11). Karlstad. Tversky, A. & Kahneman, D. (1971). Belief in the law of small numbers. Psychological Bulletin, 76 (2), 105–110. https://doi.org/10.1037/h0031322 Tversky, A. & Kahneman, D. (1973). Availability: A heuristic for judging frequency and probability. Cognitive Psychology, 5 (2), 207–232. https://doi.org/10.1016/0010- 0285(73)90033-9 Tversky, A. & Kahneman, D. (1974). Judgment under uncertainty: Heuristics and biases. Science, 185 (4157), 1124–1131. https://doi.org/10.1126/science.185.4157.11 Tversky, A. & Kahneman, D. (1981). The framing of decisions and the psychology of choice. Science, 211 (4481), 453–458. https://doi.org/10.1126/science.7455683 Tversky, A. & Kahneman, D. (1983). Extensional versus intuitive reasoning: The con- junction fallacy in probability judgment. Psychological Review, 90 (4), 293–315. https://doi.org/10.1037/0033-295X.90.4.293 Ullman, M. T. (2004). Contributions of memory circuits to language: The declarative/procedural model. Cognition, 92 (1-2), 231–270. htt- ps://doi.org/10.1016/j.cognition.2003.10.008 U.S. Army Heritage and Education Center. (2021, November). Who first originated the term VUCA (Volatility, Uncertainty, Complexity and Ambiguity)? Zugriff am 2022- 11-29 auf https://usawc.libanswers.com/faq/84869 Uttal, B. (1983). The corporate culture vultures. Fortune Magazine, 108 (8), 66–72. Van Muijen, J. J. (1999). Organizational culture: The focus questionnaire. Eu- ropean Journal of work and organizational psychology, 8 (4), 551–568. htt- ps://doi.org/10.1080/135943299398168 Van Vugt, M. & Schaller, M. (2008). Evolutionary approaches to group dynamics: An introduction. Group Dynamics: Theory, Research, and Practice, 12 (1), 1. htt- ps://doi.org/10.1037/1089-2699.12.1.1 Wallace, P. (2015). The psychology of the Internet. New York: Cambridge University Press. Literaturverzeichnis 221 Warrick, D. D. (2015). Understanding, building, and changing organization cultures. In D. D. Warrick & J. Mueller (Hrsg.), Lessons in changing cultures: Learning from real world cases (S. 1–16). Oxford: RossiSmith Academic Publications Ltd. Warrick, D. D. (2017). What leaders need to know about organizational culture. Business Horizons, 60 (3), 395–404. https://doi.org/10.1016/j.bushor.2017.01.011 Wason, P. C. (1960). On the failure to eliminate hypotheses in a conceptual task. Quarterly Journal of Experimental Psychology, 12 (3), 129–140. htt- ps://doi.org/10.1080/17470216008416717 Weber, E. U. & Morris, M. W. (2010). Culture and judgment and decision making: The constructivist turn. Perspectives on Psychological Science, 5 (4), 410–419. htt- ps://doi.org/10.1177/1745691610375556 Wickens, C. D. (2008). Multiple resources and mental workload. Human Factors: The Journal of the Human Factors and Ergonomics Society, 50 (3), 449–455. htt- ps://doi.org/10.1518/001872008X288394 WikiLeaks. (2009a). Loveparade 2010 Anlage 03 Protokoll 25. September 2009. Zugriff am 2022-05-05 auf http://file.wikileaks.org/file/loveparade2010/loveparade -2010-anlage-03-protokoll-25-09-09.pdf WikiLeaks. (2009b). Loveparade 2010 Anlage 04 Protokoll 02. Oktober 2009. Zugriff am 2022-05-05 auf http://file.wikileaks.org/file/loveparade2010/loveparade -2010-anlage-04-protokoll-02-10-09.pdf WikiLeaks. (2009c). Loveparade 2010 Anlage 05 Protokoll AG Verkehr 20. Oktober 2009. Zugriff am 2022-05-05 auf http://file.wikileaks.org/file/loveparade2010/ loveparade-2010-anlage-05-protokoll-ag-verkehr-20-10-09.pdf WikiLeaks. (2009d). Loveparade 2010 Anlage 06 Praesentation Lopavent GmbH Planungs- stand 29. Oktober 2009. Zugriff am 2022-05-05 auf http://file.wikileaks.org/ file/loveparade2010/loveparade-2010-anlage-06-praesentation-lopa -planungsstand-29-10-09.pdf WikiLeaks. (2010a). Lopavent Besucherprognose 08.07.10. Zugriff am 2022- 05-05 auf http://file.wikileaks.org/file/loveparade2010/loveparade-2010 -anlage-17-lopavent-besucherprognose-08-07-10.pdf WikiLeaks. (2010b). Loveparade 2010 Anlage 10 Veranstaltungsbeschreibung Lopavent GmbH 28. Mai 2010. Zugriff am 2022-05-05 auf http:// file.wikileaks.org/file/loveparade2010/loveparade-2010-anlage-10 -veranstaltungsbeschreibung-lopavent-28-05-10.pdf WikiLeaks. (2010c). Loveparade 2010 Anlage 11 Interner Entwurf Sicherheitskon- zept 20. Mai 2010. Zugriff am 2022-05-05 auf http://file.wikileaks.org/ file/loveparade2010/loveparade-2010-anlage-11-interner-entwurf -sicherheitskonzept-20-05-10.pdf Literaturverzeichnis 222 WikiLeaks. (2010d). Loveparade 2010 Anlage 16 Protokoll 15. Juli 2010. Zugriff am 2022- 05-05 auf http://file.wikileaks.org/file/loveparade2010/loveparade-2010 -anlage-16-protokoll-15-07-10.pdf WikiLeaks. (2010e). Loveparade 2010 Anlage 20 Protokoll Stadtverwaltung 02. Maerz 2010. Zugriff am 2022-05-05 auf http://file.wikileaks.org/file/ loveparade2010/loveparade-2010-anlage-20-protokoll-02-03-10.pdf WikiLeaks. (2010f). Loveparade 2010 Anlage 21 Protokoll 08. Maerz 2010. Zugriff am 2022-05-05 auf http://file.wikileaks.org/file/loveparade2010/loveparade -2010-anlage-21-protokoll-08-03-10.pdf WikiLeaks. (2010g). Loveparade 2010 Anlage 24 Zwischenbewertung und Nachforderung fehlender Unterlagen 14. Juni 2010. Zugriff am 2022- 05-05 auf http://file.wikileaks.org/file/loveparade2010/loveparade-2010 -anlage-24-nachforderung-fehlende-unterlagen-14-06-10.pdf WikiLeaks. (2010h). Loveparade 2010 Anlage 25 Aktenvermerk mit hand- schriftlicher Ablehnung Dressler 18. Juni 2010. Zugriff am 2022-05- 05 auf http://file.wikileaks.org/file/loveparade2010/loveparade-2010 -anlage-25-aktenvermerk-und-ablehnung-dressler-18-06-10.pdf WikiLeaks. (2010i). Loveparade 2010 Anlage 26 Aktenvermerk Aktenver- merk Abnahme Stadtverwaltung 25. Juni 2010. Zugriff am 2022-05-05 auf http://file.wikileaks.org/file/loveparade2010/loveparade-2010-anlage -26-aktenvermerk-abnahme-sv-25-06-10.pdf WikiLeaks. (2010j). Loveparade 2010 Anlage 28 Zwischenbewertung und Nachforderung fehlender Unterlagen 14. Juli 2010. Zugriff am 2022- 05-05 auf http://file.wikileaks.org/file/loveparade2010/loveparade-2010 -anlage-28-nachforderung-fehlende-unterlagen-14-07-10.pdf WikiLeaks. (2010k). Loveparade 2010 Anlage 29 Veranstaltungsbeschreibung 16. Juli 2010. Zugriff am 2022-05-05 auf http://file.wikileaks.org/file/loveparade2010/ loveparade-2010-anlage-29-veranstaltungsbeschreibung-16-07-10.pdf WikiLeaks. (2010l). Loveparade 2010 Anlage 34 Genehmigung der Bauauf- sicht mit Abweichungsgenehmigungen 21. Juli 2010. Zugriff am 2022- 05-05 auf http://file.wikileaks.org/file/loveparade2010/loveparade-2010 -anlage-34-genehmigung-bauaufsicht-21-07-10.pdf WikiLeaks. (2010m). Loveparade 2010 Anlage 35 Praesentation Lopavent GmbH. Zugriff am 2022-05-05 auf http://file.wikileaks.org/file/loveparade2010/ loveparade-2010-anlage-35-praesentation-lopavent.pdf Williams, K. D. (1993). Social Loafing: A meta-analytic review and theoretical inte- gration. Journal of Personality and Social Psychology, 65 (4), 681–706. htt- ps://doi.org/10.1037/0022-3514.65.4.681 Literaturverzeichnis 223 Williams, K. D., Harkins, S. G. & Latané, B. (1981). Identifiability as a deterrant to Social Loafing: Two cheering experiments. Journal of Personality and Social Psychology, 40 (2), 303–311. https://doi.org/10.1037/0022-3514.40.2.303 Williams, K. D. & Karau, S. J. (1991). Social Loafing and social compensation: The effects of expectations of co-worker performance. Journal of Personality and Social Psychology, 61 (4), 570–581. https://doi.org/10.1037/0022-3514.61.4.570 Wilson, T. D., Houston, C. E., Etling, K. M. & Brekke, N. (1996). A new look at anchoring effects: Basic anchoring and its antecedents. Journal of Experimental Psychology: General, 125 (4), 387–402. https://doi.org/10.1037/0096-3445.125.4.387 Wojcieszak, M. (2008). False consensus goes online: Impact of ideologically homoge- neous groups on false consensus. Public Opinion Quarterly, 72 (4), 781–791. htt- ps://doi.org/10.1093/poq/nfn056 Wojtek, K. H. K. L. (2010). Sachverhaltsbericht zum Verwaltungshandeln der Stadt Duisburg anlässlich der Loveparade (Bericht). Düsseldorf: Kanzlei Heu- king Kühn Lüer Wojtek. Zugriff am 2022-06-26 auf http://docplayer.org/ 80568709-Sachverhaltsbericht-zum-verwaltungshandeln-der-stadt -anlaesslich-der-loveparade.html Woods, D. D., Johannesen, L. J., Cook, R. I. & Sarter, N. B. (1994). Behind human error: Cognitive systems, computers and hindsight (Bericht). Dayton, OH: University of Dayton Research Institute. Zugriff auf https://apps.dtic.mil/sti/citations/ ADA492127 Wright, P. C. & Geroy, G. D. (1991). Experience, judgement and intuition: Qualitative data-gathering methods as aids to strategic planning. Leadership & Organization Development Journal, 12 (3). https://doi.org/10.1108/01437739110001715 Xenikou, A. & Furnham, A. (1996). A correlational and factor analytic study of four questionnaire measures of organizational culture. Human Relations, 49 (3), 349– 371. https://doi.org/10.1177/00187267960490030 Yates, J. F., Lee, J.-W. & Shinotsuka, H. (1996). Beliefs about overconfidence, including its cross-national variation. Organizational Behavior and Human Decision Processes, 65 (2), 138–147. https://doi.org/10.1006/obhd.1996.0012 Zenger, T. R. (1992). Why do employers only reward extreme performance? Examining the relationships among performance, pay, and turnover. Administrative Science Quarterly, 37 (2), 198–219. https://doi.org/10.2307/2393221 Zhu, D. H. (2014). Group polarization in board decisions about CEO compensation. Organization Science, 25 (2), 552–571. https://doi.org/10.1287/orsc.2013.0848 224 Anhang A Itemübersicht Bias Name Label OC_G Mögliche Schwächen in der Planung werden proaktiv thematisiert und diskutiert. OC_G2 Mitarbeiter*innen informieren sich gegenseitig über Schwierigkeiten und Probleme bei der Erreichung ihrer Ziele. OC_G3 Informationen und Daten aus vergangenen Projekten, aus denen Erfolgs- sowie Misserfolgsfaktoren ("lessons learned") hervorgehen, werden regelmäßig präsentiert und diskutiert. OB_G In Entscheidungsprozessen werden bei qualitativen und quantitativen Analysen auch externe Risiken, die außerhalb des Einflusses der Organisation liegen, berücksichtigt. OB_G2 Dem Einfluss unvorhersehbarer externer Ereignisse wird durch Schaffung von Redundanz (zusätzlichen Ressourcen) Rechnung getragen. AB_G Bei Problemdiskussionen dienen in der Regel qualitative und/oder quantitative Analysen empirischer Daten als Diskussionsgrundlage. AB_R Bei Problemdiskussionen werden häufig Ad-hoc-Argumente erfahrener Mitarbeiter*innen als Datenquelle verwendet. [invertiert] CB_G In Entscheidungsprozessen wird eine selbstkritische und hinterfragende Herangehensweise bei der Urteilsfindung bestärkt. CB_G2 Mitarbeiter*innen und Führungskräfte sind lernwillig und offen für negatives Feedback bezüglich ihres Vorgehens bzw. des Vorgehens ihrer Abteilung. CB_R In Entscheidungsprozessen werden primär den bestehenden Ansichten zustimmende Argumente aufgenommen und ausgetauscht. [invertiert] DB_G Im Planungsprozess herrscht eine offene Diskussionskultur, in der auch die Nachteile eines Vorhabens diskutiert und Alternativen ernsthaft betrachtet werden. DB_G2 Es wird unabhängig vom erwünschten Ziel abgewogen bzw. kalkuliert, was realistisch und sicher erreichbar ist, ohne dass Wunschdenken diese Abwägungen beeinflusst. SB_G Es findet eine kritische Reflektion der eigenen Leistung sowohl bei Erfolgen als auch bei Misserfolgen statt. SB_R Konkurrenzdenken führt dazu, dass es besonders wichtig ist, die eigene, individuelle, Leistung hervorzuheben. [invertiert] SB_R2 Erfolge werden als verdiente Leistung bewertet und Probleme eher auf unglückliche Umstände zurückgeführt. [invertiert] ANB_G Meinungen und Einschätzungen unterschiedlicher Mitarbeiter*innen werden zunächst individuell und unabhängig voneinander entwickelt, bevor sie im Entscheidungsprozess aggregiert oder diskutiert werden. ANB_G2 Im Planungsprozess wird hinreichend über unterschiedliche Alternativen diskutiert, bevor man sich für eine Vorgehensweise entscheidet. ANB_R Es entstehen spontane Diskussionen auf Basis anfänglicher Informationen. [invertiert] SUCO_G Wenn sich ein Projekt als teurer oder riskanter als erwartet herausstellt, wird stets auch ein Abbruch als gangbare Alternative diskutiert. SUCO_G2 Der Abbruch eines Projekts wird in der Organisation wertfrei und als unter Umständen angemessene Reaktion auf sich ändernde Bedingungen oder Einschätzungen betrachtet. SUCO_R Es wird häufig versucht ein schlecht laufendes Projekt fortzuführen, obwohl der finanzielle Aufwand oder das Risiko unverhältnismäßig hoch sind. [invertiert] GR_IV_G Erfolge steigen der Gruppe nicht zu Kopf und sie ist stets bemüht, die eigenen Pläne zu hinterfragen und Verbesserungspotenziale abzuleiten. GR_IV_R Vergangene Erfolge führen in der Gruppe zu Selbstüberschätzung und in der Folge zu einem sorgloserem Umgang mit Risiken. [invertiert] O ve rc on fid en ce O pt im ism Av ai la bi lit y Co nf irm at io n De sir ab ili ty Se lf- Se rv in g An ch or in g Su nk -C os t GT - Ill us io n of In vu ln er ab ili ty GR_BM_R Es kann vorkommen, dass ethische Konsequenzen im Einzelfall weniger genau betrachtet werden, weil sich die Gruppe/Organisation insgesamt als moralische Instanz betrachtet. [invertiert] GR_BM_R2 Die Gruppe reagiert irritiert oder ablehnend auf selbstkritische Anmerkungen einzelner Mitglieder. [invertiert] GR_CR_G Kritische Meinungen gegenüber dem von der Führungskraft oder der gesamten Gruppe favorisiertem Plan werden offen aufgenommen und weiterdiskutiert. GR_CR_R Kritische Hinweise und Warnungen bezüglich eines Plans werden häufig nicht ausreichend ernst genommen. [invertiert] GR_OG_R Innerhalb der Gruppe sind häufig die Unfähigkeit oder ähnliche negative Eigenschaften anderer Akteure ein Thema. [invertiert] GR_OG_R2 Es kommt vor, dass negative Einstellungen gegenüber externen Gruppen die Kommunikation und den Informationsaustausch mit diesen beeinträchtigen. [invertiert] GR_SC_G Im Planungsprozess wird sichergestellt, dass alle Gruppenmitglieder ihre Standpunkte äußern. GR_SC_R Manchmal hält man sich mit seiner Meinung zurück, um nicht bei der Führungskraft oder anderen Gruppenmitgliedern anzuecken. [invertiert] GR_IU_G Bei scheinbarer Meinungshomogenität wird bewusst nachgehakt, ob es auch alternative Sichtweisen gibt, die von der bisherigen Gruppenmeinung abweichen. GR_IU_R Das Schweigen einzelner Gruppenmitglieder wird von der Gruppe als stille Zustimmung interpretiert. [invertiert] GR_DP_R Es kommt vor, dass Druck auf Gruppenmitglieder mit abweichender Meinung ausgeübt wird. [invertiert] GR_DP_R2 Es kommt vor, dass kritische Meinungsträger von Gruppenprozessen ausgeschlossen werden. [invertiert] GR_DP_R3 Gruppenmitglieder nutzen ihre hierarchische Position, um ihre Meinung durchzusetzen. [invertiert] GR_SM_R Manche Gruppenmitglieder versuchen kritische Meinungen anderer Mitglieder aus Loyalität zur Führungskraft abzuwehren. [invertiert] GR_SM_R2 Es kommt vor, dass Minderheitsmeinungen vorschnell durch einzelne Gruppenmitglieder schlechtgeredet werden. [invertiert] GR_SL_G Zwischenziele werden konkret und mit festgelegtem Zeithorizont definiert. GR_SL_G2 Arbeitspakete werden für einzelne Gruppenmitglieder konkret zugeordnet. GR_SL_G3 Zwischenergebnisse aus den einzelnen Verantwortungsbereichen werden Führungskräften und anderen Gruppenmitgliedern in regelmäßigen Abständen präsentiert. GR_FC_G Das Verhalten und die Pläne der Gruppe werden kritisch - auch im Austausch mit Personen außerhalb der Gruppe - reflektiert. GR_FC_G2 Führungskräfte beziehen auch Informationen von externen Quellen ausreichend mit ein. KOM_I KOM_ [01] KOM_G KOM_: [01] Gl ob al - ur te il GLOBA Wie bewerten Sie insgesamt die Qualität der Planungs- und Entscheidungsprozesse in Ihrer Organisation oder Abteilung? GT - O ut -G ro up S te re or yp es GT - Be lie f i n in he re nt M or al ity o f t he Gr ou p GT - C ol le ct iv e Ra tio na liz at io n Fr ei - te xt GT - Se lf- Ce ns or sh ip GT - Ill us io n of U na ni m ity GT - Di re ct P re ss ur e o n Di ss en te rs GT - Se lf- Ap po in te d M in dg ua rd s GT - So ci al L oa fin g GT - Fa lse Co ns en su s Literaturverzeichnis 227 B Fragebogen Paper-pencil Fragebogen zur Diagnostik Organisationaler Planungs- und Entscheidungsprozesse Erhebung von Situationen und Verhaltensweisen, die im Zusammenhang mit dem Auftreten kognitiver, motivationaler und gruppendynamischer Biases stehen Hinweise zum Ausfüllen des Fragebogens Ich möchte Sie im Rahmen dieser Befragung um Ihre Meinung zu verschiedenen Themen bitten, die Pla- nungs- und Entscheidungssituationen Ihrer Arbeit betreffen. Ziel dieser Befragung ist es zu beurteilen, inwie- weit die Entscheidungsqualität in Ihrer Abteilung bzw. in Ihrer Organisation durch sogenannte kognitive, mo- tivationale oder gruppendynamische Biases (Verzerrungen) beeinträchtigt ist. Hierzu finden Sie in dem Fragebogen verschiedene Aussagen, die durch das Anklicken einer bestimmten Stufe auf der Antwortskala beantwortet werden sollen. Durch das Ankreuzen einer Skalenstufe geben Sie an, inwieweit die jeweilige Aussage Ihrer persönlichen Einschätzung entspricht. Die Antwortskala enthält in der Regel sechs Kategorien, mit der Sie die jeweilige Aussage von ‚trifft überhaupt nicht zu’ bis hin zu ‚trifft völlig zu’ bewerten können. Wenn Sie die beschriebene Situation oder Verhaltens- weise nicht bewerten können, wählen Sie das Feld ‚Kann ich nicht beurteilen‘: Beispiel: trifft über- haupt nicht zu trifft weit- gehend nicht zu trifft eher nicht zu trifft eher zu trifft weit- gehend zu trifft völlig zu Kann ich nicht be- urteilen (1) (2) (3) (4) (5) (6) Mitarbeiter*innen informieren sich gegenseitig über Schwierigkeiten und Probleme bei ihren Aufgaben und Tätigkeiten @ @ @ @ @ @ @ Bitte nehmen Sie sich ca. 15 Minuten Zeit, um die Fragen zu beantworten. Die Befragung verläuft anonym und Ihre Daten werden gemäß DSGVO datenschutzkonform behandelt. Bitte lesen Sie jede Aussage sorgfältig durch. Gehen Sie aber bei der Beantwortung zügig vor. Ihr erster Eindruck ist normalerweise der beste. Es gibt keine richtigen oder falschen Antworten. Jede Antwort ist zu- treffend, wenn sie Ihre Einschätzung wiedergibt. Falls Ihnen für Planungs- und Entscheidungsprozesse kritische Situationen oder Verhaltensweisen einfallen, die nicht abgefragt werden, wäre es hilfreich, wenn Sie diesbezüglich einen Kommentar hinterlassen. Dazu befindet sich am Ende jeder Seite ein Feld für einen Freitext. Angaben zur Person Geschlecht Bitte geben Sie Ihr Geschlecht an. @ Weiblich @ Männlich @ Divers Alter Zu welcher der nachfolgenden Alterskategorien gehören Sie? @ 20 oder jünger @ 40 – 49 Jahre @ 20 – 24 Jahre @ 50 – 59 Jahre @ 25 – 29 Jahre @ 60 Jahre oder älter @ 30 – 34 Jahre @ 35 – 39 Jahre Bildung Was ist Ihr höchster Schulabschluss? @ Unterer Schulabschluss @ Abitur oder gleichwertiger Abschluss @ Studium ohne Abschluss @ Bachelor-Abschluss @ Master-Abschluss @ Doktor-Grad Position Welcher Position würden Sie sich zuordnen? @ Führungskraft @ Mitarbeiter*in Angaben zur Person Branche In welcher Branche sind Sie tätig? _______________________________________________ Berufsbezeichnung Wie lautet Ihre Berufsbezeichnung? _______________________________________________ Berufserfahrung Wie lange sind Sie in der angegebenen Branche tätig? @ Weniger als 1 Jahr @ 1-3 Jahre @ 3-10 Jahre @ 10-20 Jahre @ Mehr als 20 Jahre Entscheidungsprozesse Wie hoch ist der Anteil von Routinetätigkeiten an Ihrer Ar- beit und wie hoch der Anteil von Prozessen, die neuartige Entscheidungen erfordern? <10% 10-25% 25-50% 50-75% >75% Routinetätigkeiten @ @ @ @ @ Neuartige Urteile und Entscheidungen @ @ @ @ @ Gruppenprozesse Wie groß ist der Anteil von Gruppenprozessen an Ihrem Arbeitsalltag? (Besprechungen oder Aufgaben, die sie mit mindestens zwei weiteren Personen erledigen) <10% 10-25% 25-50% 50-75% >75% Anteil von Gruppenprozessen @ @ @ @ @ Bewertung der Planungs- und Entscheidungsprozesse Bitte geben Sie an, inwieweit die folgenden Aussagen die Situation bei Ihrer Arbeit beschreiben. trifft über- haupt nicht zu trifft weit- gehend nicht zu trifft eher nicht zu trifft eher zu trifft weit- gehend zu trifft völlig zu Kann ich nicht be- urteilen (1) (2) (3) (4) (5) (6) Mögliche Schwächen in der eigenen Planung werden proak- tiv thematisiert und diskutiert. @ @ @ @ @ @ @ Mitarbeiter*innen informieren sich gegenseitig über Schwie- rigkeiten und Probleme bei der Erreichung ihrer Ziele. @ @ @ @ @ @ @ Informationen und Daten aus vergangenen Projekten, aus denen Erfolgs- sowie Misserfolgsfaktoren („lessons learned“) hervorgehen, werden regelmäßig präsentiert und diskutiert. @ @ @ @ @ @ @ In Entscheidungsprozessen werden bei qualitativen und quantitativen Analysen auch externe Risiken, die außerhalb des Einflusses der Organisation liegen, berücksichtigt. @ @ @ @ @ @ @ Dem Einfluss unvorhersehbarer externer Ereignisse wird durch Schaffung von Redundanz (zusätzlichen Ressourcen) Rechnung getragen. @ @ @ @ @ @ @ Bei Problemdiskussionen dienen in der Regel qualitative und/oder quantitative Analysen empirischer Daten als Dis- kussionsgrundlage. @ @ @ @ @ @ @ In Entscheidungsprozessen wird eine selbstkritische und hinterfragende Herangehensweise bei der Urteilsfindung be- stärkt. @ @ @ @ @ @ @ Mitarbeiter*innen und Führungskräfte sind lernwillig und of- fen für negatives Feedback bezüglich ihres Vorgehens bzw. des Vorgehens ihrer Abteilung. @ @ @ @ @ @ @ Im Planungsprozess herrscht eine offene Diskussionskultur, in der auch die Nachteile eines Vorhabens diskutiert und Al- ternativen ernsthaft betrachtet werden. @ @ @ @ @ @ @ Es wird unabhängig vom erwünschten Ziel abgewogen bzw. kalkuliert, was realistisch und sicher erreichbar ist, ohne dass Wunschdenken diese Abwägungen beeinflusst. @ @ @ @ @ @ @ Es findet eine kritische Reflektion der eigenen Leistung so- wohl bei Erfolgen als auch bei Misserfolgen statt. @ @ @ @ @ @ @ Meinungen und Einschätzungen unterschiedlicher Mitarbei- ter*innen werden zunächst individuell und unabhängig von- einander entwickelt, bevor sie im Entscheidungsprozess ag- gregiert oder diskutiert werden. @ @ @ @ @ @ @ Bewertung der Planungs- und Entscheidungsprozesse Bitte geben Sie an, inwieweit die folgenden Aussagen die Situation bei Ihrer Arbeit beschreiben. trifft über- haupt nicht zu trifft weit- gehend nicht zu trifft eher nicht zu trifft eher zu trifft weit- gehend zu trifft völlig zu Kann ich nicht be- urteilen (1) (2) (3) (4) (5) (6) Im Planungsprozess wird hinreichend über unterschiedliche Alternativen diskutiert, bevor man sich für eine Vorgehens- weise entscheidet. @ @ @ @ @ @ @ Wenn sich ein Projekt als teurer oder riskanter als erwartet herausstellt, wird stets auch ein Abbruch als gangbare Alter- native diskutiert. @ @ @ @ @ @ @ Der Abbruch eines Projekts wird in der Organisation wertfrei und als unter Umständen angemessene Reaktion auf sich ändernde Bedingungen oder Einschätzungen betrachtet. @ @ @ @ @ @ @ Bei Problemdiskussionen werden häufig Ad-hoc-Argumente erfahrener Mitarbeiter*innen als Datenquelle verwendet. @ @ @ @ @ @ @ In Entscheidungsprozessen werden primär den bestehen- den Ansichten zustimmende Argumente aufgenommen und ausgetauscht. @ @ @ @ @ @ @ Konkurrenzdenken führt dazu, dass es besonders wichtig ist, die eigene, individuelle, Leistung hervorzuheben. @ @ @ @ @ @ @ Erfolge werden als verdiente Leistung bewertet und Prob- leme eher auf unglückliche Umstände zurückgeführt. @ @ @ @ @ @ @ Es entstehen spontane Diskussionen auf Basis anfänglicher Informationen. @ @ @ @ @ @ @ Es wird häufig versucht ein schlecht laufendes Projekt fort- zuführen, obwohl der finanzielle Aufwand oder das Risiko unverhältnismäßig hoch sind. @ @ @ @ @ @ @ Bitte kommentieren Sie hier, wenn Sie Anmerkungen zu den bisher beschriebenen Aspekten haben: _____________________________________________________________________________________ _____________________________________________________________________________________ _____________________________________________________________________________________ _____________________________________________________________________________________ _____________________________________________________________________________________ Bewertung der Planungs- und Entscheidungsprozesse Bitte geben Sie an, inwieweit die folgenden Aussagen die Situation bei Ihrer Arbeit beschreiben. trifft über- haupt nicht zu trifft weit- gehend nicht zu trifft eher nicht zu trifft eher zu trifft weit- gehend zu trifft völlig zu Kann ich nicht be- urteilen (1) (2) (3) (4) (5) (6) Erfolge steigen der Gruppe nicht zu Kopf und sie ist stets bemüht, die eigenen Pläne zu hinterfragen und Verbesse- rungspotenziale abzuleiten. @ @ @ @ @ @ @ Kritische Meinungen gegenüber dem von der Führungskraft oder der gesamten Gruppe favorisiertem Plan werden offen aufgenommen und weiterdiskutiert. @ @ @ @ @ @ @ Im Planungsprozess wird sichergestellt, dass alle Gruppen- mitglieder ihre Standpunkte äußern. @ @ @ @ @ @ @ Bei scheinbarer Meinungshomogenität wird bewusst nach- gehakt, ob es auch alternative Sichtweisen gibt, die von der bisherigen Gruppenmeinung abweichen. @ @ @ @ @ @ @ Zwischenziele werden konkret und mit festgelegtem Zeitho- rizont definiert. @ @ @ @ @ @ @ Arbeitspakete werden für einzelne Gruppenmitglieder konk- ret zugeordnet. @ @ @ @ @ @ @ Zwischenergebnisse aus den einzelnen Verantwortungsbe- reichen werden Führungskräften und anderen Gruppenmit- gliedern in regelmäßigen Abständen präsentiert. @ @ @ @ @ @ @ Das Verhalten und die Pläne der Gruppe werden kritisch – auch im Austausch mit Personen außerhalb der Gruppe – reflektiert. @ @ @ @ @ @ @ Führungskräfte beziehen auch Informationen von externen Quellen ausreichend mit ein. @ @ @ @ @ @ @ Vergangene Erfolge führen in der Gruppe zu Selbstüber- schätzung und in der Folge zu einem sorgloseren Umgang mit Risiken. @ @ @ @ @ @ @ Es kann vorkommen, dass ethische Konsequenzen im Ein- zelfall weniger genau betrachtet werden, weil sich die Gruppe/Organisation insgesamt als moralische Instanz be- trachtet. @ @ @ @ @ @ @ Die Gruppe reagiert irritiert oder ablehnend auf selbstkriti- sche Anmerkungen einzelner Mitglieder. @ @ @ @ @ @ @ Bewertung der Planungs- und Entscheidungsprozesse Bitte geben Sie an, inwieweit die folgenden Aussagen die Situation bei Ihrer Arbeit beschreiben. trifft über- haupt nicht zu trifft weit- gehend nicht zu trifft eher nicht zu trifft eher zu trifft weit- gehend zu trifft völlig zu Kann ich nicht be- urteilen (1) (2) (3) (4) (5) (6) Kritische Hinweise und Warnungen bezüglich eines Plans werden häufig nicht ausreichend ernst genommen. @ @ @ @ @ @ @ Innerhalb der Gruppe sind häufig die Unfähigkeit oder ähnli- che negative Eigenschaften anderer Akteure ein Thema. @ @ @ @ @ @ @ Es kommt vor, dass negative Einstellungen gegenüber ex- ternen Gruppen die Kommunikation und den Informations- austausch mit diesen beeinträchtigen. @ @ @ @ @ @ @ Manchmal hält man sich mit seiner Meinung zurück, um nicht bei der Führungskraft oder anderen Gruppenmitglie- dern anzuecken. @ @ @ @ @ @ @ Das Schweigen einzelner Gruppenmitglieder wird von der Gruppe als stille Zustimmung interpretiert. @ @ @ @ @ @ @ Es kommt vor, dass Druck auf Gruppenmitglieder mit abwei- chender Meinung ausgeübt wird. @ @ @ @ @ @ @ Es kommt vor, dass kritische Meinungsträger von Gruppen- prozessen ausgeschlossen werden. @ @ @ @ @ @ @ Gruppenmitglieder nutzen ihre hierarchische Position, um ihre Meinung durchzusetzen. @ @ @ @ @ @ @ Manche Gruppenmitglieder versuchen kritische Meinungen anderer Mitglieder aus Loyalität zur Führungskraft abzuweh- ren. @ @ @ @ @ @ @ Es kommt vor, dass Minderheitsmeinungen vorschnell durch einzelne Gruppenmitglieder schlechtgeredet werden. @ @ @ @ @ @ @ Bitte kommentieren Sie hier, wenn Sie Anmerkungen zu den bisher beschriebenen Aspekten haben: _____________________________________________________________________________________ _____________________________________________________________________________________ _____________________________________________________________________________________ _____________________________________________________________________________________ _____________________________________________________________________________________ Herzlichen Dank für Ihre Mitwirkung! Impressum Universität Kassel Fachbereich Maschinenbau Arbeits- und Organisationspsychologie Heinrich-Plett-Str. 40 34132 Kassel Literaturverzeichnis 237 C Fragebogen elektronisch 26.04.23, 13:40 Korrekturfahne ORG (biases2021) 26.04.2023, 13:40 https://www.soscisurvey.de/biases2021/?s2preview=4QmCIgXPeiFSo6M5c0Dy2UMB3chdtje3&questionnaire=ORG¬es=off&php=off&filters=off&csfr 1/9 26.04.2023, 13:40biases2021 → ORG Seite 01 Cognitive Biases und Group Biases in Organisationen – Entwicklung eines Fragebogens zur biasbezogenen Diagnose von Planungsprozessen Liebe/r Teilnehmer/in, ich möchte Sie im Rahmen dieser Befragung um Ihre Meinung zu verschiedenen Themen bitten, die Planungs- und Entscheidungssituationen Ihrer Arbeit betreffen. Ziel dieser Befragung ist es zu beurteilen, inwieweit die Entscheidungsqualität in Ihrer Abteilung bzw. in Ihrer Organisation durch sogenannte kognitive Verzerrungen (Cognitive Biases) oder gruppendynamische Verzerrungen (Group Biases) möglicherweise beeinträchtigt ist. Dabei handelt es sich um kognitive oder soziale Heuristiken (Faustregeln), die den Alltag in der Regel erleichtern, jedoch insbesondere in neuartigen und komplexen Situationen - wie sie z. B. typisch für Planungsprozesse in Organisationen sind - zu Fehlern führen, die häufig vermeidbar wären. Hierzu finden Sie in dem Fragebogen verschiedene Aussagen, die durch das Anklicken einer bestimmten Stufe auf der Antwortskala beantwortet werden sollen. Durch das Ankreuzen einer Skalenstufe geben Sie an, inwieweit die jeweilige Aussage Ihrer persönlichen Einschätzung entspricht. Die Antwortskala enthält in der Regel sechs Kategorien, mit der Sie die jeweilige Aussage von ‚trifft überhaupt nicht zu’ bis hin zu ‚trifft völlig zu’ bewerten können. Beispiel: Bitte nehmen Sie sich ca. 20 Minuten Zeit, um die Fragen zu beantworten. Die Befragung verläuft anonym und Ihre Daten werden gemäß DSGVO datenschutzkonform behandelt. Bitte lesen Sie jede Aussage sorgfältig durch. Gehen Sie aber bei der Beantwortung zügig vor. Ihr erster Eindruck ist normalerweise der beste. Es gibt keine richtigen oder falschen Antworten. Jede Antwort ist zutreffend, wenn sie Ihre Einschätzung wiedergibt. Wenn Sie einzelne Aussagen bezüglich Ihres Arbeitsplatzes nicht bewerten können, können Sie das entsprechende Feld unbeantwortet lassen. Falls Sie einzelne Aussagen nicht nachvollziehbar finden, wäre es sehr hilfreich, wenn Sie diesbezüglich einen Kommentar hinterlassen. Dazu befindet sich am Ende jeder Seite ein Feld für Freitext. 26.04.23, 13:40 Korrekturfahne ORG (biases2021) 26.04.2023, 13:40 https://www.soscisurvey.de/biases2021/?s2preview=4QmCIgXPeiFSo6M5c0Dy2UMB3chdtje3&questionnaire=ORG¬es=off&php=off&filters=off&csfr 2/9 Seite 02 Geschlecht Bitte geben Sie Ihr Geschlecht an. Weiblich Männlich Divers Alter Zu welcher der nachfolgenden Alterskategorien gehören Sie? 20 oder jünger 20-24 25-29 30-34 35-39 40-49 50-59 60 oder älter Bildung Was ist Ihr höchster Schul- oder Hochschulabschluss? Unterer Schulabschluss Abitur oder gleichwertiger Abschluss Studium ohne Abschluss Bachelor-Abschluss Master-Abschluss/Diplom Doktor-Grad Branche In welcher Branche sind Sie tätig? Berufsbezeichnung Wie lautet Ihre Berufsbezeichnung? 26.04.23, 13:40 Korrekturfahne ORG (biases2021) 26.04.2023, 13:40 https://www.soscisurvey.de/biases2021/?s2preview=4QmCIgXPeiFSo6M5c0Dy2UMB3chdtje3&questionnaire=ORG¬es=off&php=off&filters=off&csfr 3/9 Berufserfahrung Wie lange sind Sie in der angegebenen Branche tätig? Weniger als 1 Jahr 1-3 Jahre 3-10 Jahre 10-20 Jahre Mehr als 20 Jahre Entscheidungsprozesse Wie hoch ist der Anteil von Routinetätigkeiten an Ihrer Arbeit und wie hoch der Anteil von Prozessen, die neuartigen Entscheidungen erfordern. 1. Gruppenprozesse Wie groß ist der Anteil von Gruppenprozessen an Ihrem Arbeitsalltag? (Besprechungen oder Aufgaben, die sie mit mindestens zwei weiteren Personen erledigen) <10% 10-25% 25-50% 50-75% >75% Routinetätigkeiten <10% 10-25% 25-50% 50-75% >75% Prozesse, die neuartige Entscheidungen erfordern <10% 10-25% 25-50% 50-75% >75% 26.04.23, 13:40 Korrekturfahne ORG (biases2021) 26.04.2023, 13:40 https://www.soscisurvey.de/biases2021/?s2preview=4QmCIgXPeiFSo6M5c0Dy2UMB3chdtje3&questionnaire=ORG¬es=off&php=off&filters=off&csfr 4/9 Seite 03 Bitte geben Sie an, inwieweit die folgenden Aussagen die Situation bei Ihrer Arbeit beschreiben. Bitte nutzen Sie für Anmerkungen zu den Aussagen das Kommentarfeld am Ende der Seite. 26.04.23, 13:40 Korrekturfahne ORG (biases2021) 26.04.2023, 13:40 https://www.soscisurvey.de/biases2021/?s2preview=4QmCIgXPeiFSo6M5c0Dy2UMB3chdtje3&questionnaire=ORG¬es=off&php=off&filters=off&csfr 5/9 Mögliche Schwächen in der Planung werden proaktiv thematisiert und diskutiert. trifft überhaupt nicht zu trifft weitgehend nicht zu trifft eher nicht zu trifft eher zu trifft weitgehend zu trifft völlig zu Kann ich nicht beurteilen Mitarbeiter*innen informieren sich gegenseitig über Schwierigkeiten und Probleme bei der Erreichung ihrer Ziele. trifft überhaupt nicht zu trifft weitgehend nicht zu trifft eher nicht zu trifft eher zu trifft weitgehend zu trifft völlig zu Kann ich nicht beurteilen Informationen und Daten aus vergangenen Projekten, aus denen Erfolgs- sowie Misserfolgsfaktoren („lessons learned“) hervorgehen, werden regelmäßig präsentiert und diskutiert. trifft überhaupt nicht zu trifft weitgehend nicht zu trifft eher nicht zu trifft eher zu trifft weitgehend zu trifft völlig zu Kann ich nicht beurteilen In Entscheidungsprozessen werden bei qualitativen und quantitativen Analysen auch externe Risiken, die außerhalb des Einflusses der Organisation liegen, berücksichtigt. trifft überhaupt nicht zu trifft weitgehend nicht zu trifft eher nicht zu trifft eher zu trifft weitgehend zu trifft völlig zu Kann ich nicht beurteilen Dem Einfluss unvorhersehbarer externer Ereignisse wird durch Schaffung von Redundanz (zusätzlichen Ressourcen) Rechnung getragen. trifft überhaupt nicht zu trifft weitgehend nicht zu trifft eher nicht zu trifft eher zu trifft weitgehend zu trifft völlig zu Kann ich nicht beurteilen Bei Problemdiskussionen dienen in der Regel qualitative und/oder quantitative Analysen empirischer Daten als Diskussionsgrundlage. trifft überhaupt nicht zu trifft weitgehend nicht zu trifft eher nicht zu trifft eher zu trifft weitgehend zu trifft völlig zu Kann ich nicht beurteilen In Entscheidungsprozessen wird eine selbstkritische und hinterfragende Herangehensweise bei der Urteilsfindung bestärkt. trifft überhaupt nicht zu trifft weitgehend nicht zu trifft eher nicht zu trifft eher zu trifft weitgehend zu trifft völlig zu Kann ich nicht beurteilen Mitarbeiter*innen und Führungskräfte sind lernwillig und offen für negatives Feedback bezüglich ihres Vorgehens bzw. des Vorgehens ihrer Abteilung. trifft überhaupt nicht zu trifft weitgehend nicht zu trifft eher nicht zu trifft eher zu trifft weitgehend zu trifft völlig zu Kann ich nicht beurteilen Im Planungsprozess herrscht eine offene Diskussionskultur, in der auch die Nachteile eines Vorhabens diskutiert und Alternativen ernsthaft betrachtet werden. trifft überhaupt nicht zu trifft weitgehend nicht zu trifft eher nicht zu trifft eher zu trifft weitgehend zu trifft völlig zu Kann ich nicht beurteilen Es wird unabhängig vom erwünschten Ziel abgewogen bzw. kalkuliert, was realistisch und sicher erreichbar ist, ohne dass Wunschdenken diese Abwägungen beeinflusst. trifft überhaupt nicht zu trifft weitgehend nicht zu trifft eher nicht zu trifft eher zu trifft weitgehend zu trifft völlig zu Kann ich nicht beurteilen Es findet eine kritische Reflektion der eigenen Leistung sowohl bei Erfolgen als auch bei Misserfolgen statt. trifft überhaupt nicht zu trifft weitgehend nicht zu trifft eher nicht zu trifft eher zu trifft weitgehend zu trifft völlig zu Kann ich nicht beurteilen Meinungen und Einschätzungen unterschiedlicher Mitarbeiter*innen werden zunächst individuell und unabhängig voneinander entwickelt, bevor sie im Entscheidungsprozess aggregiert oder diskutiert werden. trifft überhaupt nicht zu trifft weitgehend nicht zu trifft eher nicht zu trifft eher zu trifft weitgehend zu trifft völlig zu Kann ich nicht beurteilen 26.04.23, 13:40 Korrekturfahne ORG (biases2021) 26.04.2023, 13:40 https://www.soscisurvey.de/biases2021/?s2preview=4QmCIgXPeiFSo6M5c0Dy2UMB3chdtje3&questionnaire=ORG¬es=off&php=off&filters=off&csfr 6/9 Bitte kommentieren Sie hier, wenn Sie Anmerkungen zu den auf dieser Seite beschriebenen Aspekten haben. Im Planungsprozess wird hinreichend über unterschiedliche Alternativen diskutiert, bevor man sich für eine Vorgehensweise entscheidet. trifft überhaupt nicht zu trifft weitgehend nicht zu trifft eher nicht zu trifft eher zu trifft weitgehend zu trifft völlig zu Kann ich nicht beurteilen Wenn sich ein Projekt als teurer oder riskanter als erwartet herausstellt, wird stets auch ein Abbruch als gangbare Alternative diskutiert. trifft überhaupt nicht zu trifft weitgehend nicht zu trifft eher nicht zu trifft eher zu trifft weitgehend zu trifft völlig zu Kann ich nicht beurteilen Der Abbruch eines Projekts wird in der Organisation wertfrei und als unter Umständen angemessene Reaktion auf sich ändernde Bedingungen oder Einschätzungen betrachtet. trifft überhaupt nicht zu trifft weitgehend nicht zu trifft eher nicht zu trifft eher zu trifft weitgehend zu trifft völlig zu Kann ich nicht beurteilen Bei Problemdiskussionen werden häufig Ad- hoc-Argumente erfahrener Mitarbeiter*innen als Datenquelle verwendet. trifft überhaupt nicht zu trifft weitgehend nicht zu trifft eher nicht zu trifft eher zu trifft weitgehend zu trifft völlig zu Kann ich nicht beurteilen In Entscheidungsprozessen werden primär den bestehenden Ansichten zustimmende Argumente aufgenommen und ausgetauscht. trifft überhaupt nicht zu trifft weitgehend nicht zu trifft eher nicht zu trifft eher zu trifft weitgehend zu trifft völlig zu Kann ich nicht beurteilen Konkurrenzdenken führt dazu, dass es besonders wichtig ist, die eigene, individuelle, Leistung hervorzuheben. trifft überhaupt nicht zu trifft weitgehend nicht zu trifft eher nicht zu trifft eher zu trifft weitgehend zu trifft völlig zu Kann ich nicht beurteilen Erfolge werden als verdiente Leistung bewertet und Probleme eher auf unglückliche Umstände zurückgeführt. trifft überhaupt nicht zu trifft weitgehend nicht zu trifft eher nicht zu trifft eher zu trifft weitgehend zu trifft völlig zu Kann ich nicht beurteilen Es entstehen spontane Diskussionen auf Basis anfänglicher Informationen. trifft überhaupt nicht zu trifft weitgehend nicht zu trifft eher nicht zu trifft eher zu trifft weitgehend zu trifft völlig zu Kann ich nicht beurteilen Es wird häufig versucht ein schlecht laufendes Projekt fortzuführen, obwohl der finanzielle Aufwand oder das Risiko unverhältnismäßig hoch sind. trifft überhaupt nicht zu trifft weitgehend nicht zu trifft eher nicht zu trifft eher zu trifft weitgehend zu trifft völlig zu Kann ich nicht beurteilen 26.04.23, 13:40 Korrekturfahne ORG (biases2021) 26.04.2023, 13:40 https://www.soscisurvey.de/biases2021/?s2preview=4QmCIgXPeiFSo6M5c0Dy2UMB3chdtje3&questionnaire=ORG¬es=off&php=off&filters=off&csfr 7/9 Seite 04 Bitte geben Sie an, inwieweit die folgenden Aussagen die Situation bei Ihrer Arbeit beschreiben. Bitte nutzen Sie für Anmerkungen zu den Aussagen das Kommentarfeld am Ende der Seite. Erfolge steigen der Gruppe nicht zu Kopf und sie ist stets bemüht, die eigenen Pläne zu hinterfragen und Verbesserungspotenziale abzuleiten. trifft überhaupt nicht zu trifft weitgehend nicht zu trifft eher nicht zu trifft eher zu trifft weitgehend zu trifft völlig zu Kann ich nicht beurteilen Kritische Meinungen gegenüber dem von der Führungskraft oder der gesamten Gruppe favorisiertem Plan werden offen aufgenommen und weiterdiskutiert. trifft überhaupt nicht zu trifft weitgehend nicht zu trifft eher nicht zu trifft eher zu trifft weitgehend zu trifft völlig zu Kann ich nicht beurteilen Im Planungsprozess wird sichergestellt, dass alle Gruppenmitglieder ihre Standpunkte äußern. trifft überhaupt nicht zu trifft weitgehend nicht zu trifft eher nicht zu trifft eher zu trifft weitgehend zu trifft völlig zu Kann ich nicht beurteilen Bei scheinbarer Meinungshomogenität wird bewusst nachgehakt, ob es auch alternative Sichtweisen gibt, die von der bisherigen Gruppenmeinung abweichen. trifft überhaupt nicht zu trifft weitgehend nicht zu trifft eher nicht zu trifft eher zu trifft weitgehend zu trifft völlig zu Kann ich nicht beurteilen Zwischenziele werden konkret und mit festgelegtem Zeithorizont definiert. trifft überhaupt nicht zu trifft weitgehend nicht zu trifft eher nicht zu trifft eher zu trifft weitgehend zu trifft völlig zu Kann ich nicht beurteilen Arbeitspakete werden für einzelne Gruppenmitglieder konkret zugeordnet. trifft überhaupt nicht zu trifft weitgehend nicht zu trifft eher nicht zu trifft eher zu trifft weitgehend zu trifft völlig zu Kann ich nicht beurteilen Zwischenergebnisse aus den einzelnen Verantwortungsbereichen werden Führungskräften und anderen Gruppenmitgliedern in regelmäßigen Abständen präsentiert. trifft überhaupt nicht zu trifft weitgehend nicht zu trifft eher nicht zu trifft eher zu trifft weitgehend zu trifft völlig zu Kann ich nicht beurteilen Das Verhalten und die Pläne der Gruppe werden kritisch – auch im Austausch mit Personen außerhalb der Gruppe – reflektiert. trifft überhaupt nicht zu trifft weitgehend nicht zu trifft eher nicht zu trifft eher zu trifft weitgehend zu trifft völlig zu Kann ich nicht beurteilen Führungskräfte beziehen auch Informationen von externen Quellen ausreichend mit ein. trifft überhaupt nicht zu trifft weitgehend nicht zu trifft eher nicht zu trifft eher zu trifft weitgehend zu trifft völlig zu Kann ich nicht beurteilen 26.04.23, 13:40 Korrekturfahne ORG (biases2021) 26.04.2023, 13:40 https://www.soscisurvey.de/biases2021/?s2preview=4QmCIgXPeiFSo6M5c0Dy2UMB3chdtje3&questionnaire=ORG¬es=off&php=off&filters=off&csfr 8/9 Vergangene Erfolge führen in der Gruppe zu Selbstüberschätzung und in der Folge zu einem sorgloserem Umgang mit Risiken. trifft überhaupt nicht zu trifft weitgehend nicht zu trifft eher nicht zu trifft eher zu trifft weitgehend zu trifft völlig zu Kann ich nicht beurteilen Es kann vorkommen, dass ethische Konsequenzen im Einzelfall weniger genau betrachtet werden, weil sich die Gruppe/Organisation insgesamt als moralische Instanz betrachtet. trifft überhaupt nicht zu trifft weitgehend nicht zu trifft eher nicht zu trifft eher zu trifft weitgehend zu trifft völlig zu Kann ich nicht beurteilen Die Gruppe reagiert irritiert oder ablehnend auf selbstkritische Anmerkungen einzelner Mitglieder. trifft überhaupt nicht zu trifft weitgehend nicht zu trifft eher nicht zu trifft eher zu trifft weitgehend zu trifft völlig zu Kann ich nicht beurteilen Kritische Hinweise und Warnungen bezüglich eines Plans werden häufig nicht ausreichend ernst genommen. trifft überhaupt nicht zu trifft weitgehend nicht zu trifft eher nicht zu trifft eher zu trifft weitgehend zu trifft völlig zu Kann ich nicht beurteilen Innerhalb der Gruppe sind häufig die Unfähigkeit oder ähnliche negative Eigenschaften anderer Akteure ein Thema. trifft überhaupt nicht zu trifft weitgehend nicht zu trifft eher nicht zu trifft eher zu trifft weitgehend zu trifft völlig zu Kann ich nicht beurteilen Es kommt vor, dass negative Einstellungen gegenüber externen Gruppen die Kommunikation und den Informationsaustausch mit diesen beeinträchtigen. trifft überhaupt nicht zu trifft weitgehend nicht zu trifft eher nicht zu trifft eher zu trifft weitgehend zu trifft völlig zu Kann ich nicht beurteilen Manchmal hält man sich mit seiner Meinung zurück, um nicht bei der Führungskraft oder anderen Gruppenmitgliedern anzuecken. trifft überhaupt nicht zu trifft weitgehend nicht zu trifft eher nicht zu trifft eher zu trifft weitgehend zu trifft völlig zu Kann ich nicht beurteilen Das Schweigen einzelner Gruppenmitglieder wird von der Gruppe als stille Zustimmung interpretiert. trifft überhaupt nicht zu trifft weitgehend nicht zu trifft eher nicht zu trifft eher zu trifft weitgehend zu trifft völlig zu Kann ich nicht beurteilen Es kommt vor, dass Druck auf Gruppenmitglieder mit abweichender Meinung ausgeübt wird. trifft überhaupt nicht zu trifft weitgehend nicht zu trifft eher nicht zu trifft eher zu trifft weitgehend zu trifft völlig zu Kann ich nicht beurteilen Es kommt vor, dass kritische Meinungsträger von Gruppenprozessen ausgeschlossen werden. trifft überhaupt nicht zu trifft weitgehend nicht zu trifft eher nicht zu trifft eher zu trifft weitgehend zu trifft völlig zu Kann ich nicht beurteilen Gruppenmitglieder nutzen ihre hierarchische Position, um ihre Meinung durchzusetzen. trifft überhaupt nicht zu trifft weitgehend nicht zu trifft eher nicht zu trifft eher zu trifft weitgehend zu trifft völlig zu Kann ich nicht beurteilen Manche Gruppenmitglieder versuchen kritische Meinungen anderer Mitglieder aus Loyalität zur Führungskraft abzuwehren. trifft überhaupt nicht zu trifft weitgehend nicht zu trifft eher nicht zu trifft eher zu trifft weitgehend zu trifft völlig zu Kann ich nicht beurteilen Es kommt vor, dass Minderheitsmeinungen vorschnell durch einzelne Gruppenmitglieder schlechtgeredet werden. trifft überhaupt nicht zu trifft weitgehend nicht zu trifft eher nicht zu trifft eher zu trifft weitgehend zu trifft völlig zu Kann ich nicht beurteilen 26.04.23, 13:40 Korrekturfahne ORG (biases2021) 26.04.2023, 13:40 https://www.soscisurvey.de/biases2021/?s2preview=4QmCIgXPeiFSo6M5c0Dy2UMB3chdtje3&questionnaire=ORG¬es=off&php=off&filters=off&csfr 9/9 Bitte kommentieren Sie hier, wenn Sie Anmerkungen zu den auf dieser Seite beschriebenen Aspekten haben. Seite 05 Wie bewerten Sie insgesamt die Qualität der Planungs- und Entscheidungsprozesse in Ihrer Organisation oder Abteilung? Letzte Seite Vielen Dank für Ihre Teilnahme! Ich möchte mich ganz herzlich für Ihre Mithilfe bedanken. Bei Fragen zur Studie können Sie sich gerne per Mail an mich wenden: f.englisch@uni-kassel.de Ihre Antworten wurden gespeichert, Sie können das Browser-Fenster nun schließen. M.Sc. Friedrich Englisch, Universität Kassel – 2021 Sehr geringe Qualität Sehr hohe Qualität Literaturverzeichnis 247 D Expertenbefragung 26.04.23, 13:41 Korrekturfahne VAL (biases2021) 26.04.2023, 13:41 https://www.soscisurvey.de/biases2021/?s2preview=uXwweOv9ux5ldj0GAWiromgJ1YakY3cs&questionnaire=VAL¬es=off&php=off&csfr 1/23 26.04.2023, 13:41biases2021 → VAL Seite 01 Cognitive Biases und Group Biases in Organisationen – Entwicklung eines Fragebogens zur biasbezogenen Diagnose von Planungsprozessen Liebe/r Teilnehmer/in, Ziel dieser Studie ist es, einen Fragebogen zur Diagnose biasbezogener Verhaltensweisen in organisationalen Entscheidungsprozessen mithilfe Ihres Expertenurteils zu validieren. Cognitive Biases (kognitive Verzerrungen) und Group Biases (gruppendynamische Effekte) beeinflussen nachgewiesenermaßen etliche menschliche Entscheidungsprozesse. Insbesondere in neuartigen und komplexen Situationen - wie sie z. B. typisch für Planungsprozesse in Organisationen sind - führen kognitive oder soziale Heuristiken (Faustregeln), die den Alltag in der Regel erleichtern, zu Fehlern, die häufig vermeidbar wären. Vor diesem Hintergrund hat der Autor einen Fragebogen entwickelt, indem er aus theoretischen Annahmen über unterschiedliche Biases Verhaltensweisen abgeleitet hat, die potenziell im Zusammenhang mit dem Auftreten dieser Biases stehen, damit dieser Fragebogen Gruppen und Organisationen als Methode zur Selbsteinschätzung dienen kann. Im Rahmen dieser Befragung ist es Ihre Aufgabe diese Annahmen zu validieren, indem Sie beurteilen, ob die jeweiligen Verhaltensweisen Ihrer Meinung nach tatsächlich im Zusammenhang mit den entsprechenden Biases stehen. Dazu wird Ihnen auf jeder Seite zunächst eine kurze Beschreibung des betreffenden Bias präsentiert und anschließend die assoziierten Verhaltensweisen, die Sie jeweils auf einer Skala von 1 - "Trifft gar nicht zu" bis 4 "Trifft voll zu" bezüglich Ihres Zusammenhangs mit dem Bias bewerten. Die Verhaltensweisen stehen entweder in einem positiven oder negativen Zusammenhang mit dem beschriebenen Bias. Entsprechend steht in der Instruktion "Das Verhalten ist ein Hinweis für einen geringen..." oder "Das Verhalten eins ein Hinweise für einen hohen...". Die Richtung des Effekts ist dabei immer entsprechend des vermuteten Zusammenhangs formuliert. Es reicht also, wenn sie sich bei Ihrer Bewertung darauf konzentrieren, ob überhaupt ein Zusammenhang zwischen Verhaltensweise und Bias besteht. Bitte nehmen Sie sich ca. 25 Minuten Zeit, um die Fragen in Ruhe zu beantworten. Die Befragung verläuft anonym und Ihre Daten werden gemäß DSGVO datenschutzkonform behandelt. Bitte lesen Sie jede Frage sorgfältig durch. Gehen Sie aber bei der Beantwortung zügig vor. Ihr erster Eindruck ist normalerweise der Beste. Es gibt keine richtigen oder falschen Antworten. Jede Antwort ist zutreffend, wenn sie Ihre Einschätzung wiedergibt. 26.04.23, 13:41 Korrekturfahne VAL (biases2021) 26.04.2023, 13:41 https://www.soscisurvey.de/biases2021/?s2preview=uXwweOv9ux5ldj0GAWiromgJ1YakY3cs&questionnaire=VAL¬es=off&php=off&csfr 2/23 Seite 02 Geschlecht Bitte geben Sie Ihr Geschlecht an. Weiblich Männlich Divers Alter Zu welcher der nachfolgenden Alterskategorien gehören Sie? 20 oder jünger 20-24 25-29 30-34 35-39 40-49 50-59 60 oder älter Bildung Was ist Ihr höchster Schul- oder Hochschulabschluss? Unterer Schulabschluss Abitur oder gleichwertiger Abschluss Studium ohne Abschluss Bachelor-Abschluss Master-Abschluss/Diplom Doktor-Grad Tätigkeit Befinden Sie sich aktuell im Studium oder sind Sie vollzeit berufstätig? Studium Berufstätigkeit 3 aktive(r) Filter Filter DE01/F1 Wenn eine der folgenden Antwortoption(en) ausgewählt wurde: 1 Dann Seite(n) STU des Fragebogens anzeigen (sonst ausblenden) Filter DE01/F2 Wenn eine der folgenden Antwortoption(en) ausgewählt wurde: 2 Dann Seite(n) HauptT des Fragebogens anzeigen (sonst ausblenden) Filter DE01/F3 Wenn eine der folgenden Antwortoption(en) ausgewählt wurde: 1 26.04.23, 13:41 Korrekturfahne VAL (biases2021) 26.04.2023, 13:41 https://www.soscisurvey.de/biases2021/?s2preview=uXwweOv9ux5ldj0GAWiromgJ1YakY3cs&questionnaire=VAL¬es=off&php=off&csfr 3/23 Dann Seite(n) NebenT des Fragebogens anzeigen (sonst ausblenden) Seite 03 STU Welches Fach studieren Sie? Im wievielten Semester studieren Sie? Üben Sie neben dem Studium eine Nebentätigkeit aus? Ja Nein 2 aktive(r) Filter Filter DE19/F1 Wenn eine der folgenden Antwortoption(en) ausgewählt wurde: 1 Dann Frage/Text FI04 später im Fragebogen anzeigen (sonst ausblenden) Filter DE19/F2 Wenn eine der folgenden Antwortoption(en) ausgewählt wurde: 1 Dann Frage/Text FI02 später im Fragebogen anzeigen (sonst ausblenden) Seite 04 NebenT Branche der Nebentätigkeit In welcher Branche sind Sie tätig? Berufserfahrung Wie lange üben Sie eine Nebentätigkeit in der angegebenen Branche aus? Weniger als 1 Jahr 1-3 Jahre 3-10 Jahre Mehr als 10 Jahre 26.04.23, 13:41 Korrekturfahne VAL (biases2021) 26.04.2023, 13:41 https://www.soscisurvey.de/biases2021/?s2preview=uXwweOv9ux5ldj0GAWiromgJ1YakY3cs&questionnaire=VAL¬es=off&php=off&csfr 4/23 Seite 05 HauptT Branche In welcher Branche sind Sie tätig? Berufserfahrung Wie lange sind Sie in der angegebenen Branche tätig? Weniger als 1 Jahr 1-3 Jahre 3-10 Jahre 10-20 Jahre Mehr als 20 Jahre 26.04.23, 13:41 Korrekturfahne VAL (biases2021) 26.04.2023, 13:41 https://www.soscisurvey.de/biases2021/?s2preview=uXwweOv9ux5ldj0GAWiromgJ1YakY3cs&questionnaire=VAL¬es=off&php=off&csfr 5/23 Seite 06 BIAS Kenntnisse im Bereich Cognitive Biases/kognitive Verzerrungen Bitte geben Sie an, inwieweit Sie bereits Kenntnisse im Bereich Cognitive Biases/kognitive Verzerrungen haben. [Bitte auswählen] Kenntnisse im Bereich Cognitive Biases/kognitive Verzerrungen Bitte geben Sie an wie viele der folgenden Arten von Cognitive Biases/kognitiven Verzerrungen Sie kennen. Overconfidence Bias (Selbstüberschätzung) Optimism Bias (Optimismusvoreingenommenheit) Availability Bias (Verfügbarkeitsfehler) Confirmation Bias (Bestätigungsfehler) Desirability Bias (Wunschdenken) Self-Serving Bias (Selbstwertdienliche Verzerrung) Anchoring (Verankerung) Sunk Cost Fallacy (Versunkene Kosten Fehlschluss) [Bitte auswählen] Kenntnisse im Bereich Group Biases/Gruppendynamische Verzerrungen Bitte geben Sie an, inwieweit Sie bereits Kenntnisse im Bereich Group Biases/Gruppendynamische Verzerrungen haben. [Bitte auswählen] Kenntnisse im Bereich Group Biases/Gruppendynamische Verzerrungen Bitte geben Sie an wie viele der folgenden Arten von Group Biases/gruppendynamischen Verzerrungen Sie kennen. Groupthink (Gruppendenken) Social Loafing (Soziales Faulenzen) False Consensus Effect (Falscher Konsens Effekt) [Bitte auswählen] 26.04.23, 13:41 Korrekturfahne VAL (biases2021) 26.04.2023, 13:41 https://www.soscisurvey.de/biases2021/?s2preview=uXwweOv9ux5ldj0GAWiromgJ1YakY3cs&questionnaire=VAL¬es=off&php=off&csfr 6/23 Seite 07 Overconfidence Bias Der Overconfidence Bias (Selbstüberschätzung) äußert sich in der Neigung von Menschen ihre eigene Leistungsfähigkeit zu überschätzen. Dieser Effekt kann in den Planungsprozessen einer Organisation dazu führen, dass unrealistische Ziele postuliert und nicht rechtzeitig korrigiert werden und damit zu Fehlentscheidungen führen. Bitte kommentieren Sie hier, wenn Sie Anmerkungen zu den auf dieser Seite beschriebenen Aspekten haben. Dieses Verhalten ist ein Hinweis für einen geringen Overconfidence Bias: Mögliche Schwächen in der Planung werden proaktiv thematisiert und diskutiert. trifft gar nicht zu trifft eher nicht zu trifft eher zu trifft völlig zu Dieses Verhalten ist ein Hinweis für einen geringen Overconfidence Bias: Mitarbeiter*innen informieren sich gegenseitig über Schwierigkeiten und Probleme bei der Erreichung ihrer Ziele. trifft gar nicht zu trifft eher nicht zu trifft eher zu trifft völlig zu Dieses Verhalten ist ein Hinweis für einen geringen Overconfidence Bias: Informationen und Daten aus vergangenen Projekten, aus denen Erfolgs- sowie Misserfolgsfaktoren („lessons learned“) hervorgehen, werden regelmäßig präsentiert und diskutiert. trifft gar nicht zu trifft eher nicht zu trifft eher zu trifft völlig zu 26.04.23, 13:41 Korrekturfahne VAL (biases2021) 26.04.2023, 13:41 https://www.soscisurvey.de/biases2021/?s2preview=uXwweOv9ux5ldj0GAWiromgJ1YakY3cs&questionnaire=VAL¬es=off&php=off&csfr 7/23 Seite 08 Optimism Bias Der Optimism Bias (Optimismusvoreingenommenheit) zeigt, dass Menschen nicht nur ihre eigene Leistungsfähigkeithäufig überschätzen, sondern auch bei ihrer Einschätzung der Zukunft das Ausmaß externer positiver Ereignisse überschätzen. Zum Beispiel überschätzen Unternehmer*innen die Chance auf unternehmerischen Erfolg, trotz eines schweren Marktumfelds. Auf der anderen Seite unterschätzen Menschen negative Risken, z. B. das persönlich Risiko eines Unfalls oder einer schweren Erkrankung. Bitte kommentieren Sie hier, wenn Sie Anmerkungen zu den auf dieser Seite beschriebenen Aspekten haben. Dieses Verhalten ist ein Hinweis für einen geringen Optimism Bias: In Entscheidungsprozessen werden bei qualitativen und quantitativen Analysen auch externe Risiken, die außerhalb des Einflusses der Organisation liegen, berücksichtigt. trifft gar nicht zu trifft eher nicht zu trifft eher zu trifft völlig zu Dieses Verhalten ist ein Hinweis für einen geringen Optimism Bias: Dem Einfluss unvorhersehbarer externer Ereignisse wird durch Schaffung von Redundanz (zusätzlichen Ressourcen) Rechnung getragen. trifft gar nicht zu trifft eher nicht zu trifft eher zu trifft völlig zu 26.04.23, 13:41 Korrekturfahne VAL (biases2021) 26.04.2023, 13:41 https://www.soscisurvey.de/biases2021/?s2preview=uXwweOv9ux5ldj0GAWiromgJ1YakY3cs&questionnaire=VAL¬es=off&php=off&csfr 8/23 Seite 09 Availability Bias Der Availability Bias (Verfügbarkeitsfehler) zeigt sich darin, dass Menschen, wenn sie die Wahrscheinlichkeit bestimmter Ereignisse einschätzen, oft ein intuitives Urteil treffen, das darauf beruht wie leicht ihnen Beispiele zu dieser Art von Ereignissen einfallen und wie viele dieser Beispiele ihnen spontan einfallen. Das Ergebnis hängt dabei jedoch nicht allein von der objektiven Datenlage ab, sondern es werden z. B. lebendige oder emotionale Ereignisse besonders leicht und häufig erinnert und damit tendenziell überschätzt. Bitte kommentieren Sie hier, wenn Sie Anmerkungen zu den auf dieser Seite beschriebenen Aspekten haben. Dieses Verhalten ist ein Hinweis für einen geringen Availability Bias: Bei Problemdiskussionen dienen in der Regel qualitative und/oder quantitative Analysen empirischer Daten als Diskussionsgrundlage. trifft gar nicht zu trifft eher nicht zu trifft eher zu trifft völlig zu Dieses Verhalten ist ein Hinweis für einen hohen Availability Bias: Bei Problemdiskussionen werden häufig Ad-hoc-Argumente erfahrener Mitarbeiter*innen als Datenquelle verwendet. trifft gar nicht zu trifft eher nicht zu trifft eher zu trifft völlig zu 26.04.23, 13:41 Korrekturfahne VAL (biases2021) 26.04.2023, 13:41 https://www.soscisurvey.de/biases2021/?s2preview=uXwweOv9ux5ldj0GAWiromgJ1YakY3cs&questionnaire=VAL¬es=off&php=off&csfr 9/23 Seite 10 Confirmation Bias Der Confirmation Bias (Bestätigungsfehler) beschreibt die Tendenz, bei der Informationssuche, -erinnerung und - interpretation unbewusst diejenigen Informationen zu bevorzugen, die dem bereits bestehenden Weltbild entsprechen. Diese Tendenz zeigt sich z. B., wenn zur Entscheidungsfindung diejenigen Informationsquellen ausgewählt werden, die der eigenen Meinung entsprechen, während abweichende Informationen ignoriert werden. Ein weiteres Beispiel zeigt sich, wenn ambivalente Informationen entsprechend der bereits bestehenden Ansichten interpretiert werden. Bitte kommentieren Sie hier, wenn Sie Anmerkungen zu den auf dieser Seite beschriebenen Aspekten haben. Dieses Verhalten ist ein Hinweis für einen geringen Confirmation Bias: In Entscheidungsprozessen wird eine selbstkritische und hinterfragende Herangehensweise bei der Urteilsfindung bestärkt. trifft gar nicht zu trifft eher nicht zu trifft eher zu trifft völlig zu Dieses Verhalten ist ein Hinweis für einen geringen Confirmation Bias: Mitarbeiter*innen und Führungskräfte sind lernwillig und offen für negatives Feedback bezüglich ihres Vorgehens bzw. des Vorgehens ihrer Abteilung. trifft gar nicht zu trifft eher nicht zu trifft eher zu trifft völlig zu Dieses Verhalten ist ein Hinweis für einen hohen Confirmation Bias: In Entscheidungsprozessen werden primär den bestehenden Ansichten zustimmende Argumente aufgenommen und ausgetauscht. trifft gar nicht zu trifft eher nicht zu trifft eher zu trifft völlig zu 26.04.23, 13:41 Korrekturfahne VAL (biases2021) 26.04.2023, 13:41 https://www.soscisurvey.de/biases2021/?s2preview=uXwweOv9ux5ldj0GAWiromgJ1YakY3cs&questionnaire=VAL¬es=off&php=off&csfr 10/23 Seite 11 Desirability Bias Der Desirability Bias (Wunschdenken) beschreibt die Tendenz, Informationen systematisch zugunsten erwünschter Entscheidungsalternativen zu wählen oder zu interpretieren. Ähnlich wie dem Confirmation Bias beeinflusst dieses "Wunschdenken" die Informationssuche, -verarbeitung und -speicherung. Bitte kommentieren Sie hier, wenn Sie Anmerkungen zu den auf dieser Seite beschriebenen Aspekten haben. Dieses Verhalten ist ein Hinweis für einen geringen Desirability Bias: Im Planungsprozess herrscht eine offene Diskussionskultur, in der auch die Nachteile eines Vorhabens diskutiert und Alternativen ernsthaft betrachtet werden. trifft gar nicht zu trifft eher nicht zu trifft eher zu trifft völlig zu Dieses Verhalten ist ein Hinweis für einen geringen Desirability Bias: Es wird unabhängig vom erwünschten Ziel abgewogen bzw. kalkuliert, was realistisch und sicher erreichbar ist, ohne dass Wunschdenken diese Abwägungen beeinflusst. trifft gar nicht zu trifft eher nicht zu trifft eher zu trifft völlig zu 26.04.23, 13:41 Korrekturfahne VAL (biases2021) 26.04.2023, 13:41 https://www.soscisurvey.de/biases2021/?s2preview=uXwweOv9ux5ldj0GAWiromgJ1YakY3cs&questionnaire=VAL¬es=off&php=off&csfr 11/23 Seite 12 Self-Serving Bias Der Self-Serving Bias (Selbstwertdienliche Verzerrung) beschreibt die Tendenz zur verzerrten Wahrnehmung und Interpretation von Ereignissen zur Aufrechterhaltung eines positiven Selbstbilds. Dies zeigt sich z. B., wenn Personen eine gute Leistung auf ihre Fähigkeiten zurückführen und eine schlechte Leistung auf externe Umstände oder auch daran, dass sie ihren eigenen Anteil an einer Gruppenleistung überschätzen. Bitte kommentieren Sie hier, wenn Sie Anmerkungen zu den auf dieser Seite beschriebenen Aspekten haben. Dieses Verhalten ist ein Hinweis für einen geringen Self-Serving Bias: Es findet eine kritische Reflektion der eigenen Leistung sowohl bei Erfolgen als auch bei Misserfolgen statt. trifft gar nicht zu trifft eher nicht zu trifft eher zu trifft völlig zu Dieses Verhalten ist ein Hinweis für einen hohen Self-Serving Bias: Konkurrenzdenken führt dazu, dass es besonders wichtig ist, die eigene, individuelle, Leistung hervorzuheben. trifft gar nicht zu trifft eher nicht zu trifft eher zu trifft völlig zu Dieses Verhalten ist ein Hinweis für einen hohen Self-Serving Bias: Erfolge werden als verdiente Leistung bewertet und Probleme eher auf unglückliche Umstände zurückgeführt. trifft gar nicht zu trifft eher nicht zu trifft eher zu trifft völlig zu 26.04.23, 13:41 Korrekturfahne VAL (biases2021) 26.04.2023, 13:41 https://www.soscisurvey.de/biases2021/?s2preview=uXwweOv9ux5ldj0GAWiromgJ1YakY3cs&questionnaire=VAL¬es=off&php=off&csfr 12/23 Seite 13 Anchoring Anchoring (Verankerung) zeigt sich in der systematischen Tendenz, sich in einer Urteils- oder Entscheidungssituation stark von einer anfänglichen Information beeinflussen zu lassen. Nachfolgende abweichende Informationen führen zwar ggf. zu einer Anpassung der ursprünglichen Meinung, jedoch in einem zu geringen Ausmaß. Bitte kommentieren Sie hier, wenn Sie Anmerkungen zu den auf dieser Seite beschriebenen Aspekten haben. Dieses Verhalten ist ein Hinweis für einen geringen Grad an Anchoring: Meinungen und Einschätzungen unterschiedlicher Mitarbeiter*innen werden zunächst individuell und unabhängig voneinander entwickelt, bevor sie im Entscheidungsprozess aggregiert oder diskutiert werden. trifft gar nicht zu trifft eher nicht zu trifft eher zu trifft völlig zu Dieses Verhalten ist ein Hinweis für einen geringen Grad an Anchoring: Im Planungsprozess wird hinreichend über unterschiedliche Alternativen diskutiert, bevor man sich für eine Vorgehensweise entscheidet. trifft gar nicht zu trifft eher nicht zu trifft eher zu trifft völlig zu Dieses Verhalten ist ein Hinweis für einen hohen Grad an Anchoring: Es entstehen spontane Diskussionen auf Basis anfänglicher Informationen. trifft gar nicht zu trifft eher nicht zu trifft eher zu trifft völlig zu 26.04.23, 13:41 Korrekturfahne VAL (biases2021) 26.04.2023, 13:41 https://www.soscisurvey.de/biases2021/?s2preview=uXwweOv9ux5ldj0GAWiromgJ1YakY3cs&questionnaire=VAL¬es=off&php=off&csfr 13/23 Seite 14 Sunk Cost Fallacy Die Sunk Cost Fallacy (Versunkene Kosten Fehlschluss) ist ein häufiges Phänomen in Vorhaben, bei denen bereits eine bedeutsame Menge an Ressourcen wie Arbeitszeit oder Geld investiert wurden, ohne dass geplante Ziele erreicht werden konnten. Bei der Wahl, ob das Vorhaben abgebrochen oder fortgeführt werden soll, besteht eine irrationale Tendenz zur Fortführung trotz eines vom aktuellen Stand aus unverhältnismäßig hohen Ressourceneinsatzes. Bitte kommentieren Sie hier, wenn Sie Anmerkungen zu den auf dieser Seite beschriebenen Aspekten haben. Dieses Verhalten ist ein Hinweis für einen geringen Grad an Sunk Cost Fallacy: Wenn sich ein Projekt als teurer oder riskanter als erwartet herausstellt, wird stets auch ein Abbruch als gangbare Alternative diskutiert. trifft gar nicht zu trifft eher nicht zu trifft eher zu trifft völlig zu Dieses Verhalten ist ein Hinweis für einen geringen Grad an Sunk Cost Fallacy: Der Abbruch eines Projekts wird in der Organisation wertfrei und als normale Reaktion auf sich ändernde Bedingungen oder Einschätzungen betrachtet. trifft gar nicht zu trifft eher nicht zu trifft eher zu trifft völlig zu Dieses Verhalten ist ein Hinweis für einen hohen Grad an Sunk Cost Fallacy: Es wird häufig versucht ein schlecht laufendes Projekt fortzuführen, obwohl der finanzielle Aufwand oder das Risiko unverhältnismäßig hoch sind. trifft gar nicht zu trifft eher nicht zu trifft eher zu trifft völlig zu 26.04.23, 13:41 Korrekturfahne VAL (biases2021) 26.04.2023, 13:41 https://www.soscisurvey.de/biases2021/?s2preview=uXwweOv9ux5ldj0GAWiromgJ1YakY3cs&questionnaire=VAL¬es=off&php=off&csfr 14/23 Seite 15 Groupthink - Illusion of Invulnerability Illusion of Invulnerability (Illusion von Unverwundbarkeit) beschreibt die tendenzielle Überschätzung der eigenen Gruppe, die scheinbar so stark sei, dass kaum etwas schief gehen könne. Diese Denkweise wird insbesondere durch vergangene Erfolge bestärkt. Bitte kommentieren Sie hier, wenn Sie Anmerkungen zu den auf dieser Seite beschriebenen Aspekten haben. Dieses Verhalten ist ein Hinweis für einen geringen Grad an Illusion of Invulnerability: Erfolge steigen der Gruppe nicht zu Kopf und sie ist stets bemüht, die eigenen Pläne zu hinterfragen und Verbesserungspotenziale abzuleiten. trifft gar nicht zu trifft eher nicht zu trifft eher zu trifft völlig zu Dieses Verhalten ist ein Hinweis für einen hohen Grad an Illusion of Invulnerability: Vergangene Erfolge führen in der Gruppe zu Selbstüberschätzung und in der Folge zu einem sorgloserem Umgang mit Risiken. trifft gar nicht zu trifft eher nicht zu trifft eher zu trifft völlig zu 26.04.23, 13:41 Korrekturfahne VAL (biases2021) 26.04.2023, 13:41 https://www.soscisurvey.de/biases2021/?s2preview=uXwweOv9ux5ldj0GAWiromgJ1YakY3cs&questionnaire=VAL¬es=off&php=off&csfr 15/23 Seite 16 Groupthink - Belief in Inherent Morality of the Group Belief in inherent Morality of the Group (Überzeugung von der Moralität des eigenen Handelns): Gruppen sehen sich häufig als grundsätzlich moralisch aufrichtige Instanz mit guten Beweggründen. Dies führt dazu, dass ethische und morale Konsequenzen einer Entscheidung im Einzelfall weniger stark bedacht werden. Bitte kommentieren Sie hier, wenn Sie Anmerkungen zu den auf dieser Seite beschriebenen Aspekten haben. Dieses Verhalten ist ein Hinweis für einen hohen Grad an Belief in Inherent Morality of the Group: Es kann vorkommen, dass ethische Konsequenzen im Einzelfall weniger genau betrachtet werden, weil sich die Gruppe/Organisation insgesamt als moralische Instanz betrachtet. trifft gar nicht zu trifft eher nicht zu trifft eher zu trifft völlig zu Dieses Verhalten ist ein Hinweis für einen hohen Grad an Belief in Inherent Morality of the Group: Die Gruppe reagiert irritiert oder ablehnend auf selbstkritische Anmerkungen einzelner Mitglieder. trifft gar nicht zu trifft eher nicht zu trifft eher zu trifft völlig zu 26.04.23, 13:41 Korrekturfahne VAL (biases2021) 26.04.2023, 13:41 https://www.soscisurvey.de/biases2021/?s2preview=uXwweOv9ux5ldj0GAWiromgJ1YakY3cs&questionnaire=VAL¬es=off&php=off&csfr 16/23 Seite 17 Groupthink - Collective Rationalization Collective Rationalization (Kollektive Rationalisierung) zeigt sich, wenn Warnungen und negatives Feedback, die eine Entscheidung in Frage stellen, nicht ausreichend berücksichtigt werden. Statt dessen wird vorschnell gegen die Warnung argumentiert, um den Plan aufrechtzuerhalten. Bitte kommentieren Sie hier, wenn Sie Anmerkungen zu den auf dieser Seite beschriebenen Aspekten haben. Dieses Verhalten ist ein Hinweis für einen geringen Grad an Collective Rationalization: Kritische Meinungen gegenüber dem von der Führungskraft oder der gesamten Gruppe favorisiertem Plan werden offen aufgenommen und weiterdiskutiert. trifft gar nicht zu trifft eher nicht zu trifft eher zu trifft völlig zu Dieses Verhalten ist ein Hinweis für einen hohen Grad an Collective Rationalization: Kritische Hinweise und Warnungen bezüglich eines Plans werden häufig nicht ausreichend ernst genommen. trifft gar nicht zu trifft eher nicht zu trifft eher zu trifft völlig zu 26.04.23, 13:41 Korrekturfahne VAL (biases2021) 26.04.2023, 13:41 https://www.soscisurvey.de/biases2021/?s2preview=uXwweOv9ux5ldj0GAWiromgJ1YakY3cs&questionnaire=VAL¬es=off&php=off&csfr 17/23 Seite 18 Groupthink - Out-Group Stereotypes Out-group Stereotypes (Stereotypisierung von Außenstehenden) tritt auf, wenn Vorurteile gegenüber einer anderen Gruppe, die eine abweichende Meinung vertritt, implizit und/oder explizit geäußert werden, zum Beispiel, dass diese unfähig seien oder keine Ahnung hätten. Bitte kommentieren Sie hier, wenn Sie Anmerkungen zu den auf dieser Seite beschriebenen Aspekten haben. Dieses Verhalten ist ein Hinweis für einen hohen Grad an Out-Group Stereotypes: Innerhalb der Gruppe sind häufig die Unfähigkeit oder ähnliche negative Eigenschaften anderer Akteure ein Thema. trifft gar nicht zu trifft eher nicht zu trifft eher zu trifft völlig zu Dieses Verhalten ist ein Hinweis für einen hohen Grad an Out-Group Stereotypes: Es kommt vor, dass negative Einstellungen gegenüber externen Gruppen die Kommunikation und den Informationsaustausch mit diesen beeinträchtigen. trifft gar nicht zu trifft eher nicht zu trifft eher zu trifft völlig zu 26.04.23, 13:41 Korrekturfahne VAL (biases2021) 26.04.2023, 13:41 https://www.soscisurvey.de/biases2021/?s2preview=uXwweOv9ux5ldj0GAWiromgJ1YakY3cs&questionnaire=VAL¬es=off&php=off&csfr 18/23 Seite 19 Groupthink - Self-Censorship Self-Censorship (Selbstzensur) beschreibt die Zurückhaltung oder Entschärfung der eigenen Meinung, in der Erwartung, dass diese bei Kolleg*innen und Vorgesetzen negative Reaktionen hervorrufen würde. Bitte kommentieren Sie hier, wenn Sie Anmerkungen zu den auf dieser Seite beschriebenen Aspekten haben. Dieses Verhalten ist ein Hinweis für einen geringen Grad an Self- Censorship: Im Planungsprozess wird sichergestellt, dass alle Gruppenmitglieder ihre Standpunkte äußern. trifft gar nicht zu trifft eher nicht zu trifft eher zu trifft völlig zu Dieses Verhalten ist ein Hinweis für einen hohen Grad an Self- Censorship: Manchmal hält man sich mit seiner Meinung zurück, um nicht bei der Führungskraft oder anderen Gruppenmitgliedern anzuecken. trifft gar nicht zu trifft eher nicht zu trifft eher zu trifft völlig zu 26.04.23, 13:41 Korrekturfahne VAL (biases2021) 26.04.2023, 13:41 https://www.soscisurvey.de/biases2021/?s2preview=uXwweOv9ux5ldj0GAWiromgJ1YakY3cs&questionnaire=VAL¬es=off&php=off&csfr 19/23 Seite 20 Groupthink - Illusion of Unanimity Bei der Illusion of Unanimity (Illusion von Einstimmigkeit) entsteht der Schein von Einstimmigkeit, da fast alle geäußerten Meinungen der Mehrheitsmeinung entsprechen und das Schweigen der Minderheit als stille Zustimmung interpretiert wird. Wenn nur die Argumente der Mehrheitsmeinung geäußert werden, werden häufig auch kritische Gruppenmitglieder überzeugt. Bitte kommentieren Sie hier, wenn Sie Anmerkungen zu den auf dieser Seite beschriebenen Aspekten haben. Dieses Verhalten ist ein Hinweis für einen geringen Grad an Illusion of Unanimity: Bei scheinbarer Meinungshomogenität wird bewusst nachgehakt, ob es auch alternative Sichtweisen gibt, die von der bisherigen Gruppenmeinung abweichen. trifft gar nicht zu trifft eher nicht zu trifft eher zu trifft völlig zu Dieses Verhalten ist ein Hinweis für einen hohen Grad an Illusion of Unanimity: Das Schweigen einzelner Gruppenmitglieder wird von der Gruppe als stille Zustimmung interpretiert. trifft gar nicht zu trifft eher nicht zu trifft eher zu trifft völlig zu 26.04.23, 13:41 Korrekturfahne VAL (biases2021) 26.04.2023, 13:41 https://www.soscisurvey.de/biases2021/?s2preview=uXwweOv9ux5ldj0GAWiromgJ1YakY3cs&questionnaire=VAL¬es=off&php=off&csfr 20/23 Seite 21 Groupthink - Direct pressure on Dissenters Direct pressure on Dissenters (Druck auf Abweichler): Es wird expliziter Druck auf bestimmte Personen ausgeübt, sich der erwünschten Meinung anzupassen. Diese Form des Groupthink zeigt sich oft, wenn das gesamte Vorhaben unter Druck steht. Häufig wird in so einer Situation die Gefährdung des Vorhabens als Druckmittel zur Meinungsanpassung genutzt. Bitte kommentieren Sie hier, wenn Sie Anmerkungen zu den auf dieser Seite beschriebenen Aspekten haben. Dieses Verhalten ist ein Hinweis für einen hohen Grad an Direct Pressure on Dissenters: Es kommt vor, dass Druck auf Gruppenmitglieder mit abweichender Meinung ausgeübt wird. trifft gar nicht zu trifft eher nicht zu trifft eher zu trifft völlig zu Dieses Verhalten ist ein Hinweis für einen hohen Grad an Direct Pressure on Dissenters: Es kommt vor, dass kritische Meinungsträger von Gruppenprozessen ausgeschlossen werden. trifft gar nicht zu trifft eher nicht zu trifft eher zu trifft völlig zu Dieses Verhalten ist ein Hinweis für einen hohen Grad an Direct Pressure on Dissenters: Gruppenmitglieder nutzen ihre hierarchische Position, um ihre Meinung durchzusetzen. trifft gar nicht zu trifft eher nicht zu trifft eher zu trifft völlig zu 26.04.23, 13:41 Korrekturfahne VAL (biases2021) 26.04.2023, 13:41 https://www.soscisurvey.de/biases2021/?s2preview=uXwweOv9ux5ldj0GAWiromgJ1YakY3cs&questionnaire=VAL¬es=off&php=off&csfr 21/23 Seite 22 Groupthink - Self-Appointed Mindguards Self-Appointed Mindguards (Selbsternannte Meinungshüter): Einzelne Gruppenmitglieder „beschützen“ die Führungskraft und Gruppe vor Informationen, die im Widerspruch zur Gruppenmeinung oder -entscheidung stehen und somit die empfundene Einstimmigkeit gefährden, indem sie z. B. abweichende Meinungen ablehnen. Bitte kommentieren Sie hier, wenn Sie Anmerkungen zu den auf dieser Seite beschriebenen Aspekten haben. Dieses Verhalten ist ein Hinweis für einen hohen Grad an Self-Appointed Mindguards: Manche Gruppenmitglieder versuchen kritische Meinungen anderer Mitglieder aus Loyalität zur Führungskraft abzuwehren. trifft gar nicht zu trifft eher nicht zu trifft eher zu trifft völlig zu Dieses Verhalten ist ein Hinweis für einen hohen Grad an Self-Appointed Mindguards: Es kommt vor, dass Minderheitsmeinungen vorschnell durch einzelne Gruppenmitglieder schlechtgeredet werden. trifft gar nicht zu trifft eher nicht zu trifft eher zu trifft völlig zu 26.04.23, 13:41 Korrekturfahne VAL (biases2021) 26.04.2023, 13:41 https://www.soscisurvey.de/biases2021/?s2preview=uXwweOv9ux5ldj0GAWiromgJ1YakY3cs&questionnaire=VAL¬es=off&php=off&csfr 22/23 Seite 23 Social Loafing Social Loafing (Soziales Faulenzen) beschreibt das Phänomen, dass Personen bei einer Aufgabe mehr Engagement zeigen, wenn sie auf sich alleine gestellt sind, als wenn sie die Aufgabe als Angehörige einer Gruppe bearbeiten. Ein Hauptgrund für das Auftreten von Social Loafing ist, dass einzelne Gruppenmitglieder den Eindruck haben, dass ihre persönliche Leistung insgesamt nicht so wichtig ist bzw. weniger Anstrengung vom Rest der Gruppe kompensiert wird. Bitte kommentieren Sie hier, wenn Sie Anmerkungen zu den auf dieser Seite beschriebenen Aspekten haben. Dieses Verhalten ist ein Hinweis für einen geringen Grad an Social Loafing: Zwischenziele werden konkret und mit festgelegtem Zeithorizont definiert. trifft gar nicht zu trifft eher nicht zu trifft eher zu trifft völlig zu Dieses Verhalten ist ein Hinweis für einen geringen Grad an Social Loafing: Arbeitspakete werden für einzelne Gruppenmitglieder konkret zugeordnet. trifft gar nicht zu trifft eher nicht zu trifft eher zu trifft völlig zu Dieses Verhalten ist ein Hinweis für einen geringen Grad an Social Loafing: Zwischenergebnisse aus den einzelnen Verantwortungsbereichen werden Führungskräften und anderen Gruppenmitgliedern in regelmäßigen Abständen präsentiert trifft gar nicht zu trifft eher nicht zu trifft eher zu trifft völlig zu 26.04.23, 13:41 Korrekturfahne VAL (biases2021) 26.04.2023, 13:41 https://www.soscisurvey.de/biases2021/?s2preview=uXwweOv9ux5ldj0GAWiromgJ1YakY3cs&questionnaire=VAL¬es=off&php=off&csfr 23/23 Seite 24 False Consensus Effect Der False Consensus Effect (Falscher Konsens Effekt) bezeichnet die intuitive Fehleinschätzung, dass eigene Urteile und Entscheidungen in der Population verbreitet und angemessen sind, während alternative Sichtweisen eher als ungewöhnlich und unangemessen betrachtet werden. Eine Ursache hierfür ist der fundamentale Attributionsfehler, demnach die eigenen Handlungen oder Meinungen tendenziell als situationsabhängig und somit „normal“ erarchtet werden, während das Verhalten anderer Menschen eher auf deren Persönlichkeit zurückgeführt wird Bitte kommentieren Sie hier, wenn Sie Anmerkungen zu den auf dieser Seite beschriebenen Aspekten haben. Letzte Seite Vielen Dank für Ihre Teilnahme! Ich möchte mich ganz herzlich für Ihre Mithilfe bedanken. Bei Fragen zur Studie können Sie sich gerne per Mail an mich wenden: f.englisch@uni-kassel.de Für Nutzer von SurveyCircle (www.surveycircle.com): Der Survey Code lautet: P68D-EZ9U-EH8R-YQY1 Ihre Antworten wurden gespeichert, Sie können das Browser-Fenster nun schließen. M.Sc. Friedrich Englisch, Universität Kassel – 2021 Dieses Verhalten ist ein Hinweis für einen geringen Grad an False Consensus: Das Verhalten und die Pläne der Gruppe werden kritisch – auch im Austausch mit Personen außerhalb der Gruppe – reflektiert. trifft gar nicht zu trifft eher nicht zu trifft eher zu trifft völlig zu Dieses Verhalten ist ein Hinweis für einen geringen Grad an False Consensus: Führungskräfte beziehen auch Informationen von externen Quellen ausreichend mit ein. trifft gar nicht zu trifft eher nicht zu trifft eher zu trifft völlig zu Literaturverzeichnis 271 E Kommentare aus den Freitextfeldern Bias Label Kommentar 1 Kommentar 2 Kommentar 3 OC Reale Misserfolge aus der Vergangenheit und andere mögliche Misserfolgsfaktoren werden mit kalkuliert, diskutiert und thematisiert. Hier werden Vorbereitungen vorrauschhauend getroffen und man stürzt sich nicht in vage Zielsetzungen. OB Durch Optimismus wird man denke ich nicht ignorant gegenüber den externen Einflüssen und kann trotzdem die Risiken einkalkulieren. Ob die externen Einflüsse beachtet werden, liegt somit nicht unbedingt an einem geringen Optimism Bias. Man geht nicht von dem besten Fall aus sondern kalkuliert Risiken. Bzgl. der ersten Frage, bin ich der Ansicht, dass natürlich bei einem geringem Optimism Bias aüßere Tendenzen miteinbezogen werden. Allerdings denke ich, dass dies auch bei einem hohen Optimism Bias der Fall ist, dass in diesem Falls die äußeren Faktor als weniger gewichtig bewertet werden.
Bzgl. der zweiten Frage: Die finde ich wirklich sehr schwer verständlich. AB Ich finde es allgemein schwierig zu sagen, dass ein bestimmtes Verhalten in einer bestimmten Situation eindeutig ein Hinweis auf einen Bias ist oder nicht, das Verhalten kann situationsbedingt viele Ursachen haben und muss nicht unbedingt stabil auftreten. Empirische Daten basieren auf Forschungen die einen gewissen Zeitraum einnahmen, von denen man ausgehen kann, dass man hier auf rele Ergbenisse setzten kann . Ad-hoc Argumente basieren nicht auf empirischen Ergebnissen und sind oft nicht erforscht, es sei denn man zitiert aus einer Studie. CB Mitarbeiter*innen UND Führungskräfte.
Ist schwer zu beurteilen, wenn für die einen "ja" gilt und für die anderen "nein" gilt!

Das gilt bei den meisten Items. Sie sind auf Organisationsebene formuliert. Wenn man aber an Mitarbeiter*innen und die eigene Führungskraft gleichzeitig denken soll, ist es manchmal schwer ein Urteil zu abzugeben, wenn beide (Gruppen) sehr stark differieren. Bzgl. Frage 3: diese Phänomen könnte z.B. auch auf Groupthinking zurückzuführen sein bzw. auf weitere Phänomene DB Ich versteh nicht ganz warum Frage 1 nicht auch das Wunschdenken beschreiben soll SB Frage zwei finde ich nicht zur Beurteilung des Self-Serving Biases geeignet Wenn Konkurrenzdenken die Verzerrung auslöst, dient dies nicht unbedingt dem Selbstwert. Es kann auch aus anderen Gründen konkurriert werden (Neid/ Geld) *Reflexion ANB Frage zwei finde ich nicht optimal zur Beurteilung von Anchoring geeignet, da trotz der Diskussion verschiedener Alternativen ein Ankereffekt durch die zuerst geäußerten Meinungen/Fakten etc. entstehen kann. die oberen beiden Fragen haben finde ich eher nichts mit Anchoring zu tun weder mit einer geringen, noch mit einer hohe Ausprägung Expertenbefragung SUCO Fallen beim Sunk Cost Fallacy nicht auch die Zeit/Aufwand hinein?

Das Menschen eigendlich Unglücklich mit zB. dem Studium sind aber sie haben ja schon 4 Jahre studiert, deswegen drückt man den Rest auch noch irgendwie durch wertfrei würde ich eher auf die Unternehmenskultur bezieh und nicht auf finanziellen wert GR_CR Bei dem ersten Item besteht das selbe, schon angesprochene, Problem. (bezieht sich auf gleichzeitig Mitarbeiter/Führungskräfte) GR_SC Frage 1 finde ich nicht zur Beurteilung des Biases geeignet, da auch im Falle des Sicherstellens einer Äußerung aller Gruppenmitglieder diese sich mit ihrer "wahren"
Meinung zurückhalten können. GR_IU Bei dem ersten Aspekt könnte dieses Vorgehen auch als Einschüchterungsmaßnahme verwendet werden, z.B. durch Suggestivfragen und drohendem Charakter, deshlab nicht ganz eindeutig. GR_DP Durch Nutzung der hierarchischen Position wird nicht unbedingt Druck ausgeübt. GR_SM Bei dem zweiten Aspekt ist nicht ganz klar aus welcher Intention das Verhalten geschieht, deshalb nicht ganz eindeutig. GR_SL Ich finde alle drei Fragen nicht geeignet zur Bewertung bzw. als Hinweise auf einen geringem oder hohen Grad an Social Loafing, da aus keiner Frage hervorgeht, wie sich die Mitglieder dann tatsächlich VERHALTEN. Zwischenziele können ja definiert werden, aber das heißt ja nicht, dass ein Mitglied trotzdem
Kein Social Loafing zeigen kann. Genauso die Arbeitspakete: Mitgleider müssen die Pakete ja nicht erfüllen - dass sie existieren bzw. individuell zugeordnet werden sagt ja noch nichts über das letztliche tatsächliche Verhalten der Gruppenmitglieder aus. Bei der Beschreibung war mir nicht genau ersichtlich, ob dies ein Phänomen von Gruppen ist oder von Einzelpersonen oder von Einzelpersonen, die getrennt eine Gruppenarbeit absolvieren. erkenne wenig Zusammenhang zwischen der Beschreibung und den Aussagen. Individuelle Biases In aller Regel lassen vertragliche Vereinbarungen den Abbruch eines Vorhabens nicht zu. Entsprechend kann diese Alternative gar nicht in Betracht gezogen werden. Für mich ist es nicht immer einfach, die Fragen zu beantworten, da ich mehrheitlich nicht mit eigenen Mitarbeitenden zusammenarbeite, sondern in Teams, die aus Mitarbeitenden verschiedener Organisationen zusammengesetzt sind. Sonderfall bezüglich "Projektabbruch wird nicht erwogen": Die Aufträge stammen in der Regel von der öffentlichen Hand (Staatsaufträge). Validierungsstudie Gruppen- biases Grund für die vielen "kann ich nicht beurteilen"-Angaben ist die recht kurze Verweildauer im Unternehrmen Planungsprozesse finden außerhalb des Teams statt.
Der Zusammenhalt im Team ist sehr hoch und die gelebte Kultur sehr positiv. Items mit "häufig" und "manchmal" vermeiden

Items mit Verknüpfungen sind schwierig, z.B. "Vergangene Erfolge führen in der Gruppe zu Selbstüberschätzung und in der Folge zu einem sorgloserem Umgang mit Risiken." oder "Es kann vorkommen, dass ethische Konsequenzen im Einzelfall weniger genau betrachtet werden, weil sich die Gruppe/Organisation insgesamt als moralische Instanz betrachtet. "