Biases im Planungsprozess
Entwicklung eines Fragebogens zur Diagnostik
kognitiver, motivationaler und gruppendynamischer Biases
im Kontext der Organisationskultur
Dissertation zur Erlangung des akademischen Grades eines Doktors
der Philosophie (Dr. phil.) am Fachbereich Humanwissenschaften
der Universität Kassel
vorgelegt von Friedrich Englisch
Berlin, 17. Juli 2023
Die vorliegende Arbeit wurde vom Fachbereich Humanwissenschaften der Universität Kas-
sel als Dissertation zur Erlangung des akademischen Grades eines Doktors der Philosophie
(Dr. phil.) angenommen.
Erster Gutachter: Prof. Dr. Oliver Sträter
Zweiter Gutachter: Prof. Dr. Markus Denzler
Beisitzer: Prof. Dr. Thomas Rigotti
Beisitzer: Prof. Dr. Sabine Rehmer
Tag der Einreichung: 17. Juli 2023
Tag der Disputation: 18. März 2024
doi:10.17170/kobra-202403269876
Zusammenfassung
Englisch, Friedrich: „Biases im Planungsprozess – Entwicklung eines Fragebogens zur Dia-
gnostik kognitiver, motivationaler und gruppendynamischer Biases im Kontext der Orga-
nisationskultur“. Dissertation zur Erlangung des akademischen Grades eines Doktors der
Philosophie (Dr. phil) am Fachbereich Humanwissenschaften der Universität Kassel.
Die vorliegende Arbeit befasst sich mit der Frage nach der Relevanz und der Diagnosti-
zierbarkeit kognitiver, motivationaler und gruppendynamischer Biases im Kontext organi-
sationaler Planungsprozesse. Ziel der Arbeit war es, einen Fragebogen zu entwickeln, der
die Anfälligkeit von Gruppen für derartige Biases erfasst und damit einen Indikator für
die Qualität von Planungsprozessen darstellt.
Bezüglich des Problems der Diagnostizierbarkeit impliziter Biases zeigt sich in der Lite-
ratur, dass die Organisationskultur die Anfälligkeit für bestimmte Biases im Planungs-
kontext beeinflusst. Dem daraus abgeleiteten Untersuchungsmodell nach sind kulturell
geprägte Verhaltensweisen der Organisationsmitglieder ein geeigneter Prädiktor für die
Qualität organisationaler Planungsprozesse, der über das Auftreten impliziter Biases me-
diiert wird. Auf Basis dieser Annahmen wurde ein Fragebogen entwickelt, mit dem Ziel,
das Risiko einer Organisation beziehungsweise Organisationseinheit für entscheidungsver-
zerrende Biases zu erfassen. Die Items des Fragebogens beschreiben durch die Organisa-
tionskultur geprägte Verhaltensweisen in Planungsprozessen, die dieses Risiko potenziell
erhöhen beziehungsweise verringern und von den betreffenden Organisationsmitgliedern
selbst bewertet werden können. Empirisch wurde zunächst anhand von zwei Fallstudi-
en die Relevanz der ausgewählten Biases und die Gebrauchstauglichkeit des Fragebogens
argumentativ hergeleitet. Eine anschließende quantitative Expertenbefragung legte eine
zufriedenstellende Inhaltsvalidität dar, indem eine Passung zwischen den Items und zu-
grundeliegenden Konstruktdefinitionen festgestellt wurde. Schließlich wurde eine Befra-
gung von planungsverantwortlichen Mitarbeitern unterschiedlicher Organisationen durch-
geführt. Hier zeigt sich bezüglich der Testgütekriterien eine zufriedenstellende Reliabilität
sowie Kriteriumsvalidität, jedoch auch gewisse Einschränkungen, aus denen sich konkrete
Ansätze zur Verbesserung ableiten ließen. Die Ergebnisse unterstreichen die besondere Be-
deutung des Themas Heuristiken und Biases für organisationale Planungsprozesse und zei-
gen den bedeutsamen Einfluss der in diesem Zusammenhang bisher wenig berücksichtigten
Organisationskultur. Der explorative Charakter der Arbeit geht mit einigen Limitationen
einher, bezüglich derer konkrete Vorschläge zur weiteren Validierung der theoretischen
Erkenntnisse und zur Weiterentwicklung des Fragebogens gemacht wurden.
Abstract
Englisch, Friedrich: „Biases in the Planning Process – Development of a Questionnaire
for the Diagnosis of Cognitive, Motivational and Group Biases in the Context of Orga-
nizational Culture“. Dissertation for the degree of Doctor of Philosophy (Dr. phil) at the
Department of Human Sciences of the University of Kassel.
This thesis addresses the question of the relevance and diagnosability of cognitive, motiva-
tional and group biases in the context of organizational planning processes. The aim was
to develop a questionnaire that measures the susceptibility of groups to such biases and
thus provides an indicator of the quality of planning processes.
Regarding the problem of diagnosability of implicit biases, the literature shows that or-
ganizational culture influences the susceptibility to certain biases in the planning context.
According to the research model derived from this, culturally shaped behaviors of organiza-
tional members are a suitable predictor of the quality of organizational planning processes
mediated by the occurrence of implicit biases. Based on these assumptions, a questionnaire
was developed with the goal of assessing an organization’s or organizational unit’s risk for
decision biases. The items of the questionnaire describe behaviors in planning processes
that are shaped by the organizational culture, which potentially increase or decrease this
risk and can be assessed by the relevant organizational members themselves. Empirically,
the relevance of the selected biases and the usability of the questionnaire were first deri-
ved argumentatively on the basis of two case studies. A subsequent quantitative expert
survey suggested satisfactory content validity by establishing a fit between the items and
underlying construct definitions. Finally, a survey of employees responsible for planning in
different organizations was conducted. Here, satisfactory reliability and criterion validity
were found with regard to the test quality criteria, but also certain limitations from which
concrete approaches for improvement could be derived. The results underline the special
importance of the topic of heuristics and biases for organizational planning processes and
show the significant influence of the organizational culture, which has so far been given
little consideration in this context. The explorative nature of the work is accompanied by
a number of limitations, with respect to which concrete suggestions for further validation
of the theoretical findings and further development of the questionnaire were derived.
IInhaltsverzeichnis
Abbildungsverzeichnis III
Tabellenverzeichnis V
Abkürzungsverzeichnis VI
1 Einleitung 1
1.1 Problemstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.1 Heuristiken und Biases . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.2 Organisationale Planungsprozesse . . . . . . . . . . . . . . . . . . . . 7
1.1.3 Schlussfolgerungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2 Zielstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2 Urteils- und Entscheidungsprozesse 19
2.1 Problemlöseprozesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.2 Kognitionspsychologische Perspektive . . . . . . . . . . . . . . . . . . . . . . 21
2.3 Sozialpsychologische Perspektive . . . . . . . . . . . . . . . . . . . . . . . . 30
3 Heuristiken und Biases 36
3.1 Definition des rationalen Urteils . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.2 Kognitive Biases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.2.1 Availability Heuristic . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.2.2 Anchoring Effect . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.2.3 Sunk-Cost Fallacy . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.2.4 Confirmation Bias . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.3 Motivationale Biases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.3.1 Self-Serving Bias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.3.2 Overconfidence Bias . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3.3.3 Optimism Bias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.3.4 Desirability Bias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.4 Gruppendynamische Biases . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
3.4.1 Groupthink . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.4.2 Social Loafing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
3.4.3 Group Polarization . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
Inhaltsverzeichnis II
3.4.4 False Consensus Effect . . . . . . . . . . . . . . . . . . . . . . . . . . 72
3.5 Auswahl und Klassifikation . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4 Organisationskultur 81
4.1 Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
4.2 Inhalte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
4.3 Einfluss auf Biases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
4.4 Relevanz im Planungsprozess . . . . . . . . . . . . . . . . . . . . . . . . . . 96
5 Untersuchungsmodell 102
5.1 Der organisationale Planungsprozess . . . . . . . . . . . . . . . . . . . . . . 102
5.2 Entwicklung des Fragebogens . . . . . . . . . . . . . . . . . . . . . . . . . . 106
5.3 Operationalisierung der Fragebogenitems . . . . . . . . . . . . . . . . . . . 107
6 Studien 117
6.1 Fallstudien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
6.1.1 The Boeing Company . . . . . . . . . . . . . . . . . . . . . . . . . . 120
6.1.2 Die Loveparade 2010 . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
6.1.3 Fazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
6.2 Expertenbefragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
6.2.1 Vorgehen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
6.2.2 Stichprobe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
6.2.3 Ergebnisse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
6.3 Validierungsstudie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
6.3.1 Vorgehen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
6.3.2 Stichprobe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
6.3.3 Ergebnisse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
7 Diskussion 189
Literaturverzeichnis 200
Anhang 224
A Itemübersicht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224
B Fragebogen Paper-pencil . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
C Fragebogen elektronisch . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237
D Expertenbefragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247
E Kommentare aus den Freitextfeldern . . . . . . . . . . . . . . . . . . . . . . 271
III
Abbildungsverzeichnis
1 Dreidimensionale Wahrnehmungsheuristik . . . . . . . . . . . . . . . . . . . 23
2 Parallele und serielle Kognition . . . . . . . . . . . . . . . . . . . . . . . . . 25
3 Das vierdimensionale Multiple-Resource-Modell . . . . . . . . . . . . . . . . 25
4 Der unsichtbare Gorilla . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
5 Beispiel eines semantischen Netzwerks . . . . . . . . . . . . . . . . . . . . . 29
6 Zwei Routen der Persuasion . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
7 Der kognitive Verarbeitungszyklus . . . . . . . . . . . . . . . . . . . . . . . 77
8 Organisationskultur und wirtschaftlicher Erfolg . . . . . . . . . . . . . . . . 89
9 Der organisationale Planungs- und Entscheidungsprozess . . . . . . . . . . . 103
10 Organisationskultur, Biases und Entscheidungsqualität . . . . . . . . . . . . 104
11 Wechselwirkung zwischen unterschiedlichen Arten von Biases . . . . . . . . 105
12 Moderierender Effekt der Organisationskultur . . . . . . . . . . . . . . . . . 111
13 Direkter Effekt der Organisationskultur . . . . . . . . . . . . . . . . . . . . 112
14 Die Boeing 737-MAX . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
15 Funktionsweise des MCAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
16 Marktanteil Boeing vs. Airbus . . . . . . . . . . . . . . . . . . . . . . . . . . 124
17 Das Veranstaltungsgelände der Loveparade 2010 . . . . . . . . . . . . . . . 136
18 Skizze des Veranstaltungsgeländes der Loveparade 2010 . . . . . . . . . . . 142
19 Ein- und Ausgangsbereich der Loveparade 2010 . . . . . . . . . . . . . . . . 156
20 Häufigkeit verschiedener Biases in den Fallstudien . . . . . . . . . . . . . . . 162
21 Expertenbefragung – Beispiel Optimism Bias . . . . . . . . . . . . . . . . . 168
22 Expertenbefragung – Beispiel Availability Heuristic . . . . . . . . . . . . . . 169
23 Kenntnisse der Probanden im Bereich kognitiver Biases . . . . . . . . . . . 170
24 Kenntnisse der Probanden im Bereich gruppendynamischer Biases . . . . . 171
25 Expertenbeurteilung bezüglich der Inhaltsvalidität . . . . . . . . . . . . . . 172
26 Ausschnitt des finalen Fragebogens . . . . . . . . . . . . . . . . . . . . . . . 175
27 Bewertung der Entscheidungsqualität als Kriterium . . . . . . . . . . . . . . 176
28 Häufigkeitsverteilung der Altersgruppen . . . . . . . . . . . . . . . . . . . . 176
29 Anteil von Routinetätigkeiten gegenüber neuartigen Entscheidungen . . . . 177
30 Anteil von Gruppenprozessen an der Gesamttätigkeit . . . . . . . . . . . . . 178
31 Erläuterung des Boxplot-Diagramms . . . . . . . . . . . . . . . . . . . . . . 181
32 Skalenwertverteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
Abbildungsverzeichnis IV
33 Itemwertverteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182
34 Häufigkeitsverteilung des Globalurteils bezüglich der Entscheidungsprozesse 183
35 Korrelation zwischen den Skalen und dem Kriterium . . . . . . . . . . . . . 183
36 Trennschärfe und Korrelation mit dem Kriterium aller Items . . . . . . . . 185
37 Prozentualer Anteil der Antwortkategorie „Kann ich nicht beurteilen“ . . . 187
VTabellenverzeichnis
1 Zwei kognitive Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2 Drei Ebenen der Organisationskultur . . . . . . . . . . . . . . . . . . . . . . 85
3 Reliabilität der Skalen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
4 Die einflussreichsten Biases in den Fallstudien und der Validierungsstudie . 184
VI
Abkürzungsverzeichnis
ACH Analysis of Competing Hypotheses
AoA Angle of Attack
DSS Decision Support Systems
FAA Federal Aviation Administration
FHA Funcional Hazard Analysis
HRO High Reliability Organization
MAUT Multiattribute Utility Theory
MBL Major Baseball League
MCAS Maneuvering Characteristics Augmentation System
NASA National Aeronautics and Space Administration
VUCA Volatility, Uncertainty, Complexity, Ambiguity
WYSIATI What You See Is All There Is
11 Einleitung
In strategic planning, the hard facts go only so far, and then human judgement is needed to interpret the findings
and determine their relevance for the future. These subjective judgments are a major component in any strategy
formulation process. If such judgments are faulty, efforts at strategic planning are likely to be misdirected. (Barnes,
1984, p. 129)
Die Themen Heuristiken und Biases in der menschlichen Entscheidungsfindung haben
insbesondere seit der Veröffentlichung von „Judgment under Uncertainty: Heuristics and
Biases“ (Tversky & Kahneman, 1974) auch über das Feld der Psychologie hinaus enorm
an Bedeutung gewonnen. So prägten die neuen Erkenntnisse die Verhaltensökonomie, in
der der Mensch, entgegen der Sicht der klassischen Wirtschaftswissenschaft, nicht mehr als
rein rationaler Homo Oeconomicus betrachtet wird, da seine Handlungen in bestimmten
Situationen durch systematische Fehleinschätzungen geprägt sind (z. B. Arkes & Blumer,
1985; Kahneman & Tversky, 1979; Moore & Healy, 2008; Nickerson, 1998; Tappin, van
der Leer & McKay, 2017).
Im Alltag trifft der Mensch unzählige Urteile und Entscheidungen. Gleichzeitig stehen ihm
nur eine begrenzte Menge kognitiver Ressourcen zur Verfügung. Um Komplexität zu redu-
zieren, nutzt der Mensch deshalb bei einem Großteil dieser Urteile implizite Heuristiken,
die vor allem in regelmäßigen beziehungsweise varianzarmen Situationen recht treffsicher
sind. Kommen diese Heuristiken jedoch in einem inadäquaten Kontext zum Einsatz, füh-
ren sie unbemerkt zu einem verzerrten Urteil und man spricht von einem kognitiven Bias.
Insbesondere in situationsspezifischen und komplexen Situationen – wie sie unter anderem
typisch für organisationale Planungsprozesse sind – ist das Risiko für Fehlentscheidungen
hoch. Zum Beispiel werden Wahrscheinlichkeitsurteile häufig auf Basis von der Leichtig-
keit getroffen, mit der Beispielinstanzen der zu schätzenden Kategorie aus dem Gedächtnis
abgerufen werden können (Tversky & Kahneman, 1973). Der als Availability Heuristic be-
zeichnete Prozess resultiert im Alltag meistens in akzeptablen Urteilen. Da die Schätzung
auf subjektivem Erfahrungswissen basiert, beinhaltet sie aber – je nach Komplexität des
Kontextes – eine mehr oder weniger starke Urteilsverzerrung, die häufig unbewusst und
somit auch unkorrigiert bleibt.
Zudem können motivationale Biases, die sich auf die Vermeidung oder Reduktion kogni-
tiver Dissonanz zurückführen lassen, die Korrektheit von Urteilsprozessen vermindern. So
beschreibt zum Beispiel der Self-Serving Bias eine verzerrte selbstwertdienliche Attribu-
1 Einleitung 2
tion von Informationen (Forsyth, 2008), die in der Folge zu Selbstüberschätzung bezie-
hungsweise einem Overconfidence Bias führen können (Larwood & Whittaker, 1977), auf
der anderen Seite jedoch das psychologische Wohlbefinden fördern (Shepperd, Malone &
Sweeny, 2008). Sowohl kognitive als auch motivationale Biases sind also das Resultat adap-
tiver impliziter Heuristiken, die jedoch in bestimmten Situationen Fehlurteile provozieren.
Ähnliches gilt für gruppendynamische Biases wie Groupthink, Social Loafing oder Group
Polarization, die aus sozialen Normen und dem Bedürfnis nach Ansehen oder Harmonie in
der Gruppe, der Art des Informationsaustauschs zwischen den Gruppenmitgliedern sowie
der Wirkung von hierarchischen Strukturen entstehen (Jones & Roelofsma, 2000; Mannion
& Thompson, 2014; Murata, Nakamura & Karwowski, 2015; Sunstein, 2000). Klassische
Experimente zu Themen wie Konformität (Asch, 1951), Gehorsam (Milgram, 1963) und
dem Zuschauereffekt (Darley & Latané, 1968) zeigen, dass Menschen sich – durch die
Mitgliedschaft in einer Gruppe oder die bloße Anwesenheit anderer Menschen – von einem
rationalen Urteil oder eigenen Werten abweichend verhalten.
Ein Großteil der Forschung zu Biases basiert auf Laborstudien, in denen die Effekte in
experimentellen Untersuchungsdesigns durch Manipulation der Aufgabenstellung bezie-
hungsweise des biasinduzierenden Entscheidungskontextes nachgewiesen werden (z. B.
Hoffrage, 2017; Kahneman & Tversky, 1979; Lichtenstein, Slovic, Fischhoff, Layman &
Combs, 1978; Plous, 1989; Sharot, 2011; Wason, 1960). Das Thema Biases spielt natür-
lich nicht nur in der Grundlagenforschung eine wichtige Rolle, sondern beschäftigt in be-
sonderem Maße die Managementebene von Organisationen, in denen Fehlentscheidungen
mitunter schwere finanzielle oder in sicherheitskritischen Bereichen sogar fatale gesund-
heitliche Folgen nach sich ziehen. Durch den Wandel zu einer zunehmend digitalisierten
Dienstleistungs- und Informationsgesellschaft, die global immer vernetzter wird, steigen
die Häufigkeit und die Tragweite organisationaler Planungs- und Entscheidungsprozesse
(Arenius & Sträter, 2013; Bennet & Bennet, 2008; Luft, Schneider & Wartzack, 2015).
Außerdem werden diese Prozesse komplexer, weil die Menge der verfügbaren und zu be-
rücksichtigenden Informationen steigt, gleichzeitig aber der Zeitrahmen, in denen Ent-
scheidungen getroffen werden müssen, kleiner wird (Milkman, Chugh & Bazerman, 2009).
In diesem Kontext wird häufig von einer durch Volatility, Uncertainty, Complexity, Am-
biguity (VUCA) geprägten Welt gesprochen. Der Ausdruck wurde Mitte der 1990er Jahre
an einer Militärschule in den USA eingeführt, um die multilaterale Welt nach dem Kalten
Krieg zu beschreiben (U.S. Army Heritage and Education Center, 2021).
Durch die zunehmenden Herausforderungen für Organisationen, in einer durch VUCA ge-
prägten Welt, ist auch der enorm wichtige Einfluss der Organisationskultur auf den Erfolg
von Organisationen in den letzten Jahren immer deutlicher geworden (z. B. Kotter, 2008).
Ein bisher wenig beachteter Aspekt ist dabei das Ausmaß, in dem dieser Einfluss über das
Auftreten von Biases mediiert wird. Da die Kultur auch implizite Denkprozesse beeinflusst
1 Einleitung 3
– man spricht in diesem Zusammenhang von Social Cognition (Frith, 2008) oder auch Cul-
tural Cognition (Kahan, Jenkins-Smith & Braman, 2011) – ist es nicht überraschend, dass
es Hinweise für den Einfluss der Kultur auf das Auftreten bestimmter Biases gibt (Maass,
Karasawa, Politi & Suga, 2006; Weber & Morris, 2010). Fallstudien legen zudem nahe,
dass bestimmte Biases, wie der Overconfidence Bias, einen großen Einfluss auf organi-
sationale Planungs- und Entscheidungsprozesse haben, und sie werden im Kontext einer
inadäquaten Organisationskultur als Ursachen für viele Fehlentscheidungen betrachtet.
Dazu gehören unter anderem bekannte Fälle wie die Nuklearkatastrophe von Tschernobyl,
die Abstürze der Space Shuttles Challenger und Columbia sowie die Finanzkrise von 2008
(Janis, 1982; Labib & Read, 2013).
Während wirtschaftliche Unternehmen ihren Erfolg in erster Linie an dem Ziel der Ge-
winnmaximierung ausrichten, hat für High Reliability Organizations (HROs) – das sind
Organisationen, die in sicherheitskritischen Branchen, wie der Luftfahrt oder der Kern-
energie, operieren – die Vermeidung gefährlicher Ereignisse eine besondere Bedeutung.
Da auch HROs mehr oder weniger ausgeprägte wirtschaftliche Interessen verfolgen, ent-
steht ein Zielkonflikt zwischen Gewinn- und Sicherheitsmaximierung, der eine zusätzliche
Komplexität in den Entscheidungsprozessen nach sich zieht (Sträter, 2005). Inadäquate
Planungsprozesse im Bereich der HROs führen immer wieder zu katastrophalen Ereignis-
sen.
Zwei Beispiele hierfür werden im Rahmen dieser Arbeit näher betrachtet. Dazu gehö-
ren die beiden Flugzeugabstürze mit Maschinen des Typs 737-MAX des Flugzeugbauers
Boeing im Jahr 2018 beziehungsweise 2019. Berichte von Piloten1, Ausbildern und In-
genieuren deuten auf viele potenziell vermeidbare Fehlentscheidungen hin, die bereits in
der Planungs- und Entwicklungsphase begangen wurden, und anschließend die katastro-
phalen Unfälle maßgeblich verursacht haben (Kennedy, 2022). Ein weiteres prominentes
und gut dokumentiertes Beispiel für einen fehlgeleiteten Planungsprozess ging dem tödli-
chen Massengedränge auf der Loveparade 2010 in Duisburg voraus (Helbing & Mukerji,
2012). Die Liste derartiger Fälle ließe sich beliebig fortführen. Bei der Frage nach den
Ursachen kann angenommen werden, dass entscheidungsverzerrende Biases einen Einfluss
darauf haben, dass häufig keine ausreichend gründliche Analyse der Chancen und Risiken
des Planungsprozesses beziehungsweise einzelner Planungsaspekte durchgeführt wird. So
gibt es belastbare Hinweise, dass die negativen Konsequenzen in vielen Fällen vermeidbar
gewesen wären, da zum Zeitpunkt der Entscheidung ausreichend Informationen zur Ver-
fügung standen, die im Rahmen eines adäquaten Planungsprozesses die entsprechenden
Risiken aufgedeckt und somit kontrollierbar gemacht hätten (Hopkins, 2001; Synolakis
& Kânoğlu, 2015). Explizite Strategien und Techniken zum Debiasing haben – sofern sie
1Gender-Hinweis: Zur besseren Lesbarkeit wird in dieser Arbeit das generische Maskulinum verwendet.
Die in dieser Arbeit verwendeten Personenbezeichnungen beziehen sich – sofern nicht anders kenntlich
gemacht – auf alle Geschlechter.
1 Einleitung 4
von den Entscheidungsverantwortlichen konsequent angewendet werden – das Potenzial
bestimmte Biases zu mitigieren und damit die Qualität von Entscheidungsprozessen zu
steigern. Sie sind jedoch mit diversen Limitationen belegt (Fischhoff, 1982; Larrick, 2004;
Soll & Klayman, 2004).
Wie beschrieben, beeinflusst die Organisationskultur das Verhalten der Organisationsmit-
glieder auch auf impliziter Ebene und bietet damit weiteres und bisher wenig erforschtes
Potenzial zur Verringerung impliziter Biases und damit zu einer Verbesserung der Ent-
scheidungsqualität in Planungsprozessen.
Auf Basis einer Literaturrecherche wird in dieser Arbeit die Relevanz bestimmter Biases
in organisationalen Planungsprozessen sowie der potenzielle Einfluss der Organisations-
kultur auf das Auftreten dieser Biases untersucht. Wenn bestimmte Aspekte der Organi-
sationskultur das Auftreten von Biases beeinflussen, bietet sich bezüglich dieser Aspekte
das Potenzial zur Diagnostik und für Gestaltungsmaßnahmen. Dazu wird ein Fragebogen
entwickelt, der entsprechend relevante Aspekte der Organisationskultur operationalisiert.
Anhand von zwei Fallstudien und zwei Befragungen werden die theoretischen Annahmen
empirisch geprüft und der Fragebogen auf dessen Testgüte untersucht. Im folgenden Ab-
schnitt wird die Problem- und Zielstellung ausführlich beschrieben.
1.1 Problemstellung
A gap in the literature is identified in journal articles systematizing the intersection of negotiation studies, from
the group decision-making literature, and cognitive biases studies, and from the judgment and decision-making
literature. (Caputo, 2013, p. 375)
In diesem Abschnitt wird die in der Einleitung beschriebene Problemstellung der Arbeit
weiter ausgeführt und der Forschungsstand dazu dargestellt. Dabei wird die besonde-
re Rolle des Themas Heuristiken und Biases in Entscheidungen unter Ungewissheit für
organisationale Planungs- und Entscheidungsprozesse hergeleitet und die Rolle der Orga-
nisationskultur in diesem Kontext aufgezeigt.
1.1.1 Heuristiken und Biases
Clearly Mother Nature makes you use the fast System 1 to get out of trouble, so that you do not sit down and
cogitate whether there is truly a tiger attacking you or if it is an optical illusion. You run immediately, before you
become ’conscious’ of the presence of the tiger. (Taleb, 2010, S. 81)
Wie eingangs beschrieben beeinflussen Heuristiken und Biases einen Großteil menschlicher
Urteils- und Entscheidungsprozesse. Dieser Einfluss beginnt bereits bei einfachen Perzep-
tionsprozessen. So basiert die Schätzung der Distanz eines Objekts auf Heuristiken, die ge-
1 Einleitung 5
speichertes Wissen über die Objektklasse sowie die Größe und Schärfe des Objekts beinhal-
ten (Kahneman & Frederick, 2009). Diese erfahrungsbasierten Wahrnehmungsurteile sind
so allgegenwärtig und treffsicher, dass Menschen kein Bewusstsein davon haben, dass sie
überhaupt Urteile treffen. Entsprechend überraschend fällt zum Beispiel die Reaktion auf
optische Täuschungen aus, die Fehlurteile solcher unbewussten Heuristiken provozieren.
Daran zeigt sich, dass Menschen auf die unbewusste Anwendung von Wahrnehmungsheu-
ristiken und das anschließende Treffen impliziter Urteile angewiesen sind, um ihren Alltag
zu bewältigen. Zudem sind kognitive Kapazitäten eine begrenzte Ressource. Müsste zum
Beispiel eine Berufspendlerin bei der Fahrt zur Arbeit über jedes Urteil zur Navigation im
Straßenverkehr bewusst nachdenken, wäre sie möglicherweise schon vor Tätigkeitsbeginn
ermüdet und bräuchte eine Pause, um ihre kognitiven Kapazitäten zu regenerieren. Hier
wird die Rolle des Menschen als Cognitive Miser deutlich. Die Perspektive des Cognitive
Misers beschreibt, dass der Mensch sich in Abhängigkeit seiner Motivation dafür entschei-
det, ob er ein Urteil bewusst und analytisch trifft oder ob er sein Urteil durch unbewusste
Heuristiken bestimmten lässt (Gilovich & Griffin, 2009). Diese Motivation hängt wiederum
davon ab, als wie wichtig die Entscheidung wahrgenommen wird oder wie stark kogniti-
ve Ressourcen bereits beansprucht sind. Dass der Mensch geizig mit seinen kognitiven
Ressourcen umgeht, ist dabei unvermeidbar. Diese Unvermeidbarkeit begründet sich im
Konzept der Bounded Rationality. Das Konzept der Bounded Rationality berücksichtigt
die Limitationen der kognitiven Verarbeitungskapazität unterschiedlicher Wahrnehmungs-
und Gedächtnisprozesse. Innerhalb dieser Limitationen verhält sich der Mensch so ratio-
nal wie möglich beziehungsweise wie nötig, indem er die vorhandenen Ressourcen effizient
nutzt (Simon, 1990).
Auf kognitiver Ebene lässt sich das Verwenden von ressourcensparenden impliziten Heuris-
tiken im Vergleich zu einem expliziten analytischen Vorgehen auf das Konzept der Dual-
Process Theories zurückführen (Chaiken & Trope, 1999). Es gibt unterschiedliche Be-
zeichnungen für Dual-Process-Modelle, diese haben aber gemeinsam, dass sie die Menge
an unterschiedlichen kognitiven Prozessen in zwei Modi unterteilen: Zum einen schnel-
le, assoziative kognitive Operationen und zum anderen langsame, regelgeleitete kognitive
Operationen (z. B. Sloman, 1996). Kahneman und Frederick (2009) bezeichnen die beiden
unterschiedlichen Modi als System 1 und System 2. Tabelle 1 gibt einen Überblick über
die jeweiligen Charakteristiken der beiden Systeme:
Dabei funktioniert das Zusammenspiel von System 1 und System 2 nicht entsprechend der
Cognitive-Miser-Perspektive, die impliziert, dass es in Abhängigkeit der Motivation stets
eine Wahl gibt, welche Art der Wahrnehmungs- und Urteilsprozesse angewendet wird.
Das Two Systems Model besagt vielmehr, dass beide Systeme parallel operieren und die
meisten Urteile und Entscheidungen zwangsläufig, aufgrund begrenzter Kapazitäten, unbe-
wusste System-1-Prozesse sind. Erst wenn ein Hinweisreiz signalisiert, dass eine besondere
1 Einleitung 6
Tabelle 1
Zwei kognitive Systeme
System 1 (Intuitive) System 2 (Reflective)
Process characteristics
Automatic Controlled
Effortless Effortful
Associative Deductive
Rapid, parallel Slow, serial
Process opaque Self-aware
Skilled action Rule application
Content on which processes act
Affective Neutral
Causal propensities Statistics
Concrete, specific Abstract
Prototypes Sets
Anmerkung. Vergleichende Gegenüberstellung der Funktionsweisen von System 1 und System 2. In
Anlehnung an Kahneman und Frederick (2009, S. 51).
Situation eine analytische Bewertung der Situation erfordert, schaltet sich das System 2
ein, und es besteht die Möglichkeit, bewusst Einfluss auf die Situation zu nehmen und
ein intuitives System-1-Urteil zu überschreiben (Gilovich & Griffin, 2009). Entsprechend
sind implizite Heuristiken besonders erfolgreich in Situationen, die sich häufig wiederholen
und einen hohen Grad an Regelmäßigkeit aufweisen, wie es auf etliche Alltagssituationen
zutrifft. Wenn das Treffen von Urteilen mittels System-1-Prozessen nicht erfolgreich ist,
aber im Rahmen eines entsprechenden Hinweisreizes durch bewusste System-2-Prozesse
ersetzt wird, funktioniert das Zusammenspiel dieser kognitiven Modi ebenfalls. Problema-
tisch wird es, wenn eine normalerweise hilfreiche Heuristik in einem inadäquaten Kontext
eingesetzt wird und gleichzeitig kein bewusstes Analysieren dieses Fehlurteils stattfindet.
Bei einem derartigen gleichzeitigen Versagen von System 1 und System 2 spricht man von
einem kognitiven Bias (Kahneman & Frederick, 2009).
Die Availability Heuristic (Kapitel 3.2.1) lässt sich beispielsweise darauf zurückführen, dass
eine schwere Frage unbemerkt durch eine einfachere Frage ersetzt wird – ein Prozess der als
Attribute Substitution bezeichnet wird. Eine Person, die gefragt wird: „Wie hoch ist der An-
teil an Fernbeziehungen, die nach einem Jahr beendet werden?“, antwortet möglicherweise
so, als ob sie gefragt worden wäre, wie viele solcher Fälle ihr spontan einfallen (Kahneman
& Frederick, 2009). Das Problem ist, dass der betroffenen Person nicht bewusst ist, dass
sie eine andere Frage beantwortet hat und es entsteht dabei eine zu hohe Überzeugung von
der Korrektheit des Urteils. Aufgrund des unbewussten Ablaufs des Urteilsprozesses und
der Zufriedenheit mit dem eigenen Urteil fehlt die Irritation als Hinweisreiz, der bewuss-
te System-2-Prozesse aktivieren würde, und es entsteht kein Bedürfnis, die Akkuratheit
des Urteils mittels einer entsprechenden Analyse zu verbessern. Dies lässt sich dadurch
1 Einleitung 7
erklären, dass in vielen Alltagssituationen grobe heuristische Schätzungen realitätsnah ge-
nug sind und geringfügige Abweichungen aufgrund der geringen Konsequenzen des Urteils
tolerierbar sind.
1.1.2 Organisationale Planungsprozesse
One root cause of almost all project failures is human error or misjudgment. Although the ability to make right
decisions is considered a main indicator of project management professionalism, many project managers are unwilling
to try to improve the quality of their decisions. Because project managers rarely have enough time and resources to
perform a proper analysis, and a decision analysis expert is not always available, there is always the temptation to
make intuitive decisions. (Cunha, Viglioni, Thomaz & Moura, 2014, p. 50)
Anders als viele alltägliche Situationen, zeichnen sich organisationale Planungsprozesse
dadurch aus, dass sie unstrukturiert, komplex und situationsspezifisch sind und häufig
schwerwiegende Konsequenzen beinhalten (Schwenk, 1984). In diesem Kontext kann ein
Urteil, das durch eine explizite Informationssuche verbessert werden könnte, aber unbe-
wusst und unkorrigiert ausgeführt wird, weitreichende negative Konsequenzen nach sich
ziehen.
Entscheidungsprozesse in Organisationen sind zwar in der Regel durch strukturierte Ab-
läufe gekennzeichnet, in denen bewusst über ein Gesamtvorhaben nachgedacht wird, aller-
dings werden innerhalb dieser Prozesse viele einzelne Urteile und Entscheidungen getrof-
fen, die das Potenzial für implizite Fehlurteile aufweisen, wenn die Informationssuche und
-interpretation unvollständig sind. Dabei fordern viele dieser Urteile zwangsläufig, dass
Entscheidungen unter Unsicherheit getroffen werden, da in einer komplexen und dyna-
mischen Umwelt bestimmte Chancen und Risiken nur geschätzt werden können (Tversky
& Kahneman, 1983). Umso wichtiger ist es, alle möglichen Informationen zu nutzen, um
Ungewissheiten so gut wie möglich zu antizipieren und sich nicht durch spontane implizite
Schätzungen leiten zu lassen.
Das Thema der Urteile unter Ungewissheit und damit einhergehender Heuristiken und
Biases hat für organisationale Planungsprozesse entsprechend eine besondere Bedeutung.
Wie beschrieben, basiert die Ausführung von Heuristiken beziehungsweise intuitiver Urtei-
le auf Erfahrungswissen. Simon (1992, S. 155) schreibt dazu: „The situation has provided
a cue; this cue has given the expert access to information stored in memory, and the infor-
mation provides the answer. Intuition is nothing more and nothing less than recognition.“
Der erfolgreiche Einsatz von Heuristiken erfordert also, dass der Kontext, in dem diese
eingesetzt werden, eine gewisse Regelmäßigkeit aufweisen. In einem dynamischen Umfeld
und bei situationsspezifischen Entscheidungssituationen kann erfahrungsbasierte Experti-
se – neben den offensichtlichen Vorteilen – auch Nachteile mit sich bringen, wenn sich ein
Experte zum Beispiel auf kontextinadäquate Erfahrungen verlässt und in der Folge Heu-
ristiken, wie zum Beispiel die Availability Heuristic, zu einem verzerrten Informationsabruf
1 Einleitung 8
führen.
Außerdem spielen motivationale Biases eine wichtige Rolle bei Urteilen und Entscheidun-
gen unter Unsicherheit (Montibeller & von Winterfeldt, 2015). Während kognitive Bia-
ses primär durch das Einsparen oder die Grenze kognitiver Kapazitäten begründet sind,
sind motivationale Biases häufig ein Ergebnis selbstwertdienlicher Attributionen, die das
psychologische und soziale Wohlbefinden stützen. So besteht eine generelle menschliche
Tendenz zur Selbstüberschätzung, dem Overconfidence Bias, und dem Unterschätzen des
Einflusses externer Störvariablen, dem Optimism Bias, die sich auch motivational begrün-
den lassen (vgl. Kapitel 3.3). Je schwieriger die Aufgabe beziehungsweise je komplexer die
Entscheidungssituation ist, desto weiter verstärken sich derartige Verzerrungen (Klayman,
Soll, Gonzalez-Vallejo & Barlas, 1999). Hierbei kann die Bedeutung von Erfahrungswissen
für Experten im Planungsprozess gegenüber operativ tätigen Experten, wie zum Beispiel
Feuerwehrkräften, unterschieden werden. Bei Letzteren ist Expertenwissen robuster gegen-
über verzerrten intuitiven Urteilen, da deren Einsätze zumindest einen relativ hohen Grad
an Regelmäßigkeit aufweisen, der das erfolgreiche Anwenden intuitiver Entscheidungen –
mit zunehmendem Grad an Erfahrung – immer weiter verbessert (Kahneman & Klein,
2009). Selbstverständlich ist auch in Planungsprozessen die Expertise erfahrener Perso-
nen sehr wichtig. Erfahrungsbasierte Expertise weist – wenn dem betreffenden Experten
die Grenzen seiner Urteilsfähigkeit aufgrund der Situationsspezifität organisationaler Pla-
nungsprozesse nicht bewusst ist – lediglich eine Schattenseite auf, die es zu berücksichtigen
gilt.
Organisationale Planungsprozesse zeichnen sich zudem dadurch aus, dass Feedback für
Fehlentscheidungen zeitlich stark verzögert auftritt, und in vielen Fällen lässt sich auf-
grund der Komplexität kein klarer kausaler Zusammenhang zwischen einer Fehlentschei-
dung und einem unerwünschten Ereignis herstellen. Unter solchen Bedingungen findet bei
den beteiligten Personen häufig kein Eingeständnis von Verantwortung statt, was sich zum
Teil auf eine selbstwertdienliche Attribution der Ereignisse – im Sinne des Self-Serving Bi-
as (Kapitel 3.3.1) – zurückführen lässt, wodurch Lernerfahrungen erschwert werden, da
die Ursachen für Fehler eher in externen Umständen gesucht werden (Forsyth, 2008). Ne-
ben den bisher genannten Beispielen gibt es noch viele weitere Biases, die Entscheidungen
im Kontext organisationaler Planungsprozesse potenziell verzerren (vgl. Kapitel 3) und
die sich auf für Planungsprozesse wichtige Aspekte wie den Zeitplan, das Budget, die
Risikoeinschätzung und die Berücksichtigung von Sicherheitsmargen auswirken.
Organisationale Planungsprozesse werden in aller Regel in Gruppen getroffen, die sich
häufig aus wechselnden Projektteams zusammensetzen. Entscheidungen im Gruppenkon-
text bieten prinzipiell den Vorteil einer höheren Verfügbarkeit potenziell relevanter Infor-
mationen sowie einer in Summe höheren kognitiven Kapazität, um diese zu verarbeiten
(Montibeller & von Winterfeldt, 2018). Auf der anderen Seite entsteht durch die Grup-
1 Einleitung 9
pendynamik eine erhöhte Komplexität des Entscheidungsprozesses und damit zusätzliche
Möglichkeiten für Abweichungen von rationalen Urteilen (Mannion & Thompson, 2014).
So ist der Einfluss von Gruppensituationen auf Entscheidungsprozesse seit langem The-
ma der psychologischen Forschung. Gruppenphänomene wie Groupthink, Social Loafing
oder Group Polarization (Kapitel 3.4) entstehen aus sozialen Normen und dem Bedürfnis
nach Ansehen in der Gruppe, der Art des Informationsaustauschs zwischen den Grup-
penmitgliedern sowie der Wirkung von hierarchischen Strukturen (Jones & Roelofsma,
2000; Mannion & Thompson, 2014; Murata et al., 2015; Sunstein, 2000). Dabei soll der
Fokus auf negative Effekte nicht darüber hinwegtäuschen, dass die zugrundeliegenden ko-
gnitiven beziehungsweise emotionalen Mechanismen, wie bei den individuellen Biases, in
der Regel sinnvolle Heuristiken darstellen, die nur in gewissen Kontexten inadäquat sind
(Krueger & Funder, 2004). So ist zum Beispiel Gruppenkohäsion ein wichtiger Faktor für
den Erfolg von Teams, da sie die Gruppenleistung steigert, die Zufriedenheit der Gruppen-
mitglieder erhöht sowie stressreduzierend wirkt (Ahronson & Cameron, 2007; Li, Early,
Mahrer, Klaristenfeld & Gold, 2014). Auf der anderen Seite kann Gruppenkohäsion unter
bestimmten Bedingungen das Auftreten von Groupthink fördern, bei dem das Streben nach
Einstimmigkeit stärker ist, als das Bedürfnis nach einer offenen Diskussion unterschiedli-
cher Handlungsalternativen. Es stellt sich zudem die Frage, inwieweit individuelle Biases
im Gruppenkontext schwächer oder stärker wirken können (Houghton, Simon, Aquino &
Goldberg, 2000; Schulz-Hardt, Frey, Lüthgens & Moscovici, 2000).
Organisationale Planungsprozesse sind somit besonders anfällig für kognitive, motivationa-
le und gruppendynamische Biases, die zu verzerrten Urteilen und Entscheidungen führen
können. Auf der anderen Seite bietet der organisationale Kontext Möglichkeiten, erfolg-
reich Vorhaben umzusetzen, die Anstrengungen erfordern, die weit über die Summe der
Einzelleistungen hinausgehen:
We resolve the apparent discrepancy between evidence of individual shortcomings and the empirical fact of moon-
walks by observing that individuals did not make it to the moon, NASA did [...] Our thesis, then, is that individuals
indeed face cognitive limitations and shortcomings, but that organizations can provide individuals with norms and
procedures that mitigate their limitations and reduce their shortcomings. (Heath, Larrick & Klayman, 1998, S. 2-3)
Eine Vielzahl an Studien belegen die Relevanz unterschiedlicher Heuristiken und Biases
bei Urteilen unter Unsicherheit in diversen Entscheidungssituationen. In Kapitel 3 werden
empirische Erkenntnisse hierzu detailliert beschrieben und aufgezeigt, welche Rolle kogni-
tive, motivationale und gruppendynamische Biases in Urteils- und Entscheidungsprozessen
allgemein, sowie speziell in organisationalen Planungsprozessen, spielen.
Das Thema Debiasing, das Prozesse zur Vermeidung oder der Verringerung impliziter
Entscheidungsverzerrungen umfasst, hat bisher deutlich weniger Aufmerksamkeit erhal-
ten als die Demonstration verzerrender Effekte (Larrick, 2004). In der Forschung zum
Thema Debiasing zeigen sich gemischte Ergebnisse und die externe Validität, also die
1 Einleitung 10
Übertragbarkeit der Erkenntnisse auf Kontexte außerhalb des Labors, wie zum Beispiel
organisationale Planungsprozesse, ist nicht immer gegeben. Eine weit verbreitete Methode
zur Vermeidung von Biases sind Entscheidungsanalysetools, die sich in vielen Bereichen
bewährt haben und entsprechend verbreitet sind. Das Buch Moneyball beziehungsweise
dessen Filmadaption beschreibt, wie die Einführung statistischer Modelle bei den Oak-
land Athletics – einem Team der amerikanischen Major Baseball League (MBL) – eine
außergewöhnliche Erfolgsgeschichte auslöste. Die auf quantitativen Analysen basierenden
Entscheidungen bezüglich der Spielerwahl brachten einen massiven Vorteil gegenüber der
Expertenintuition anderer Teammanager, die derartige Analysen bis dato belächelt hatten
(Lewis, 2004). Heutzutage basieren viele Organisationen ihre Entscheidungen auf quan-
titativen Analysen, zum Beispiel Kreditinstitute bei der Bewertung der Kreditwürdigkeit
potenzieller Gläubiger (Bazerman & Moore, 2013).
Analog zu den Einschränkungen erfahrungsbasierter Expertise hängt die Qualität statisti-
scher Modelle davon ab, wie regelmäßig die erfassten Prädiktoren die Zielgröße vorhersagen
beziehungsweise wie geringfügig nicht erfassbare Störvariablen die Vorhersagekraft min-
dern. In organisationalen Planungsprozessen ist die Verwendung statistischer Methoden
zwar eine essenzielle Entscheidungsunterstützung, die aber bei vielen Urteilsprozessen an
ihre Grenzen kommt, da Entscheidungen häufig komplex, unstrukturiert und neuartig be-
ziehungsweise situationsspezifisch sind (vgl. Kapitel 2.1). So hängt die Zuverlässigkeit und
Korrektheit solcher Prognosen von der Menge der bereits erfassten Daten ab, die in einem
ähnlichen Kontext wie die zu treffende Entscheidung erhoben wurden. In dem beschriebe-
nen Umfeld existiert häufig keine, oder eine nur bedingt zum Kontext passende Datenbasis
(Kahneman & Klein, 2009). Außerdem wird zur Verbesserung eines Modells zuverlässiges
Feedback über die Güte vorheriger Prognosen benötigt, um den Einfluss der Prädiktoren
zuverlässiger einschätzen zu können, was unter derartigen Bedingungen häufig ebenfalls
fehlt (siehe oben). Zum einen erfolgen die Ergebnisse organisationaler Planungsprozesse
verzögert und sind nur bedingt bestimmten Prädiktoren zuordbar. Dabei verringert die
Dynamik der Umwelt zusätzlich die Zuverlässigkeit des Feedbacks. Zum anderen führen
eine Entscheidung und die entsprechende Handlung in einem Planungsprozess zu einem
Ausschluss der Alternativen, die aufgrund der Einzigartigkeit der Situation, nicht getestet
werden können (Einhorn & Hogarth, 1978). Das unterscheidet organisationale Planungs-
prozesse von Domänen wie zum Beispiel der Wettervorhersage, bei der durch klar definier-
bare Prädiktoren und Outcomes, sowie einer großen Datenbasis, zuverlässige Vorhersagen
modelliert werden können.
Für neuartige Situationen bieten sich alternativ Entscheidungsanalysetools an, die nicht
das Vorhandensein historischer Daten bedingen. Dazu gehören der Multiattribute Utility
Theory (MAUT) entsprechende Verfahren, die ein strukturiertes Vorgehen der Entschei-
dungsfindung entsprechend der Expected Utility Theory (Kapitel 3.1) vorgeben (Larrick,
2004). Dabei werden in einer Entscheidungssituation zunächst Handlungsalternativen und
1 Einleitung 11
unterschiedlich gewichtete Attribute zur numerischen Bewertung dieser Alternativen ge-
neriert. In Abhängigkeit der Wahrscheinlichkeit für deren angenommene Konsequenzen
kann somit jeder Handlungsalternative ein Nutzwert zugeordnet werden. Ergänzend for-
dert die Analysis of Competing Hypotheses (ACH) dazu auf, eine Matrix zu erstellen, in
der die Spalten die unterschiedlichen Hypothesen darstellen. Anschließend werden in die
entsprechenden Zeilen Beweise beziehungsweise Argumente für die jeweilige Hypothese
eingetragen(Heuer, 1999). Wenn es um die Validität verschiedener generierter Handlungs-
alternativen oder allgemein dem Vergleich verschiedener Hypothesen geht, kann hierdurch
eine tiefergreifende Analyse angeregt werden.
Allein die Strukturierung der Problemstellung und die Aufforderung, unterschiedliche Al-
ternativen, Hypothesen und Argumente zu generieren, kann potenziell bestimmte Biases
abmildern, wie weiter unten am Beispiel des Confirmation Bias beschrieben wird.
Computerbasierte Entscheidungsanalysetools werden als Decision Support Systems (DSS)
bezeichnet. Aufgrund der verfügbaren Rechenleistung können damit eine große Menge
numerischer oder qualitativer Eingaben verarbeitet werden, um Urteils- und Entschei-
dungsprozesse zu unterstützen. Damit stellen DSS einen vielversprechenden Ansatz dar,
der einige Vorteile mit sich bringt, jedoch viele der zuvor beschriebenen Einschränkun-
gen bezüglich situationsspezifischer und komplexer Entscheidungskontexte teilt (Larrick,
2004).
Neben Entscheidungsanalysetools beziehen sich andere Strategien zum Debiasing direkt
auf die betreffenden Personen. Fischhoff (1982) beschreibt dazu eine Reihe von Strategien.
Dazu gehören auf der einen Seite Interventionen, die eine Aufklärung bezüglich bestimmter
Biases sowie biasbezogenes Feedback vorsehen oder intensives Training zur Vermeidung
von Biases umfassen. Weitere Interventionen sind unmittelbar in den Entscheidungspro-
zess integriert. Dazu gehören klare Aufgabeninstruktionen, das Bewusstmachen impliziten
Wissens, die Suche nach abweichenden Informationen, die Strukturierung übergeordne-
ter Probleme und das Beachten alternativer Handlungsmöglichkeiten. In diversen Studien
zeigt sich jedoch, dass die Aufklärung über und Warnung vor spezifischen Biases, wie dem
Anchoring Effect (vgl. Kapitel 3.2.2), deren Auftretenswahrscheinlichkeit nicht zuverlässig
reduziert (z. B. Wilson, Houston, Etling & Brekke, 1996). Auf der anderen Seite fanden
Lichtenstein und Fischhoff (1980) heraus, dass intensives persönliches Feedback dem Over-
confidence Bias entgegenwirkt, allerdings ist die externe Validität der Ergebnisse fraglich,
insbesondere im Kontext der Problematik des mangelhaften Feedbacks in organisatio-
nalen Planungsprozessen (siehe oben). So sind personenbezogene Trainings primär dann
erfolgreich, wenn die Testbedingungen kontext- und biasspezifisch sind und zeitlich nah
beieinander liegen (Larrick, 2004). Die Praktikabilität derartiger Maßnahmen ist somit in
komplexen Planungsprozessen nur mit Einschränkungen erfolgreich, da sämtliche Organi-
sationsmitglieder mit einer hohen Expertise bezüglich einer Reihe von Biases ausgestattet
1 Einleitung 12
werden müssen. Die Trainings müssen häufig wiederholt werden, und es ist domänenab-
hängig, inwieweit die abstrakten Lehren in spezifischen Situationen angewendet werden
können, also inwieweit ein entsprechender Hinweisreiz die Organisationsmitglieder an die
Existenz des Biases erinnert. Fischhoff (1982, S. 431) gibt dabei zu bedenken, dass Tools
und Strategien zum Debiasing ironischerweise auch den Overconfidence Bias erhöhen kön-
nen: „A debiasing procedure may be more trouble than it is worth if it increases people’s
faith in their judgmental abilities more than it improves the abilities themselves.“
Eine weitere Möglichkeit zum Debiasing bieten in konkrete Urteils- und Entscheidungssi-
tuationen integrierte Methoden. So kann allein eine Gestaltung der Aufgabeninstruktion
dahingehend, dass das Urteil sowohl eine pessimistische als auch eine optimistische Per-
spektive beinhalten soll, dazu führen, dass der Overconfidence Bias (Kapitel 3.3.2) in Form
breiterer Konfidenzintervalle reduziert wird und Urteile insgesamt deutlich akkurater wer-
den (Soll & Klayman, 2004). Viele Debiasingstrategien, wie Devil’s Advocate (Schweiger,
Sandberg & Ragan, 1986) beziehungsweise Red Teaming (Longbine, 2008) oder Premor-
tem (Klein, 2007) basieren auf der einfachen Philosophie, Menschen – entgegen ihrer im
Confirmation Bias oder Overconfidence Bias beschriebenen Tendenz – zu einer hypothe-
senfalsifizierenden Informationssuche zu bewegen und manchmal auch dazu, überhaupt
erst auf die Idee zu kommen, dass noch weitere Informationen, außer den ihnen bereits
bekannten, existieren.
Der Effekt, dass die Menge an bekannten Informationen fälschlicherweise als erschöpfend
wahrgenommen wird, bezeichnet Kahneman (2011) als What You See Is All There Is
(WYSIATI). Mit der MAUT und der ACH wurden zuvor zwei weitere Beispiele genannt,
die der Tendenz eines derartigen „Tunnelblicks“ entgegenwirken.
Viele der beschriebenen Methoden, mit ihren unterschiedlichen Stärken und Schwächen,
können je nach Beschaffenheit der Entscheidungssituation mehr oder weniger effektiv die
Auswirkung verzerrender kognitiver, motivationaler oder gruppendynamischer Biases re-
duzieren. In für organisationale Planungsprozesse typischen komplexen, unstrukturierten
und situationssepzifischen Entscheidungssituationen geraten quantitative und standardi-
sierte Methoden häufig an ihre Grenzen, und es gelingt nicht immer, die in Trainings
gelernten Methoden auf neuartige Situationen zu übertragen.
Eine weitere Schwierigkeit liegt in der Compliance der Organisationsmitglieder, denn häu-
fig werden Veränderungsprozesse durch neu einzuführende Methoden abgelehnt. Zum einen
lassen sich Menschen ungern sagen, dass ihre langjährige Herangehensweise Schwächen auf-
weist, zum anderen können Sorgen vor Verlust von Einfluss oder Kontrolle für Widerstand
sorgen. Schließlich hängt die Akzeptanz neuer Methoden davon ab, dass die Organisations-
mitglieder verstehen, dass bestimme Techniken zum Debiasing ihren persönlichen Urteilen
in vielen Fällen überlegen sind. Das Schaffen dieser Akzeptanz ist schwierig, wenn die neu-
en Methoden fremd und komplex erscheinen und die Vorteile aufgrund des mangelnden
1 Einleitung 13
Feedbacks nicht unmittelbar ersichtlich sind (Larrick, 2004). Bezüglich der Adaption neuer
Verhaltensweisen unterscheidet Larrick (2004) zwischen Compliance und Internalisierung.
Compliance ist oberflächlich und mechanisch und wird durch Anweisungen – oder auf
die extrinsische Motivation abzielende Anreize – erzeugt. Die entsprechenden Verhaltens-
weisen werden aufgegeben, sobald die Anreize nicht mehr bestehen. Internalisierung wird
gefördert, wenn eine vertrauenswürdige und kompetente Quelle die Organisationsmitglie-
der von bestimmten Denk- und Verhaltensweisen überzeugt, die Vorteile nachvollziehbar
werden und intrinsische Motivation entsteht, diese zu nutzen:
Every decade or so, a new set of decision-making techniques seems to sweep through organizations, such as Total
Quality Management (TQM) in the 1980s and Six Sigma in the late 1990s. Both movements included statistical
tools, such as histograms and Pareto charts, in addition to softer tools, such as brainstorming and cause-effect
analysis. Perhaps not surprisingly, the statistical tools are the first to be abandoned as practices diffuse through
an organization (Zbaracki, 1998). The reasons that management fads die are many – senior management endorses
something but does not practice it, engendering cynicism; people are skeptical of outside consultants brought in
to train them; and trainees are separated from their coworkers, who put pressure on the trainee to continue with
’business as usual’ on the trainee’s return. (Larrick, 2004, S. 331-332)
Larrick (2004, S. 333-334) kommt zu dem Schluss: „The possibility of transforming myste-
rious technological strategies into simpler, more intuitive, and more acceptable strategies
is one of the great opportunities of debiasing research.“
Eine weitverbreitete Annahme ist, dass Biases grundsätzlich universell auftreten und im
Zuge ihrer unbewussten Wirkungsweise nicht in ihrer Ursache, sondern nur in ihrer Auswir-
kung mitigierbar sind. Das trifft potenziell auf einige Biases zu, insbesondere auf jene, die
aufgrund begrenzter kognitiver Verarbeitungskapazitäten entstehen. Entsprechend sind
viele der zuvor beschriebenen Strategien und Techniken sinnvolle Methoden zur Verbesse-
rung von organisationalen Planungsprozessen – unter Berücksichtigung der beschriebenen
Einschränkungen. Ein bisher im Kontext von Biases und Heuristiken relativ wenig be-
trachtetes Konstrukt ist die Organisationskultur:
[...] cross-cultural research reveals that some judgment biases once assumed to be universal are in fact limited to
particular sociocultural contexts (e.g., Weber & Hsee, 1998). Such findings help elucidate the mechanisms underlying
the biases, suggesting that they are not simply bugs in the operating system of human cognition but patterns
constructed through the interaction of human psychology with information and decision environments. This research
suggests that many regularities identified by the JDM [Judgment and Decision Making] literature are not just fixed
properties of the mind but responses that are constructed from interactions between more basic processes, such as
memory, perception, and attention, with the information and decision environment (e.g., Weber et al., 2007; Weber
& Johnson, 2006, 2009). (Savani, Cho, Baik & Morris, 2015, S. 472)
Dabei kann die Organisationskultur Entscheidungen unter Ungewissheit potenziell in mehr-
facher Hinsicht beeinflussen. Zum einen kann eine adäquate Organisationskultur dem zuvor
beschriebenen Problem – bezüglich der Compliance beziehungsweise Internalisierung bei
der Verwendung von Entscheidungsanalysetools oder anderen Methoden zum Debiasing –
entgegenwirken. Kulturell geprägte Verhaltensweisen können zudem potenziell als Hinweis-
1 Einleitung 14
reiz dienen, System-1-Urteile in bestimmten Situationen zu hinterfragen und eine analyti-
sche Informationssuche anzustoßen. Zudem kann die Organisationskultur potenziell direkt
beeinflussen, in welchem Ausmaß bestimmte Biases auftreten. Das gilt insbesondere für
motivationale und gruppendynamische Biases. Motivationale Biases, wie Overconfidence
oder Optimism, die auch als Hot Biases bezeichnet werden, haben bisher weniger Auf-
merksamkeit erhalten als Biases, die vorwiegend aufgrund kognitiver Limitationen (Cold
Biases) entstehen, obwohl erstere ebenfalls einen starken Einfluss auf den Verlauf orga-
nisationaler Planungsprozesse haben (Montibeller & von Winterfeldt, 2015). So wird eine
mangelhafte Sicherheitskultur und ein davon potenziell beeinflusster Overconfidence Bias
immer wieder als Hauptursache für organisationales Versagen identifiziert. Dazu gehören
bekannte Ereignisse wie die Nuklearkatastrophe von Tschernobyl, die Abstürze der Space
Shuttles Challenger und Columbia sowie die Finanzkrise von 2008 (Labib & Read, 2013).
Reason (2013, S. 64) impliziert den Zusammenhang zwischen Organisationskultur und
Overconfidence wie folgt:
Violations arise largely from motivational factors, from beliefs, attitudes and norms and from the organizational
culture at large. Culture was a very important contributor to the Chernobyl catastrophe. Each Soviet reactor
operated in isolation. There was little or no sharing of safety information. Accidents often happen because people
forget to be afraid. But the Chernobyl operators did not forget, rather they had never learned to be afraid.
1.1.3 Schlussfolgerungen
Research on debiasing tends to be overshadowed by research demonstrating biases: It is more newsworthy to show
that something is broken than to show how to fix it. (Larrick, 2004, S. 334)
Unter der Annahme, dass Biases nicht universell in gleicher Ausprägung auftreten und
Kontextfaktoren, wie bestimmte Aspekte der Organisationskultur, Auswirkungen auf das
Auftreten unterschiedlicher Biases haben, stellt sich – neben beziehungsweise vor dem
Einsatz von Gestaltungsmaßnahmen – auch die Frage nach der Diagnose biasinduzie-
render Bedingungen. Grundsätzlich dient die Organisationsdiagnostik dem Erkennen von
Schwachstellen, um daraus Verbesserungen unterschiedlicher organisationaler Kriterien
abzuleiten. Zu diagnostizierende Themengebiete umfassen zum Beispiel die Diagnose von
Konzepten zu Führungsverhalten, strategischen Prozessen oder dem Betriebsklima, die
häufig mittels Mitarbeiterbefragungen erfasst werden (Burke & Litwin, 1992). Anders
als konkrete Techniken zum Debiasing ist die Etablierung einer zielführenden Kultur ein
langfristiges Anliegen, da die Organisationskultur sich im Laufe der Zeit verändert und
Veränderungen auch wieder erodieren können (Schein, 1988). Eine regelmäßige Diagnostik
ermöglicht es somit, Veränderungen zu erfassen, um gegebenenfalls Maßnahmen zu ergrei-
fen. Zudem kann erfasst werden, welche Aspekte schon den Zielvorstellungen entsprechen
beziehungsweise welche Aspekte bezüglich Interventionen zu priorisieren sind. Schließlich
1 Einleitung 15
bilden einzelne Organisationseinheiten häufig unterschiedliche Subkulturen (Schein, 1988),
weshalb im Rahmen der Diagnostik außerdem erfasst werden kann, in welchen Bereichen
Maßnahmen sinnvoll sind, um den Zielvorstellungen näher zu kommen.
Die Organisationskultur ist ein vielseitiges Konstrukt und entsprechend gibt es diver-
se Verfahren, die unterschiedliche Facetten der Organisationskultur messen (z. B. Sash-
kin & Rosenbach, 2013; Scott, Mannion, Davies & Marshall, 2003; Xenikou & Furnham,
1996). Ein Verfahren, dass Situationen und Verhaltensweisen im Kontext organisationa-
ler Planungsprozesse bezüglich ihres potenziellen Einflusses auf kognitive, motivationale
und gruppendynamische Biases erfasst, existiert bislang nicht. Vorhandene Fragebögen
zur Organisationskultur beinhalten teilweise auch Items, die potenziell biasbeeinflussende
Verhaltensweisen beschreiben, allerdings ohne expliziten Bezug darauf zu nehmen oder ein
breites Spektrum verschiedener Biases abzudecken (z. B. Van Muijen, 1999).
Methodisch bieten sich zur Diagnostik quantitative Mitarbeiterbefragungen mittels Frage-
bogen an, um in einem ersten Schritt, unter Berücksichtigung der Anonymität, einen Über-
blick über die Situation zu erhalten. Zur Ableitung von Gestaltungsmaßnahmen können
anschließend in den betreffenden Organisationseinheiten Workshops durchgeführt werden,
um in einem partizipativen Prozess konkrete Schritte festzulegen. Die schriftliche Mit-
arbeiterbefragung mittels eines standardisierten Fragebogens ist zudem ökonomisch und
kann dementsprechend regelmäßig zur Evaluation von Maßnahmen und natürlichen Ver-
änderungen wiederholt werden.
Der überwiegende Teil der Forschung zu Entscheidungen unter Ungewissheit sowie assozi-
ierten Heuristiken und Biases basiert auf Laborexperimenten, welche Belege für die Exis-
tenz diverser Verzerrungen liefern und spezielle Bedingungen zeigen, unter denen diese
auftreten (vgl. Kapitel 3). Der Vorteil einer hohen internen Validität, im Rahmen kontrol-
lierbarer Laborbedingungen, geht dabei mit einem vergleichsweise geringen Maß an exter-
ner Validität, also der Verallgemeinerbarkeit auf diverse Entscheidungskontexte, einher.
Der Fokus dieser Arbeit liegt auf organisationalen Planungsprozessen, also Entscheidun-
gen unter Ungewissheit in realen Bedingungen. In diesem Rahmen erscheinen Fallstudien
geeignet, um eine vergleichsweise hohe externe Validität zu erreichen. Aus diesem Grund
können Fallstudien eine sinnvolle Methode sein, um den Einfluss von Biases in organisatio-
nalen Planungsprozessen zu analysieren und darüber hinaus die Relevanz und inhaltliche
Validität eines entsprechenden Diagnoseinstruments zu prüfen.
Dabei ist wiederum anzumerken, dass Fallstudien eine geringere interne Validität als La-
borstudien aufweisen, denn die unabhängige Variable, also die Bedingung, die das Auftre-
ten des Biases provoziert, kann, anders als in experimentellen oder quasi-experimentellen
Bedingungen, nicht variiert werden, und Störvariablen können nicht eliminiert beziehungs-
weise kontrolliert werden. Außerdem bieten Fallstudien nur einen unvollständigen Zugang
zu den beschriebenen Ereignissen, da die Gedankengänge der Akteure nur bedingt nach-
1 Einleitung 16
vollziehbar sind. Zudem unterliegen primäre Quellen, zum Beispiel Protokolle, oder se-
kundäre Quellen, wie Zeitungsartikel, einem gewissen Grad an Subjektivität. In diesem
Zusammenhang kritisiert zum Beispiel Tetlock (1979), am Beispiel der Forschung von Ja-
nis (1982) zu Groupthink, methodische Einschränkungen der durchgeführten Fallstudien.
Es wird kritisiert, dass die von Janis (1982) verwendeten Belege für das Auftreten von
Groupthink auf privaten Konversationen und der diesbezüglichen Erinnerung der betei-
ligten Personen beruhen. Ein weiterer Kritikpunkt bezieht sich darauf, dass Janis (1982)
keine Kriterien bezüglich der Berücksichtigung der beschriebenen Daten festgelegt hat
und somit unbewusst bevorzugt hypothesenbestätigende Planungsphasen beschrieben ha-
ben könnte, also in dem Fall selbst dem Confirmation Bias (vgl. Kapitel 3.2.4) unterlegen
wäre.
Murata et al. (2015) bemängeln das Fehlen eines systematischen Modells, das basierend
auf empirischen Daten aufzeigt, wie unterschiedliche Biases Entscheidungsprozesse negativ
beeinflussen. Die Autoren greifen diese Forschungslücke auf, indem sie eine ganzheitliche
Betrachtung der Wirkung verschiedener Biases analysieren und führen fünf Fallstudien
durch, in denen sie den Ereignissen diverse kognitive, motivationale und gruppendyna-
mische Biases zuordnen. Eine Einschränkung der Studie ist der mangelnde Detailgrad
bezüglich der Fallbeschreibungen und der Herleitung unterschiedlicher Biases, woraus sich
der Bedarf umfangreicherer Fallstudien ableiten lässt: „Further analysis on the basis of
case studies is required for how cognitive biases distort decision making, induce precon-
ception and become a trigger of an incident, a crash, a collision or a disaster“ (Murata et
al., 2015, S. 47).
Den zuvor beschriebenen Einschränkungen bei der Verwendung von Fallstudien kann durch
eine Auswahl gut dokumentierter Ereignisse und einer umfangreichen Recherche diverser
Quellen begegnet werden. Dazu gehört eine weitestgehend vollständige Rekonstruktion
der analysierten Planungsprozesse, anstatt den Fokus allein auf mutmaßlich relevante Pla-
nungsphasen zu legen, sowie eine ausführliche inhaltliche Argumentation bezüglich des
Auftretens spezifischer Effekte. Anders als bei Janis (1982) erleichtern heutzutage die grö-
ßere Menge der erfassten und im Internet verfügbaren Informationen eine vollständigere
Repräsentation der Ereignisse:
One of the noteworthy points of the Love Parade [sic!] disaster is that most evidence is available online, which allows
many scientists and also the broader public to form an opinion. This dramatically changes the situation compared
to many previous disasters, where a lot of evidence is of confidential nature, accessible only to a small number
of experts. We believe that the new openness of data can have many beneficial effects on society. This study, for
example, hopes to make a contribution to a better understanding of crowd disasters and their avoidance in the
future. The accessibility of the materials can also serve organizers of mass events, the police and emergency forces
to prepare themselves better. (Helbing & Mukerji, 2012, S. 24)
Im Rahmen dieser Arbeit soll – auf Basis einer Literaturrecherche zu den Themen Biases
und Heuristiken sowie deren potenzielle Abhängigkeit von der Organisationskultur – ein
1 Einleitung 17
Untersuchungsmodell zu deren Wirkung in organisationalen Planungsprozessen abgelei-
tet werden. Anschließend sollen kulturabhängige Verhaltensweisen in Planungsprozessen,
die im Zusammenhang mit dem jeweiligen Bias stehen, so operationalisiert werden, dass
jeder Mitarbeiter die eigenen Planungsabläufe im Bezug auf die Anfälligkeit für den jewei-
ligen Bias bewerten kann. Anhand von Fallstudien soll die grundsätzliche Relevanz von
Biases im Kontext organisationaler Planungsprozesse sowie die augenscheinliche Validi-
tät der Fragebogenitems geprüft werden. Anschließend bietet eine empirische Erhebung,
mit in organisationalen Planungsprozessen involvierten Probanden, die Möglichkeit, wei-
tere Testgütekriterien des Fragebogens beziehungsweise Itemgütekriterien zu bestimmen.
Dazu gehören die Objektivität, die Reliabilität und, als weitere Form der Validität, die
Kriteriumsvalidität des Fragebogens. Bezüglich der Items gilt es, Aspekte wie die Trenn-
schärfe und die Itemschwierigkeit zu überprüfen. Dieser Erhebung vorgeschaltet soll in
einer quantitativen Expertenbefragung bewertet werden, inwieweit die Items des neu kon-
struierten Fragebogens zu den Konstruktdefinitionen der einzelnen Biases passen, also wie
inhaltsvalide die Operationalisierungen sind.
Im folgenden Abschnitt werden die aus dem Forschungsstand abgeleiteten Zielstellungen
dieser Arbeit noch einmal kurz zusammengefasst.
1.2 Zielstellung
Psychologists have been preoccupied with exploring the potential psychological mechanisms for generating biased
outcome. Now, we believe, is the time to draw together the wealth of research in this area with a focus on practical
steps for addressing bias. (Stafford, Holroyd & Scaife, 2018, S. 13)
Zusammenfassend werden aus dem im vorherigen Kapitel beschriebenen Forschungsstand
sowie den identifizierten Forschungslücken folgende Zielstellungen für diese Arbeit defi-
niert:
Zunächst werden die psychologischen Grundlagen zu dem Thema Urteile und Entschei-
dungen unter Unsicherheit erläutert (Kapitel 2).
Anschließend werden jene kognitiven, motivationalen und gruppendynamischen Biases be-
schrieben, die eine besondere Relevanz für organisationale Planungs- und Entscheidungs-
prozesse aufweisen und deren Phänomenologie sowie deren zugrundeliegenden kognitiven,
motivationalen beziehungsweise sozialen Mechanismen aufgezeigt (Kapitel 3).
Daraufhin wird die Rolle der Organisationskultur als Einflussfaktor auf das Auftreten der-
artiger Effekte untersucht. So haben bestimmte Aspekte der Organisationskultur potenziell
einen Einfluss auf die Qualität organisationaler Planungsprozesse, der über das Auftreten
kognitiver, motivationaler und gruppendynamischer Biases mediiert wird (Kapitel 4).
1 Einleitung 18
Die theoretischen Erkenntnisse über diese Zusammenhänge werden in ein Untersuchungs-
modell integriert, mit dem Ziel, darauf basierend ein diagnostisches Screeninginstrument in
Form eines Fragebogens zur Bewertung des Risikos für Biases in Planungsprozessen zu ent-
wickeln. Dafür werden bestimmte Aspekte der Organisationskultur operationalisiert, für
die ein Zusammenhang mit spezifischen Biases angenommen wird. Die Items beinhalten
entsprechende Situationen und Verhaltensweisen, die von den Organisationsmitgliedern
selbst bewertet werden können (Kapitel 5).
Anschließend werden zwei Ereignisse, deren vorausgehenden Planungsprozesse gut doku-
mentiert sind, im Rahmen von Fallstudien untersucht. Anhand dieser Fallstudien soll zum
einen die externe Validität, der im Theorieteil identifizierten Biases aufgezeigt werden, und
zum anderen sollen Hinweise für die inhaltliche Validität der auf dem Untersuchungsmo-
dell basierenden Operationalisierungen beziehungsweise Items aufgezeigt werden (Kapitel
6.1).
Bevor der Fragebogen in einer Validierungsstudie eingesetzt wird, findet eine quantitative
Expertenbefragung statt, in der Probanden die inhaltliche Validität des Fragebogens an-
hand der Passung der Items zu der entsprechenden Konstruktdefinition bewerten (Kapitel
6.2).
Im Anschluss daran wird der Fragebogen zur Erhebung empirischer Daten bei der Be-
fragung von Probanden, die in unterschiedlichen Branchen Erfahrungen in organisatio-
nalen Planungs- und Entscheidungsprozessen erlangt haben, eingesetzt. Auf Basis dieser
Daten werden die Testgütekriterien des Fragebogens beschrieben. Zum Beispiel wird die
Kriteriumsvalidität der Items über die Korrelation zwischen potenziell biasinduzierenden
beziehungsweise -reduzierenden Verhaltensweisen und einem Gesamturteil der Planungs-
und Entscheidungsprozesse diskutiert (Kapitel 6.3).
Schließlich werden die theoretischen und praktischen Implikationen bezüglich der Ergeb-
nisse der theoriebasierten Analyse, der Fallstudien und der empirischen Befragungen dis-
kutiert und Limitationen der Arbeit beschrieben (Kapitel 7).
19
2 Urteils- und Entscheidungsprozesse
We believe the importance of this question is somewhat selfevident: Decisions shape important outcomes for indi-
viduals, families, businesses, governments, and societies, and knowing more about how to improve those outcomes
would benefit all of these individuals, collectives, and institutions. After all, errors induced by biases in judgment
lead decision makers to undersave for retirement, engage in needless conflict, marry the wrong partners, accept the
wrong jobs, and wrongly invade countries. Given the massive costs that can result from suboptimal decision making,
it is critical for our field to focus increased effort on improving our knowledge about strategies that can lead to better
decisions. (Milkman et al., 2009, S. 379)
In den folgenden Abschnitten werden die psychologischen Grundlagen von Urteils- und
Entscheidungsprozessen beschrieben. Organisationale Planungsprozesse können im We-
sentlichen als Problemlöseprozesse verstanden werden, in denen es eine übergeordnete
Problemstellung gibt, zu deren Lösung viele untergeordnete Aufgabenstellungen zu be-
arbeiten sind, die wiederum Gegenstand von Urteils- und Entscheidungsprozessen sind.
Deswegen wird im folgenden Abschnitt zunächst erläutert, wie sich die Beschaffenheit
von Problemstellungen definieren lässt und welche Art von Problemstellungen typisch für
organisationale Planungsprozesse sind (Kapitel 2.1). Anschließend werden jene kognitive
Prozesse beschrieben, die Urteils- und Entscheidungsprozessen zugrunde liegen (Kapitel
2.2). Schließlich wird die Bedeutung des sozialen Kontextes beschrieben, der wesentlichen
Einfluss darauf hat, wie Urteile und Entscheidungen in Organisationen getroffen werden
(Kapitel 2.3).
2.1 Problemlöseprozesse
The principle of bounded rationality [is] the capacity of the human mind for formulating and solving complex
problems is very small compared with the size of the problems whose solution is required for objectively rational
behavior in the real world — or even for a reasonable approximation to such objective rationality. (Simon, 1947, S.
198)
Problemlöseaktivitäten im Allgemeinen spielen eine zentrale Rolle im Alltag eines jeden
Menschen. Menschen kreieren Problemräume beziehungsweise werden mit diesen konfron-
tiert, welche sich über einen unbefriedigenden Anfangszustand, einen erwünschen Ziel-
zustand und Operatoren, die den Wechsel vom Anfangs- zum Zielzustand ermöglichen,
definieren (Newell & Simon, 1972).
2 Urteils- und Entscheidungsprozesse 20
Jonassen (2000) unterscheidet Probleme nach ihrer Strukturiertheit, Abstraktheit sowie
Komplexität. Bei gut strukturierten Problemen sind der Anfangs- und Zielzustand eindeu-
tig spezifiziert und die Schwierigkeit liegt in der korrekten Anwendung einer begrenzten
Anzahl an Operatoren – zum Beispiel beim Lösen einer mathematischen Gleichung. Im
Gegensatz dazu enthalten schlecht strukturierte Probleme keine vorgegebenen Operatoren
zur Lösung des Problems. Somit müssen mögliche Lösungswege im Problemlöseprozess
erst entwickelt werden. Dabei gibt es vielfältige Lösungsmöglichkeiten und die Evaluie-
rung dieser unterschiedlichen Lösungsmöglichkeiten unterliegt wiederum einer Vielzahl an
Kriterien. Organisationale Planungssituationen fallen entsprechend in die Kategorie der
schlecht strukturierten Probleme (vgl. Kapitel 1). Die Konstruktion eines Flughafens lässt
sich zum Beispiel nicht auf eine überschaubare Anzahl an Lösungsparametern eingrenzen.
Es muss interdisziplinär gearbeitet werden, und dabei müssen Konzepte und Perspektiven
aus Bereichen wie Mathematik, Politik, Psychologie sowie Wirtschafts- und Ingenieurs-
wissenschaften berücksichtigt werden. Ein solches Vorhaben erfordert es immer wieder,
unterschiedliche persönliche Meinungen zu diskutieren und anschließend Urteile zu fällen.
Ein weiteres Merkmal bezüglich der Probleme bei der Konstruktion eines Flughafens ist,
dass dieses Vorhaben einen hohen Grad an Komplexität aufweist.
Komplexität beschreibt die Anzahl an Variablen, die das Problem umfasst, sowie deren
Interaktionen und deren zeitliche Dynamik (Jonassen, 1997). Mit steigender Komplexi-
tät steigen auch die kognitiven Anforderungen und damit die Problemschwierigkeit. So
müssen beim Flughafenbau eine enorm hohe Zahl an Variablen berücksichtigt werden, um
diversen rechtlichen, politischen oder ingenieurstechnischen Ansprüchen gerecht zu wer-
den. Hierbei wird auch deutlich, dass Strukturiertheit und Komplexität zu einem gewissen
Grad miteinander korrelieren. Schlecht strukturierte Probleme finden oft in Systemen mit
hoher Komplexität statt, die von vielen zeitlich instabilen und miteinander interagierenden
Faktoren geprägt sind. Im Gegensatz dazu sind gut strukturierte Probleme, wie Mathe-
matikaufgaben aus dem Lehrbuch, in der Anzahl der verfügbaren Variablen und deren
Wirkung meistens klarer definiert und damit auch weniger komplex. Dieser Zusammen-
hang zwischen Strukturiertheit und Komplexität zeigt sich jedoch nicht immer. So folgen
die Handlungsoptionen bei Videospielen klaren, durch den Programmierer vorgegebenen,
Regeln. Trotzdem gibt es in modernen Spielen eine sehr hohe Komplexität durch unzähli-
ge interagierende Variablen, die den Spielverlauf beeinflussen. Auf der anderen Seite stellt
die Auswahl des Outfits für eine Abendveranstaltung ein schlecht strukturiertes Problem
dar, welches jedoch – zumindest für die meisten Menschen – keine sehr hohe Komplexität
aufweist (Jonassen, 2000).
Die Abstraktheit eines Problems beschreibt, ob es verallgemeinerbar oder situationss-
pezifisch ist. Schlecht strukturierte Probleme sind dabei häufiger situationsspezifisch, da
schlecht definierbare Problemräume des Alltags häufiger in Kontexten stattfinden, die sich
aufgrund unterschiedlicher Umweltbedingungen nicht einfach replizieren lassen (Simon,
2 Urteils- und Entscheidungsprozesse 21
1973). Die Konstruktion eines Flughafens wird immer von unterschiedlichen Standortbe-
dingungen, nationalen und internationalen Regularien, kulturellen Einflüssen etc. beein-
flusst, die in ihrer Gesamtheit einzigartig sind und sich somit nicht einfach von einem
vorherigen Projekt übertragen lassen. Gut strukturierte Probleme lassen sich hingegen
häufig auf ähnliche Aufgabentypen verallgemeinern. Jedoch ist auch Abstraktheit ein ei-
genständiger Faktor, der nur teilweise mit Strukturiertheit und Komplexität korreliert.
Zum Beispiel können gut strukturierte Textaufgaben situationsspezifisch sein, während
sich unstrukturierte Probleme in der Form gewisser Dilemmata auf ähnliche Situationen
verallgemeinern lassen (Jonassen, 2000).
Fokus dieser Arbeit sind organisationale Planungsprozesse, die sich dadurch auszeichnen,
dass sie in komplexen Systemen stattfinden und damit durch eine Vielzahl an interagie-
renden, zeitlich dynamischen Faktoren beeinflusst werden, welche nicht vordefiniert sind,
sondern mit einer Vielzahl an Akteuren ausgehandelt werden müssen. Des Weiteren kann
aufgrund dynamischer Umweltbedingungen nur bis zu einem gewissen Grad auf Erfahrun-
gen zurückgegriffen werden, oder Erfahrungswissen kann in bestimmten Situationen sogar
kontraproduktiv sein (vgl. Kapitel 1). Es handelt sich also in der Regel um Probleme, die
in hohem Ausmaß schlecht strukturiert, komplex sowie situationsspezifisch sind.
Dieser Sachverhalt bietet einen ersten Erklärungsansatz für die Fehleranfälligkeit orga-
nisationaler Planungs- und Entscheidungsprozesse. Während gut strukturierte Probleme
algorithmisch gelöst werden können, sind schlecht strukturierte, komplexe und situationss-
pezifische Entscheidungssituationen zwangsläufig Entscheidungen, die durch ein gewisses
– und oft hohes – Maß an Unsicherheit geprägt sind. Ein Planungsprozess setzt sich aus
vielen, unterschiedlich einflussreichen Einzelentscheidungen zusammen, die im Zeitverlauf
des Projekts, und teilweise auch parallel durch verschiedene Gruppen getroffen werden.
Auch wenn es bei vielen dieser Entscheidungen nicht möglich ist, eine eindeutige Hand-
lungsalternative, wie beim Lösen einer mathematischen Gleichung, zu definieren, kann die
Entscheidungsqualität durch das Vermeiden systematischer Biases (vgl. Kapitel 3) gestei-
gert werden.
2.2 Kognitionspsychologische Perspektive
Similarly, in an information-rich world, the wealth of information means a dearth of something else: a scarcity of
whatever it is that information consumes. What information consumes is rather obvious: it consumes the attention
of its recipients. Hence a wealth of information creates a poverty of attention and a need to allocate that attention
efficiently among the overabundance of information sources that might consume it. (Simon, 1971, S. 40-41)
Menschen sind in ihrem Alltag ständig einer Unmenge unterschiedlicher Reize ausgesetzt,
die auf ihre Wahrnehmungskanäle wirken, und potenziell Aufmerksamkeit erfordern. Auf-
merksamkeit ist jedoch eine begrenzte Ressource, die im gegenwärtigen Moment nur einen
2 Urteils- und Entscheidungsprozesse 22
kleinen Ausschnitt aller zur Verfügung stehenden externen Reize erfassen kann, um diesen
erfassten Ausschnitt bewusst zu verarbeiten und daraus eine Reaktion abzuleiten. Eine
solche Reaktion bezieht sich auf die Manipulation oder Speicherung von Gedächtnisin-
halten, um daraus Urteile und Entscheidungen über anschließende Verhaltensweisen zu
treffen. Um der Situation trotz limitierter kognitiver Ressourcen Herr zu werden, findet
der Großteil menschlicher Kognition implizit, also unbewusst, statt. Die meisten dieser
impliziten Prozesse wurden zuvor durch Konditionierung oder Assoziationslernen auch
implizit erlernt, wie zum Beispiel einfache Wahrnehmungsprozesse (Jensen, Merz, Spence
& Frings, 2020). Komplexere Prozesse werden durch bewusste Lernprozesse explizit er-
lernt und durch Übung mit der Zeit automatisiert, wie zum Beispiel das Autofahren. In
diesem Kontext wurden in Kapitel 1 die Prinzipien der Bounded Rationality und des
Cognitive Misers erläutert, die erklären, wie der Mensch durch die Anwendung automa-
tisierter Urteils- oder Handlungsschemata seine kognitiven Ressourcen effizient nutzt, um
so gut wie möglich mit diesen Limitationen umzugehen. Automatisierte Handlungsweisen,
die dem Prozeduralen Gedächtnis zugeordnet werden, funktionieren genauso wie implizite
Urteilsheuristiken dann am besten, wenn es sich um einfache, wiederholende Routinetä-
tigkeiten beziehungsweise -situationen handelt, die zuvor durch wiederholte Exposition
beziehungsweise Übung implizit oder explizit erlernt wurden. Zu den impliziten heuristi-
schen Prozessen gehören grundlegende Wahrnehmungsfunktionen, wie die Einschätzung
des Abstands von Gegenständen im dreidimensionalen Raum (Gerrig & Zimbardo, 2018).
Basale Perzeptionsprozesse sind so allgegenwärtig, dass Menschen sich im Alltag praktisch
nie darüber bewusst sind, dass sie implizite Urteile treffen, wenn sie zum Beispiel nach
einem Gegenstand greifen. Aufgrund der allgegenwärtigen und impliziten Funktionswei-
se basaler Perzeptionsprozesse lässt am Beispiel dieser Prozesse die Wirkungsweise von
Biases gut veranschaulichen.
Bei der Abschätzung der Distanz eines Objekts werden die optischen Reize über das Au-
ge wahrgenommen (Bottom-Up) und gleichzeitig gespeicherte Konzepte abgerufen, welche
allgemeine Informationen enthalten – wie die Größe, die Schärfe, die relative Lage im
Raum zu anderen Objekten etc. – die es zum Beispiel erlauben, ein akkurates Urteil dar-
über zu treffen, ob man aufstehen muss, um ein Objekt zu erreichen oder es auch aus einer
sitzenden Position zu erreichen ist (Top-Down). Von der Enkodierung über den Abruf und
das Urteil bis zur Handlung läuft der gesamte Prozesse implizit ab, also ohne darüber be-
wusst nachdenken zu müssen, und somit ohne dass kognitive Ressourcen benötigt werden.
Derartige Prozesse finden im Alltag kontinuierlich statt und sind entsprechend in diver-
sen Kontexten erlernt und erprobt. Darüber hinaus sind die physikalischen Eigenschaften
der Umwelt so stabil, dass es sehr selten zu Störungen dieser impliziten Prozesskette
kommt (Gerrig & Zimbardo, 2018). Bewusst werden implizite Perzeptionsprozesse in der
Regel erst, wenn sie unerwartetes Feedback hervorrufen, und es somit zu einem Mismatch
zwischen der Erwartung und der Realität kommt. Anschauliche Beispiele hierfür liefern
2 Urteils- und Entscheidungsprozesse 23
optische Täuschungen. Es scheint so, als seien die Figuren in Abbildung 1 unterschiedlich
groß, von links nach rechts aufsteigend.
Abbildung 1
Dreidimensionale Wahrnehmungsheuristik
Anmerkung. Die Figuren sind exakt gleich groß abgedruckt, werden aber aufgrund optischer Wahr-
nehmungsheuristiken als im dreidimensionalen Raum unterschiedlich groß wahrgenommen (Kah-
neman, 2011, S. 100).
So bewerteten dies auch die Mehrheit der Probanden, die gefragt wurden, ob – so wie die
Figuren abgedruckt sind – die rechte Figur größer sei als die linke. Tatsächlich sind die Fi-
guren exakt gleich groß. Der Grund für die Fehleinschätzung ist, dass die dreidimensionale
Wahrnehmung so allgegenwärtig ist, das ein Umdenken in den zweidimensionalen Raum
schwer möglich ist. Damit eine Orientierung im dreidimensionalen Raum möglich ist, be-
rechnen perzeptive Heuristiken auf Basis von erlernten Top-Down-Prozessen automatisch
Informationen zur Größe und Schärfe von Objekten sowie deren relatives Verhältnis zuein-
ander. Entsprechend nehmen Menschen Abbildung 1 als dreidimensionale Szene wahr, in
der die Figuren von links nach rechts, entsprechend ihrer Anordnung im Raum, zunehmend
größer werden. Selbst mit dem Wissen, dass die Figuren in Wirklichkeit gleich groß ab-
gedruckt sind, täuscht das Wahrnehmungssystem weiterhin die implizite dreidimensionale
Interpretation vor (Kahneman, 2011). Diese optische Illusion beziehungsweise verzerrte
Wahrnehmung lässt sich mit der Wirkung komplexerer kognitiver Biases insofern verglei-
chen, als dass diese Effekte ebenfalls implizit und auf Basis heuristischer Urteils- und Ent-
scheidungsprozess auftreten. So verhält es sich bei komplexeren, aber durch Lernprozesse
bald automatisierte Fähigkeiten, wie dem Autofahren, ähnlich. Eine Fahranfängerin muss
bei ihren ersten Autofahrten sehr viele bewusste Entscheidungen und Urteile treffen, zum
Beispiel, wann sie in einen anderen Gang schaltet oder ob sie nun sicher die Spur wechseln
kann. Durch entsprechendes Training und Wiederholungen können diese Entscheidungen
2 Urteils- und Entscheidungsprozesse 24
durch automatisierte Schemata ersetzt werden, und die Fahrerin muss keine Aufmerksam-
keit mehr darauf aufwenden. Die automatisierten Prozesse funktionieren deshalb so gut,
weil der Straßenverkehr relativ einfachen Regeln folgt und insbesondere das Befahren be-
kannter Strecken dadurch sehr repetitiv ist. Die Fahrerin spart so kognitive Ressourcen
und kann sich während der Autofahrt zum Beispiel mit ihrem Beifahrer unterhalten oder
sich auf ein Hörbuch konzentrieren. Entsprechend machen implizite, heuristische Urteile
und Handlungen den überwiegenden Anteil des menschlichen Alltags aus (Nosek, Hawkins
& Frazier, 2011).
Wenn derartige heuristische Entscheidungen in einem Kontext zum Einsatz kommen, der
eigentlich eine bewusste Analyse der Situation erfordert, und folglich eine Fehlentschei-
dung getroffen wird, spricht man – wie im Beispiel der optischen Täuschung – von einem
kognitiven Bias. Auf das Beispiel einer Fahranfängerin bezogen kann dies zum Beispiel
bedeuten, dass sie ihre Erfahrung mit unterschiedlichen Verkehrssituationen überschätzt,
Geschwindigkeit und Bremsweg deshalb nicht adäquat kalibriert und einen Auffahrun-
fall verursacht. Mit genügend Erfahrungen in ähnlichen Situationen wäre ihr der Fehler
nicht passiert, da sie die Gegebenheiten implizit besser hätte einschätzen können. Alter-
nativ hätte ein rechtzeitiger Hinweisreiz darauf, dass ihre impliziten Urteile ungenügend
sind, System-2-Prozesse aktiviert, und sie hätte durch eine bewusste Analyse die Situation
gegebenenfalls vermeiden können.
Um die kognitiven Prozesse, die Heuristiken beziehungsweise kognitiven Biases zugrunde
liegen, besser zu verstehen, wird im Folgenden beschrieben, wie der Mensch kognitive
Operationen strukturiert. Grundsätzlich laufen kognitive Prozesse seriell und/oder parallel
ab. Die einzelnen kognitiven Operationen kann man sich dabei als Bauklötze vorstellen,
wie in Abbildung 2 dargestellt.
Ob kognitive Prozesse parallel ablaufen können oder seriell verarbeitet werden müssen,
hängt von dem Ausmaß der geistigen Beanspruchung ab. So verfügt der Mensch über be-
grenzte kognitive Verarbeitungsressourcen, die auf verschiedene mentale Prozesse verteilt
werden müssen (Logan, 2002). Inwieweit es zu Interferenzen zwischen parallelen Prozessen
kommt, lässt sich zum einen nach Wickens (2008) über die in Abbildung 3 dargestell-
ten Modalitäten erklären. Demnach können parallele kognitive Prozesse in dem Ausmaß
erfolgreich ausgeführt werden, in dem sie eine unterschiedliche Kombination dieser drei
Modalitäten verwenden. So würde es einer Person relativ leicht fallen, eine Information
visuell und räumlich wahrzunehmen und gleichzeitig auditiv und verbal zu reagieren –
zum Beispiel beim Beobachten des Fernsehers (visual/spatial/perception) und parallelem
Sprechen zu einer anderen Person (auditory/verbal/responding). Die gesprochenen Inhalte
von zwei verschiedenen Personen parallel wahrzunehmen (auditory/verbal/perception) ist
praktisch nicht möglich, während das Zuhören und gleichzeitige Schreiben bedingt funk-
tioniert (auditory/verbal/perception vs. visual/verbal/responding).
2 Urteils- und Entscheidungsprozesse 25
Abbildung 2
Parallele und serielle Kognition
Anmerkung. Vereinfachte Beispiele für unterschiedliche Konstellationen serieller und paralleler In-
formationswahrnehmung, -verarbeitung und Reaktionen. P = Perzeptive Prozesse, M = Motorische
Prozesse, A und B = zentrale Prozesse. Eigene Darstellung in Anlehnung an Logan (2002, S. 272)
Abbildung 3
Das vierdimensionale Multiple-Resource-Modell
Anmerkung. Beschreibung unterschiedlicher mentaler Prozesse zur Erklärung gegenseitiger Inter-
ferenzen. Eigene Darstellung in Anlehnung an Wickens (2008, S. 450)
2 Urteils- und Entscheidungsprozesse 26
Dieser Erklärungsansatz zur Entstehung von Interferenzen hat Implikationen für organisa-
tionale Planungsprozesse, denn die Art und Weise, wie Informationen präsentiert werden,
hat einen Einfluss darauf, inwieweit die kognitiven Ressourcen der Akteure beansprucht
werden. Eine ressourcengerechte Gestaltung der Planungs- und Entscheidungssituation
im Sinne einer interferenzarmen Mediennutzung kann somit in bestimmten Situationen
die Wahrscheinlichkeit für Überbeanspruchung und damit für Biases aufgrund von inad-
äquaten Heuristiken reduzieren. Zu beachten gilt es, dass die zuvor beschriebenen Model-
lierungen stark vereinfacht sind, da Perzeptionsprozesse grundsätzlich immer auch einen
Gedächtnisabruf und eine mentale Reaktion beinhalten, und die parallele Informations-
verarbeitung auch unabhängig von der Verwendung verschiedener Modalitäten deutlich
eingeschränkt ist. Für organisationale Planungsprozesse ist es zudem typisch, dass ein re-
lativ langer Zeitraum für das Treffen einer Entscheidung zur Verfügung steht, dafür jedoch
die Menge der zu berücksichtigenden und zu verarbeitenden Informationen enorm hoch ist.
Deshalb spielt eine andere Form der Interferenz für die Entstehung von Biases in solchen
Situationen eine größere Rolle.
So beschreibt die Kapazitäten-Interferenz, dass eine Interferenz zwischen kognitiven Pro-
zessen auch unabhängig von der parallelen Beanspruchung der in Abbildung 3 dargestellten
Modalitäten auftritt, insofern das Ausmaß der Interferenz auch von der Gesamtbelastung
der kognitiven Ressourcen abhängt (Kahneman, 1973). Wie im Rahmen der Prinzipien
Bounded Rationality und Cognitive Miser beschrieben, sind insbesondere komplexe Pro-
blemstellungen mit vielen Elementen und Wechselwirkungen – wie sie typisch für organisa-
tionale Planungsprozesse sind (vgl. Kapitel 2.1) – nicht vollständig mental repräsentierbar.
Diese kognitiven Einschränkungen, die dem Konzept der Bounded Rationality entsprechen,
führen dazu, dass kontinuierlich ein impliziter und erfahrungsbasierter Filterprozess statt-
findet (Top-Down), der den Fokus auf die potenziell relevantesten Informationen lenkt.
Dieser Prozess macht es möglich, der konstanten Reizüberflutung Herr zu werden, al-
lerdings kann ein erwartungsgesteuerter Fokus dazu führen, dass sich unerwartete, aber
möglicherweise wichtige Informationen – bei der Wahrnehmung, aber auch beim Abruf
aus dem Gedächtnis – der Aufmerksamkeit entziehen.
In der Videosequenz, aus der Abbildung 4 stammt, erkennen nur ca. 50% der Probanden
den Gorilla in der Mitte, der im Verlauf des Videos durch das Bild läuft, da die Probanden
die Aufgabe haben, zu zählen, wie häufig sich die Personen in weißen T-Shirts gegenseitig
einen Basketball zuwerfen, und der Fokus somit durch die entsprechenden Filterprozesse
auf die Aufgabe gelenkt wird (Simons & Chabris, 1999).
Hier treffen die Probanden kein Fehlurteil, sondern erfüllen die Aufgabe gerade deshalb
korrekt, weil sie irrelevante Reize ignorieren. Dies entspricht den Prinzipien der Bounded
Rationality und des Cognitive Misers, demnach Menschen sich innerhalb ihrer kogniti-
ven Limitationen effizient und so rational wie möglich beziehungsweise nötig verhalten.
2 Urteils- und Entscheidungsprozesse 27
Abbildung 4
Der unsichtbare Gorilla
Anmerkung. Einzelner Frame des Videos aus der Studie von Simons und Chabris (1999, S. 1070)
Gleichzeitig entsteht aufgrund dieses Filterprozesses eine Blindheit für unerwartete, aber
möglicherweise relevante Informationen. Umstände, in denen derartige Limitationen zu
impliziten Fehlurteilen führen, werden in Kapitel 3 erläutert. Dazu gehört in ähnlicher
Weise zum Beispiel der Confirmation Bias (3.2.4), bei dem eine hypothesenbestätigende
Informationssuche die Suche nach abweichenden Informationen verringert.
Um kognitive Limitationen besser nachvollziehen zu können, wird im Folgenden erklärt,
welche Gedächtnisprozesse am Treffen von normalerweise effizienten und akkuraten Urtei-
len beteiligt sind. Nach der sensorischen Perzeption und neuronalen Weiterleitung eines
Stimulus aus der Umwelt, zum Beispiel einer auditiven sprachlichen Information, kön-
nen zur Informationsverarbeitung im Wesentlichen drei Gedächtnisprozesse unterschieden
werden (Baddeley, 2007):
1. Enkodierung beschreibt die mentale Repräsentation einer Information.
2. Speicherung umfasst das Aufrechterhalten der Information über eine gewisse Zeit-
spanne.
3. Abruf ist der Rückgriff auf die gespeicherte Information zu einem späteren Zeitpunkt.
Eine Vielzahl der Stimuli aus der Umwelt wird zunächst im sensorischen Gedächtnis gespei-
chert, allerdings nur für wenige Millisekunden (Sperling, 1960). Priorisierte Reize werden
im Kurzzeitgedächtnis weiterverarbeitet, das jedoch bei den meisten Menschen nur ca. 7
Informationseinheiten gleichzeitig repräsentieren kann (G. Miller, 1956). Das Kurzzeitge-
2 Urteils- und Entscheidungsprozesse 28
dächtnis ist Teil des Arbeitsgedächtnisses, welches die Grundlage kognitiver Tätigkeiten
ist, da es Gedächtnisaktivitäten koordiniert und damit einen Gedankenfluss ermöglicht.
Das Arbeitsgedächtnis umfasst drei wesentliche Komponenten: Die phonologische Schlei-
fe beschreibt das Speichern und Manipulieren sprachbasierter Informationen, während
der visuell-räumliche Notizblock mentale Bilder verarbeitet. Die zentrale Exekutive ist
für die Kontrolle der Aufmerksamkeit verantwortlich, zum Beispiel für die Koordination
unterschiedlicher Informationen der phonologischen Schleife und des visuell-räumlichen
Notizblocks, und die Integration dieser Informationen zu komplexeren Gedächtnisinhalten
(Baddeley & Andrade, 2000). Das Arbeitsgedächtnis bewirkt damit die Aufrechterhaltung
der psychologischen Gegenwart, da es erlaubt, Zusammenhänge zwischen unterschiedli-
chen Informationen und wechselnden Situationen herzustellen. Dabei findet über das Ar-
beitsgedächtnis auch die Speicherung und der Abruf von Informationen in und aus dem
Langzeitgedächtnis statt, wodurch eine Kombination neuer Informationen mit bereits vor-
handenem Wissen und Erfahrungen möglich ist und somit neue Erkenntnisse entstehen
(Baddeley, 2000).
Im Langzeitgedächtnis sind Informationen, Erfahrungen, Konzepte und Fertigkeiten lang-
fristig gespeichert, die über das sensorische Gedächtnis und Kurzzeitgedächtnis ange-
eignet wurden. Das Langzeitgedächtnis beinhaltet das gesamte Wissen eines Menschen
von sich selbst und der Welt, dabei lässt sich das explizite/deklarative und das implizi-
te/prozedurale Gedächtnis unterscheiden (Ullman, 2004). Das explizite Gedächtnis ent-
hält episodische sowie semantische Gedächtnisinhalte. Episodische Gedächtnisinhalte sind
sämtliche individuelle, persönliche Erlebnisse, die im Laufe eines Lebens in spezifischen
Situationen gespeichert wurden. Semantische Gedächtnisinhalte beschreiben generisches,
kategoriales Faktenwissen, das kontextübergreifend in einem semantischen Netzwerk ge-
speichert ist. Das prozedurale Gedächtnis enthält Fertigkeitswissen, das zunächst Schritt
für Schritt erlernt wird, anschließend durch Wiederholung trainiert und fortan intuitiv
ausgeführt wird. Durch die implizite Durchführung ganzer Bewegungsabläufe geht mit der
Zeit das explizite Wissen über die einzelnen Schritte verloren (Camina & Güell, 2017).
Die Kapazität der im Langzeitgedächtnis gespeicherten Informationen ist grundsätzlich
unbegrenzt (Camina & Güell, 2017). Schwierigkeiten, sich zu erinnern, entstehen vor allem
beim Abruf von Informationen aus dem Langzeitgedächtnis durch das Arbeitsgedächtnis.
Zum Erinnern einer gespeicherten Information ist ein Hinweisreiz nötig. Dieser Hinweis-
reiz ist ein Stimulus, der den Abruf einer Information aus dem Langzeitgedächtnis anstößt.
Dem Erinnerungsprozess liegt eine Zielstellung zugrunde, die in der Regel den Hinweisreiz
liefert. Der Hinweisreiz kann extern generiert werden, zum Beispiel durch eine Klausur-
frage oder intern, wenn eine Person sich beispielsweise fragt, woher sie eine andere Person
kennt, die sie auf der Straße sieht (Frankland, Josselyn & Köhler, 2019). Die Qualität des
Hinweisreizes hat somit neben der Qualität der zurückliegenden Enkodierung und Spei-
cherung der betreffenden Information einen Einfluss darauf, ob beziehungsweise wie leicht
2 Urteils- und Entscheidungsprozesse 29
eine Erinnerung abgerufen werden kann.
Inhalte des semantischen Gedächtnisses sind in einem Netzwerk organisiert, das diverse
Informationen in Kategorien zusammenfasst und diese in Bezug zueinander setzt. Diese
Kategorien können Objekte, Tätigkeiten aber auch Eigenschaften oder abstrakte Ideen
umfassen, die in bedeutungsvollen Anordnungen organisiert und hierarchisch gegliedert
sind. Durch diese Art der Informationsbündelung beziehungsweise Chunking können Ge-
dächtnisressourcen effizienter genutzt werden und der Abruf von Informationen wird er-
leichtert (Quillan, 1966). Abbildung 5 zeigt beispielhaft, in welcher Art Informationen im
semantischen Gedächtnis kategorisiert sind. Die Ebene, auf der sich Bird beziehungswei-
se Fish befinden, kann als Basisebene betrachtet werden, da die meisten Personen, die
zum Beispiel einen Vogel sehen, ihn als erstes auf dieser Ebene einordnen, anstatt auf der
allgemeineren Ebene Tier oder der spezifischeren Ebene Kanarienvogel.
Abbildung 5
Beispiel eines semantischen Netzwerks
Anmerkung. Hypothetisches Beispiel für die Strukturierung des semantischen Gedächtnisses. Eigene
Darstellung in Anlehnung an Collins und Quillian (1969, S.241)
Wenn zum Beispiel Urteile über Häufigkeiten oder Wahrscheinlichkeiten gefällt werden,
findet ein Abruf entsprechender Kategorien aus dem semantischen Gedächtnis statt. Die
Leichtigkeit, mit der Beispiele aus der Zielkategorie abgerufen werden können, dient als
Hinweis für die Häufigkeit beziehungsweise Wahrscheinlichkeit dieser Kategorie. Unter
2 Urteils- und Entscheidungsprozesse 30
welchen Umständen dieser Prozess zielführend beziehungsweise verzerrt ist, wird in Kapitel
3.2.1 zur Availability Heuristic beschrieben.
Alle beschriebenen kognitiven Prozesse – die Wahrnehmung, das Enkodieren, das Spei-
chern und der Abruf finden nicht streng voneinander getrennt statt, sondern parallel und
in komplexer Interaktion. Selbst einfache Wahrnehmungsprozesse, die keine bewusste Auf-
merksamkeit erfordern, wie im Beispiel der optischen Perzeption, umfassen sowohl die En-
kodierung als auch den Abruf von Gedächtnisinhalten. Bei sämtlichen Wahrnehmungs- und
Gedächtnisprozessen handelt es sich dabei entweder um explizite oder um implizite Pro-
zesse. Diese Unterscheidung wird in verschiedenen Dual-Process-Theories thematisiert, die
sich im Kern relativ ähnlich sind (Kahneman & Frederick, 2009). Explizite Gedächtnis-
und Urteilsprozesse, die Kahneman und Frederick (2009) als System 2 bezeichnen, be-
nötigen Aufmerksamkeit und finden kontrolliert und bewusst statt, während implizite
Gedächtnis- und Urteilsprozesse (System 1) keine oder kaum Aufmerksamkeitsressourcen
benötigen und intuitiv bzw. unbewusst ausgeführt werden (vgl. Abbildung 1). Während
kontrollierte System-2-Prozesse ein hohes Ausmaß an kognitiven Ressourcen erfordern und
entsprechend oft nur einzeln beziehungsweise seriell bearbeitet werden können, sind au-
tomatische System-1-Prozesse durch Training so gespeichert, dass sie wenig oder keine
Aufmerksamkeit benötigen und somit die kognitiven Ressourcen des Arbeitsgedächtnisses
kaum beanspruchen. Stattdessen werden unbewusst im Langzeitgedächtnis gespeicherte
Schemata, Skripte oder Konzepte aufgerufen, die im Zusammenhang mit dem aktuellen
Kontext erlernt wurden und entsprechend automatisch ausgeführt werden. Erst wenn es
zu einem Mismatch zwischen dem gespeicherten Wissen und einem Stimulus der aktuellen
Situation kommt, werden Aufmerksamkeitsressourcen aktiviert, um den Konflikt aufzu-
lösen. (Barrett, Tugade & Engle, 2004). Ein kognitiver Bias entsteht entsprechend dann,
wenn kein Mismatch erkannt wird, also keine Aufmerksamkeitsprozesse aktiviert werden
und eine Handlungsentscheidung implizit getroffen wird, obwohl es sich um ein Fehlurteil
handelt, das durch eine aufmerksame Analyse der Situation hätte erkannt werden können.
Weitere Implikationen dieser kognitiven Prozesse für das Auftreten kognitiver Biases wur-
den in Kapitel 1.1. kurz beschrieben und werden in Kapitel 3.2 ausführlicher thematisiert.
2.3 Sozialpsychologische Perspektive
Our discussion focuses on these implicit self-related processes as they unfold in the context of social group mem-
berships. That is, we show that group memberships can shape thoughts, preferences, motives, goals, or behaviors
without the actor’s being aware of such an influence or having control over such expressions. As such, this research
brings to the fore facets of the self that often contrast with experiences of reflexive consciousness and introspecti-
on. Far from being rigid or monolithic, these processes are highly flexible, context-sensitive, and deeply rooted in
socio-structural realities. (Devos & Banaji, 2003, S. 177)
Organisationale Planungs- und Entscheidungsprozesse werden aufgrund ihrer Komplexi-
2 Urteils- und Entscheidungsprozesse 31
tät in der Regel in Gruppen durchgeführt. Dadurch stehen insgesamt mehr kognitive Res-
sourcen und damit Ideen und Argumente zur Verfügung, allerdings erhöht sich auch die
Komplexität des Prozesses, und es entstehen zusätzliche Quellen für Abweichungen von
rationalen Urteilen (Montibeller & von Winterfeldt, 2018).
Wie in Kapitel 2.2 beschrieben, setzen sich Wahrnehmungsprozesse aus Bottom-Up sowie
Top-Down-Prozessen zusammen. Daraus folgt, dass insbesondere auch komplexe sozia-
le Situationen sehr subjektiv wahrgenommen und interpretiert werden. So zeigt sich zum
Beispiel in einer Studie von Hastorf und Cantril (1954), dass die Wahrnehmung eines Foot-
ballspiels und die Beurteilung der Teams bezüglich der Fairness und Anzahl begangener
Fouls stark von der Zugehörigkeit der Probanden zu der Universität, der das jeweilige Team
angehört, abhängt. Als Grund beschreiben die Autoren den Prozess der selektiven Enko-
dierung, demnach die Probanden von der Gesamtmenge der potenziell verfügbaren Reize
nur eine begrenzte Anzahl an Reizen verarbeiten können und somit die restlichen Stimuli
durch Top-Down-Prozesse herausgefiltert werden (Hastorf & Cantril, 1954). Dieser Pro-
zess entspricht dem Prinzip der Bounded Rationality beziehungsweise den Ausführungen
zur Informationsweiterleitung aus dem sensorischen Gedächtnis in das Arbeitsgedächtnis
(vgl. Kapitel 2.2). Diese selektive Enkodierung ist eine potenzielle Quelle für Verzerrungen
– im Beispiel des Footballspiels insbesondere durch motivationale Biases (Kapitel 3.3.).
Dabei spielt der Self-Serving Bias (Kapitel 3.3.1) eine Rolle, der dazu führt, dass die Wahr-
nehmung und Interpretation von Ereignissen einen tendenziell selbstwertdienlichen Cha-
rakter aufweist. Zum Beispiel neigen viele Menschen dazu, Erfolge der eigenen Leistungsfä-
higkeit zuzuschreiben und Misserfolge auf externe Umstände zurückzuführen. Ähnlich lässt
sich im Beispiel der Studie von Hastorf und Cantril (1954) ein Desirability Bias (Tappin et
al., 2017) erkennen – nicht zu verwechseln mit dem bekannteren Social-Desirability-Effekt.
Der Desirability Bias beschreibt die Tendenz, Informationen systematisch zugunsten er-
wünschter Entscheidungsalternativen zu wählen oder zu interpretieren (vgl. Kapitel 3.3.4).
Ähnlich wie bei dem Confirmation Bias beeinflusst dieses „Wunschdenken“ die Informa-
tionssuche, -verarbeitung und -speicherung. Der Self-Serving Bias und der Desirability
Bias sind Beispiele für motivationale Biases, die auf intraindividueller Ebene stattfinden,
aber oft eine soziale Komponente beinhalten, wenn sie dem Vergleich mit anderen Men-
schen oder der Identifikation mit einer Gruppe dienen. So findet die selbstwertdienliche
Attribution des Self-Serving Bias häufig auch im Vergleich mit anderen Personen statt,
beziehungsweise wird entsprechend kommuniziert (Shepperd et al., 2008). Von dieser so-
zialen Form motivationaler Biases werden in Kapitel 3.4 jene gruppendynamischen Biases
abgegrenzt, die erst im Kontext der Interaktion mit einer konkreten Gruppe entstehen.
Die Auswirkung der begrenzten Ressourcenkapazität menschlicher Aufmerksamkeitspro-
zesse zeigt sich auch bezüglich des Konzepts Persuasion. Bei der Persuasion geht es um
den Versuch, durch soziale Interaktion die Einstellung eines Menschen zu verändern. Das
2 Urteils- und Entscheidungsprozesse 32
Elaboration-Likelihood-Modell bietet einen Erklärungsansatz dafür, unter welchen Um-
ständen sich Menschen leichter oder schwerer in ihrer Einstellung zu bestimmten Themen
beeinflussen lassen (Petty, Cacioppo, Strathman & Priester, 2005). Das Modell unterschei-
det die zentrale und die periphere Route der Persuasion. Wird der Stimulus, der die poten-
zielle Einstellungsänderung anstößt, über die zentrale Route der Persuasion verarbeitet,
bedeutet dies, dass der Empfänger die Botschaft gründlich analysiert (High Elaboration).
Die Wahrscheinlichkeit der Einstellungsänderung hängt in diesem Fall von der Stärke und
Logik der Argumente ab. Im Gegensatz dazu beinhaltet die periphere Route der Persua-
sion einen Fokus auf oberflächliche Hinweisreize des Stimulus. Dabei findet keine kritische
Analyse der Validität der Botschaft statt (Low Elaboration). Ob jemand in bestimmten
Situationen die zentrale oder die periphere Route der Persuasion einschlägt, hängt in ers-
ter Linie von der Motivation und den kognitiven Ressourcen sowie der Passung zwischen
der bisherigen Einstellung oder der erwünschten Einstellung und dem Argument ab (Ab-
bildung 6). So spielt insbesondere die Passung mit der bisherigen Einstellung eine Rolle
bei der Entstehung des Confirmation Bias (Kapitel 3.2.4) beziehungsweise die Passung mit
der erwünschten Einstellung bei der Entstehung des Desirability Bias (Kapitel 3.3.4)
Es liegt nahe, dass komplexe organisationale Planungsprozesse eine gründliche Analy-
se unterschiedlicher Argumente erfordern und die Entscheidungsqualität darunter leidet,
wenn Gruppenmitglieder sich nur oberflächlich mit den Argumenten, die zum Beispiel
von der Führungskraft geäußert werden, auseinandersetzen. Ein Grund dafür, dass Grup-
penmitglieder sich auf die ressourcensparende, oberflächliche Analyse der Argumente be-
schränken, kann – neben den zuvor beschriebenen Prinzipien des Cognitive Misers und der
Bounded Rationality – in der Annahme liegen, dass die eigene Verantwortung als nicht
sehr hoch eingestuft wird, da es ausreichend andere Gruppenmitglieder gibt, die sich an der
Entscheidungsfindung beteiligen. Dieses, als Social Loafing bekannte gruppendynamische
Phänomen wird in Kapitel 3.4.2 näher behandelt.
Allerdings führt auch eine analytische Informationsverarbeitung nicht immer dazu, dass
eine konträre Meinung auch tatsächlich gegenüber der Gruppe geäußert wird. Hierbei
führt der Normeneinfluss einer Gruppe – und das damit einhergehende Bedürfnis von
der Gruppe akzeptiert und geschätzt zu werden – häufig dazu, dass die eigene Meinung
nicht geäußert wird oder sich ein Gruppenmitglied in letzter Konsequenz sogar selbst von
der von ihm als falsch wahrgenommenen Gruppenmeinung überzeugt. Zum Beispiel zeigte
Asch (1951) in seinen einflussreichen Experimenten, dass Probanden bei der Einschät-
zung, welche von drei verschiedenen Linien die längste ist, falsche Antworten gaben, wenn
andere, als Probanden getarnte Rollenspieler, dies zuvor ebenfalls taten, obwohl die rich-
tige Antwort leicht zu erkennen war. Dieses Verhalten ist kongruent mit der Annahme,
dass Persuasion auch auf intraindividueller Ebene stattfindet, wenn soziale Umstände eine
Person dazu bringen, aus eigenem Antrieb seine Einstellung zu verändern. Eine wichtige
Rolle spielt dabei wiederum das Konzept der Kognitiven Dissonanz.
2 Urteils- und Entscheidungsprozesse 33
Abbildung 6
Zwei Routen der Persuasion
Anmerkung. Zwei Routen der Persuasion nach dem Elaboration-Likelihood-Modell. Eigene Dar-
stellung in Anlehnung an Petty et al. (2005, S.87)
2 Urteils- und Entscheidungsprozesse 34
Kognitive Dissonanz beschreibt den unangenehmen Zustand, den eine Person empfindet,
wenn sie eine Handlung vornimmt oder eine Information erhält, die in Widerspruch zu
ihrer Einstellung steht. Um die kognitive Dissonanz zu reduzieren, muss entweder das ei-
gene Verhalten oder die Einstellung dazu verändert werden. Oft ändern Menschen ihre
Einstellung, indem sie Rechtfertigungen für das eigene Verhalten oder die ursprüngliche
Meinung entwickeln, um so den aversiven Zustand aufzulösen (Festinger, 1962). So kann es
zum Beispiel in einem organisationalen Planungsprozess vorkommen, dass eine Entschei-
dung getroffen wird, die einzelne Gruppenmitglieder als unethisch oder riskant empfinden.
Die betroffenen Personen haben aber möglicherweise Hemmungen, gegen die Entscheidung
vorzugehen, da sie nicht unloyal sein möchten oder negative berufliche Konsequenzen be-
fürchten. Die durch den Wertekonflikt ausgelöste kognitive Dissonanz wird dann eventuell
so aufgelöst, dass betroffene Personen ihre Einstellung verändern, indem sie sich auf die
Argumente für die Entscheidung fokussieren und die Gegenargumente verdrängen. Die in
diesem Beispiel beschriebene Kognitive Dissonanzreduktion kann als Grundlage für un-
terschiedliche Facetten des Konstrukts Group Think – wie Self-Censorship – betrachtet
werden, das in Kapitel 3.4.1 näher betrachtet wird. b Im Kontext des zuvor beschriebe-
nen Normeneinflusses spielt auch der Informationseinfluss eine wichtige sozialpsychologi-
sche Rolle. Der Informationseinfluss beruht darauf, dass Menschen sich an dem Verhalten
anderer Menschen orientieren, um zu beurteilen, was die richtige Verhaltensweise in be-
stimmten Situationen ist. Modelllernen spielt bei Kleinkindern eine entscheidende Rolle
bei der Sozialisation, und auch Erwachsene orientieren sich in neuartigen Situationen oder
in neuen Gruppen primär am Verhalten anderer Gruppenmitglieder und passen ihr eige-
nes Verhalten entsprechend an. Man spricht von einem modellierenden Lerneffekt, wenn
in einer neuen Situation eine unbekannte Verhaltensweise beobachtet wird und diese in
einer entsprechenden Situation imitiert wird. Auf diese Weise bilden und verfestigen sich
bestimmte Normen innerhalb einer Gruppe. Entsprechend bieten der Informations- und
Normeneinfluss im sozialen Kontext die Grundlage für die Entstehung von Kulturen auf
unterschiedlichen Ebenen, wie der nationalen Ebene, der familiären Ebene sowie der Or-
ganisationsebene (vgl. Kapitel 4).
Haben sich bestimmte Normen in einer Gruppe etabliert, wird deren Einhaltung teils ex-
plizit, aber meist implizit, von der Gruppe geäußert beziehungsweise erwartet. Im Rahmen
dieses Normeneinflusses führt das Bedürfnis, von der Gruppe akzeptiert und geschätzt zu
werden, dazu, dass die Normen häufig auch dann eingehalten werden, wenn sie nicht (mehr)
im Einklang mit den Werten und Meinungen des betreffenden Gruppenmitglieds stehen,
wie zuvor am Beispiel der Selbstpersuasion im Rahmen kognitiver Dissonanzreduktion
beschrieben wurde. Die soziale Situation hat einen so starken Einfluss auf psychologische
Prozesse, dass man auch von sozialer Kognition spricht, wenn es darum geht, wie basa-
le Prozesse wie Wahrnehmung, Denkprozesse, Lernen und Emotionen durch den sozialen
Kontext geprägt werden (Frith, 2008). So zeigt Asch (1951) im oben beschriebenen Kon-
2 Urteils- und Entscheidungsprozesse 35
formitätsexperiment, dass Probanden ihr Urteil nicht nur bewusst verfälschen, um sich der
Gruppe anzupassen, sondern dieser Anpassungsdruck in einigen Fällen sogar dazu führt,
dass Probanden tatsächlich glaubten, dass das von den anderen Gruppenmitgliedern ge-
äußerte Fehlurteil ihrer eigenen Wahrnehmung entspricht. Der soziale Kontext hat also
einen starken Einfluss darauf, wie Informationen wahrgenommen, enkodiert und interpre-
tiert werden. Der soziale Kontext ist dabei nicht auf die konkrete Interaktion beschränkt,
sondern definiert sich als reale, imaginäre und symbolische Präsenz anderer Menschen, de-
ren Aktivitäten und Interaktionen sowie deren Erwartungen und Normen (Sherif, 1982).
Den starken Einfluss des sozialen Kontextes zeigt auch eine Studie von Lin, Qu und Telzer
(2018), die einen maßgeblichen Einfluss des Gruppenkontextes auf die Emotionsverarbei-
tung feststellten. In dieser Studie ließen Probanden sich bei der Bewertung emotionsgela-
dener Bilder von der Bewertung anderer Personen beeinflussen. Anhand von fMRI-Scans
beobachteten die Autoren, dass mit Emotionen assoziierte Hirnregionen unterschiedliche
Aktivitäten zeigten, je nachdem, ob die Probanden die Bilder unabhängig bewerteten oder
diese mit dem Wissen über die Bewertung durch andere Probanden bewerteten. Das Emo-
tionsempfinden änderte sich in Richtung der Übereinstimmung mit der Bewertung anderer
Probanden, wobei der Effekt signifikant stärker war, wenn die anderen Personen als Teil
der eigenen Gruppe wahrgenommen wurden.
Zusammenfassend lässt sich festhalten, dass die soziale Situation einen sehr starken Ein-
fluss auf das Verhalten von Individuen hat und eine Gruppenentscheidung damit mehr
ist, als die Summe der Meinungen der einzelnen Gruppenmitglieder. Neben den positiven
Interaktionseffekten, die durch die eingangs beschriebene erhöhte Informationsverarbei-
tungskapazität und die positiven Effekte des offenen Austauschs und Diskurses entste-
hen, wurde in diesem Kapitel dargelegt, dass der durch die Gruppensituation entstehende
Informations- und Normeneinfluss Probleme für organisationale Planungsprozesse bringen
kann, da Phänomene, wie das Konformitätsstreben im Kontext von Groupthink (Kapitel
3.4.1), entscheidungsverzerrende Effekte hervorrufen können.
36
3 Heuristiken und Biases
Some critics of ’heuristics and biases research’ complain that researchers are too interested in demonstrating irra-
tionality, and are not impressed enough with what well-fashioned cognitive machines people are. Indeed, many of
the biases, fallacies, and imperfections of human judgment and reasoning seem to come and go, depending on the
wording of the problem, the goals of the subject, the subject’s expertise in the problem domain, etc. One possible
interpretation is that the purported biases are not robust, or are artifacts of the laboratory. An alternative view
is this: most of the environments people face in life are artificial; a great many are ambiguously defined, present
conflicting goals, and are unfamiliar. Sometimes people manage quite well, by standards that are important to them,
sometimes they do not. (Klayman, 1993, S. 116)
In Kapitel 2 wurden grundlegende kognitive- und sozialpsychologische Prozesse der Pro-
blemlösung und Entscheidungsfindung aufgezeigt und vereinzelt Beispiele für kognitive,
motivationale und gruppendynamische Biases angeführt. Diese Heuristiken beziehungswei-
se Biases haben das Potenzial, Urteils- und Entscheidungsprozesse allgemein und speziell
im Kontext organisationaler Planungsprozesse zu verzerren, wenn sie eine analytische Ent-
scheidungsfindung inadäquat ersetzen beziehungsweise deren zugrundeliegende Annahmen
irrational beeinflussen. In den folgenden Kapiteln werden verschiedene Biases analysiert,
die eine hohe Relevanz im Kontext organisationaler Planungsprozesse aufweisen. Dabei
werden deren zugrundeliegenden Mechanismen und assoziierten Verhaltensweisen erläu-
tert.
Das Thema Biases ist in diversen wissenschaftlichen Disziplinen verbreitet, und es wur-
den inzwischen unzählige verschiedene Effekte postuliert. So führt die Onlineenzyklopädie
Wikipedia über 200 kognitive und motivationale Biases (“List of Cognitive Biases”, 2022).
Der Fokus dieser Arbeit liegt auf jenen Effekten, die wissenschaftlich gut untersucht und
gleichzeitig relevant für den organisationalen Planungskontext sind, und keine starke in-
haltliche Redundanz im Vergleich mit anderen Biases aufweisen. Eine nähere Erläuterung
zur Auswahl und Klassifikation von Biases befindet sich in Kapitel 3.5.
3.1 Definition des rationalen Urteils
To think rationally means to adopt appropriate goals, take appropriate action given one’s goals and beliefs, and
hold beliefs that are commensurate with available evidence. (Stanovich, West & Toplak, 2013, S. 263)
Bevor in den folgenden Abschnitten diverse Beispiele für Biases beschrieben werden, die
3 Heuristiken und Biases 37
eine Abweichung von einem rationalen Urteil beinhalten, soll zunächst dargestellt werden,
wie sich im Kontext dieser Arbeit ein rationales Urteil – gegenüber einem durch einen Bias
verzerrtes Urteil – definiert.
Als Maßstab für eine objektive Entscheidungsanalyse wird häufig das Prinzip des Erwar-
tungswerts verwendet. Dazu werden unterschiedliche Handlungsalternativen ermittelt und
verglichen. Der Erwartungswert einer Handlungsalternative ist das arithmetische Mittel
aller denkbaren monetären Ergebnisse einer Handlung, die jeweils mit ihrer Eintrittswahr-
scheinlichkeit gewichtet sind.
E[X] = x1p1 + x2p2 + ...+ xkpk
E ist der Erwartungswert der Handlungsalternative, mit x wird jeweils ein denkbares Er-
gebnis bezeichnet und p ist die zugehörige Wahrscheinlichkeit mit der das Ergebnis in
Abhängigkeit der Handlungsalternative eintritt. In der Summe der k Produkte aus Er-
gebnissen und zugehörigen Wahrscheinlichkeiten ergibt sich der Erwartungswert für die
entsprechende Handlungsalternative. Anschließend fällt die Entscheidung auf jene Hand-
lungsalternative mit dem höchsten Erwartungswert.
Wegen des rein monetären Vergleichs der resultierenden Erwartungswerte, kommt das Mo-
dell jedoch schnell an seine Grenzen. Zum einen lassen sich die Modellparameter, wie die
denkbaren Resultate oder die zugehörigen Eintrittswahrscheinlichkeiten, in der komple-
xen Planungsrealität nicht so einfach monetär bestimmen, wie dies in spieltheoretischen
Gedankenexperimenten möglich ist. Zum anderen ist auch bei bekannten Risiken nicht
in allen Situationen die Alternative mit dem höchsten monetären Erwartungswert die
rationalste. Andernfalls wären jegliche Risikoversicherungen irrational, da eine Versiche-
rung immer einen negativen Erwartungswert für den Versicherungsnehmer aufweist, da
die Versicherungsgesellschaft von den eingenommenen Prämien, neben den ausgezahlten
Schadenssummen, auch Gehälter und sonstige Kosten des Betriebs trägt. Dennoch ist
der Abschluss einer Versicherung häufig nicht irrational, da sie nicht mit Gewinnabsicht
abgeschlossen wird, sondern in der Regel um seltene, aber potenziell ruinöse Risiken ab-
zusichern. Die Risikobereitschaft im Rahmen eines Planungs- und Entscheidungsprozesses
ist subjektiv und situationsabhängig und lässt sich entsprechend nicht allein über den
monetären Erwartungswert bestimmen.
Tversky und Kahneman (1981) nennen die Expected Utility Theory als Referenzmodell für
rationale Entscheidungen unter Unsicherheit. Bei der Expected Utility Theory wird nicht
der rein monetäre Wert angenommen, sondern jedem für möglich gehaltenen Resultat ein
subjektiver Nutzwert zugeordnet, der dann analog zum Erwartungswert mit der Eintritts-
wahrscheinlichkeit dieses Resultats multipliziert wird, um anschließend die Handlungsal-
ternative auszuwählen, die den höchsten Nutzwert aufweist. Die Expected Utility Theory
3 Heuristiken und Biases 38
bietet neben der Definition einer rationalen Entscheidung bereits Handlungsimplikationen
für rationale Entscheidungsprozesse unter Ungewissheit, da Entscheidungsträger gefordert
sind, verschiedene Handlungsalternativen zu entwickeln und für diese alle möglichen Re-
sultate und die zugehörigen Wahrscheinlichkeiten zur Gewichtung abzuleiten. Allein durch
das Absolvieren dieses Prozesses können gewisse Biases, zum Beispiel der Anchoring Effect
(Kapitel 3.2.2) oder der Confirmation Bias (Kapitel 3.2.4), potenziell verringert werden,
wenn die Gruppe sich nicht unbewusst auf eine Handlungsoption fokussiert, bevor weitere
Alternativen erschöpfend diskutiert wurden. Auf dieser Erkenntnis basiert zum Beispiel die
in Kapitel 1.1 beschriebene MAUT als Leitfaden zur strukturierten Entscheidungsfindung.
Die Entscheidungsmodellierung mittels Expected Utility weist außerhalb von spieltheo-
retischen Situationen – bei zunehmender Komplexität des Entscheidungskontextes – ver-
mehrte Einschränkungen auf. Eine Problematik von Urteils- und Entscheidungsprozessen
im Kontext organisationaler Planungsprozesse liegt darin, dass in einer komplexen Welt
eine Entscheidung auf einer Dimension irrational sein kann, auf einer anderen jedoch ratio-
nal. Wie zu Beginn dieser Arbeit beschrieben, sind nützliche Heuristiken und verzerrende
Biases zwei Seiten der gleichen Medaille, und es hängt vom Kontext ab, ob die Heuristik
beziehungsweise der Bias zu einer rationalen oder irrationalen Entscheidung führt. Dabei
können beiden Seiten auch in Abhängigkeit der Dimension betrachtet werden, bezüglich
der man eine Entscheidung als rational beziehungsweise irrational bewertet. Eine durch
einen Bias verzerrte Entscheidung im organisationalen Planungsprozess, die negativ für
das Vorhaben ist, kann für das Individuum oder die Gruppe einen positiven Effekt haben,
ohne dass ein derartiger Kompromiss bewusst in Kauf genommen wird. Es ist vielmehr so,
dass Biases als adaptive Prozesse nicht nur aus mangelnden kognitiven Kapazitäten entste-
hen, wie es bei kognitiven Biases – zum Beispiel der Availability Heuristic (Kapitel 3.2.1)
– primär der Fall ist, sondern in einigen Fällen einen motivationalen Charakter aufweisen,
sogenannte Hot Biases. Dazu zählt zum Beispiel der Self-Serving Bias (Kapitel 3.3.1), dem
ein selbstwerterhaltender Attributionsstil zugrunde liegt. Der Self-Serving Bias führt dazu,
dass eine selbstwertdienliche Attribution das psychologische Wohlbefinden erhöht, obwohl
es für einen organisationalen Planungsprozess rational wäre, wenn die betroffene Person
eigene Fehler eingesteht und entsprechende Konsequenzen berücksichtigt beziehungsweise
kommuniziert. Analog dazu wurde in Kapitel 2.3 beschrieben, dass gruppendynamische
Biases aus sozialen Bedürfnissen entstehen, die zum Beispiel die Gruppenkohäsion stär-
ken. So dienen unterschiedliche Facetten von Groupthink dazu, das Ansehen in der Gruppe
oder die Harmonie innerhalb der Gruppe aufrecht zu erhalten. Sich gegen die Gruppen-
meinung zu stellen, ist für die Urteile und Entscheidungen in organisationalen Vorhaben
jedoch häufig förderlich, da dieses Verhalten dazu führen kann, dass neue Perspektiven
diskutiert werden. In Kapitel 4 wird die Rolle der Organisationskultur bei der Prägung
der Denk- und Verhaltensmuster der Gruppenmitglieder besprochen sowie auch die Rolle,
die diese beim Auflösen dieser Zielkonflikte, und somit potenziell auch bei der Reduzierung
3 Heuristiken und Biases 39
bestimmter Biases, spielt.
Ein weiterer für die Praxis wichtiger Aspekt bei der Entscheidungsfindung ist das Be-
wusstsein für den Einsatz, der bei einer einzelnen Entscheidung auf dem Spiel steht, und
dessen Relevanz für den Erfolg des gesamten Vorhabens. So ist es häufig rational, seine
Entscheidung zugunsten der zeitlichen Effizienz nicht zu optimieren, wenn die Konsequen-
zen und Wechselwirkungen gering sind, und deshalb eine schnelle implizite Entscheidung
zielführend ist. Dieses Verhalten entspricht dem Prinzip des Satisficing, das beschreibt,
dass eine Person sich mit einer suboptimalen Entscheidung zufrieden gibt, wenn eine Ent-
scheidung keine hohe Bedeutsamkeit hat und/oder eine optimale Lösung schwierig oder
unmöglich ist (Simon, 1956). Bei wenig einflussreichen Sachverhalten, die keine Wechsel-
wirkung mit relevanteren Fragestellungen aufweisen, kann der gleiche Effekt anstatt als
Bias als adaptive Heuristik betrachtet werden, wenn diese zu einer schnellen – und im Fall
von gruppendynamischen Effekten harmonischen – Entscheidungsfindung mit zufrieden-
stellendem Ergebnis nach diesem Prinzip führt. In der Konsequenz bleiben mehr kognitive
und zeitliche Ressourcen für einflussreiche Aspekte des Planungsprozesses. Bei Entschei-
dungen mit einem hohen Einsatz sollten im Gegensatz dazu so viele Informationen, wie
mit vertretbarem Aufwand möglich, in den Prozess einbezogen werden, was dem Konzept
Optimizing entspricht.
Für die Zielstellung dieser Arbeit lässt sich festhalten, dass eine rationale Entscheidung
erfordert, dass möglichst vollständig alle verfügbaren Handlungsoptionen, und für jede die-
ser Handlungsoptionen die möglichen Konsequenzen, extrahiert werden. Außerdem sollte
für jede dieser möglichen Konsequenzen festgelegt werden, wie diese mit den Zielen bezie-
hungsweise Präferenzen der Organisation zu gewichten sind, und wie hoch deren Eintritts-
wahrscheinlichkeiten geschätzt werden. Da es im Rahmen dieser Arbeit nicht möglich ist,
diese Komplexität bei der Definition des rationalen Urteils vollständig abzubilden, wird
die oben beschriebene, und in der Forschung zu Biases verbreitete, Perspektive der Ex-
pected Utility Theory angenommen. Das Anliegen dieser Arbeit ist es ohnehin eher, die
Zielkonflikte zwischen der Güte des Planungsprozesses und abweichenden Interessen im
Rahmen der Organisationskultur aufzuzeigen, und das Potenzial zur Reduzierung derarti-
ger Zielkonflikte zu beschreiben. Ein solcher Zielkonflikt ließe sich zum Beispiel auflösen,
wenn das Äußern von Widersprüchen gegenüber der Führungskraft als durch die Organi-
sationskultur impliziertes erwünschtes Verhalten wahrgenommen wird (vgl. Kapitel 4).
3.2 Kognitive Biases
The subjective assessment of probability resembles the subjective assessment of physical quantities such as distance
or size. These judgments are all based on data of limited validity, which are processed according to heuristic rules.
(Tversky & Kahneman, 1974, S. 1124)
3 Heuristiken und Biases 40
In Kapitel 1 und 2.2 wurde die grundlegende Funktionsweise kognitiver Prozesse im Rah-
men der Dual-Process-Theories sowie deren Basis für Heuristiken und Biases beschrieben.
System-1-Operationen sind demnach eine bestimmte Art von Heuristiken, die implizit,
also unbewusst, ablaufen. Diese Heuristiken ermöglichen es, in einer komplexen Umwelt,
in der unzählige Urteile und Entscheidungen getroffen werden müssen, zu agieren, ohne
sehr schnell an die Grenzen der eigenen kognitiven Ressourcen zu stoßen. Möglich wird der
Einsatz von intuitiven Heuristiken dadurch, dass komplexe kognitive Operationen durch
Training und Erfahrung zu Wissensschemata oder Verhaltensskripten gebündelt werden,
die im passenden Kontext – als Hinweisreiz – automatisch abgerufen beziehungsweise
ausgeführt werden (vgl. Kapitel 2.2). Das erklärt zum Beispiel, warum Experten durch
Mustererkennung Situationen sehr schnell erfassen und ihr Bewusstsein auf die kritischen
Informationen richten können, während Anfänger die gesamte Situation erst aufwändig
analysieren müssen und somit ggf. länger brauchen oder wichtige Dinge übersehen. Heu-
ristiken können dabei implizit oder explizit erlernt werden. Schachmeister sind in der Lage
durch Mustererkennung die Stärken und Schwächen bestimmter Positionen unmittelbar zu
erfassen, während Amateure die unterschiedlichen Facetten solcher Positionen noch durch
anspruchsvolle, serielle kognitive Prozesse analysieren müssen (Kahneman & Frederick,
2009). Die intuitiven Heuristiken (System 1) wurden hierbei also durch Wiederholung aus
expliziten System-2-Prozessen gebildet. Das gleiche Prinzip gilt dabei auch für viele all-
tägliche Handlungskomplexe, die Menschen automatisiert durchführen, und die sie zuvor
explizit erlernt haben. Andere System-1-Operationen werden nicht nur implizit angewen-
det, sondern auch implizit erlernt. Ein Faktor, der implizite Lernprozesse fördert sind
dabei kulturelle Einflüsse:
Similarly, prolonged cultural exposure eventually produces a facility for social judgments – e.g. an ability to recognize
quickly that ’a man whose dull writing is occasionally enlivened by corny puns’ is more similar to a stereotypical
computer programmer than to a stereotypical accountant. (Kahneman & Frederick, 2009, S. 51)
Die Rolle der Kultur allgemein und speziell der Organisationskultur bezüglich implizi-
ter Heuristiken und Biases wird in Kapitel 4.3 näher erläutert. Explizit und besonders
implizit erlernte System-1-Operationen sind so allgegenwärtig und treffsicher, dass Men-
schen sie kaum als Heuristiken bemerken. Dazu gehören viele Perzeptionsprozesse, wie die
Distanzeinschätzung eines Objektes aufgrund der Verhältnisse von Größe, Schärfe und Di-
stanz, die sich sehr anschaulich durch bestimmte optische Täuschungen aufdecken lassen
(vgl. Abbildung 1), aber auch im realen Alltag zu Fehlurteilen führen können. So über-
schätzen Menschen zum Beispiel die Distanz eines Berges bei Nebel, da der Nebel den
Berg unschärfer erscheinen lässt. Nach Kahneman und Frederick (2009) führt der Nebel
dabei nicht unmittelbar zu einem Bias, da Menschen grundsätzlich in der Lage wären, ihn
durch bewusste Denkprozesse als Variable bei der Distanzschätzung zu berücksichtigen
und die Schätzung entsprechend nach unten zu korrigieren. Problematisch ist das fälsch-
liche Anwenden einer Heuristik also besonders dadurch, dass es sich um ein unbewusstes
3 Heuristiken und Biases 41
Fehlurteil handelt, das entsprechend nicht korrigiert wird und sich folglich als kognitiver
Bias in einem Urteil manifestiert. System 1 reagiert spontan auf Entscheidungsprobleme
und schlägt unmittelbar eine Reaktion vor. System 2 überwacht lediglich die Qualität des
Urteils und bestätigt, korrigiert oder überschreibt diese. Wenn das von System 1 vorge-
schlagene Urteil unmodifiziert zur Handlung führt, kann von einer verzerrten intuitiven
Entscheidung beziehungsweise einem Bias gesprochen werden (Kahneman & Frederick,
2009). Der Bias entsteht also erst durch das Ausbleiben der Korrektur und damit erst
durch ein gleichzeitiges Versagen von System 1 und System 2.
Das Ausbleiben der Korrektur impliziter Fehlurteile durch explizite System-2-Prozesse ist
allgegenwärtig, denn Urteile – zum Beispiel im Kontext des Confirmation Bias (Kapitel
3.2.4) oder der Availability Heuristic (Kapitel 3.2.1) – gehen häufig mit einem zufrieden-
stellenden Gefühl bezüglich des Urteils einher, und entsprechend bleibt die analytische
Korrektur aus. Dieses Phänomen lässt sich über das Konstrukt WYSIATI (Kahneman,
2011) erklären, demnach Menschen die implizite Neigung besitzen, die ihnen bekannten
Informationen mit den insgesamt existierenden Informationen zu einem Thema zu kon-
fundieren und somit die Informationssuche vorschnell einzustellen:
An essential design feature of the associative machine is that it represents only activated ideas. Information that is
not retrieved (even unconsciously) from memory might as well not exist. System 1 excels at constructing the best
possible story that incorporates ideas currently activated, but it does not (cannot) allow for information it does
not have. The measure of success for System 1 is the coherence of the story it manages to create. The amount and
quality of the data on which the story is based are largely irrelevant. When information is scarce, which is a common
occurrence, System 1 operates as a machine for jumping to conclusions. Consider the following: ’Will Mindik be
a good leader? She is intelligent and strong ...’ An answer quickly came to your mind, and it was yes. You picked
the best answer based on the very limited information available, but you jumped the gun. What if the next two
adjectives were corrupt and cruel? (Kahneman, 2011, S.85)
Dadurch, dass Heuristiken auf Erfahrungsdaten beruhen, sind sie umso fehleranfälliger, je
komplexer die Entscheidungssituation ist, also je mehr Einflussvariablen den Problemraum
bestimmen (vgl. Kapitel 2.1). Dieser Sachverhalt lässt sich dadurch erklären, dass bei stei-
gender Anzahl von Einflussgrößen, die Anzahl an alternativen Ausgangslagen exponentiell
steigt. Entsprechend dauert es länger, bis der Experte genug Informationen gesammelt hat,
um alle möglichen Situationen zu kennen oder es – anders gesagt – immer wahrscheinli-
cher wird, dass neue unbekannte Situationen auftreten, mit denen der Experte noch keine
Erfahrungen hat. Hieran lässt sich erkennen, warum implizite Expertise in bestimmten
Situationen, die einen gewissen Wiederholungsgrad mit einer überschaubaren Anzahl an
Variablen aufweist, essenziell wichtig und förderlich ist, während eine langjährige Exper-
tise in organisationalen Planungsprozessen zwar einerseits auch sehr hilfreich sein kann,
in einer sich stärker verändernden Umwelt gleichzeitig aber auch negative Konsequenzen
– durch die inadäquate Verwendung impliziter Heuristiken – mit sich bringen kann (vgl.
Kapitel 1.1).
3 Heuristiken und Biases 42
Daraus leitet sich der besondere Stellenwert des Themas kognitiver Biases für Planungs-
und Entscheidungsprozesse in Organisationen ab, die durch situationsspezifische und kom-
plexe Situationen geprägt sind (vgl. Kapitel 2.1). Außerdem wird in diesem Kontext deut-
lich, warum bestimmte motivationale Biases, wie Overconfidence (Kapitel 3.3.2) und Op-
timism (Kapitel 3.3.3), im Zusammenhang mit kognitiven Einschränkungen in derartigen
Prozessen eine so große Tragweite haben. Selbstüberschätzung oder Überoptimismus füh-
ren tendenziell dazu, dass korrigierende System-2-Prozesse nicht aktiviert werden. Analog
zu dem Beispiel der Distanzwahrnehmung eines Berges ist es leicht vorstellbar, dass ein
Experte in Planungsprozessen, der sich ähnelnde Situationen zigfach erlebt hat, ein so
großes Vertrauen in sein Urteil hat, dass er sich auf seine intuitiven System-1-Prozesse
verlässt und sich gewisse neuartige Variablen seiner Aufmerksamkeit entziehen, so dass
er keinen Hinweisreiz bemerkt, der System-2-Prozesse aktiviert. Die Basis motivationaler
Biases wird in Kapitel 3.3 dezidiert behandelt.
Es lässt sich festhalten, dass heuristische System-1-Urteile Komplexität reduzieren und
meist akkurat sind und die deshalb notwendige und positive Prozesse darstellen. Darüber
hinaus finden sie im Alltag in der Regel in Situationen statt, in denen die Konsequen-
zen, bei einer nur annähernd akkuraten Anwendung, vernachlässigbar sind und somit die
Vorteile der regelmäßigen Ersparnis kognitiver Ressourcen überwiegen. Dazu gehören zum
Beispiel viele Konsumentscheidungen, bei denen die Konsequenzen der Entscheidung so
gering sind, dass ein heuristisches Vorgehen selbst bei einem suboptimalem Ergebnis zu
bevorzugen ist (vgl. Kapitel 3.1). Organisationale Planungsprozesse, wie sie in wichtigen
Vorhaben und Projekten stattfinden, zeichnen sich dadurch aus, dass sie neuartig und kom-
plex sind (vgl. Kapitel 2.1) und, dass Entscheidungen in diesen Vorhaben einflussreiche
Konsequenzen haben. Zudem setzen sich komplexe Vorhaben aus etlichen Einzelurteilen
zusammen, bei denen sich jeweils geringe Risiken unbeachtet aufsummieren können. Es
handelt sich also um Prozesse, in denen es entscheidend ist, dass alle Planungsschritte be-
züglich Informationsbeschaffung, -aufbereitung und -darstellung, sowie die damit zusam-
menhängenden Generierung von Handlungsalternativen und abschließenden Entscheidung,
strukturiert und analytisch erfolgen.
3.2.1 Availability Heuristic
Uncertainty is an unavoidable aspect of the human condition. Many significant choices must be based on beliefs
about the likelihood of such uncertain events as the guilt of a defendant, the result of an election, the future value
of the dollar, the outcome of a medical operation, or the response of a friend. Because we normally do not have
adequate formal models for computing the probabilities of such events, intuitive judgment is often the only practical
method for assessing uncertainty. (Tversky & Kahneman, 1983, S. 1)
Menschen beurteilen Häufigkeiten oder Wahrscheinlichkeiten in der Regel anhand der
Leichtigkeit, mit der sie Beispiele oder Assoziationen dieser Kategorie erinnern können.
3 Heuristiken und Biases 43
Dieser Prozess wird als Availability Heuristic bezeichnet (Tversky & Kahneman, 1973).
Wenn Personen die Häufigkeit oder Wahrscheinlichkeit einer Kategorie schätzen, werden
Beispiele dieser Klasse aus dem Gedächtnis abgerufen. Je nachdem, wie einfach dieser Ab-
ruf ist und wie viele Beispiele erzeugt werden, wird die Kategorie als groß beziehungsweise
häufig oder wahrscheinlich geschätzt (Kahneman, 2011). Die Leichtigkeit der Erinnerung
ist in der Regel mit der Menge an erinnerten Beispielen konfundiert. Werden diese getrennt
untersucht, ist die Leichtigkeit der Erinnerung der einflussreichere Prädiktor (Schwarz,
Vaughn, Gilovich, Griffin & Kahneman, 2009). Wenn eine Person zum Beispiel gefragt
wird, ob es mehr englische Wörter gibt, die mit dem Buchstaben t oder dem Buchstaben
k beginnen, wird diese Person spontan Beispiele für Wörter mit diesen Anfangsbuchsta-
ben aus dem Gedächtnis abrufen und wahrscheinlich korrekterweise zu dem Schluss kom-
men, dass mehr Wörter existieren, die mit t beginnen (Medin, Ross & Markman, 2005).
Die Annahme, dass, wenn Beispiele einer Kategorie leichter und in größerer Anzahl erin-
nert werden können, diese auch tatsächlicher häufiger oder wahrscheinlicher sind, ist eine
meistens korrekte Annahme, die jedoch in manchen Situationen zu Fehlurteilen führen
kann (Schwarz et al., 2009). Wurden Probanden zum Beispiel gefragt, ob der Buchstabe
r häufiger an erster Stelle oder dritter Stelle eines Wortes steht, antworteten 105 von 152
Personen fälschlicherweise, dass r häufiger an erster Stelle steht, da es ihnen einfacher
fiel, die passenden Beispiele abzurufen (Tversky & Kahneman, 1973). In einem weiteren
Experiment präsentierten Tversky und Kahneman (1973) den Probanden jeweils zwei Lis-
ten, eine davon mit geringfügig bekannten Persönlichkeiten und eine mit sehr bekannten
Persönlichkeiten. Die beiden Listen enthielten entweder 19 sehr bekannten Frauen und 20
geringfügig bekannte Männer oder 19 sehr bekannte Männer und 20 geringfügig bekannte
Frauen. Anschließend beantworteten 80 von 99 Probanden die Frage nach dem Geschlech-
terverhältnis falsch, indem sie das Geschlecht mit den bekannteren Persönlichkeiten als
häufiger einstuften, entsprechend der Hypothese, dass es ihnen leichter fällt, die Beispiele
dieser Kategorie aus dem semantischen Gedächtnis abzurufen.
Der Availability Bias führt auch zu einer verzerrten Risikowahrnehmung. So fanden Lich-
tenstein et al. (1978) heraus, dass Menschen das Risiko verschiedener Todesursachen sys-
tematisch verzerren. Dabei überschätzen Probanden die Gefahr durch unnatürliche oder in
den Medien stärker vertretene Todesursachen, wie Mord, Verkehrsunfälle oder Naturkata-
strophen, während natürliche Todesursachen, über die wenig berichtet wird, zum Beispiel
Herz-Kreislauf-Erkrankungen, Schlaganfälle oder Lungenkrebs unterschätzt werden. Ob-
wohl Magenkrebs als Todesursache 5 mal häufiger vorkommt als Tötungen, schätzten die
Probanden, dass Tötungen 1,6 mal häufiger sind als Magenkrebs. Als Ursache sehen die
Autoren, dass die überproportionale Berichterstattung der überschätzten Todesursachen
im Kontext der Availability Heuristic zu einem erhöhten Abruf derartiger Beispiele aus der
Kategorie Todesursachen führt. Gefahren wie Mord oder eine Flut können zudem bildhaf-
ter abgerufen werden, als zum Beispiel langsam und leise voranschreitende Krankheiten
3 Heuristiken und Biases 44
wie Krebs.
M. Ross und Sicoly (1979) untersuchten Implikationen des Availability bezüglich der Leis-
tungsattribution:
Consider the following: You have worked on a research project with another person, and the question arises as to
who should be ’first author’ (i.e., who contributed more to the final product?). Often, it seems that both of you feel
entirely justified in claiming that honor. Moreover, since you are convinced that your view of reality must be shared
by your colleague (there being only one reality), you assume that the other person is attempting to take advantage
of you. (M. Ross & Sicoly, 1979, S. 322)
Die Autoren fanden heraus, dass neben motivationalen Faktoren, die im Rahmen der ent-
sprechenden Biases ab Kapitel 3.3 detaillierter beschrieben werden, auch die Availability
Heuristic als primär kognitiver Effekt, eine egozentrische Sichtweise begünstigt. Es zeigte
sich, dass die größere Verfügbarkeit beim Abruf entsprechender Informationen dazu führt,
dass Probanden den Anteil ihres Beitrags so überschätzen, dass die Summe der Schätzun-
gen der Einzelleistungen am Gesamtbeitrag stets über 100% liegt. Der Effekt zeigte sich in
verschiedenen Kontexten, bei der Befragung natürlicher Gruppen, wie zum Beispiel ver-
heirateten Paaren oder Basketballteams sowie randomisierten Gruppen in experimentellen
Untersuchungen (M. Ross & Sicoly, 1979).
Wenn für die Häufigkeits- oder Wahrscheinlichkeitsschätzung irrelevante Störvariablen die
Leichtigkeit der Erinnerung beeinflussen, oder wenn sich trotz einer viel zu geringen Stich-
probe von Erinnerungen bereits ein Gefühl der Zufriedenheit mit dem Urteil einstellt, sind
Fehlurteile wahrscheinlich:
When asked to form a judgment, people rarely retrieve all information that may bear on the task, but truncate
the search process as soon as enough information has come to mind to form a judgment with sufficient subjective
certainty. Accordingly, the judgment is based on the information most accessible at the time. (Schwarz et al., 2009,
S. 104)
Im voreiligen Gefühl der Zufriedenheit mit einem Urteil zeigt sich die Wirkung des Prinzips
WYSIATI, welches wesentlich für sämtlich kognitive Biases ist, indem ein unzureichender
Abruf von Informationen (Availability Heuristic) beziehungsweise eine unzureichende Su-
che nach oder Interpretation von Informationen (Confirmation Bias) keine Aktivierung
von System-2-Prozessen auslöst.
Die kognitive Wirkungsart der Availability Heuristic lässt sich über den Prozess der At-
tribute Substitution erklären (Kahneman & Frederick, 2009). Attribute Substitution be-
schreibt den Prozess der unbewussten Beantwortung einer einfacheren Frage anstelle der
ursprünglichen schwereren Frage. Eine Mitarbeiterin, die gefragt wird: „Wie hoch schät-
zen Sie die das Risiko ein, dass das Projekt scheitert?“, antwortet möglicherweise so, als
ob sie gefragt worden wäre: „Fallen Ihnen Beispiele ähnlicher Projekte ein, die gescheitert
sind?“ und stützt ihre Antwort dabei auf die Leichtigkeit, mit der ihr Beispiele für ähnliche
gescheiterte Projekte einfallen. Es ist leicht vorstellbar, dass die Availability Heuristic in
3 Heuristiken und Biases 45
dem Beispiel zu einem intuitiven Fehlurteil führt. Zum einen stellt die Gesamtzahl ähn-
licher Projekte, die die Mitarbeiterin theoretisch aus ihrem Gedächtnis abrufen könnte,
wahrscheinlich eine zu kleine – und damit nicht repräsentative – Stichprobe der Grundge-
samtheit dieser Art von Projekten dar. Die Problematik der erfahrungsbasierten Expertise
in komplexen und situationsspezifischen Situationen wurde in Kapitel 1.1 erläutert. Au-
ßerdem werden, wie beschrieben, plötzliche, lebendige und emotionale Ereignisse leichter
erinnert, als schleichende unspektakuläre Ereignisse (Nisbett & Ross, 1980), wodurch der
Gedächtnisabruf ebenfalls verzerrt wird.
3.2.2 Anchoring Effect
A well-intentioned child who turns down exceptionally loud music to meet a parent’s demand that it be played at
a ’reasonable’ volume may fail to adjust sufficiently from a high anchor, and may feel that genuine attempts at
compromise are being overlooked. (LeBoeuf & Shafir, 2006, S. 12)
Der Anchoring Effect tritt auf, wenn ein Urteil durch eine zuvor präsentierte Informati-
on verzerrt wird. Wenn Personen unter Unsicherheit einen Wert schätzen, starten sie in
vielen Situationen von einem Referenzwert und passen diesen in Richtung der aktuellen
Problemstellung an. Das Phänomen, dass sich das Urteil meistens zu stark am vorherigen
Referenzwert orientiert, beschreibt der Anchoring Effect (Tversky & Kahneman, 1974).
Die unzureichende Anpassung von einem Referenzwert zeigt sich in etlichen Alltagssitua-
tionen, zum Beispiel wenn ein Fahrer von der Autobahn abfährt und sein Tempo nicht
ausreichend reduziert (Kahneman, 2011), oder wenn die Portionsgröße als Orientierung
dafür dient, wie viel eine Person isst, wie in folgendem Beispiel anschaulich illustriert
wird:
Imagine consumers ordering a hamburger at McDonald’s in 1955 and today. In 1955 they would receive a burger
weighing around 1.6 ounces (45 g), whereas today, they would receive a burger that is five times bigger, weighing
around 8 ounces (227 g) (Young & Nestle, 2007). How much food would they consume in each situation? When
deciding how much to eat, a consumer would probably take the size of the burger as a starting point and think
about whether to eat more or less than this portion. Then, they would eat a certain proportion of the food served
– as a result eating much more today than in 1955. (Marchiori, Papies & Klein, 2014, S. 108)
In diesem Beispiel stellt der Grad an Hunger die Problemstellung und der präsentierte
Burger den Referenzwert dar. Das Urteil, wie viel tatsächlich gegessen werden soll, wird
zwar in Abhängigkeit des Hungers nach oben oder unten angepasst, indem nachbestellt be-
ziehungsweise etwas übrig gelassen wird, es orientiert sich aber zu stark an dem servierten
Burger als Referenzwert beziehungsweise Anker.
Der Anchoring Effect ist allgegenwärtig und wurde in diversen Domänen nachgewiesen.
Dazu gehören unter anderem Wissensfragen (Tversky & Kahneman, 1974), Verhandlungen
(Loschelder, Stuppi & Trötschel, 2014), Wahrscheinlichkeitsschätzungen (Plous, 1989) und
3 Heuristiken und Biases 46
Gerichtsurteile (Englich, Mussweiler & Strack, 2006).
Plous (1989) ließ 185 Probanden zunächst schätzen, ob die Wahrscheinlichkeit für einen
Atomkrieg höher oder niedriger als 1% beziehungsweise 90% sei und ließ sie anschließend
eine eigene Schätzung abgeben. Der Anker von 1% führte zu einer durchschnittlichen
Schätzung von 9,1%, während der Anker von 90% dazu führte, dass Probanden das Risiko
mit 20,7% bewerteten. Probanden, die ihre Schätzung ohne vorherigen Anker abgaben,
bezifferten das Risiko mit durchschnittlich 18,6%.
Quattrone et al. (1984) stellten fest, dass auch vollkommen übertriebene Anker, die offen-
sichtlich keinen Informationsgehalt liefern, Schätzungen verzerren. Sie fragten Probanden
vor deren eigenen Schätzung zum Beispiel, ob die Beatles mehr oder weniger als 100.025
Top Ten Hits hatten oder ob der durchschnittliche Preis für ein Fachbuch mehr oder we-
niger als $7128.53 sei. Dieser Anker beeinflusste die Schätzungen entsprechend nach oben
oder nach unten. Und auch Anker, die zufällig sind und mit der Fragestellung nichts zu
tun haben, führen zu Verzerrungen. Tversky und Kahneman (1974) ließen in Anwesenheit
von Probanden ein Glücksrad mit den Zahlen 0 bis 100 drehen. Daraufhin beantworteten
die Probanden jeweils die Frage, ob der prozentuale Anteil der afrikanischen Länder, die
Mitglied der United Nations (UN) sind, niedriger oder höher als die Zahl des Glücksrads
ist. Der Median der Schätzungen war 25% beziehungsweise 45% für die Gruppen, deren
Glücksrad die Zahl 10 respektive 65 anzeigte. Monetäre Anreize für korrekte Schätzungen
reduzierten den Effekt dabei nicht.
Vergleichbare Auswirkungen des Anchoring Effects zeigen sich auch in Studien mit direk-
tem Praxisbezug. So ließen sich Richter und Staatsanwälte mit durchschnittlich zehnjäh-
riger Erfahrung bei der Bewertung von Fallbeispielen in ihrer Strafzumessung von Journa-
listenaussagen und sogar Zufallszahlen (dem Wurf von Würfeln) signifikant beeinflussen
(Englich et al., 2006).
Der Anchoring Effect erklärt auch die Tendenz, dass bei einer Reihe von Informationen
zuerst präsentierte Informationen stärker berücksichtigt werden, da diese einen mentalen
Anker setzen, anhand dessen folgende Informationen eingeordnet werden. Schüler, die nach
fünf Sekunden eine Schätzung für das Ergebnis der Aufgabe 1x2x3x4x5x6x7x8 abgaben,
schätzten als Median 512, während diejenigen, die 8x7x6x5x4x3x2x1 präsentiert bekamen,
2.250 schätzten – die korrekte Antwort ist 40.320 (Tversky & Kahneman, 1974). In der
knappen Zeit rechneten die Schüler potenziell die ersten Schritte und extrapolierten das
Teilergebnis auf die restlichen Zahlen. Dabei adjustierten sie ihre Schätzung zu gering von
dem Teilergebnis. Die Reihenfolge der Präsentation von Informationen beeinflusst also das
Urteil, mit einer Verzerrung in Richtung der anfänglichen Information.
Noch deutlicher wird dieser Effekt und dessen praktische Implikation in folgendem Bei-
spiel. So erklärt der Anchoring-Effekt auch, warum Menschen die Wahrscheinlichkeit von
3 Heuristiken und Biases 47
Einzelereignissen im Vergleich zu der kombinierten Wahrscheinlichkeit mehrerer Einzel-
wahrscheinlichkeiten häufig falsch beurteilen. In einer Studie von Bar-Hillel (1973) sollten
Probanden sich für eine von drei Varianten entscheiden, bei der sie die größte Gewinn-
chance sahen:
1. Eine rote Murmel aus einer Urne zu ziehen, die 50% rote und 50% weiße Murmeln
enthält (simple event).
2. Sieben mal hintereinander eine rote Murmel aus einer Urne zu ziehen, die 90% rote
Murmeln und 10% weiße Murmeln enthält (conjunctive event).
3. Bei sieben Versuchen mindestens eine rote Murmel zu ziehen, aus einer Urne, die zu
10% rote und 90% weiße Murmeln enthält (disjunctive event).
Eine signifikante Mehrheit der Probanden wettete auf die 2. Variante, deren Gewinnchan-
ce bei 48% liegt, während die Gewinnchance bei der 1. Variante 50% beträgt und bei
der 3. Variante 52%. Das Ergebnis bestätigt die systematische Überschätzung der Er-
folgsaussicht bei conjunctive events und Unterschätzung bei disjunctive Events, die sich
auf den Anchoring Effect zurückführen lassen. Die Wahrscheinlichkeit des jeweils ersten
Versuchs bildet den natürlichen Referenzwert, der mit 90% bei der 2. Variante am at-
traktivsten ist. Entsprechend des Anchoring Effects werden die folgenden Bedingungen
zwar bedacht, aber die Adjustierung vom Startpunkt erfolgt nicht ausreichend. Dies führt
dazu, dass die Probanden bei der 2. Variante zuversichtlicher sind und deshalb die ins-
gesamt höhere Fehlerwahrscheinlichkeit, die aus den sieben benötigten Erfolgsziehungen
resultiert, unterschätzen (Tversky & Kahneman, 1974). Der spielerische Charakter dieses
Experiments soll dabei nicht über die praktischen Implikationen der Ergebnisse hinweg-
täuschen. Tversky und Kahneman (1974) betonen die besondere Bedeutung dieses Effekts
für Planungsprozesse. So müssen bei vielen Projekten mehrere einzelne Phasen gelingen,
damit der Plan erfolgreich ist (vgl. Variante 2). Somit wird bei hohen Erfolgsaussichten
einzelner Phasen die Wahrscheinlichkeit, dass das gesamte Vorhaben pünktlich, im Budge-
trahmen oder überhaupt gelingt, tendenziell überschätzt. Der Effekt führt darüber hinaus
zu einer systematischen Unterschätzung von Risiken, bei denen viele sehr geringe Feh-
lerwahrscheinlichkeiten existieren, bezüglich derer es jedoch ausreicht, wenn eine einzige
Fehlerwahrscheinlichkeit eintritt (vgl. Variante 3), damit sich das Risiko materialisiert. So-
mit unterschätzen Menschen das Risiko des Versagens bei komplexen Systemen wie dem
menschlichen Körper oder einem Nuklearreaktor, da hier der Anker der einzelnen sehr
geringen Wahrscheinlichkeiten wirkt (Tversky & Kahneman, 1974). Dieser Effekt spielt
entsprechend auch eine Rolle bei der Entstehung des Optimism Bias (Kapitel 3.3.3).
Auch der zuvor beschriebene, durch den Anchoring Effect implizierte Reihenfolgeeffekt
hat Implikationen für organisationale Planungsprozesse. Geben zum Beispiel in einem
organisationalen Planungsprozess mehrere Mitarbeiter eine Schätzung zur Dauer oder den
3 Heuristiken und Biases 48
Kosten eines Vorhabens ab, so ist es wahrscheinlich, dass die als erstes geäußerte Schätzung
für die restlichen Mitarbeiterinnen einen Anker setzt, von dem sie zwar abweichen, der
ihnen jedoch als Orientierungspunkt dient und damit ihre Einschätzung beeinflusst.
3.2.3 Sunk-Cost Fallacy
Should I continue this unhappy relationship? I have already put so much into it. Should I continue with this terrible
job? I spent a year in training to get this position. We suspect that many bad movies are seen to their completion
simply because once the viewer realizes how poor the movie is, several minutes and dollars have already been
invested. This sunk cost promotes lingering until the bitter end. (Arkes & Blumer, 1985, S. 126)
Die Sunk-Cost Fallacy bezeichnet die Neigung, ein Unterfangen, in das bereits Zeit, Geld
oder Mühe investiert wurde, fortzuführen, obwohl es aus gegenwärtiger Sicht sinnvoller
wäre, das Vorhaben abzubrechen und weitere Ressourcen woanders einzusetzen (Arkes
& Blumer, 1985). In der Vergangenheit getätigte Investitionen beeinflussen also aktuelle
Entscheidungen, obwohl letztere sich lediglich an der gegenwärtigen Situation und der
Zukunftserwartung orientieren sollten:
The sunk-cost fallacy keeps people for too long in poor jobs, unhappy marriages, and unpromising research projects.
I have often observed young scientists struggling to salvage a doomed project when they would be better advised
to drop it and start a new one. (Kahneman, 2011, S. 346)
Arkes und Blumer (1985, S. 126) testeten die Sunk-Cost Fallacy mit folgendem Gedan-
kenexperiment:
Assume that you have spent $100 on a ticket for a weekend ski trip to Michigan. Several weeks later you buy a $50
ticket for a weekend ski trip to Wisconsin. You think you will enjoy the Wisconsin ski trip more than the Michigan
ski trip. As you are putting your just-purchased Wisconsin ski trip ticket in your wallet, you notice that the Michigan
ski trip and the Wisconsin ski trip are for the same weekend! It’s too late to sell either ticket, and you cannot return
either one. You must use one ticket and not the other. Which ski trip will you go on?
54% der Probanden entschieden sich für den $100 Skitrip nach Michigan, anstatt des als
besser erwarteten $50 Skitrips nach Wisconsin. In einem weiteren Experiment verglichen
Arkes und Blumer (1985) in einer Feldstudie Personen, die eine Dauerkarte für das Ohio
University Theater zum Normalpreis erwarben, mit denjenigen, die einen Rabatt erhielten.
Obwohl der Kaufpreis objektiv keinen Einfluss darauf haben sollte, besuchten diejenigen,
die den vollen Preis bezahlt hatten anschließend mehr Aufführungen als diejenigen, die
einen Rabatt erhalten hatten.
Ronayne, Sgroi und Tuckwell (2021) gaben Probanden als Belohnung für ihre Bemühun-
gen bei der Erledigung einer Testaufgabe jeweils ein Lottoticket, mit dem sie eine 10%
Chance erhielten, $10 zu gewinnen (andererseits $0). Obwohl die Probanden anschließend
die Möglichkeit erhielten, dieses Ticket gegen ein anderes Ticket einzutauschen, dass eine
20% Chance auf den Gewinn von $10 versprach, behielten immerhin 23% der Probanden
3 Heuristiken und Biases 49
das offensichtlich unterlegene Ticket, für das sie einen Einsatz erbringen mussten.
Die Sunk-Cost Fallacy, die synonym auch mit dem Begriff Escalation of Commitment be-
schrieben wird, ist natürlich nicht auf Alltagssituationen beschränkt, sondern hat einen
starken Einfluss auf organisationale Planungsprozesse. Escalation of Commitment ist ein
häufiges Phänomen in organisationalen Planungsprozessen, in denen bereits eine bedeut-
same Menge an Ressourcen wie Arbeitszeit oder Geld investiert wurden, ohne dass der
erwartete Verlauf erreicht werden konnte. Bei der Wahl, ob das Vorhaben abgebrochen
oder trotz zusätzlicher Kosten fortgeführt werden soll, besteht die beschriebene irrationale
Tendenz zur Fortführung. Zum Beispiel begann ein amerikanischer Versorger, die Long Is-
land Lighting Company, in den 1970er Jahren den Bau des Shoreham Atomkraftwerk. Die
ursprünglich geplanten Kosten wurden mit $70 Millionen angesetzt. Aufgrund einer langen
Reihe von Kostenüberschreitungen und Verzögerungen bezüglich regulatorischer Anforde-
rungen und einem zunehmenden Widerstand der Öffentlichkeit gegenüber der Atomkraft,
steigerten sich die Kosten über 20 Jahre, in denen man an dem Vorhaben festhielt, kon-
tinuierlich auf zuletzt $5 Milliarden. Das Kraftwerk wurde nie zu kommerziellen Zwecken
in Betrieb genommen und schließlich zurückgebaut (Staw, 1996).
Eine Schwierigkeit komplexer Projekte liegt darin, dass im Zeitverlauf wiederholt Investi-
tionen getätigt werden müssen, bevor sich die Vorteile des Vorhabens erst am Ende eines
langen Prozesses materialisieren. Wenn nun ein Projekt angelaufen ist und nach einer
gewissen Zeit und einem gewissen Ressourceneinsatz neue Informationen verfügbar sind,
die verdeutlichen, dass es sinnvoller wäre, das Projekt zu beenden, entsteht das Dilemma.
Ein möglicher Abbruch des Projekts erzeugt im Management das Gefühl, dass vorheri-
ge Ressourcen „verschwendet“ wurden, selbst wenn es zu Beginn eine gute Entscheidung
war, das Projekt zu starten und nun nicht vorhersehbare Entwicklungen die Lage ver-
ändert haben. So entsteht die sprichwörtliche Tendenz, dem schlechten Geld gutes Geld
hinterherzuwerfen (Parayre, 1995).
Daraus ergibt sich in organisationalen Vorhaben eine irrationale Tendenz zur Fortführung
von Projekten, trotz eines vom aktuellen Stand aus unverhältnismäßig hohen weiteren
Ressourceneinsatzes oder sonstiger Risiken. Dies umfasst zum einen die beschriebene Ten-
denz, bei drohenden Verlusten eine zu hohe Risikobereitschaft zu zeigen, um die Verluste
wieder zu kompensieren. Andererseits besteht bei der Möglichkeit eines sicheren Gewinns,
eine irrationale Tendenz, Chancen zur weiteren Gewinnsteigerung auszulassen, um den
bisherigen Gewinn nicht zu gefährden. Das Auslassen von Chancen auf einen größeren
Erfolg, um den bisherigen Erfolg nicht zu gefährden, ist – zumindest aus wirtschaftlich
Sicht – ähnlich kritisch, denn besonders hohe Gewinne in manchen Projekten könnten die
Verluste in anderen Vorhaben kompensieren. Dieses Phänomen wird auch als Loss Aversi-
on bezeichnet und lässt sich auf die Prospect Theory zurückführen (Kahneman & Tversky,
1979).
3 Heuristiken und Biases 50
Einige Autoren wie Friedman, Pommerenke, Lukose, Milam und Huberman (2007) und
McAfee, Mialon und Mialon (2010) bezweifeln die Existenz der Sunk-Cost Fallacy in ihrer
Form als irrationale Urteilsverzerrung. Demnach gäbe es ein breites Spektrum an Situa-
tionen, in denen das Verhalten rational sei. Dazu gehören Bedenken bezüglich der eigenen
Reputation oder finanzielle und zeitliche Beschränkungen. Dem lässt sich entgegensetzen,
dass derartige Kontextfaktoren das Auftreten der Sunk-Cost Fallacy potenziell beeinflussen
oder erklären können, die These, dass es sich um eine irrationale Entscheidungsverzerrung
handelt, jedoch intakt bleibt. Würde man sämtliche Dimensionen eines Urteils bezüg-
lich dessen Rationalität bewerten, ließe sich, analog zu der Kritik an der Existenz der
Sunk-Cost Fallacy, ein großer Teil suboptimaler Entscheidungen rechtfertigen. So wurde
eingangs und für unterschiedliche konkrete Beispiele beschrieben, dass Biases auf impli-
ziten Heuristiken beruhen, die auftreten, weil sie einen adaptiven Wert haben, jedoch in
Abhängigkeit der Aufgabenstellung zu Verzerrungen führen. Bei kognitiven Biases zeigt
sich hierbei, z. B. im Fall der Availability Heuristic, ein Tradeoff zwischen dem Einsatz
kognitiver Ressourcen und der Akkuratheit des Urteils. Nach dem Prinzip des Cognitive
Misers und der Bounded Rationality reicht ein suboptimales Urteil in vielen Fällen aus,
ein Vorgang der als Satisficing beschrieben wird. Beim Optimising hingegen, würde eine
Person so viele kognitive und zeitliche Ressourcen wie möglich einsetzen, um das Urteil
so gut es geht zu optimieren. Bei der motivationalen Komponente von Biases findet der
Tradeoff zwischen einem rationalen Urteil und persönlichen Bedürfnissen, wie dem Selbst-
werterhalt, der Harmonie in der Gruppe oder dem psychologischen Wohlbefinden, statt.
In beiden Fällen ist zu betonen, dass es im Rahmen von Biases darum geht, dass die-
se Tradeoffs unbewusst stattfinden können, also keiner bewussten Abwägung entspringen
müssen.
Gemäß der oben genannten Kritik sei das Akzeptieren unnötiger (finanzieller) Risiken zur
Fortführung eines Projektes, anstatt eines aus Projektsicht sinnvollen Abbruchs, wegen
Wahrung der eigenen Reputation dennoch rational. Hier lässt sich entsprechend argumen-
tieren, dass diese motivationale Bedürfnisse die Sunk-Cost Fallacy nicht rational machen,
sondern, dass sie eine motivationale Ursache dafür sind, dass die Sunk-Cost Fallcy über-
haupt erst auftritt.
Anhand derartiger Zielkonflikte wird die Zielstellung dieser Arbeit erneut verdeutlicht.
Die Bewertung, ob eine Entscheidung rational oder verzerrt ist, sollte vom Nutzwert der
Entscheidung abhängig gemacht werden, der anhand der Expected Utility Theory defi-
niert ist (vgl. Kapitel 3.1). Die Bedeutsamkeit einer rationalen Entscheidung ist wiederum
eine andere Frage, die davon abzugrenzen ist. So wurde in Kapitel 3.1 darauf hingewiesen,
dass es durchaus sinnvoll sein kann, bei unwichtigen Problemstellungen eine irrationale
Entscheidung zu akzeptieren, um zum Beispiel der Harmonie in der Gruppe oder Bedürf-
nissen einzelner Personen, wie deren Reputation, gerecht zu werden. Kontextfaktoren, wie
Zeitdruck oder Reputationsbedenken, als Erklärung dafür zu nehmen, dass ein Bias keiner
3 Heuristiken und Biases 51
sei und sich stattdessen rational erklären lasse ist nachvollziehbar, geht aber am Kern des
Problems vorbei. So handelt es sich bei Biases um adaptive Denk- und Verhaltensmuster,
die sich auf bestimmten Dimensionen als rational bezeichnen lassen, selbst wenn es nur
das Sparen kognitiver Ressourcen ist. Stattdessen sollten derartige Umgebungsfaktoren als
Einflussvariablen betrachtet werden, die es zu modifizieren gilt, um den Bias zu reduzie-
ren. So werden Kontextfaktoren, wie situative Bedingungen oder die Organisationskultur,
die einen Einfluss auf die Anfälligkeit für bestimmte Biases haben, im Rahmen dieser
Arbeit als mögliche Ziele von Interventionen bzw. zur Organisationsdiagnostik behandelt
(Kapitel 4). So ist zum Beispiel denkbar, dass eine angemessene Fehlerkultur derartige
Reputationsbedenken unwichtig erscheinen lässt und somit den Zielkonflikt, der den Bias
(mit)verursacht, auflöst, so dass eine rationale Entscheidung wahrscheinlicher wird.
3.2.4 Confirmation Bias
The most difficult subjects can be explained to the most slow-witted man if he has not formed any idea of them
already; but the simplest thing cannot be made clear to the most intelligent man if he is firmly persuaded that he
knows already, without a shadow of doubt, what is laid before him. (Tolstoy, 1894, S. 46)
Um eine Problemstellung mit einem möglichst akkuraten und rationalen Urteilsprozess
zu beantworten, ist es offensichtlich sinnvoll, jegliche relevante Informationen so unvor-
eingenommen wie möglich zu bewerten, um daraus objektiv und evidenzbasiert die lo-
gischen Schlüsse zu ziehen. Der Confirmation Bias legt hingegen nahe, dass Menschen
eine unbewusste Tendenz aufweisen, verstärkt diejenigen Informationsquellen zu nutzen,
die ihre bestehenden Ansichten bestätigen, mehrdeutige Informationen zugunsten dieser
bestehenden Ansichten zu interpretieren und bestätigende Informationen verstärkt zu spei-
chern und abzurufen. Entsprechend führt der Confirmation Bias dazu, dass anstatt einer
unvoreingenommenen und objektiven Bearbeitung einer Problemstellung, im Extremfall
eine Argumentation erarbeitet wird, die dazu dient, einen bereits gefassten Entschluss zu
rechtfertigen (Nickerson, 1998). Dieses stark hypothesenbestätigende Vorgehen lässt sich
anhand der Tätigkeit eines Anwalts veranschaulichen, der ganz bewusst für eine Partei ar-
gumentiert und Informationen selektiv auswählt und präsentiert. Der Confirmation Bias
tritt normalerweise nicht in einer solch extremen Form auf, da es um eine unbewusste Ab-
weichung von einem objektiven Vorgehen geht, deren Konsequenzen jedoch weitreichend
sind. Evans (1989, S. 41) nennt den Confirmation Bias „the best known and most widely
accepted notion of inferential error to come out of the literature on human reasoning“.
Nickerson (1998) unterscheidet motivierte und unmotivierten Formen des Confirmation
Bias. Motivierte Formen beziehen sich auf die Wünsche der Person, die mit einer Perspek-
tive assoziiert sind und die deshalb unbewusst aufrechterhalten werden. Diese motivierte
Form des Confirmation Bias wird in Form des Desirability Bias auch als eigenständiger
Effekt betrachtet (z. B. Tappin et al., 2017), der sich primär den motivationalen Hot
3 Heuristiken und Biases 52
Biases zuordnen lässt, und entsprechend in Kapitel 3.3.4 näher erläutert wird. Bei den
unmotivierte Formen, die in diesem Kapitel beschrieben werden, geht es primär um kogni-
tive Effekte, die nicht davon abhängig sind, ob die Person zur präferierten Variante einen
voreingenommenen emotionalen Bezug hat.
Der Confirmation Bias zeigt sich in der Tendenz, bei der Informationssuche hypothesenbe-
stätigend vorzugehen, die sich auch bei Gleichgültigkeit bezüglich des Ergebnisses zeigt. In
seiner einflussreichen Studie präsentierte Wason (1960) seinen Probanden die Zahlenreihe
2-4-6, mit der Instruktion, dass der Versuchsleiter eine simple Regel im Sinn hat, der diese
Zahlenreihe folgt. Die Aufgabe war es, diese Regel zu benennen, indem die Probanden
neue Reihen mit drei beliebigen Zahlen bildeten und nach jedem Durchgang Feedback
bekamen, ob die Reihe der vom Versuchsleiter festgelegten Regel folgte. Die Instruktion
enthielt zudem den Hinweis, dass es bei der Regel um die relationale Beziehung der Zahlen
geht, was Regeln wie „Alle Zahlen sind kleiner als 50“ ausschließt. Außerdem gab es kein
Zeitlimit, die Anzahl der Durchgänge sollte aber möglichst gering gehalten werden.
Die Regel, die es zu entdecken galt, lautete: Drei Zahlen in aufsteigender Größe.
Diejenigen, die auf Anhieb die richtige Lösung fanden, bildeten vorher im Durchschnitt
8,0 Zahlenreihen, während Probanden mit Fehlversuchen, den ersten davon nach durch-
schnittlich 3,68 Versuchen verkündeten. Dieser Unterschied und die Art der verkündeten
Regeln zeigt, dass die betreffenden Personen auf Basis der ersten Zahlenreihe recht spezi-
fische Hypothesen bildeten und sich dieser nach wenigen bestätigenden Zahlenreihen recht
sicher waren. Von Interesse ist hierbei aber weniger, dass Probanden beim ersten Versuch
daneben lagen, sondern, dass sie eine nicht zielführende Strategie aufgrund des Confirma-
tion Bias verwendeten (Wason, 1960). Zehn von 13 Probanden, die beim ersten Versuch
falsch lagen, gaben bei der zweiten Verkündung die richtige Antwort, nachdem sie ein brei-
teres Spektrum von Regeln durch das Generieren weiterer Alternativen – inklusive mehr
hypothesenfalsifizierender Zahlenreihen – ausgeschlossen hatten, als diejenigen, die weite-
re inkorrekte Regeln verkündeten. Eine mögliche Erklärung hierfür ist, dass die nunmehr
erfolgreichen Probanden aufgrund des Confirmation Bias zunächst blind für Alternativen
waren, die nicht dem präsentierten Muster entsprachen, und deshalb Reihen bildeten, die
dem Anfangsmuster ähnelten. Nach der Zurückweisung der von ihnen vermuteten Regel
öffneten sie sich für alternative Vorgehensweisen. Die weniger erfolgreichen Probanden
verpassten es, ausreichend von der als inkorrekt bezeichneten Regel abzuweichen, um wei-
tere mögliche Regeln zu falsifizieren, bis sie die richtige erreichten. Stattdessen testeten sie
weitere Zahlenreihen und Regeln, die mit der bereits als falsch bezeichneten Ursprungs-
hypothese kompatibel waren. Die häufigsten Antworten zur gesuchten Regeln umfassten:
„Zahlen, die in Intervallen von 2 aufsteigen“, „Zunahme mit einem vielfachen der ersten
Zahl“, „Aufeinanderfolgende gerade Zahlen“. Um sich der richtigen Lösung zu nähern,
könnten die Probanden eine Zahlenreihe bilden, die der vorherigen als regelkonform be-
3 Heuristiken und Biases 53
zeichneten Zahlenreihe ähnelt, dabei jedoch mit der als nächstes zu testenden Hypothese
inkompatibel ist. Sollte das Feedback diese Zahlenreihe dennoch als regelkonform bewer-
ten, kann die falsifizierte Hypothese verworfen werden, und das Vorgehen mit einer neuen
Hypothese wiederholt werden (Wason, 1960).
Man könnte der Interpretation des Versuchs entgegensetzen, dass die zuerst präsentierte
Zahlenreihe sehr suggestiv ist, und damit auf eine spezifische Regel hindeutet beziehungs-
weise die Probanden bewusst in die Irre führt. Dementsprechend unterläge das Versuchs-
design, das dem Nachweis des Confirmation Bias dient, selbst einem Confirmation Bias.
Dem lässt sich entgegensetzen, dass eine derartige Situation durchaus auch in praktischen
Situationen denkbar ist, und das Ergebnis somit nicht zwangsläufig auf das spezifische
Design im Labor begrenzt ist. Angenommen in einem organisationalen Planungsprozess
präsentiert ein Gruppenmitglied einen Vorschlag für ein Projekt, von dem sie oder er selbst
überzeugt ist. Die Präsentation stellt den konkreten Handlungsvorschlag positiv dar und
beinhaltet keine Nachteile oder Alternativen. Die restlichen Gruppenmitglieder, die be-
züglich des weiteren Vorgehens zunächst indifferent sind, sind zwar noch nicht vollends
überzeugt, finden den Vorschlag aufgrund der Präsentation jedoch plausibel. Ähnlich wie
die Probanden in Wasons (1960) Experiment suchen Sie nach Belegen, dass das Vorgehen,
genau so wie es in der Präsentation beschrieben ist, funktionieren wird. Nachdem sie drei
oder vier bestätigende Hinweise recherchiert haben, sind sie von dem Vorgehen überzeugt.
Eine solche Situation ist zum Beispiel im Fall von Boeing denkbar, der in Kapitel 6.1.1
genauer beschrieben wird. Dort fielen Simulationstests mit einem neuen technischen Sys-
tem extrem positiv aus – möglicherweise, weil nicht genügend Situationen getestet wurden,
welche die Zuverlässigkeit des Systems stärker in Frage gestellt hätten. Daran zeigt sich
die besondere Bedeutung der hypothesenfalsifizierenden Informationssuche: „One single
observation can invalidate a general statement derived from millennia of confirmatory
sightings of millions of white swans. All you need is one single (and, I am told, quite ugly)
black bird“ (Taleb, 2010, S. 435).
Nickerson (1998) spricht bei dem von den Probanden gezeigten Tunnelblick bezüglich der
Suche alternativer Hypothesen von Restriction of attention to a favored hypothesis. Fa-
vored bezieht sich dabei nicht auf den persönlichen Bezug, sondern kann, wie im Beispiel-
experiment, Hypothesen umfassen, denen die betroffene Person motivational indifferent
gegenübersteht, die aber aus irgendeinem Grund die Ausgangshypothesen bilden, und sei
es nur, weil sie als erste oder einzige Hypothese präsentiert werden (vgl. auch Anchoring
Effect, Kapitel 3.2.2).
Neben der eingeschränkten Informationssuche definiert Nickerson (1998) Preferential treat-
ment of evidence supporting existing beliefs als weiteres Symptom des Confirmation Bias.
Hierbei geht es um die höhere Aufgeschlossenheit gegenüber hypothesenbestätigenden In-
formationen im Vergleich zu falsifizierenden Informationen, die zum Beispiel leichtfertiger
3 Heuristiken und Biases 54
diskreditiert oder rationalisiert werden. Eine mögliche Erklärung ist das Bedürfnis nach
kognitiver Konsistenz beziehungsweise kognitiver Dissonanzreduktion (vgl. Kapitel 2.3).
Kuhn (1989, S. 675) beobachtet in einer Studie zu wissenschaftlicher Logik im Alltag
folgenden Effekt:
As these examples illustrate, subjects commonly exhibited strategies that served to bring theory and evidence into
alignment with one another. A major, and anticipated, strategy was biased evaluation of the evidence to reduce its
inconsistency with theory (although it was a strategy that was hard to maintain as discrepant evidence mounted).
Subjects either failed to acknowledge discrepant evidence or attended to it in a selective, distorting manner.
In einer Studie von Baron (1995) bewerteten Probanden einseitige Argumentationen einer
Präsentation zum Thema Abtreibung als überzeugender, als wenn die Präsentation sowohl
Argumente für als auch dagegen beinhaltete, unabhängig davon, für welche Seite einseitig
argumentiert wurde. Ein möglicher Grund dafür ist, dass Menschen dazu neigen „gutes“
Denken mit Expertise zu konfundieren und die Berücksichtigung unterschiedlicher Mei-
nungen eher als ein Mangel an Expertise wahrgenommen wird. Alternativ vermutet Baron
(1995), dass Verbindlichkeit als Tugend wahrgenommen wird, was bezüglich des Einhaltens
von Versprechen oder Verträgen sicherlich zutreffend ist, aber nicht bei der Urteilsbildung.
Wie bereits zum Bedürfnis nach kognitiver Konsistenz beschrieben, haben Menschen ein
Bedürfnis, Ambiguität zu reduzieren und nach außen Konstanz zu signalisieren, ein im
Sinne der Uncertainty Avoidance (vgl. Kapitel 4.2) zum Teil kulturabhängiges Bedürfnis,
das insbesondere bei komplexen Fragestellungen hinderlich ist und zu irrationalen Urteilen
führt.
Als weiteres Symptom definiert Nickerson (1998) Overweighing positive confirmatory in-
stances. Pyszczynski und Greenberg (1987, S. 313) stellen dazu fest:
As suggested by research on the feature-positive effect (e.g., Fazio el al., 1982; Jenkins & Ward, 1965; Snyder,
1984), people are generally better able to make use of information that suggests that the hypothesis is correct than
information that suggests that it is not. This creates an asymmetry in the evidential requirements for bringing
the hypothesis-testingsequence to a halt and drawing a conclusion. Generally, people will require less hypothesis-
consistent evidence to accept a hypothesis than hypothesis-inconsistent information to reject a hypothesis.
Diese Erkenntnis deckt sich mit den Ergebnissen des oben beschriebenen Experiments
von Wason (1960), der feststellte, dass Probanden mit einer positiven Teststrategie im
Durchschnitt deutlich früher ein falsches Ergebnis verkündeten.
Ein weiteres Symptom bezeichnet Nickerson (1998) als Seeing what one is looking for.
Hierbei geht es um hypothesengesteuerte Top-Down Prozesse, welche die Wahrnehmung
unbewusst auf hypothesenbestätigende Stimuli lenken. Dadurch lassen sich zum Beispiel
die verstärkten Ängste von Hypochondern erklären. Der Körper produziert häufig Si-
gnale, die im Normalfall harmlos sind und ignoriert werden, die aber unter Umständen
als Krankheitssymptome interpretiert werden könnten. Bei Krankheitsverdacht wird die
Aufmerksamkeit verstärkt auf derartige Signale gelenkt, wodurch sich die Überzeugung
3 Heuristiken und Biases 55
erkrankt zu sein verstärkt, auch wenn keine Erkrankung vorliegt (Pennebaker & Skel-
ton, 1978). Derartige Formen der hypothesenbestätigenden Mustererkennung zeigen sich
auch bei weiteren psychischen Störungen, wie Paranoia oder depressiven Verstimmungen,
bei denen die Betroffenen sich selektiv auf aggressive beziehungsweise negative Informa-
tionen konzentrieren (A. T. Beck, 1979). Die klinischen Beispiele sollen dabei nicht dar-
über hinwegtäuschen, dass dieser Effekt der hypothesenbestätigenden Mustererkennung
in gewisser Ausprägung allgegenwärtig ist (Kuhn, 1989; Nisbett & Ross, 1980). So nei-
gen Menschen auch zu einem Effekt, der als Illusory Correlation bezeichnet wird und
beschreibt, dass zufällige Zusammenhänge zwischen Variablen vorschnell als signifikante
Korrelationen wahrgenommen werden. Das kann sich zum Beispiel in Vorurteilen zeigen,
wenn Personen vermuten, dass Mitglieder einer Gruppe mit bestimmten Verhaltensweisen
assoziiert sind. Daraufhin werden Personen eher bestätigende Informationen wahrnehmen
und verarbeiten, wodurch ein nicht vorhandener Zusammenhang hergestellt wird oder ein
tatsächlich vorhandener Zusammenhang übertrieben wird (Hamilton, Dugan & Trolier,
1985). Dieser Vorgang steht auch im Zusammenhang mit der Tendenz zu Kategorisierun-
gen. Der Mensch mit seinen kognitiven Limitationen ist darauf angewiesen, Informationen
in ein vorhandenes Netzwerk an Informationen, dem semantischen Netzwerk (vgl. Kapi-
tel 2.2), einzuordnen. Diese Kategorisierungen beeinflussen wiederum die Wahrnehmung
neuer Informationen, die in diese Kategorien eingeordnet werden, ein Prozess der auch
als Assimilation beschrieben wird. Das Bilden neuer Kategorien oder Umstrukturieren
vorhandener Kategorien wird hingegen als Akkommodation bezeichnet. Akkommodati-
on verbraucht mehr kognitive Ressourcen und wird vom Menschen, als Cognitive Miser,
tendenziell vermieden.
3.3 Motivationale Biases
Most behavioral research addresses cognitive biases – faulty mental processes that lead judgments and decisions
to violate commonly accepted normative principles. Equally important, but much less studied, are motivational
biases, which include conscious or subconscious distortions of judgments and decisions because of self-interest, social
pressures, or organizational context. (Montibeller & von Winterfeldt, 2015, S. 1230)
Anders als für die Prinzipien Cognitive Miser und Bounded Rationality beschrieben, ent-
stehen primär motivationale Heuristiken und Biases weniger aus der Knappheit oder den
Grenzen kognitiver Ressourcen, sondern haben sich aus Gründen des psychologischen
Wohlbefindens evolutionär durchgesetzt oder steigern die Bereitschaft, Risiken einzuge-
hen, was für den Einzelnen, aber auch für Gesellschaften durchaus Vorteile bringen kann
– zum Beispiel im Bereich von technischen Innovationen im Kontext von Unternehmens-
gründungen. So entstehen aufgrund der tendenziell selbstwertdienlichen Attribution von
Ereignissen im Rahmen des Self-Serving Bias (Kapitel 3.3.1) Effekte wie der Optimism
Bias (Kapitel 3.3.3) und der Overconfidence Bias (Kapitel 3.3.2). Die adaptiven Vorteile
3 Heuristiken und Biases 56
derartiger Effekte liegen auch darin, dass eine Person, die in hohem Maße von der eigenen
Leistungsfähigkeit überzeugt ist, bis zu einem gewissen Grad auch andere Personen davon
überzeugt (Quelle).
Zudem fördert Motivated Reasoning in vielen Fällen den Zusammenhalt von Gruppen,
indem zum Beispiel abweichende Meinungen im Sinne der kognitiven Dissonanzreduktion
an die Gruppenmeinung angepasst werden. Durch die soziale Komponente motivationaler
Biases wird die Grundlage für unterschiedliche gruppendynamische Biases gelegt, im Kon-
text derer sich zusätzliche Potenziale für Urteils- und Entscheidungsverzerrungen bilden.
Gruppendynamische Biases werden in Kapitel 3.4 behandelt, und in dieser Arbeit insofern
von motivationalen Biases mit sozialer Komponente abgegrenzt, dass gruppendynamische
Biases erst durch die tatsächliche oder antizipierte Interaktion innerhalb einer Gruppe
entstehen.
Einen im Kontext organisationaler Planungsprozesse wichtigen Zusammenhang zwischen
motivationalen und kognitiven Biases beschreiben (Montibeller & von Winterfeldt, 2015,
S. 1230):
Some decision and risk analysts use the existence of these biases to argue for the use of modeling and analysis tools
because these tools can correct human biases and errors in decision making. However, experts and decisionmakers
need to provide judgments in risk and decision modeling, thus analysts must worry about biases that may distort
the inputs into the very models that are supposed to correct them. For example, when using expert judgments to
construct a probability distribution as an input to a risk analysis model, one has to worry about the wellknown
overconfidence bias. Similarly, when obtaining expert judgments as inputs to estimate possible consequences of
decision alternatives, one has to be concerned with the self-interest of experts, who may have a stake in the outcome
of the analysis. (Montibeller & von Winterfeldt, 2015, S. 1230)
Dem lässt sich hinzufügen, dass, wie bereits beschrieben, auch die Compliance bezüglich
der Nutzung von Entscheidungsanalysetools zur Mitigation von kognitiven Biases potenzi-
ell durch motivationale und gruppendynamische Biases beeinflusst wird. In den folgenden
Abschnitten werden verschiedene dieser Biases näher beschriebenen, bevor in Kapitel 4
die Organisationskultur als diesbezüglich wichtiger Kontextfaktor betrachtet wird.
3.3.1 Self-Serving Bias
After class, one of Lance’s classmates asks him how he performed on the examination. Lance replies that he did
not perform all that well and then hastens to explain that the test consisted of multiple-choice questions, a form
of testing that does not reflect his true ability. Furthermore, his instructor graded harshly, and it was impossible
for him to sleep the night before the examination because of a loud party that his roommate hosted. (Campbell &
Sedikides, 1999, S. 23)
Der Self-Serving Bias beschreibt die Tendenz zur verzerrten Wahrnehmung und Interpre-
tation von Ereignissen zur Aufrechterhaltung oder Steigerung des Selbstbilds. Dies zeigt
sich zum Beispiel, wenn eine Person eine gute Leistung auf ihre Fähigkeiten zurückführt
3 Heuristiken und Biases 57
und eine schlechte Leistung auf externe Umstände oder auch daran, dass sie ihren eige-
nen Anteil an einer Gruppenleistung überschätzt (Forsyth, 2008). Ein Student, der seine
schlechte Note auf Pech oder die Schwierigkeit des Tests zurückführt und eine gute No-
te auf Disziplin und Talent, zeigt ein Attributionsmuster, das, im Falle einer positiven
Handlung oder eines positiven Ereignisses, interne und instabile (Disziplin) sowie inter-
ne stabile (Talent) Faktoren als kausal verantwortlich betont, während im negativen Fall
externe, instabile Faktoren als Ursache gesehen werden (Campbell & Sedikides, 1999).
Motivation der verzerrten Aufrechterhaltung des Selbstwertes ist die eigene positive Wahr-
nehmung, aber auch das Bedürfnis ein erwünschtes Bild gegenüber anderen zu erzeugen
(Self-Presentation; Shepperd et al., 2008). Diese Art der selbstwertdienlichen Attributati-
on hat einen starken motivationalen Charakter und ist adaptiv, weil sie neben verzerrten
Urteilen auch Vorteile mit sich bringt. Dazu gehört ein höheres psychologisches Wohlbe-
finden. So geht die Theorie des Depressive Realism, davon aus, dass depressive Personen
eventuell einem pessimistischen Bias unterliegen, in der Regel aber näher an einer realis-
tischen Einschätzung einer Situation liegen als gesunde Probanden (Alloy & Abramson,
1988). Die kognitive und perzeptive Tendenz, Geschehnisse selbstwertdienlich und verzerrt
zu attribuieren, die einerseits den Selbstwert und die psychologische Gesundheit stützt,
führt aber andererseits zu verzerrten Urteilen und Fehlenscheidungen. Entsprechend kann
der Self-Serving Bias primär als motivational verursachter Hot Bias betrachtet werden.
Glücklicherweise gibt es neben einer Depressiven Verstimmung noch weitere Faktoren, die
mit einer Reduktion des Self-Serving Bias zusammenhängen. Die Ausprägung des Self-
Serving Bias variiert auch in Abhängigkeit des kulturellen Kontextes und ist in leistungs-
orientierten und individualistischen westlichen Kulturen stärker ausgeprägt als in kollekti-
ver ausgerichteten ostasiatischen Kulturen (Al-Zahrani & Kaplowitz, 1993). Der Einfluss
des kulturellen Kontexts auf das Ausmaß einzelner Biases in organisationalen Planungs-
prozessen wird in Kapitel 4.3 detaillierter besprochen.
Im organisationalen Kontext kann sich die Problematik des Self-Serving Bias zum Beispiel
darin zeigen, dass Mitarbeiter sich für negative Leistungen oder Probleme nicht verant-
wortlich fühlen und Lernerfahrungen somit ausbleiben. So zeigten Dobbins und Russell
(1986) in einem Experiment, dass Führungskräfte die Ursache für schlechte Leistungen
bei ihren Mitarbeitern sahen, während diese umgekehrt die Führungskräfte verantwortlich
machten. In der Folge erachteten Führungskräfte anschließende Trainings oder Strafen
für ihre Mitarbeiter als angemessen, während die Mitarbeiter – welche die Führungskräf-
te für verantwortlich hielten – diese entsprechend als fehlgeleitet bewerteten. Derartige
Konstellationen führen zu ausbleibenden Lernerfahrungen und Konflikten.
Larwood und Whittaker (1977) berichten für organisationale Planungsprozesse überopti-
mistische Prognosen und Selbstüberschätzung als Folge des Self-Serving Bias. Der Opti-
mism Bias und Overconfidence Bias, die sich zum Teil auf den Self-Serving Bias zurück-
3 Heuristiken und Biases 58
führen lassen (Quelle), werden in den folgenden Abschnitten beschrieben.
3.3.2 Overconfidence Bias
When the editor of this book asked me whether I would be interested in contributing a chapter on overconfidence,
my first question was ’What’s the deadline?’ [...] At the time my confidence of providing the chapter by the end of
November was about 80% and my confidence of being done before Christmas was almost 100%. Christmas came
and I had not yet even started. (Hoffrage, 2017, S. 291)
Der Overconfidence Bias äußert sich zum einen in der als Overestimation bezeichneten
Tendenz, die eigenen persönlichen Eigenschaften oder Fähigkeiten zu überschätzen (Moore
& Healy, 2008). Wie im Eingangsbeispiel ist die Überschätzung der Schnelligkeit, in der
man eine Aufgabe erledigen kann, eine verbreitete Form von Overestimation (Buehler,
Griffin & MacDonald, 1997), die auch als Planning Fallacy bezeichnet wird. Ein weiteres
Beispiel für Overestimation ist, dass beispielsweise Schüler und Studenten systematisch
ihre Leistung in Prüfungen überschätzen (Clayson, 2005).
Overconfidence zeigt sich auch als Overplacement, also im Vergleich mit anderen Personen
(Larrick, Burson & Soll, 2007). Bei einer Befragung denken zum Beispiel 80% der Stu-
dierenden, dass sie zu den Top 50% der Klasse gehören (Hoffrage, 2017). Börsenhändler
gehen fälschlicherweise davon aus, dass sie besser auf Veränderungen reagieren können als
andere Marktteilnehmer (Moore & Swift, 2011). 37% der Ingenieure einer Firma halten
sich für die Top 5% der Leistungsträger (Zenger, 1992).
Schließlich beschreibt Overprecision die Tendenz, die Akkuratheit eigener Urteile zu über-
schätzen. Probanden, die bei der Einschätzungen bestimmter Fakten, zum Beispiel der
Länge des Nils, ein Konfidenzintervall angeben, bezüglich dessen sie sich zu 90% sicher
sind, dass der wahre Wert darin liegt, behalten damit nur in 43% der Fälle Recht (Klayman
et al., 1999).
Dabei ist Overconfidence nicht auf Alltagsurteile und Laborexperimente beschränkt. Ex-
perten diverser Berufsgruppen sind „often wrong, but rarely in doubt“ (Griffin & Tversky,
2009, S. 230). Verschiedene Studien zeigen den Effekt in den Urteilen von Ärzten, Psy-
chotherapeuten, Anwälten, Ingenieuren und Finanzanalysten. Eine Ausnahme bilden zum
Beispiel Meteorologen, da diese für Wettervorhersagen zeitnahes und unmissverständli-
ches Feedback erhalten (Griffin & Tversky, 2009). Das Ausmaß an Overconfidence hängt
zudem besonders von der Aufgabenschwierigkeit ab. Bei sehr einfachen Aufgaben zeigt
sich ein gegenteiliger Effekt, Underconfidence. Nimmt die Aufgabenschwierigkeit zu, steigt
das Ausmaß an Overconfidence stark an (Klayman et al., 1999), weswegen der Einfluss
auf organisationale Planungsprozesse, die sich durch Komplexität, Unstrukturiertheit und
die Abwesenheit von unmittelbarem Feedback auszeichnen (vgl. Kapitel 2.1), besonders
relevant ist.
3 Heuristiken und Biases 59
Bazerman und Moore (2013, S. 14) nennen Overconfidence „the mother of all biases“.
Insbesondere im Kontext organisationaler Entscheidungsprozesse wurde Overconfidence
– neben oder auch im Zusammenhang mit der Organisationskultur – häufig als Ursache
diverser Katastrophen, wie dem Sinken der Titanic, der Nuklearkatastrophe von Tscher-
nobyl, dem Absturz der Space Shuttles Challenger und Columbia sowie der Finanzkrise
von 2008 identifiziert (Labib & Read, 2013). Der potenziel durch bestimmte Biases medi-
ierte Zusammenhang zwischen der Organisationskultur und der Entscheidungsqualität in
Planungsprozessen wird in Kapitel 4.3 näher beschrieben.
Die Planning Fallacy ist eine für organisationale Planungsprozesse besonders relevante
Form des Overconfidence Bias und wird mit vielen prominenten Beispielen in Verbindung
gebracht. Buehler, Griffin und Ross (1994) ließen 37 Studierende schätzen, wie viel Zeit
sie realistischerweise und im schlechtesten Fall für die Fertigstellung ihrer Abschlussarbeit
bräuchten. Von den Probanden, die sich bereits in der Endphase dieser Abschlussarbeit
befanden, konnten nur 30% die Vorhersage einhalten. Im Schnitt brauchten sie noch 55
Tage und damit 22 Tage länger als in der realistischen – und sieben Tage länger als in der
pessimistischen Schätzung angenommen. Der Zeitrahmen der Schätzung und die tatsäch-
liche Dauer korrelierten hoch miteinander (r=.77). Die Studierenden waren also durchaus
in der Lage, Informationen über die Dauer des Projekts korrekt zu nutzen, unterschätzten
diese jedoch systematisch.
Der Overconfidence Bias kann zum Teil auf den Self-Serving Bias und dessen Ursachen
zurückgeführt werden (Larwood & Whittaker, 1977). Das positive Selbstbild, das mit der
selbstwertdienlichen Attribution des Self-Serving Bias, und entsprechend mit der Über-
schätzung der eigenen Fähigkeiten des Overconfidence Bias einhergeht, führt zu einem
gesteigerten Wohlbefinden. Bénabou und Tirole (2002) sprechen hierbei von dem Con-
sumption Value. Im Rahmen des Signaling Value macht der Overconfidence Bias es ein-
facher, andere von den eigenen Fähigkeiten zu überzeugen: „Indeed, it is often said that
to lie most convincingly a person must believe his own lies“ (Bénabou & Tirole, 2002, S.
877). Kahneman (2011, S. 262) schreibt dazu:
Experts who acknowledge the full extent of their ignorance may expect to be replaced by more confident competitors,
who are better able to gain the trust of clients. An unbiased appreciation of uncertainty is a cornerstone of rationality
– but it is not what people and organizations want.
Motivation Value betrifft die durch Overconfidence gesteigerte Moral, die zu mehr Unter-
nehmergeist und einem höheren Durchhaltevermögen gegenüber Widrigkeiten führt (Béna-
bou & Tirole, 2002). Auch wenn ein Großteil von Unternehmensgründungen innerhalb der
ersten vier Jahre zu einer Pleite führt, ist Overconfidence auch insofern adaptiv, als dass
die Gemeinschaft von den Erfahrungen und Innovationen profitiert:
American culture encourages the process of failure, unlike the cultures of Europe and Asia where failure is met with
stigma and embarrassment. America’s specialty is to take these small risks for the rest of the world, which explains
3 Heuristiken und Biases 60
this country’s disproportionate share in innovations. (Taleb, 2010, S. 204)
Teilweise werden interindividuelle Differenzen bezüglich der Neigung zu Overconfidence be-
richtet. Demnach haben die Dimension Extraversion der Persönlichkeit nach dem Big-Five-
Modell (Schaefer, Williams, Goodie & Campbell, 2004), narzisstische Neigungen (Camp-
bell, Goodie & Foster, 2004) und das männliche Geschlecht (Niederle & Vesterlund, 2007)
einen verstärkenden Einfluss auf den Overconfidence Bias. Wie beim Self-Serving Bias va-
riiert die Ausprägung des Overconfidence Bias in Abhängigkeit des kulturellen Kontextes
(Muthukrishna et al., 2018), dessen Rolle in Kapitel 4 diskutiert wird.
Overconfidence spielt darüber hinaus auch für andere Biases eine verstärkende Rolle. So
beinhaltet die Überschätzung der eigenen Fähigkeiten auch die Güte der eigenen Urteile
und Entscheidungen und erschwert somit den Prozess, diese zu hinterfragen und Biases
bei sich selbst und der eigenen Gruppe zu erkennen. Dieses Phänomen bezeichnet man
auch als Bias Blind Spot.
3.3.3 Optimism Bias
Future. That period of time in which our affairs prosper, our friends are true and our happiness is assured. (Bierce,
1911)
Der Optimism Bias zeigt, dass Menschen nicht nur – wie beim Overconfidence Bias – ihre
eigene Leistungsfähigkeit tendenziell überschätzen, sondern auch bei ihrer Einschätzung
der Zukunft und dem Einfluss externer Faktoren eine zu positive Sicht einnehmen. So zeig-
te sich, dass Probanden bei der Einschätzung der Eintrittswahrscheinlichkeit verschiedener
Ereignisse im kommenden Monat – zum Beispiel, ein Geschenk zu erhalten oder in einen
Verkehrsstau zu geraten – positive Ereignisse überschätzten und negative Ereignisse un-
terschätzten, wie sich den entsprechenden Berichten einen Monat später entnehmen ließ
(Strunk, Lopez & DeRubeis, 2006). Gleichermaßen unterschätzen Menschen ihr Risiko,
schwer zu erkranken, und Universitätsabsolventen überschätzen die Anzahl ihrer Joban-
gebote und die Höhe ihrer Einstiegsgehälter (Sharot, 2011).
In organisationalen Planungsprozessen werden häufig die benötigten Ressourcen bezüg-
lich Zeit und Geld zur Erreichung eines Ziels unter- beziehungsweise überschätzt, was
sich zum einen auf den Optimism Bias – also die Fehleinschätzung externer Faktoren –
zurückführen lässt (Sharot, 2011), und zum anderen auf das Überschätzen der eigenen
Leistungsfähigkeit oder auf ein zu großes Vertrauen in die eigenen Schätzungen gemäß
dem Overconfidence Bias (vgl. Kapitel 3.3.2). Ein Phänomen, welches in organisationalen
Planungsprozessen besonders relevant ist, ist die Planning Fallacy, die beschreibt, dass
in komplexen Planungssituationen die Zeit und Ressourcen, die für den erfolgreichen Ab-
schluss eines Projekts benötigt werden, systematisch unterschätzt werden. Hier spielen
neben Overestimation, also das überschätzen der eigenen Leistungsfähigkeit, auch Opti-
3 Heuristiken und Biases 61
mism – die Erwartung, dass keine ungeplanten Hindernisse auftauchen – eine Rolle:
People’s completion estimates are likely to be overly optimistic if their forecasts are based exclusively on planbased,
future scenarios. A problem with the scenario approach is that people generally fail to appreciate the vast number
of ways in which the future may unfold.(Buehler, Griffin & Ross, 2009, S. 253-254)
So werden bewusste realistische Schätzungen – im Sinne der Attribute Substitution – meis-
tens unbewusst durch Best-Case-Szenarios ersetzt (Newby-Clark, Ross, Buehler, Koehler
& Griffin, 2000). Ein Erklärungsansatz für den Optimism Bias allgemein – und die Plan-
ning Fallacy speziell – liegt in der Wirkung des Self-Serving Bias. So vermuten Buehler et
al. (2009), dass eine übermäßig positive Attribution vergangener Erfahrungen mit ähnli-
chen Prozessen dazu führt, dass negative Erfahrungen für die aktuelle Situation irrelevant
sind und somit ausgeblendet werden. Negative Erfahrungen wurden also als external und
instabil und somit als irrelevant für die aktuelle Situation attribuiert, während Erfolge auf
internale Faktoren zurückgeführt wurden. Ähnlich wie der Overconfidence Bias, bringt
auch der Optimism Bias soziale Vorteile mit sich:
However, optimism is highly valued, socially and in the market; people and firms reward the providers of dangerously
misleading information more than they reward truth tellers. One of the lessons of the financial crisis that led to the
Great Recession is that there are periods in which competition, among experts and among organizations, creates
powerful forces that favor a collective blindness to risk and uncertainty. (Kahneman, 2011, S. 262)
Der Optimism Bias zeigt sich in der Resistenz gegenüber der Verarbeitung negativer In-
formationen. So ist das Aufzeigen bisher unbekannter Krankheitsrisiken erstaunlich un-
wirksam, um bei anderen Personen die optimistische Einstellung bezüglich ihrer Gesund-
heitsrisiken zu verändern. Und auch Experten, zum Beispiel Finanzanalysten, zeigen Übe-
roptimismus, insofern sie unwahrscheinlich hohe Profite erwarten. (Sharot, 2011).
Die positive Seite des Optimism Bias liegt beispielsweise in der Reduzierung von Stress
und Angst und damit der Steigerung des psychischen und physischen Wohlbefindens. Die
Schattenseite ist, dass das optimistische Unterschätzen von Risiken bei Individuen zu ver-
mehrt finanziell und gesundheitlich riskantem Verhalten und entsprechenden Konsequen-
zen, zum Beispiel Lungenkrebs, Übergewicht oder Privatinsolvenz, führen kann (Sharot,
2011). Analog dazu führt der Optimism Bias im Bereich organisationaler Planungsprozes-
se zur Verringerung von Vorsichtsmaßnahmen und damit zu finanziellen Risiken für die
Organisation und – insbesondere im Bereich der HROs – zu gesundheitlichen Risiken für
Mitarbeiter und Kunden.
3.3.4 Desirability Bias
People can foresee the future only when it coincides with their own wishes, and the most grossly obvious facts can
be ignored when they are unwelcome. (Orwell, 1944)
Der Desirability Bias hat bislang recht wenig Aufmerksamkeit erhalten, was sich mutmaß-
3 Heuristiken und Biases 62
lich auf die Parallelen zu dem in der Forschung weit verbreiteten Confirmation Bias (vgl.
Kapitel 3.2.4) sowie dem Optimism Bias (Kapitel 3.3.3) zurückführen lässt. Der Desira-
bility Bias beschreibt den Effekt, demnach neue Informationen tendenziell zugunsten der
eigenen Wünsche oder Präferenzen gesucht und interpretiert werden.
Tappin et al. (2017) fanden heraus, dass Probanden einen vom Confirmation Bias unab-
hängigen Desirability Bias zeigten, und dass der Desirability Bias dabei einen stärkeren
Einfluss auf die Meinungsbildung hat als der Confirmation Bias. Im Kontext der US-Wahl
2016 bewerteten 811 Probanden inwieweit sie glaubten, dass Hillary Clinton beziehungs-
weise Donald Trump die Wahl gewinnen würden und wen sie sich als Sieger wünschten. Als
die Probanden neue Informationen, die entweder Clinton oder Trump stärkten, erhielten,
bewerteten sie jene Informationen zu stark, die ihren Wünschen entsprachen, unabhän-
gig von dem, was sie für wahrscheinlicher hielten. Entsprechend ergab die Studie, dass
unabhängig vom Confirmation Bias – also der Übertreibung von Informationen, die beste-
hende Annahmen bestätigen – der Desirability Bias wirkt, und dabei einen noch stärkeren
Einfluss auf die Meinungsänderung hat (Tappin et al., 2017). Während der Confirmation
Bias auch bei vorheriger Indifferenz gegenüber unterschiedlichen Einstellungen, zum Bei-
spiel allein durch Reihenfolgeeffekte, auftreten kann (vgl. Kapitel 3.3.2), definiert sich der
Desirability Bias über die Suche und Interpretation neuer Informationen zugunsten des
emotional erwünschten Ergebnisses. Die beiden Biases sind potenziell konfundiert und ent-
sprechend vermuten Tappin et al. (2017), dass in vielen Fällen, in denen der Confirmation
Bias berichtet wird, tatsächlich der Desirability Bias für die verzerrte Informationsver-
arbeitung verantwortlich sein könnte. Diese Sichtweise deckt sich mit den Erkenntnissen
von Eil und Rao (2011), die ebenfalls herausfanden, dass Probanden neue Informationen
stärker in Abhängigkeit der Valenz integrierten, als in Abhängigkeit des bestätigenden
Charakters.
Die Auswirkungen des Desirability Bias sind wie beim Confirmation Bias eine einge-
schränkte Suche und Verarbeitung von Informationen. Bezüglich des Fokus auf die eigenen
Präferenzen und Wünsche kann der Desirability Bias als Mitursache für überoptimistische
Zukunftsprognosen gesehen werden, deren Folgen im organisationalen Planungsprozess
zum Beispiel ein falsches Risikoverständnis und mangelnde Sicherheitsmaßnahmen verur-
sachen.
3.4 Gruppendynamische Biases
These group dynamics appear to add an emotional dimension to the distortion of the planning process, and this
serves to bring individual biases into greater prominence but also adds some specific biases to group membership.
The powerful forces of perceived togetherness act in concert to render the possibility of failure unthinkable – and if
not unthinkable, then certainly unspeakable. (Reason, 2013, S. 62)
3 Heuristiken und Biases 63
Die meisten Urteile und Entscheidungen in organisationalen Planungsprozessen werden
durch Gruppen getroffen, in denen einzelne Mitglieder zunächst ihre Präferenzen bezüglich
Handlungsalternativen und deren assoziierten Chancen beziehungsweise Risiken mitteilen
und anschließend diskutieren. Die inhaltlichen Vorteile des Gruppenkontextes entstehen
durch das Bündeln von Informationen von Personen mit unterschiedlicher Expertise, der
Berücksichtigung verschiedener Perspektiven und der damit einhergehenden akkurateren
Bewertung der Situation (Montibeller & von Winterfeldt, 2018). Gleichzeitig bringt der
Gruppenkontext zusätzliche Komplexität in den Planungsprozess und damit Potenzial
für entscheidungsverzerrende Effekte. Aufgrund dieser Komplexität sind die Erkenntnisse
über den Einfluss des Gruppenkontextes auf die Entscheidungsqualität uneindeutig, und
der Zusammenhang hängt stark von weiteren moderierenden Variablen ab. Dazu gehören
die Art des Bias, die Beschaffenheit des Gruppenentscheidungsprozesses, die Ausprägung
des Bias auf individueller Ebene sowie die Verteilung individueller Präferenzen innerhalb
der Gruppe (Kerr, MacCoun & Kramer, 1996; Krueger & Funder, 2004).
Diese Erkenntnisse stehen im Einklang mit Studienergebnissen, die in den folgenden Ka-
piteln näher erläutert werden, demnach die Gruppengröße positiv mit dem Grad an Social
Loafing korreliert (Kapitel 3.4.2), Group Polarization vom Grad der Meinungshomogeni-
tät abhängt (Kapitel 3.4.3), und Groupthink durch eine hohe Gruppenkohäsion entsteht,
und in diesem Kontext seine Entscheidungsverzerrende Wirkung entfaltet (Kapitel 3.4.1).
Wie in den folgenden Kapiteln deutlich wird, haben zudem soziale Faktoren, wie das Stre-
ben nach Einstimmigkeit oder Reputationsbedenken, einen entscheidenden Einfluss auf die
Entstehung gruppendynamischer Biases. Daneben lassen sich aber auch die Prinzipien der
Bounded Rationality und des Cognitive Misers (vgl. Kapitel 1.1) auf den Gruppenkontext
übertragen:
In many instances, groups are satisficing entities – often it’s not that groups cannot perform near their upper limits,
it’s that they simply don’t need to. If a simple combination of member judgments tends to produce reasonably
accurate probabilistic estimates, the additional effort necessary to make the combination ’as accurate as it can
possibly be’ may often not be worth it. If a simply majority is more-often-than-not correct, then the additional
effort necessary to figure out when they might be wrong may be inefficient (Kameda & Hastie 1999). Many group
norms may have developed because they work most of the time and require little processing effort. (Kerr & Tindale,
2004, S. 642)
Eine Studie von Houghton et al. (2000), in der Probanden entweder individuell oder kol-
lektiv Planungsszenarien bewerteten, zeigt, dass kognitive und motivationale Biases auf
individueller Ebene die Risikowahrnehmung reduzieren und dass der Gruppenkontext diese
individuellen Biases nicht reduziert, sondern zum Teil sogar verstärkt. Meub und Proeger
(2018) verglichen die Wirkung des Anchoring Effects zwischen Individuen und Gruppen
und fanden dabei heraus, dass der Gruppenkontext lediglich bezüglich Faktenwissen den
Anchoring Effect reduzieren kann. Bei Wahrscheinlichkeits- und Preisschätzungen waren
Gruppen aus drei Personen ebenso betroffen wie Individuen. Das Ergebnis unterstreicht
3 Heuristiken und Biases 64
die Erkenntnis, dass Gruppen durch einen in der Summe höheren Wissensstand verfügen
und sich somit bei unbestreitbarem Faktenwissen die Chance erhöht, dass Gruppen die
unverzerrte Lösung finden. Bei Urteilen unter Unsicherheit, die heuristische Prozesse zwin-
gend erforderlich machen oder diese intuitiv inadäquat eingesetzt werden, unterliegen die
einzelnen Gruppenmitglieder dem Anchoring Effect gleichermaßen.
Erkenntnisse zu Hidden Profiles zeigen die dominante Rolle bereits geteilter Informationen
im Diskussionsverlauf gegenüber verfügbaren, aber ungeteilten Informationen, die zu einer
besseren Entscheidung geführt hätten (Stasser & Titus, 1985). Die verpasste Chance, die-
se versteckten Informationen einzelner Gruppenmitglieder offenzulegen, lässt sich, wie im
Rahmen des Confirmation Bias bei Individuen, auf eine Neigung zum voreiligen Abschluss
der Informationssuche zurückführen. Die Anforderung der meisten Entscheidungsprozesse,
eine Konsensentscheidung zu erreichen, fördert diese Tendenz. Zudem führt das Teilen be-
reits bekannter Informationen dazu, dass die Person, die diese äußert, als kompetenter und
glaubwürdiger wahrgenommen wird (Kerr & Tindale, 2004). Somit lassen sich individuelle
Biases in vielen Fällen nicht durch den Gruppenkontext verringern, auch wenn das Poten-
zial dazu besteht. Dabei gibt es Hinweise darauf, dass die Dauer der Gruppendiskussion
einen positiven Einfluss auf das Teilen versteckter Informationen hat, da sich im Zeitver-
lauf die Chance erhöht, dass derartige Informationen von den entsprechend informierten
Gruppenmitgliedern zur Sprache gebracht werden. Außerdem zeigen Trainings und Mo-
derationstechniken eine positive Wirkung bezüglich der Nutzung von Informationsquellen
und der Diskussion von Informationen (Larson, Christensen, Abbott & Franz, 1996).
Entscheidungsprozesse in Gruppen bieten also das Potenzial, eine bessere Leistung zu er-
reichen, als die Summe der Individuen dieser Gruppe. Auf der anderen Seite gibt es eine
Reihe von Variablen, die den Zusammenhang zwischen dem Gruppenkontext und der Ent-
scheidungsgüte moderieren. Diese Moderatoren betreffen zum einen die Wechselwirkung
des Gruppenkontextes mit individuellen Biases (Kerr & Tindale, 2004), zum anderen brin-
gen Gruppenprozesse eine eigene Dynamik hervor, die den Planungsprozess sowohl positiv
als auch negativ beeinflussen kann. Im Folgenden werden diverse gruppendynamische Ef-
fekte mit potenziell verzerrender Wirkung auf Planungsprozesse beschrieben. Dabei wird
am Beispiel von Groupthink im folgenden Kapitel deutlich, dass positive und negative
Effekte Folgen der gleichen Ursache sein können, denn Groupthink lässt sich auf eine hohe
Gruppenkohäsion zurückführen. Die Gruppenkohäsion verursacht neben Groupthink auf
der anderen Seite aber eine verbesserte Gruppenleistung (vgl. Kapitel 3.4.1) und kann
andere gruppendynamische Effekte, wie Social Loafing, mitigieren.
Das Ziel, negative Eigenschaften von Biases zu mitigieren, ohne positive Eigenschaften
der zugrundeliegenden kognitiven, motivationalen oder gruppendynamischen Heuristiken
zu verlieren, ist das Ziel von Debiasingtechniken. Im Rahmen dieser Arbeit wird in Kapitel
4 diesbezüglich das Potenzial der Organisationskultur beschrieben.
3 Heuristiken und Biases 65
3.4.1 Groupthink
Much more frequent, however, are instances of mindless conformity and collective misjudgment of serious risk, which
are collectively laughed off in a clubby atmosphere of relaxed conviviality (Janis, 1982, S. 3)
Das Konstrukt Groupthink beschreibt die typische Denkweise, die auftritt, wenn in Grup-
penentscheidungsprozessen das Streben nach Einstimmigkeit bei den Gruppenmitgliedern
so ausgeprägt ist, dass es die Motivation einer gründlichen Abwägung alternativer Hand-
lungsoptionen übersteigt (Janis, 1971). Oft ist das Bedürfnis nach Loyalität und Konfor-
mität so stark, dass Gruppenmitglieder gegenläufige Ansichten minimieren oder unter-
drücken, um den Ansichten und Normen der Gruppe zu entsprechen (Janis, 1982).
Das Auftreten von Groupthink lässt sich auf einen hohen Grad an Gruppenkohäsion zu-
rückführen. Gruppenkohäsion wiederum wurde in einer der ersten Definitionen als „the
total field of forces which act on members to remain in the group“ beschrieben (Fes-
tinger, 1950, p. 50). Im Arbeitskontext verstärken sich diese Kräfte zum Beispiel durch
den Grad an Gruppeninteraktion, Homogenität der Gruppenmitglieder, Konkurrenz zu
anderen Gruppen, gegenseitige Abhängigkeiten innerhalb der Gruppe sowie die wahrge-
nommene Bedrohung durch externe Risiken (Benard & Doan, 2011). Gruppenkohäsion
ist ein wichtiger Faktor für den Erfolg von Teams, da sie die Gruppenleistung steigert,
die Zufriedenheit der Gruppenmitglieder erhöht sowie stressreduzierend wirkt (Ahronson
& Cameron, 2007; Li et al., 2014). Eine hohe Gruppenkohäsion hilft nach Misserfolgen
und in bestimmten Krisen, die Moral der Gruppe aufrechtzuerhalten. Außerdem sind Ent-
scheidungsprozesse in kohäsiven Gruppen weniger durch Konkurrenzkampf geprägt (Janis,
1982). Auf der anderen Seite ist Gruppenkohäsion ein Wegbereiter für Group Biases, wie
Group Polarization oder eben Groupthink (Baumeister, Ainsworth & Vohs, 2016). Und
während Group Biases – analog zu kognitiven Biases – die Schattenseite nützlicher sozialer
Heuristiken darstellen, überwiegt insbesondere in neuartigen, komplexen und wichtigen
Entscheidungsprozessen die negativen Aspekte: „The groupthink model maintains that
pressures for uniformity and loyalty can build up within groups to the point where they
seriously interfere with both cognitive efficiency and moral judgment.“ (Tetlock, Peterson,
McGuire, Chang & Feld, 1992, S. 403)
Janis (1982) entwickelte das Konzept Groupthink anhand prominenter Fehlentscheidungen
mit weitreichenden Konsequenzen: Darunter die Invasion der Schweinebucht, der Angriff
auf Pearl Harbor sowie die Eskalation im Vietnamkrieg. Er stellte fest, dass die Grup-
penmitglieder in den vorangegangenen Entscheidungsprozessen motiviert waren, den ge-
genseitigen Respekt aufrechtzuerhalten und deshalb gegenseitige Kritik und die Äußerung
abweichender Meinungen vermieden. Es gab keine systematischen Entscheidungsprozesse,
welche die Suche und Verarbeitung potenziell relevanter Informationen betreffen. Es fand
kein Kontakt zu qualifizierten Personen außerhalb der Gruppe statt. Bei der Diskussion
zu Handlungsalternativen bewarben Führungskräfte ihre eigene Sichtweise und vermieden
3 Heuristiken und Biases 66
ergebnisoffene Analysen. Die Entscheidungen fanden zudem unter einem hohen zeitlichen
und politischen Druck statt (vgl. Tetlock et al., 1992).
Janis (1991) definiert acht verschiedene Facetten von Groupthink:
Illusion of Invulnerability beschreibt die Vorstellung, dass die Gruppe so stark ist, dass
nichts schief gehen kann. Diese Denkweise wird durch vergangene Erfolge bestärkt.
Belief in Inherent Morality of the Group führt dazu, dass ethische und morale Konsequen-
zen einer Entscheidung weniger stark bedacht werden, da die Gruppe als solche bereits als
moralische Instanz betrachtet wird.
Collective Rationalization zeigt sich, wenn Warnungen und negatives Feedback, die eine
Entscheidung in Frage stellen, nicht ausreichend berücksichtigt werden. Statt dessen wird
vorschnell gegen die Warnung argumentiert, um den Plan aufrechtzuerhalten.
Out-group Stereotypes tritt auf, wenn Vorurteile gegenüber einer anderen Gruppe, die
andere Meinungen vertritt, implizit oder explizit geäußert werden, zum Beispiel, dass
deren Mitglieder unfähig seien oder keine Ahnung hätten.
Self-Censorship beschreibt die Zurückhaltung oder Entschärfung der eigenen Meinung, in
der Erwartung, dass diese bei Kollegen und Vorgesetzten negative Reaktionen hervorrufen.
Illusion of Unanimity äußert sich dadurch, dass fast alle geäußerten Meinungen der Mehr-
heitsmeinung entsprechen und das Schweigen der Minderheit als stille Zustimmung inter-
pretiert wird – dadurch entsteht der Schein von Einstimmigkeit. Letztlich werden so auch
kritische Gruppenmitglieder überzeugt, wenn nur die Argumente der Mehrheitsmeinung
geäußert werden.
Direct Pressure on Dissenters beschreibt expliziten Druck, der auf bestimmte Personen
oder Gruppen ausgeübt wird, sich der erwünschten Meinung anzupassen. Diese Form des
Groupthink zeigt sich oft, wenn das gesamte Vorhaben unter Druck steht, was auch gleich-
zeitig als Argument zur Anpassung dienen kann.
Self-Appointed Mindguards unterliegen Groupthink und „beschützen“ andere Gruppen-
mitglieder und vor allem Führungskräfte vor unliebsamen Informationen, die die Mehr-
heitsmeinung anzweifeln und somit die als positiv empfundene Einstimmigkeit gefährden.
Tetlock et al. (1992, S. 403) fasst die unterschiedlichen Facetten von Groupthink wie folgt
zusammen:
Decision makers began to believe that the group could not fail – a belief that encouraged excessive optimism and risk
taking. Group members discounted warnings concerning the preferred solution and refused to question either the
inherent righteousness of the group or the inherent immorality of the enemy. Group members self-censored personal
doubts, fostering an illusion of unanimity. On those rare occasions when someone did express a deviant opinion,
the group quickly silenced the critic and resolidified the consensus. Finally, self-appointed mind guards shielded the
3 Heuristiken und Biases 67
group from external sources of dissonant information.
Neben den bereits genannten Fällen wird häufig das Challenger Space Shuttle Desas-
ter 1986 als Beispiel für Groupthink beschrieben. Ein technischer Defekt führte dazu,
dass das Space Shuttle Challenger 73 Sekunden nach dem Start explodierte und 7 Be-
satzungsmitglieder verstarben. Dabei spielten unterschiedliche Facetten von Groupthink,
wie Self-Appointed Mindguards und Direct Pressure on Dissenters eine Rolle. Letzteres
zeigte sich darin, dass direkter Druck auf Ingenieure ausgeübt wurde. Diese sollten trotz
ihrer Bedenken bezüglich technischer Probleme einem Start zuzustimmen, während sich
Self-Appointed Mindguards darin zeigten, dass kritische Informationen von höheren Ent-
scheidungsebenen ferngehalten wurden, indem diese nicht weitergeleitet wurden (Esser &
Lindoerfer, 1989).
Paradoxerweise können einstimmige Entscheidungen im Rahmen von Groupthink in der
Folge als ein Zeichen von Entschlossenheit gewertet werden, obwohl sie tatsächlich ein
Ergebnis des beschriebenen Vermeidungsverhaltens der einzelnen Gruppenmitglieder sind
(Rosenthal & Hart, 2008). Ein ähnlicher Effekt wurde bezüglich des Confirmation Bias
sowie des Overconfidence Bias beschrieben. Im Rahmen derer zeigt sich, dass Menschen
einseitige Argumentationslinien als überzeugender wahrnehmen und sich dadurch zum Teil
hypothesenbestätigende Tendenzen bei der Informationssuche sowie eine Überschätzung
der eigenen Urteilsfähigkeit ergeben (vgl. Kapitel 3.2.4 & 3.3.2).
In sechs untersuchten Fällen von Groupthink fand Janis (1982) sechs gemeinsame Anzei-
chen fehlgeleiteter Entscheidungsprozesse (vgl. Tetlock et al., 1992):
1. Eine verkürzte Betrachtung von Alternativen und Zielen (oft diskutierte die Gruppe
nur die von den Gruppenmitgliedern ursprünglich bevorzugte Option), 2. ein Versäum-
nis, die Risiken der ursprünglich bevorzugten Wahl zu untersuchen, 3. ein Versäumnis,
die ursprünglich abgelehnten Alternativen neu zu bewerten, 4. eine unzureichende Suche
nach relevanten Informationen, 5. eine verzerrte Verarbeitung von Informationen, 6. ein
Versäumnis, Notfallpläne für den Fall auszuarbeiten, dass bekannte Risiken eintreten.
Es kann argumentiert werden, dass sich diese Verhaltensweisen zu einem großen Teil auf
andere kognitive beziehungsweise motivationale Biases zurückführen lassen, wie die hypo-
thesenbestätigende Informationssuche und -interpretation im Rahmen des Confirmation
Bias (Kapitel 3.2.4), die Selbstüberschätzung im Rahmen des Overconfidence Bias (Ka-
pitel 3.3.2) und die überoptimistische Prognostik des Optimism Bias (Kapitel 3.3.3). Der
Fakt, dass sich diese Biases bei folgenschweren Fehlentscheidungen im Gruppenkontext
zeigen, ist ein Hinweis darauf, dass das Gruppensetting – zumindest bei Vorhandensein
von Groupthink – das Auftreten dieser Biases nicht signifikant reduzieren kann. Die be-
schriebenen Facetten von Groupthink deuten eher daraufhin, dass soziale Zwänge diese
kognitiven beziehungsweise motivationalen Symptome verstärken, wenn eine hohe Grup-
3 Heuristiken und Biases 68
penkohäsion beziehungsweise Groupthink vorherrscht. Erklären lässt sich eine Verstärkung
derartiger Effekte potenziell dadurch, dass, wenn ein organisationaler Planungsprozess von
Groupthink geprägt ist, der Konformitätsdruck als gruppendynamische Komponente hin-
zukommt und Meinungshomogenität im Sinne von Social Proof zusätzliche Zuversicht be-
züglich der Entscheidung vermittelt und somit Overconfidence und Optimism gesteigert
werden. So erscheint es plausibel, gewisse Facetten von Groupthink als Steigerung be-
stimmter individueller Biases im Kontext von Konformitäts- und Harmoniebedürfnissen
zu betrachten.
Janis (1982) beschreibt verschiedene strukturelle Faktoren, die das Auftreten von Group-
think begünstigen. Dazu gehört die Isolation der Gruppe von externen Einflüssen durch
andere Gruppen und Experten beziehungsweise der mangelnde Austausch mit diesen. Ein
weiterer Katalysator für Groupthink sind voreingenommene Führungskräfte, die die Grup-
pendiskussionen stark kontrollieren und in Richtung ihrer Ansichten lenken. Dazu reicht
es bereits, wenn Führungskräfte – ggf. aus Unachtsamkeit – erst ihre Meinung äußern, be-
vor die Gruppendiskussion beginnt, anstatt ihre eigene Meinung zunächst zurückzuhalten,
um eine unbeeinflusste Gruppendiskussion zu fördern. Des Weiteren führt Janis (1982)
aus, dass Gruppenmitglieder ein hohes Maß an Zuversicht bezüglich Ihres Ansehens in der
Gruppe benötigen, das nicht dadurch beschädigt wird, dass sie mit den anderen Gruppen-
mitgliedern sachlich zu Meinungsverschiedenheiten diskutieren. So fühlen sich Gruppen-
mitglieder, die sich von der Gruppe akzeptiert fühlen, freier darin, ihre Meinung zu äußern,
auch wenn diese von der Meinung der anderen abweicht (Dittes & Kelley, 1956). An die-
ser Stelle spielt potenziell die Organisationskultur allgemein und speziell psychologische
Sicherheit eine wichtige Rolle, auf die in Kapitel 4 näher eingegangen wird.
Groupthink führt zu klaren und harmonischen Entscheidungen, verhindert aber gleichzei-
tig, dass Argumente zur Verbesserung des Status Quos geäußert werden. Je komplexer
und neuartiger die Situation ist und umso größer die Konsequenzen für die Organisation
beziehungsweise die Gesellschaft sind, desto wichtiger ist es, dass der durch Groupthink
verursachte Verlust an Kreativität und unabhängigen Gedanken verhindert wird. Hierbei
kann analog zu den kognitiven Biases argumentiert werden, dass Gruppenkohäsion und
in der Folge Groupthink sich evolutionär entwickelt haben, weil sie effiziente Gruppen-
entscheidungen ermöglichen, die häufig ohne sehr großen Aufwand zu akzeptablen Ent-
scheidungen führen und das soziale Miteinander damit erleichtern – wie in Kapitel 3.4 am
Beispiel der Hidden Profiles beschrieben wurde. So kann durch das Ausfiltern abweichen-
der Meinungen in Gruppenentscheidungsprozessen leichter ein Konsens erreicht werden.
Dieses Verhalten spart der Gruppe Ressourcen, was aus evolutionärpsychologischer Sicht
potenziell auf Zeiten zurückgeführt werden kann, in denen die Gruppenentscheidungen
weniger komplex waren, da sie in kleineren Gesellschaften – in einer weniger globalisier-
ten und weniger vernetzten Welt – stattfanden. Wie bei den kognitiven Heuristiken ist es
entsprechend kontextabhängig, inwieweit es lohnenswert ist, diese soziale Tendenzen zu
3 Heuristiken und Biases 69
verringern.
3.4.2 Social Loafing
Although some people still think science should be value free, we must confess that we think social loafing can
be regarded as a kind of social disease. It is a ’disease’ in that it has negative consequences for individuals, social
institutions, and societies. (Latané, Williams & Harkins, 1979, S. 831)
Social Loafing beschreibt das Phänomen, dass Personen bei einer Aufgabe weniger Enga-
gement zeigen, wenn sie die Aufgabe als Angehörige einer Gruppe bearbeiten, als wenn
sie auf sich alleine gestellt sind. Der Effekt wurde als erstes in einem Experiment nach-
gewiesen, bei dem der Krafteinsatz der Probanden in unterschiedlichen Konstellationen
beim Tauziehen gemessen wurde (Ringelmann, 1913). In ähnlicher Manier stellten Latané
et al. (1979) fest, dass einzelne Probanden umso leiser jubelten und klatschten, je mehr
Personen es ihnen gleichtaten.
In aktuelleren Studien wurde der Effekt in modernen Arbeitssettings bei kognitiven Aufga-
ben nachgewiesen. Williams (1993) fand bei einer Metaanalyse zu Social Loafing heraus,
dass die Bewertbarkeit der Einzelleistung, die Erwartungen der Einsatzbereitschaft der
Kollegen, die Bedeutsamkeit der Aufgabe sowie die Kultur besonders starke Prädiktoren
für das Auftreten von Social Loafing darstellen.
Bezüglich der Kultur lassen sich stärkere Ausprägung in individualistischen westlichen
Kulturen als in kollektiven ostasiatischen Kulturen feststellen. Klehe und Anderson (2007)
untersuchten entsprechend dieser Hypothese den Einfluss der kulturellen Facetten Power
Distance und Collectivism auf Social Loafing. Dabei bestätigt sich, dass ein hohes Macht-
gefälle sowie stärkerer Individualismus die Neigung zu Social Loafing erhöhen, insofern
Personen stärker extrinsisch motiviert und auf persönliche Ziele fokussiert sind.
Social Loafing zeigt sich darüber hinaus besonders im Bereich der Wissensarbeit und in di-
gitalen Teams ohne Face-to-Face-Kontakt (Alnuaimi, Robert & Maruping, 2010). Gründe
dafür sind die geringere Nachvollziehbarkeit der Einzelleistung beziehungsweise die weniger
ausgeprägten persönlichen Beziehungen, die zu weniger Verantwortungsübernahme moti-
vieren. Dabei spielt auch die Größe eines Teams eine Rolle, da bei größeren Gruppen die
Verantwortungsdiffusion steigt und der Wert der Einzelleistung sinkt, wodurch auch die
Leistungsmotivation sinkt. Eine weitere Ursache ist die Anpassung des Aufwands. Wenn
Personen feststellen, dass andere Gruppenmitglieder sich wenig bemühen, passen sie ihr
Engagement entsprechend nach unten an, anstatt vollen Einsatz zu zeigen, um Fairness
bei der Arbeitsteilung zu erreichen (Latané et al., 1979). Hierbei spielt auch eine selbst-
wertdienliche Attribution eine Rolle, da Personen ihren eigenen Beitrag im Vergleich zu
anderen überschätzen und sich so ein Race to the Bottom ergeben kann.
3 Heuristiken und Biases 70
In einer Folgestudie zur Reduktion der Lautstärke beim Klatschen und Jubeln im Kontext
von Social Loafing (Latané et al., 1979) konnten Williams, Harkins und Latané (1981)
zeigen, dass sich der Effekt minimieren lässt, wenn den Probanden bewusst ist, dass ih-
re Einzelleistung per Mikrofon gemessen wird. Entsprechend stellt Identifizierbarkeit der
Leistung einen wichtigen Moderator bezüglich des Auftretens von Social Loafing dar. Da-
bei ist nicht die Kontrolle durch eine dritte Person entscheidend. Die Studie von Harkins
und Szymanski (1988) zeigt, dass ein objektiver Standard, anhand dessen die Probanden
für sich selbst Feedback erhalten, reicht, um Social Loafing zu reduzieren. Zudem zeigt sich,
dass eine höhere Herausforderung sowie die wahrgenommene Bedeutsamkeit der Einzel-
leistung die Einsatzbereitschaft erhöhen (Harkins & Petty, 1982). Dass das Feedback aus
der Tätigkeit, die Tätigkeitsanforderungen und die Bedeutsamkeit der Tätigkeit allesamt
Faktoren sind, die nicht nur einen starken Einfluss auf die Leistungsmotivation haben,
sondern insgesamt wichtige Prädiktoren für die Zufriedenheit und Gesundheit von Mitar-
beitern sind, zeigt sich deutlich in der Forschung zu psychischer Belastung am Arbeitsplatz
(Englisch, 2018).
Liden, Wayne, Jaworski und Bennett (2004) fanden heraus, dass eine leistungsgerechte
Entlohnung Social Loafing reduziert. Auf Gruppenebene konnte zudem beobachtet wer-
den, dass die Gruppengröße erwartungsgemäß positiv mit Social Loafing korreliert ist und
Gruppenkohäsion – die Hauptursache für Groupthink – Social Loafing reduziert. Dieser
Befund deckt sich mit den Erkenntnissen zur Gruppenkohäsion, der neben den Nachteilen
durch Groupthink auch positive Eigenschaften bezüglich der Teamleistung zugeschrieben
werden (Kapitel 3.4.1). Die Autoren stellten zudem entgegen ihrer Hypothese fest, dass
Individuen, die bei Kollegen Social Loafing wahrnehmen, ihre eigene Leistung nicht nach
unten anpassen, sondern ihre Bemühungen steigern, vermutlich, um das Verhalten der Kol-
legen zu kompensieren. Dementgegen stellte Kerr (1983) fest, dass der Sucker Effect dazu
führt, dass Probanden ihre Bemühungen reduzieren, wenn sie reduzierte Bemühungen bei
Anderen feststellen, um Fairness herzustellen und nicht von den anderen ausgenutzt zu
werden. Das Verhalten, das besonders bei Männern ausgeprägt war, fand nur statt, wenn
der Eindruck entstand, dass andere zwar können, aber nicht wollen und nicht andersherum
wollen, aber nicht können. Williams und Karau (1991) fanden heraus, dass die Bedeut-
samkeit der Aufgabe einen Einfluss hat, wie ein Gruppenmitglied auf Social Loafing eines
anderen Gruppenmitgliedes reagiert. Ist die Bedeutsamkeit der Aufgabe gering, besteht
eine Tendenz, die eigenen Bemühungen ebenfalls zu reduzieren, während eine wichtige
Aufgabe eher zu Kompensation des faulenzenden beziehungsweise überforderten Kollegen
führt.
3 Heuristiken und Biases 71
3.4.3 Group Polarization
It is unfortunate but true that leaders of terrorist organizations show a working knowledge of group polarization.
They sharply discipline what is said. They attempt to inculcate a shared sense of humiliation, which breeds rage,
and group solidarity, which prepares the way for movement toward further extremes and hence for violent acts.
(Sunstein, 2002, S. 429)
Group Polarization beschreibt das Phänomen, dass eine Gruppe von Personen im Rahmen
der Interaktion eine extremere Einstellung zu einem Thema einnimmt, als der Durchschnitt
der Einzeleinstellungen suggerieren würde (Sunstein, 2000). In welche Richtung sich die
Meinung verschiebt, hängt von der Tendenz der ursprünglichen Einstellungen der Teil-
nehmer ab. Sind zum Beispiel Gruppenmitglieder bei einer Entscheidungssituation eher
vorsichtig eingestellt, verstärkt sich diese Tendenz in der Gruppendiskussion (cautious
shift). Ist bei dem Großteil der Teilnehmer eine moderate Risikobereitschaft vorhanden,
verstärkt sich diese in der Regel (risky shift). Der Effekt verstärkt sich in Abhängig-
keit davon, wie stark die ursprünglichen Einstellungen der Gruppenmitglieder ausgeprägt
sind, wie stark die Gruppenkohärenz ausgeprägt ist und wie regelmäßig sich die Gruppe
trifft, ohne dass die Mitglieder mit gegenläufigen Meinungen konfrontiert werden (Sun-
stein, 2000). Als Ursachen wirken dabei zwei unterschiedliche Mechanismen. Zum einen
der soziale Einfluss, das Verlangen nach Anerkennung in der Gruppe. Sobald der Polari-
sierungsprozess beginnt und diverse homogene Argumente ausgetauscht wurden, werden
die Gruppenmitglieder zunehmend zurückhaltender mit Meinungen, die dazu im Wider-
spruch stehen (Sunstein, 2000). Der Effekt scheint sich mit Self-Censorship, als Facette von
Groupthink, zu decken (vgl. Kapitel 3.4.1). Die Auswirkungen sind in diesem Fall ebenfalls,
dass wichtige konträre Informationen gar nicht in die Entscheidung einfließen können und
das Streben nach Konsens den Willen zur Debatte überstrahlt (Wallace, 2015). Auf der
anderen Seite wirkt der Informationseinfluss, indem einzelne Gruppenmitglieder teilweise
unterschiedliche Argumente für die homogene Gruppenmeinung besitzen. Dieser limitierte
Pool an Argumenten führt dazu, dass die Gruppenmitglieder im Rahmen der Diskussi-
on jeweils neue Argumente für die bereits vorhandene Sichtweise erhalten. Anschließend
ist die Gruppenmeinung durch die Interaktion extremer als die Summe der vorherigen
Einzelmeinungen (Sunstein, 2000). Eine weitere Ursache sieht Sunstein (2000) in Reputa-
tionsbedenken, die dazu führen, dass Personen eine abweichende Meinung bewusst nicht
äußern, weil sie ihr Verhalten am Verhalten der anderen Gruppenmitglieder ausrichten,
die ebenfalls keine widersprüchlichen Informationen teilen, so wie es der Normeneinfluss,
der in Kapitel 2.3 beschrieben wurde, vorhersagen würde.
Mutmaßlich lässt sich durch Group Polarization die – in den letzten Jahren als deutlich
zunehmend wahrgenommene – gesellschaftliche Polarisierung, insbesondere im Rahmen
der zunehmenden Verbreitung und Nutzung sozialer Medien, erklären. Kelly, Fisher und
Smith (2005) charakterisieren das Internet als einen Ort, in denen die Nutzer homoge-
3 Heuristiken und Biases 72
ne Communities bilden, die allein auf gemeinsamen Interessen und Werten basieren. Im
Gegensatz dazu werden individuelle Präferenzen im öffentlichen Raum und in den Massen-
medien, in denen Personen einer größeren Meinungsvielfalt ausgesetzt sind, eher im Zaum
gehalten. Ein klassisches Experiment, dass die starke Wirkung des Informationseinflusses
und von Reputationsbedenken im Gruppenkontext aufzeigt, wurde im Rahmen der Studie
von Asch (1951) zu Gruppenzwang und Konformität in Kapitel 2.3 beschrieben.
Fraser, Gouge und Billig (1971) fanden Hinweise für Choice Shifts (Risky oder Cautious) in
einem Experiment, in dem 144 Probanden einen Fragebogen, der acht Items zu riskanten
beziehungsweise vorsichtigen Verhaltensweisen enthielt, zunächst mit ihrer individuellen
Risikoneigung bewerteten. Die individuell bewerteten Fragebögen wurden anschließend
eingesammelt und die Probanden bekamen ein weiteres leeres Exemplar ausgeteilt. An-
schließend bekamen die Probanden die Instruktion, dass es beim ersten Durchgang darum
ging, sie mit dem Material vertraut zu machen, und sie sollten nun die gleichen Items
jeweils drei Minuten in einer Gruppensituation diskutieren und dann erneut individuell
bewerten, ohne dass dabei ein Konsens erreicht werden musste. Die Bewertungen, die im
ersten Durchgang im Gruppendurchschnitt eine moderate Tendenz zu riskantem Verhalten
aufwiesen, verstärkten sich signifikant in diese Richtung, die Bewertungen mit vorsichtiger
Tendenz vice versa. Der Versuch bestätigt die Theorie zu Group Polarization, und es zeigt
sich, dass die Gruppenmitglieder die veränderten Meinungen auch in einer anschließenden
anonymen Bewertung aufwiesen.
Dass Group Polarization starken Einfluss auf organisationale Planungsprozesse hat, ist
unmittelbar ersichtlich und zeigt sich zum Beispiel in den Parallelen zum bereits be-
schriebenen Phänomen Groupthink, in Form von Self-Censorship (vgl. Kapitel 3.4.1). Zhu
(2014) identifizierte Group Polarization bei der Entscheidung über die Vergütung von
Chief Executive Officers (CEO) großer Unternehmen aus der Fortune 500 List. Die Do-
kumentenanalyse von den durch 326 Unternehmen veröffentlichten Daten untersucht die
Konstellationen, der an der Festlegung der Gehälter beteiligten Direktoren im Zeitverlauf.
Es zeigte sich, dass in Konstellationen, in denen die für die Vergütung verantwortlichen
Aufsichtsräte aus einer Kombination von Personen bestanden, die zuvor unterdurchschnitt-
liche Gehälter festgelegten hatten, sich dieser Trend verstärkte, während Konstellationen
aus großzügigen Aufsichtsräten das CEO-Gehalt noch weiter steigerten.
3.4.4 False Consensus Effect
The process of projection is not essentially different from the tendency to assume naively that others feel or react
in the same manner as we ourselves do. (Horney, 2013, S. 215)
Der False Consensus Effect beschreibt das Phänomen, dass eigene Ansichten und Verhal-
tensweisen zu stark als normal, verbreitet und situationsadäquat wahrgenommen werden.
3 Heuristiken und Biases 73
Entsprechend werden abweichende Reaktionen anderer Personen oder Gruppen tendenzi-
ell als ungewöhnlich oder unangemessen erachtet (L. Ross, Greene & House, 1977). Das
eigene Denken und Verhalten wird also als typischer wahrgenommen, als es tatsächlich ist
(Jones & Roelofsma, 2000).
Der Effekt lässt sich teilweise über den fundamentalen Attributionsfehler erklären. Dem-
nach werden die eigenen Handlungen auf situationale Faktoren zurückgeführt und entspre-
chen dadurch vermeintlich der „normalen“ Vorgehensweise, während bei anderen Akteuren
für abweichendes Verhalten dispositionale Faktoren unterstellt werden und dadurch ange-
nommen wird, dass dieses auf die Persönlichkeit der Akteure zurückzuführen ist (L. Ross
et al., 1977). Katz, Allport und Jenness (1931) stellten zum Beispiel fest, dass die von Stu-
denten eingeräumte Häufigkeit des Täuschens bei Prüfungen positiv mit deren Prognose
über die allgemeine Verbreitung von Täuschungsversuchen korreliert.
L. Ross et al. (1977) präsentierten Probanden unterschiedliche Szenarien und ließen diese
anschließend bewerten, wie viel Prozent der Menschen zum Beispiel einen $20 Strafzettel
bezahlen würden oder versuchen würden, diesen anzufechten. Eine folgende Bewertung,
wie die Probanden jeweils selbst in der Situation handeln würden, war positiv mit der
vermuteten Verbreitung in der Population korreliert. Diejenigen, die den Strafzettel be-
zahlen würden, vermuten, dass 71,8% der Population es ihnen gleich tun würden, während
diejenigen, die das Ergebnis aufgrund mutmaßlicher formeller Mängel anfechten würden,
vermuteten, dass nur 51,7% den Strafzettel bezahlen würden. In einer weiteren Studie
konnten sie eine ähnliche Tendenz bei der Bewertung bezüglich Persönlichkeitseigenschaf-
ten, Freizeitaktivitäten, persönlichen Problemen und politischen Sichtweisen feststellen,
in denen Probanden die vermutete Verbreitung dieser Aspekte von ihrer Selbsteinschät-
zung abhängig machten. Neben den Erkenntnissen aus Befragungen testeten L. Ross et al.
(1977), ob die Ergebnisse auf reale Entscheidungen übertragbar sind, indem sie Proban-
den fragten, ob sie für eine sozialpsychologische Studie bereit seien, 30 Minuten mit einem
Werbeschild mit der Aufschrift Eat at Joe’s über den Campus zu laufen. Diejenigen, die
sich dazu bereit erklärten (70%), schätzten durchschnittlich, dass 60,8% sich gleicherma-
ßen entscheiden würden und diejenigen die es ablehnten (30%), vermuteten, dass 43,3%
der Probanden dazu bereit wären.
Neben dem Fundamentalen Attributionsfehler beschreiben Marks und Miller (1987) Co-
gnitive Availability als weitere Ursache für den False Consensus Effect. Da Menschen sich
tendenziell mit anderen Menschen umgeben, die ihnen in diversen Eigenschafts- und Ver-
haltensdimensionen ähneln, lassen sich bei der Einschätzung von Häufigkeiten und Wahr-
scheinlichkeiten im Rahmen der Availability Heuristic (Kapitel 3.2.1) leichter Beispiele
abrufen, die dem eigenen Standpunkt entsprechen. Durch diese selektive Verfügbarkeit
der eigenen Gruppen entsteht auch eine verzerrte Einschätzung der Gesamtbevölkerung.
Als motivationale Ursache kann die wahrgenommene Ähnlichkeit mit anderen den Selbst-
3 Heuristiken und Biases 74
wert steigern und kognitive Dissonanz reduzieren (L. Ross et al., 1977).
Der False Consensus Effect führt so zu verzerrter Wahrnehmung von Verhalten und be-
fördert Varianz und Fehler in der Interpretation sozialer Ereignisse (L. Ross et al., 1977).
Der False Consensus Effect betrifft besonders auch Gruppen (z. B. Wojcieszak, 2008) be-
ziehungsweise Organisationen (z. B. Flynn & Wiltermuth, 2010), die systematisch über-
schätzen, wie repräsentativ die eigenen Vorstellungen für die Grundgesamtheit sind. Die
wahrgenommene Bedeutung der Entscheidung und, wie beschrieben, ein homogenes Um-
feld steigern die Tendenz zum False Consensus Effect, was eine besondere Anfälligkeit
in organisationalen Planungsprozessen bedeutet (vgl. auch Jones & Roelofsma, 2000).
Wenn ein Manager oder ein Team somit das Gefühl haben, dass eine bevorzugte Hand-
lungsalternative dem entspricht, was andere in der Situation auch tun würden, wird die
Wahrscheinlichkeit reduziert, dass diese Handlungsalternative kritisch hinterfragt wird.
Während die verschiedenen Facetten von Groupthink erklären, wie eine fehlgeleitete Mei-
nungshomogenität innerhalb einer Gruppe entsteht, verstärkt der False Consensus Effect
diese Problematik, indem die Gruppe überschätzt, inwieweit diese Sichtweise von der Au-
ßenwelt geteilt wird. Auch innerhalb der Gruppe kann der False Consensus Effect zum
Beispiel dazu führen, dass eine Führungskraft die eigene Vorgehensweise als zu alternativ-
los und zu stark durch die Situation begründet betrachtet und folglich die Zustimmung
der Gruppenmitglieder zu hoch einschätzt, insbesondere wenn diese, im Kontext von Self-
Censorship, ihre abweichende Meinungen nicht äußern.
3.5 Auswahl und Klassifikation
Finally, most classifications include only a small subset of biases, usually 10-40, whereas a collaboratively-edited
Wikipedia page lists 176 known cognitive biases [37] as of today. Some classifications only gave examples [34], others
listed a small sample of these biases [35]. One reason behind this limitation may be that not all biases are as relevant
to all scientific domains. (Dimara, Franconeri, Plaisant, Bezerianos & Dragicevic, 2020, S. 3)
Im Rahmen der vorherigen Kapitel wurde eine Auswahl verbreiteter Biases getroffen, die
gut untersucht, für organisationale Planungsprozesse relevant und gleichzeitig basal, also
jeweils kein Spezialfall eines übergeordneten Bias, sind. Die Auswahl der Biases basierte
zunächst auf den Ausführungen von Bazerman und Moore (2013), die sowohl motiva-
tionale Biases, als auch kognitive Biases im Kontext organisationale Planungsprozesse
beschreiben. Ergänzend wurden weitere relevante Effekte, unter anderem basierend auf
den Ausführungen von Kahneman (2011), Pohl (2017a), Gilovich, Griffin und Kahneman
(2009) und Montibeller und von Winterfeldt (2018) identifiziert, und entsprechend der ge-
nannten Kriterien, unter Berücksichtigung ökonomischer Aspekte, ergänzt. Die Relevanz
der beschriebenen Effekte für organisationale Planungsprozesse zeigt sich unter anderem
auch in den Ausführungen von Reason (2013), der diese teils explizit beschreibt und teils
3 Heuristiken und Biases 75
in seinen Ausführungen zu Fehlentscheidungen in organisationalen Prozessen impliziert.
So lässt sich die folgende Aussage auf den Confirmation Bias zurückführen:
Planners are heavily influenced by their theories: where these are inappropriate, systematic sources of bias will be
introduced into the planning process. One consequence is that planners will unconsciously fill in the bits missing
from the current evidence in accord with their theories. (Reason, 2013, S. 57)
In ähnlicher Weise wird die Relevanz der Availability Heuristic impliziert: „The informa-
tion that is ’called’ into the database will be biased in favour of those items emanating
from activated schemas, something that may be more potent than the relevance of the
information“(Reason, 2013, S. 56). Folgende Aussage kann mit dem Self-Serving Bias in
Verbindung gebracht werden: „The information present in the working database will be
biased in favour of past successes rather than past failures“(Reason, 2013, S. 57). Das
gleiche gilt für den Optimism Bias beziehungsweise die Planning Fallacy bezüglich der
folgenden Aussage: „Planners being guided primarily by past events will underestimate
the influence of chance. As a result they will plan for fewer contingencies than are likely
to occur“(Reason, 2013, S. 57). Schließlich lässt sich in folgender Beschreibung die Sunk
Cost Fallacy erkennen:
A completed plan is not only a set of directions for future action; it is also a theory about the future state of the
world. It confers order and reduces tension. It will be strongly resistant to change. This unwillingness to change
is likely to be greater when the plan is complex, has been the result of much time and effort, and entailed the
involvement of many people. (Reason, 2013, S. 58)
Die Auswahl der Biases wurde mit der Festlegung auf vier kognitive, vier motivationa-
le und vier gruppendynamische Biases, im Rahmen der eingangs genannten Kriterien,
deutlich eingegrenzt, insofern in der Forschung eine lange Reihe von als Bias bezeichnete
Effekte untersucht wurden. Dimara et al. (2020) basieren ihre Analyse kognitiver Biases
auf Basis der dazu auf Wikipedia geführten Liste (“List of Cognitive Biases”, 2022), aus
denen sie immerhin 176 Biases auswählten, zu denen wissenschaftliche Literatur existiert.
Neben der Relevanz für organisationale Planungsprozesse und der ökonomischen Notwen-
digkeit begründet sich die Reduzierung der in dieser Arbeit berücksichtigten Effekte auch
in der Redundanz beziehungsweise inhaltlichen Überschneidung der in der langen Liste
benannten Biases. Zum Beispiel kann der IKEA-Effect, der beschreibt, dass Konsumenten
Produkten, in deren Aufbau sie selbst Aufwand investiert haben, einen erhöhten Wert
zuschreiben, durch die Sunk-Cost Fallacy (vgl. Kapitel 3.2.3) erklärt werden.
In Kapitel 3.2.4 wurde beschrieben, dass der Confirmation Bias mitunter für den Effekt der
Illusory Correlation verantwortlich ist, weil hypothesenbestätigende Informationsverarbei-
tung die Wahrnehmung vermuteter Zusammenhänge verstärkt. Der Unit Bias beschreibt,
dass Personen mehr essen, wenn die Essensbehälter größer sind. Dieser Fall wurde als
Beispiel für den Anchoring Effect beschrieben (Kapitel 3.2.2). Es gibt noch viele andere
Konstrukte, die gleichberechtigt angeführt werden, obwohl sie entweder einen Spezialfall
3 Heuristiken und Biases 76
oder ein Beispiel eines basaleren Bias darstellen. Zudem besteht die Problematik, dass
identische Effekte von unterschiedlichen Forschern beziehungsweise Fachrichtungen mit
unterschiedlichen Bezeichnungen beschrieben werden, was das gegenseitige Aufgreifen von
Erkenntnissen erschweren kann. Ein Beispiel hierfür ist der Myside Bias (Mercier, 2017),
der praktisch identisch zu dem Confirmation Bias definiert wird.
Hier zeigt sich der Bedarf für ein einheitliches Klassifikationssystem kognitiver, motiva-
tionaler und gruppendynamischer Biases, welche die Kommunikation in der Wissenschaft
sowie die Implementierung von Diagnosetools und Interventionsansätzen in der Praxis
erleichtern würde. Vorhandene Klassifikationsansätze variieren sehr stark bezüglich der
Gruppierung von Biases sowie der dort berücksichtigten Biases. Zudem wird in den Klas-
sifikationen die Forschung zu motivationalen Biases im organisationalen Kontext, trotz
des starken Einflusses, relativ wenig berücksichtigt (Montibeller & von Winterfeldt, 2015).
Pohl (2017b) unterscheidet Biases in drei Kategorien bezüglich deren zugrundeliegenden
kognitiven Mechanismen: Thinking, Judgement und Memory. Thinking-Biases umfassen
demnach die fehlerhafte Anwendung statistischer oder logischer Regeln – dazu wird bei-
spielsweise der Confirmation Bias gezählt, bei dem das Falsifikationsprinzip der Hypothe-
sentestung verletzt wird. Judgment-Biases beziehen sich auf die Bewertung von Aspekten
wie der Annehmlichkeit, Häufigkeit oder Wahrhaftigkeit eines Stimulus – zum Beispiel
Availability, Anchoring, Overconfidence. Schließlich umfassen Memory-Biases jene Effek-
te, die das Speichern und spätere Abrufen von Informationen umfassen, beispielsweise der
Hindsight Bias. Dabei gibt Pohl (2017b) zu bedenken, dass Urteilsprozesse immer auch
Denkprozesse, also Prozesse der Manipulation von Informationen im Arbeitsgedächtnis
umfassen. Gleichzeitig erfordern sämtliche Denk- oder Urteilsprozesse den Abruf von In-
formationen aus dem Langzeitgedächtnis (vgl. Kapitel 2.2). Entsprechend ist die Katego-
risierung alles andere als trennscharf – es lassen sich daran lediglich gewisse Schwerpunkte
ausmachen. Die Availability Heuristic beschreibt zum Beispiel einen verzerrten Abruf von
Informationen aus dem Gedächtnis und könnte demnach den Memory-Biases zugeordnet
werden, Pohl (2017b) ordnet sie jedoch bei den Judgement-Biases ein. Diese Kategorisie-
rung lässt sich so interpretieren, dass eine die Availability Heuristic auslösende Aufgabe ein
Wahrscheinlichkeits- oder Häufigkeitsurteil umfasst (vgl. Kapitel 3.2.1) und die Eigenschaf-
ten des zu beurteilenden Stimulus (Emotionsgehalt, Präsenz in den Medien) den Abruf
der Beispielinstanzen beeinflussen, aufgrund dessen die Wahrscheinlichkeit geschätzt wird.
Bezüglich der schwierigen Abgrenzung von Urteils- und Entscheidungsprozessen bezüglich
kognitiver Funktionen schreibt Kahneman und Frederick (2009, S. 49-50):
The boundary between perception and judgment is fuzzy and permeable: the perception of a stranger as menacing
is inseparable from a prediction of future harm. Intuitive thinking extends perception-like processing from current
sensations to judgment objects that are not currently present, including mental representations that are evoked by
language.
3 Heuristiken und Biases 77
So wie in diesem Beispiel umfasst ein intuitives Urteil, mit variierendem Anteil, diverse
kognitive Prozesse: Wahrnehmungsprozesse, Denk- und Urteilsprozesse sowie Speicherung,
Enkodierung und Abruf aus dem und in das Langzeitgedächtnis. Verdeutlichen lässt sich
dieses Zusammenspiel verschiedener kognitiver Funktionen anhand des kognitiven Verar-
beitungszyklus (Sträter, 2005). Der kognitive Verarbeitungszyklus skizziert den mentalen
Prozess von der menschlichen Wahrnehmung bis zur Handlung und veranschaulicht damit
kognitive und emotionale Korrelate des Urteils- und Entscheidungsprozesses (Abbildung
7) .
Abbildung 7
Der kognitive Verarbeitungszyklus
Anmerkung. Der kognitive Verarbeitungszyklus skizziert die Interaktion von Wahrnehmung, Ko-
gnition und Reaktion. In Anlehnung an Sträter (2005).
Im Rahmen der Literaturanalyse hat sich die in Kapitel 3 vorgenommene Einteilung in
kognitive Biases, motivationale Biases sowie gruppendynamische Biases als inhaltlich sinn-
voll erwiesen (vgl. Kunda, 1990; Montibeller & von Winterfeldt, 2015). Eine trennscharfe
Kategorisierung ist auch damit nicht erreichbar, da viele Biases Überschneidungen be-
züglich zugrundeliegender kognitiver und motivationaler Mechanismen aufweisen und un-
terschiedliche Wechselwirkungen bestehen. Diese drei Bereiche bieten aber bezüglich der
zugrundeliegenden adaptiven Mechanismen immerhin eine gewisse Differenzierbarkeit, in-
sofern sich kognitive Biases häufig über die Prinzipien Bounded Rationality und Cognitive
Miser erklären lassen, zum Beispiel durch kognitive Mechanismen wie die Attribute Substi-
tution. So tritt die Availability Heuristic auf, wenn eine Frage nicht objektiv beantwortet
werden kann und durch den Prozess der Attribute Substitution unbewusst durch ein ein-
3 Heuristiken und Biases 78
facheres Urteil ersetzt wird, das auf der Leichtigkeit der Erinnerung basiert. Das Prinzip
WYSIATI führt dazu, dass bereits vorhandenes Wissen zu einem Thema mit dem insge-
samt verfügbaren Wissen dazu konfundiert wird und im Zusammenhang mit der einseitigen
Informationssuche des Confirmation Bias entsteht schnell ein verzerrtes Urteil, dass mit
einem Gefühl großer Zuversicht getroffen wird:
Because of the tendency to seize on early information and immediately freeze, people under a heightened need for
closure may process less information before committing to a judgment and generate fewer competing hypotheses
to account for the available data. Paradoxically, they may feel more assured of those judgments, even though they
are less grounded in thorough exploration. Specifically, the less competing hypotheses a person might entertain, the
more confidence he or she may have in those hypotheses (Kelley, 1971) simply because fewer alternatives to a given
judgment may appear plausible, enhancing the individual’s confidence in those that are. (Kruglanski & Webster,
1996, S. 265)
Zu den primär auf kognitive Limitationen zurückzuführenden Cold Biases wurden im Rah-
men dieser Arbeit neben der Availability Heuristic und dem Confirmation Bias, der An-
choring Effect sowie die Sunk-Cost Fallacy eingeordnet (vgl. Kapitel 3.2).
Zu der Kategorie der primär motivationalen Hot Biases gehören entsprechend: Der Self-
Serving Bias, der Overconfidence Bias, der Optimism Bias und der Desirability Bias (vgl.
Kapitel 3.3). Motivationale Biases haben ihre Ursache beziehungsweise ihren adaptiven
Nutzen oft bezüglich des psychologischen Wohlbefindens im Kontext der selbstwertdien-
lichen Attribution und einer damit einhergehenden kognitiven Dissonanzreduktion. Die
selbstwertdienliche Attribution findet dabei häufig im Vergleich mit anderen Personen
statt und hat damit auch einen sozialen Charakter und dient indirekt auch der überzeu-
genden Präsentation nach Außen (Self-Presentation; vgl. Kapitel 2.3).
Gruppendynamische Biases sind insofern adaptiv, als dass sie zum Teil mit positiven
Aspekten, wie Harmonie und Gruppenkohäsion einhergehen. Insofern spiegeln sie das
tiefe Bedürfnis nach Gruppenzugehörigkeit und -identität wider, das evolutionärspsycho-
logisch darauf zurückzuführen ist, dass die Akzeptanz der Gruppe in weiten Teilen der
Menschheitsgeschichte überlebenswichtig war, und die soziale Verbundenheit bis heute ein
fundamentales Grundbedürfnis ist (Van Vugt & Schaller, 2008). Dieser Sachverhalt trifft
insbesondere bezüglich Groupthink und Group Polarization zu, während für Social Loafing
und den False Consensus andere Ursachen erläutert wurden (Kapitel 3.4).
An dieser Stelle soll noch einmal betont werden, dass es im Rahmen dieser Arbeit nicht
um bewusste Abweichungen von einem rationalen Urteil aufgrund von bewusst analy-
sierten Interessenskonflikten geht, sondern um implizite Urteilsverzerrungen im Sinne der
beschriebenen motivationalen beziehungsweise gruppendynamischen Effekte:
We define motivational biases as those in which judgments are influenced by the desirability or undesirability of
events, consequences, outcomes, or choices (see also Kunda,(12) von Winterfeldt,(3) and Molden and Higgins(13)).
[...] Motivational biases do not always have to be conscious. For example, estimates of the time it takes to complete
a software project are often overly optimistic(14) even when there is no outside pressure or value in misrepresenting
3 Heuristiken und Biases 79
the actual time. (Montibeller & von Winterfeldt, 2015, S. 1231)
Auch aus praktischer Sicht scheint die beschriebene Kategorisierung von Biases sinnvoll,
wenn es um Interventionen beziehungsweise die Diagnostik geht. So wurden in Kapitel 1.1
einige Debiasingtechniken beschrieben, die vor allem auf kognitive Effekte und die Prinzi-
pien Bounded Rationality beziehungsweise Cognitive Miser abzielen. Diese Entscheidungs-
analysetools oder Prozesstechniken basieren wiederum auf Eingaben und Annahmen, die
menschliche Urteilsprozesse bedingen und die anfällig für unbewusste motivationale Ten-
denzen sein können:
Some decision and risk analysts use the existence of these biases to argue for the use of modeling and analysis tools
because these tools can correct human biases and errors in decision making. However, experts and decisionmakers
need to provide judgments in risk and decision modeling, thus analysts must worry about biases that may distort
the inputs into the very models that are supposed to correct them. For example, when using expert judgments to
construct a probability distribution as an input to a risk analysis model, one has to worry about the wellknown
overconfidence bias. Similarly, when obtaining expert judgments as inputs to estimate possible consequences of
decision alternatives, one has to be concerned with the self-interest of experts, who may have a stake in the ouctome
of the analysis. (Montibeller & von Winterfeldt, 2015, S. 1230)
Insbesondere bezüglich motivationaler und gruppendynamischer Biases gibt es zahlreiche
Hinweise für interindividuelle Unterschiede, die zum Teil auch im kulturellen Hintergrund
begründet liegen. Die Organisationskultur ist ein Faktor, der bisher wenig bezüglich sei-
nes Einflusses auf die Qualität von Urteilen und Entscheidungen unter Unsicherheit im
Kontext von Biases untersucht wurde (Savani, Cho et al., 2015). Dieser Einfluss ist im
Rahmen dieser Arbeit besonders relevant, weil er potenziell durch die Wirkung kognitiver,
motivationaler und gruppendynamischer Biases mediiert wird. Während Biases aufgrund
ihrer unbewussten Entstehung, abgesehen von der Manipulation in kontrollierten Labor-
bedingungen, nur teilweise beziehungsweise mit hohem Aufwand mitigiert werden können
(vgl. Kapitel 1.1.), bieten Kontextfaktoren, welche die Entstehung dieser Biases implizit
beeinflussen, einen vielversprechenden Zugang:
Second, cross-cultural research reveals that some judgment biases once assumed to be universal are in fact limited to
particular sociocultural contexts (e.g., Weber & Hsee, 1998). Such findings help elucidate the mechanisms underlying
the biases, suggesting that they are not simply bugs in the operating system of human cognition but patterns
constructed through the interaction of human psychology with information and decision environments. (Savani, Cho
et al., 2015, S. 457)
Eingangs wurden unterschiedliche Strategien zum Debiasing dargestellt, die wirksame Me-
thoden zur Verbesserung der Entscheidungsqualität umfassen. Darüber hinaus bietet die
Organisationskultur potenziell einen Ansatz, um diese Verbesserung inkrementell zu stei-
gern, indem die Compliance bezüglich der Nutzung derartiger Strategien erhöht wird, so-
wie bestimmte Biases, insbesondere motivationale und gruppendynamische Biases, direkt
reduziert werden. Diesbezüglich werden im folgenden Kapitel die entsprechenden Grund-
lagen zur Organisationskultur näher erläutert.
3 Heuristiken und Biases 80
Zusammenfassend lässt sich festhalten, dass es das Ziel der Auswahl der in Kapitel 3.2
bis 3.4 beschriebenen Biases war, diejenigen Effekte zu identifizieren, die erstens im Kon-
text organisationaler Planungsprozesse relevant sind und zweitens für die Gesamtheit der
relevanten Biases repräsentativ sind, also basal und wenig redundant – um damit den
Bearbeitungsumfang in dieser Arbeit sinnvoll einzugrenzen. Eine starke Redundanz be-
züglich der Berücksichtigung unterschiedlicher Biases ist auch aus praktischer Sicht, im
Hinblick auf die Diagnostik oder den Einsatz von Gestaltungsmaßnahmen, unökonomisch.
Der erhöhte Aufwand bietet wenig diagnostischen Mehrwert, wenn Ursachen und damit
auch die Interventionen potenziell gleichförmig sind.
81
4 Organisationskultur
We encounter organizational cultures all the time. When they are not our own, their most visible and unusual
qualities seem striking: the look of the traditionally dressed IBM salesman, the commitment to form and product
expressed by employees at Honda or Matsushita, the informality of Apple and many other high-tech companies.
When the cultures are our own, they often go unnoticed – until we try to implement a new strategy or program which
is incompatible with their central norms and values. Then we observe, first hand, the power of culture. (Kotter,
2008, S. 3)
In den zurückliegenden Kapiteln wurden mehrfach die Eigenschaften organisationaler Pla-
nungsprozesse beschrieben, insbesondere im Bezug auf die Komplexität, Unstrukturiert-
heit und Situationsspezifität dieser Prozesse im Kontext einer Umwelt, die zunehmend
durch das Acronym VUCA definiert werden kann. In diesem Zusammenhang wurde die
Problematik der Entscheidungen unter Unsicherheit und damit einhergehender kogniti-
ver, motivationaler und gruppendynamischer Biases beschrieben. In organisationalen Pla-
nungsprozessen lassen sich derartige Biases – anders als in vielen erkenntnisreichen Labor-
experimenten – nicht ohne Weiteres diagnostizieren oder manipulieren.
In Kapitel 1.2 wurden diverse Entscheidungsanalysetools und prozessbezogene Debia-
singstrategien vorgestellt, die teilweise erfolgreich kognitive Limitationen kompensieren
oder als eine Art Prompt eine analytische Problemlösung provozieren, wenn heuristische
Urteile potenziell zu Fehlern führen. Jedoch unterliegen die Eingaben von Daten in der-
artige Tools, sowie die Interpretation der Ergebnisse, motivationalen und gruppendyna-
mischen Biases (Montibeller & von Winterfeldt, 2015). Zudem wurde argumentiert, dass
auch die Akzeptanz und damit die tatsächliche Nutzung dieser Tools potenziell von moti-
vationalen und gruppendynamischen Faktoren abhängt. Im Rahmen von Debiasing wird
dementsprechend häufig auf die Modifikation des Entscheidungskontextes, als Fokus für
Interventionen zur Reduzierung von Biases, abgezielt. Ein guter Grund dafür ist, dass
Biases implizit und unbemerkt ablaufen sowie oft mit sinnvollen Heuristiken zusammen-
hängen, wodurch eine Reduktion anders oft nicht möglich oder zielführend ist. Klayman
(1993, S. 116) schreibt dazu:
Given the non-intuitive nature of many statistical principles and decision analysis techniques, it may often be easier
to modify the environment than the person. Moreover, whereas better thinking must be taught to each individual,
the benefits of a modified environment are likely to generalize across the range of individuals who encounter it.
Das gleiche gilt für die Diagnostik derartiger Effekte, die in der Literatur bisher kaum dis-
4 Organisationskultur 82
kutiert wird, im Prinzip aber an der gleichen Stelle wie Interventionsmaßnahmen anknüpft.
Insofern möchte die Diagnostik die Beschaffenheit jener Kontextfaktoren, die das Debia-
sing manipuliert, zunächst erfassen, um zu erkennen, welche Aspekte kritisch sind und
welche Prioritäten bei Veränderungsprozessen sinnvoll sind. Dem Vorhaben der Diagnos-
tik ließe sich entgegensetzen, dass kognitive, motivationale und gruppenbezogene Biases als
universell gelten und man somit direkt zur Intervention übergehen könnte. Die in Kapitel
3 beschriebenen motivationalen und gruppendynamischen Biases sind zwar grundsätzlich
weit verbreitet, jedoch weniger universell als häufig angenommen. Interindividuelle Un-
terschiede bezüglich Biases, wie des Self-Serving-Biases oder des Overconfidence Biases,
unterliegen nicht zuletzt kulturellen Einflüssen (Savani, Cho et al., 2015).
In den folgenden Abschnitten wird die wichtige Rolle der Organisationskultur als Ein-
flussfaktor auf die Entscheidungsqualität im Rahmen diverser Heuristiken beziehungsweise
Biases beschrieben. Im Gegensatz zu einem primären Fokus auf Strukturen und Prozessen
bietet die Organisationskultur einen umfassenderen Zugang zum Entscheidungskontext,
da die Organisationskultur potenziell das Konstrukt ist, das am besten vorhersagt, wie
sich Menschen in organisationalen Planungsprozessen, die komplex, unstrukturiert und si-
tuationsspezifisch sind, tatsächlich verhalten. Kulturbezogene Interventionen können zwar
zunächst langwierig sein, führen aber – wenn einmal eine entsprechende Organisations-
kultur etabliert ist – potenziell dazu, dass bestimmte Verhaltensweisen implizit, also ohne
bewussten Aufwand, von neuen Organisationsmitgliedern erlernt und angewendet werden.
Und auch wenn die auf einer entsprechenden Diagnostik basierenden Gestaltungsempfeh-
lungen gleichförmig sind, also organisationsübergreifende Zielzustände definiert werden
können, an denen sich Interventionen unmittelbar – auch ohne vorherige Diagnostik ori-
entieren könnten – erscheint eine regelmäßige Evaluation der Bedingungen mittels einer
Mitarbeiterbefragung sinnvoll.
Zunächst kann erfasst werden, welche Bedingungen bereits den Zielvorstellungen entspre-
chen und falls Interventionsbedarf besteht, können Prioritäten in Abhängigkeit der Be-
deutsamkeit oder der Ausprägung einzelner Themen gesetzt werden. Einzelne Organisa-
tionseinheiten bilden zudem Subkulturen, die sich bezüglich kultureller Normen und Ver-
haltensweisen unterscheiden. Im Rahmen der Diagnostik kann somit auch entschieden und
priorisiert werden, wann und in welchen Organisationseinheiten sinnvollerweise Maßnah-
men umgesetzt werden sollen. Die Etablierung einer zielgerichteten Organisationskultur
ist ein langfristiges und dynamisches Anliegen und lässt sich anhand einer regelmäßigen
Evaluation des Status Quos außerdem erkennen, inwieweit bereits erreichte Ziele erodiert
sind, um gegebenenfalls Maßnahmen zu ergreifen. Analog dazu kann zum Beispiel die Ge-
fährdungsbeurteilung psychischer Belastung in Organisationen betrachtet werden. Dort
gibt es klare Gestaltungsempfehlungen, jedoch ist eine regelmäßige Diagnostik – aus oben
genannten Gründen – sinnvoll und vorgesehen (D. Beck et al., 2022; Deutsches Institut
für Normung, 2004). Bezüglich der Methodik bieten standardisierte, schriftliche Mitarbei-
4 Organisationskultur 83
terbefragungen einen direkten und ökonomischen Zugang zur Erfassung der betreffenden
Gegebenheiten. Zudem verringert die Möglichkeit der Anonymität bestimmte Antwort-
tendenzen, wie die der sozialen Erwünschtheit. Die quantitative Befragung aller Organi-
sationsmitglieder bezüglich der zu erfassenden Bedingungen bietet hierbei eine relative
Objektivierung der aktuellen Lage, die von einzelnen Personen subjektiv unterschiedlich
wahrgenommen wird.
In den folgenden Abschnitten wird analysiert, inwieweit bestimmte Aspekte der Organisa-
tionskultur einen direkten Einfluss auf die Auftretenswahrscheinlichkeit bestimmter Biases
haben oder einen indirekten Einfluss auf andere Biases nehmen, indem sie die Akzeptanz
von Methoden oder Verhaltensweisen zu deren Reduzierung beeinflussen. Anschließend
sollen diese Aspekte so operationalisiert werden, dass die assoziierten Situationen und
Verhaltensweisen für Mitarbeiter mit diversen fachlichen Hintergründen bewertbar sind
und entsprechend als Items zur Diagnostik genutzt werden können.
4.1 Definitionen
Cultures can have powerful consequences, especially when they are strong. They can enable a group to take rapid
and coordinated action against a competitor or for a customer. They can also lead intelligent people to walk, in
concert, off a cliff. (Kotter, 2008, S. 17)
Der Begriff Kultur fand seinen Ursprung gegen Ende des 19. Jahrhunderts in der Anthro-
pologie und basierte auf der Beobachtung, dass sich die Gesellschaften von Ureinwohnern
verschiedener Kontinente nicht nur stark von technologisch weiterentwickelten westlichen
Gesellschaften unterschieden, sondern auch zwischen verschiedenen Stämmen deutliche
Unterschiede bezüglich Ritualen und Verhaltensweisen beobachtet werden konnten (Kot-
ter, 2008). Entsprechend wurde das Konstrukt Kultur geprägt, um im weitesten Sinne
die verschiedenen Qualitäten menschlicher Gruppen, die von Generation zu Generation
weitergegeben werden, zu erfassen. Nach der Definition des American Heritage Dictionary
umfasst Kultur: „the totality of socially transmitted behavior patterns, arts, beliefs, insti-
tutions, and all other products of human work and thought characteristic of a community
or population“ (W. Morris, 1971).
Das Konzept der Unternehmens- beziehungsweise Organisationskultur gewann in der Nach-
kriegszeit, insbesondere in den 1970er und 1980er Jahren, enorm an Bedeutung. In dieser
Zeit war es ein Bestreben, herauszufinden, warum US-Unternehmen eine schlechtere Leis-
tung als deren Pendant in anderen Regionen, zum Beispiel Japan, erzielten. Dabei wurde
es deutlich, dass kulturelle Unterschiede auf nationaler Ebene nicht ausreichten, um das
Phänomen zu erklären, und man ein Konzept braucht, das Unterschiede, zum Beispiel
bezüglich der Effektivität, zwischen verschiedenen Organisationen besser erklärt (Schein,
1988). Warrick (2015) definiert Kultur als diejenigen Glaubenssätze, Werte, Einstellungen
4 Organisationskultur 84
und Verhaltensweisen, die charakteristisch für eine Gruppe sind. Ähnlich beschreibt Uttal
(1983) Kultur als geteilte Werte (was ist wichtig) und Glaubenssätze (wie funktionieren
Dinge), die in Interaktion mit den Strukturen und Systemen der Organisation Verhaltens-
normen produzieren (die Art und Weise, wie die Dinge hier laufen). Schein (1988) definiert
Kultur als jene Verhaltensmuster, die eine Gruppe bewusst oder unbewusst entwickelt
hat, um mit externen oder internen Herausforderungen umzugehen, und die entsprechend
an neue Gruppenmitglieder vermittelt werden. Der Begriff Gruppe kann dabei als sozia-
le Einheit unterschiedlicher Größenordnungen definiert werden. Zum Beispiel bilden sich
auf der Ebene ganzer Länder, aber auch in Sportvereinen oder Familien, spezifische Kul-
turen (Warrick, 2017). Dementsprechend sind Menschen stets Teil mehrerer ineinander
verschachtelter Kulturen, die sich auch gegenseitig beeinflussen. Nationale Kulturen be-
einflussen Menschen von früher Kindheit an direkt, zum Beispiel durch Bildungsinstitute,
sowie indirekt, mediiert über die familiäre Kultur. Auch eine Organisationskultur wird
maßgeblich von der nationalen Kultur beeinflusst, kann aber, wie eingangs beschrieben,
darüber hinaus signifikante Unterschiede in der Kultur verschiedener Institutionen inner-
halb einer Nation erklären. So ist die Organisationskultur ein besserer Erfolgsprädiktor für
eine Organisation als die nationale Kultur, in deren Kontext die Organisation agiert (Abu-
Jarad, Yusof & Nikbin, 2010). Im Rahmen der Organisationskultur geht es normalerweise
um die Kultur einer Organisation als Ganzes, oder aber auch um die Subkulturen einzelner
Abteilungen innerhalb dieser Organisation, die sich gegebenenfalls abweichend entwickeln,
je nachdem wie stabil einzelne Gruppen sind und wie viele gemeinsame Lernerfahrungen
sie besitzen (Schein, 1988).
Als unterschiedliche Facetten einer Organisationskultur unterscheidet Schein (1988) Ar-
tefakte, Werte und Grundannahmen. Artefakte sind Aspekte der Kultur, die man un-
mittelbar wahrnimmt, wenn man eine neue Kultur betritt, deren Bedeutung sich einer
externen Person aber nicht ohne Weiteres erschließt (Schein, 1988). Dazu gehören das
Kommunikationsverhalten innerhalb der Organisation und das mit externen Akteuren so-
wie Rituale, Mythen und physische Indikatoren wie die Kleidung oder Logos (Abu-Jarad
et al., 2010). Werte umfassen die von der Führung befürworteten Normen, Ziele, Stan-
dards und Prinzipien. Diese sind oft nicht direkt ersichtlich, sind jedoch dem Bewusstsein
der Gruppenmitglieder zugänglich und können somit zum Beispiel in einer Befragung er-
fasst werden (Schein, 1988) Grundannahmen sind jene Annahmen und Verhaltensweisen,
die häufig zunächst als explizite Werte eingeführt beziehungsweise von neuen Mitgliedern
erlernt werden und sich anschließend im Laufe der Zeit etablieren und dadurch nach und
nach automatisiert beziehungsweise unbewusst ausgeführt werden. Neben dem Modelller-
nen neuer Organisationsmitglieder am Vorbild bestehender Mitglieder wirkt der Prozess
der operanten Konditionierung durch Belohnung, beziehungsweise positives Feedback bei
erwünschtem Verhalten, und Bestrafung, beziehungsweise negatives Feedback, bei uner-
wünschtem Verhalten. Kotter (2008, S.14-15) beschreibt kulturelle Lernprozesse wie folgt:
4 Organisationskultur 85
Once established, organizational cultures often perpetuate themselves in a number of ways. Potential group members
may be screened according to how well their values and behavior fit in. Newly selected members may be explicitly
taught the group’s style. Historical stories or legends may be told again and again to remind everyone of the group’s
values and what they mean. Managers may explicitly try to act in ways that exemplify the culture and its ideals.
Senior members of the group may communicate key values over and over in their daily conversations or through
special rituals and ceremonies. People who successfully achieve the ideals inherent in the culture may be recognized
and made into heroes. The natural process of identification between younger and older members may encourage the
younger members to take on the values and styles of their mentors. Perhaps most fundamental, people who follow
cultural norms will be rewarded but those who do not will be penalized
Eine Unterscheidung zwischen expliziter und impliziter Ebene, die noch detaillierter be-
schrieben wird, ist dabei nicht deckungsgleich mit der von (Warrick, 2017, S. 398) be-
schriebenen Unterscheidung zwischen sichtbarer und unsichtbarer Ebene:
There is a visible level that can be observed by artifacts such as dress, office layout, office design, and emphasis
on technology. Artifacts could also include leadership style, the nature of the work environment, how people are
treated, and how decisions are made and get implemented. There is also an invisible level characterized by expressed
values, underlying assumptions, and deep beliefs. Expressed values are consciously held convictions, clearly stated
or practiced, that influence the behavior of group members. (Warrick, 2017, S. 398).
Während expressed values an dieser Stelle als unsichtbar kategorisiert werden, wären die-
se kognitiv eher der expliziten Ebene zuzuordnen, weil sie dem Bewusstsein zugänglich
sind und in der Regel verbalisiert werden können. Kulturelle Grundannahmen hingegen
entsprechen prozeduralen und heuristischen unbewussten Prozessen des Individuums.
So ist bezüglich der von Schein (2010) beschriebenen drei Ebenen nur die dritte als primär
implizit zu betrachten (siehe Tabelle 2)
Tabelle 2
Drei Ebenen der Organisationskultur
The Three Levels of Culture
1. Artifacts
Visible and feelable structures and processes
Observed behavior
– Difficult to decipher
2. Espoused Beliefs and Values
Ideals, goals, values, aspirations
Ideologies
Rationalizations
– May or may not be congruent with behavior and other artifacts
3. Basic Underlying Assumptions
Unconscious, taken-for-granted beliefs and values
– Determine behavior, perception, thought, and feeling
Anmerkung. In Anlehnung an Schein (2010, S. 24)
4 Organisationskultur 86
Schein (1988, S. 9-10) beschreibt, analog zum Lernen impliziter Prozesse durch explizite
Übung (vgl. Kapitel 2.2.), wie explizite Denk- und Verhaltensweisen auf die Ebene der
Basic Underlying Assumptions wechseln:
Such assumptions often start out historically as values, but, as they stand the test of time, they gradually become
assumptions and come to be taken for granted. [...] If the strategy works repeatedly over several generations of
products, it will gradually be assumed that such a strategy is, in fact, correct and will cease to be questioned. The
danger for the organization then is that it may not be able to unlearn this assumption even though the environment
may change, especially if the original learning was based on traumatic mistakes.
Derartige unbewusste und automatisierte Wahrnehmungs-, Denk- und Verhaltensprozes-
se im Kontext der Organisationskultur werden für Organisationsmitglieder zur second
nature, also stark verinnerlicht und stabil gegenüber Veränderungen. Die damit einherge-
hende organisationale Effizienz kann, analog zur durch Heuristiken bewirkten kognitiven
Effizienz, genau wie für das Individuum, soziale Prozesse vereinfachen und optimieren. Die
automatisierten Denk- und Verhaltensmuster bringen den Gruppenmitgliedern außerdem
ein Gefühl von Bedeutsamkeit und Stabilität und reduzieren somit die Angst davor, Er-
eignisse nicht verstehen oder vorhersagen zu können. Allerdings birgt diese Optimierung
kognitiver und organisationaler Ressourcen ein Risiko, weil sich die Umwelt und damit
der Entscheidungskontext verändern kann, jedoch die überlernten impliziten Verhaltens-
weisen häufig sehr resistent gegenüber Veränderungen sind (Schein, 1988). Dieses Risiko
trifft umso mehr auf jene Planungsprozesse zu, die Gegenstand dieser Arbeit sind, da sich
Planungsentscheidungen oft in neuartigen Kontexten abspielen, die vom Erfahrungsschatz
der Entscheidungsverantwortlichen nicht vollständig abgedeckt werden und somit bezüg-
lich kognitiver Biases, motivationaler und gruppendynamischer Biases ein hohes Risiko
aufweisen (vgl. Kapitel 1.1).
Die Stärke einer Kultur sieht Schein (1988) als Funktion der Stabilität der Gruppe, der
Dauer der miteinander verbrachten Zeit sowie der Intensität der gemeinsamen Erfahrun-
gen. Dabei spielt auch die Art der Lernerfahrung eine Rolle (zum Beispiel assoziatives
Lernen, Modelllernen oder operante Konditionierung) sowie die Klarheit und Stärke der
von den Führungskräften explizit und implizit kommunizierten Annahmen und Werte. Die
Integration in eine Kultur umfasst perzeptive, kognitive und emotionale Reaktionen und
erfolgt im Verhältnis des Individuums zur Eigengruppe (In-Group) sowie der Interaktion
der Eigengruppe mit Fremdgruppen (Out-Groups).
Im folgenden Abschnitt werden wesentliche inhaltliche Dimensionen, auf denen die Orga-
nisationskultur wirkt, beschrieben.
4 Organisationskultur 87
4.2 Inhalte
It’s about the culture. I could leave our strategy on an aeroplane seat and have a competitor read it and it would
not make any difference – John Stumpf, CEO Wells Fargo (Guerrera, 2008, S. 1).
Auf Basis und als Erweiterung der Erkenntnisse von Hofstede (1984) untersuchte das Glo-
bal Leadership Organizational Behavior Effectiveness (GLOBE) Forschungsprogramm kul-
turelle Unterschiede in 951 Organisationen unterschiedlicher Branchen in 62 verschiedenen
Ländern. Dazu wurden zunächst auf Basis einer Literaturrecherche 735 Fragebogenitems
entwickelt, um das Thema Organisationskultur erschöpfend zu erfassen. Aus der Beant-
wortung der Fragen durch über 17.000 Führungskräfte im mittleren Management wurden
anschließend mittels statistischer Verfahren, wie der explorativen Faktorenanalyse, acht
Dimensionen abgeleitet, in denen sich die Organisationskultur widerspiegelt: Performance
Orientation, Assertiveness, Future Orientation, Humane Orientation, Institutional Col-
lectivism, In-Group Collectivism, Gender Egalitarianism, Power Distance, Uncertainty
Avoidance (House, Hanges, Javidan, Dorfman & Gupta, 2004).
Bezüglich Performance Orientation wird erfasst, ob Organisationsmitglieder eher nach
ihrem Beitrag zum Erfolg beurteilt werden und somit ein Fokus auf Weiterbildung liegt
– dies zeigte sich zum Beispiel für Organisationen in Singapur, Hong Kong und Neusee-
land – oder ob eher die Herkunft und Familienverbindungen ausschlaggebend sind, was
zum Beispiel häufig in Russland, Argentinien und Griechenland der Fall ist (Javidan &
Dastmalchian, 2009).
Assertiveness zeigt, ob in einer Organisation der Wettbewerb belohnt wird und Ziele eher
mittels Konfrontation und Forschheit beziehungsweise Aggressivität durchgesetzt werden
(Österreich, Spanien, Griechenland) oder ob eher Harmonie und Loyalität gefördert werden
(Neuseeland, Schweden, Japan) (Javidan & Dastmalchian, 2009).
Future Orientation einer Organisation beschreibt inwieweit langfristige Planung, Zukunft-
sinvestitionen und allgemein Belohnungsaufschub praktiziert werden. Organisationen in
Ländern wie Singapur, Schweiz und Kanada fokussieren in planvolleren Entscheidungspro-
zessen tendenziell einen längeren Zeithorizont, während sich in russischen, argentinischen
und polnischen Organisationen eine stärkere Tendenz zu opportunistischen Entscheidun-
gen zeigt (Javidan & Dastmalchian, 2009).
Humane Orientation definiert sich über das Ausmaß, in dem Werte wie Altruismus, Groß-
zügigkeit und Fürsorge für andere gelebt werden.urch die Entsprechend wird zum Beispiel
in Malaysia, den Philippinen und Indonesien Unterstützung und Sympathie für Schwä-
chere gewertschätzt. Außerdem sind dort paternalistische Beziehungen üblicher und von
Kindern wird stärkerer Gehorsam gefordert. In Gesellschaften beziehungsweise Organisa-
tionen aus Deutschland, Spanien und Singapur spielen hingegen Macht, materieller Besitz,
4 Organisationskultur 88
die persönliche Entwicklung und Unabhängigkeit eine stärkere Rolle.
Institutional Collectivism beschreibt die Tendenz zu gemeinschaftlichem Handeln und der
gleichmäßigen Verteilung von Ressourcen. In Organisationen in Singapur, Südkorea und
Japan wird Gruppenharmonie und Gruppenleistung betont, während in Ländern wie Grie-
chenland, Ungarn und Argentinien tendenziell individuelle Leistungen bewertet und be-
lohnt werden und entsprechend Autonomie und Eigeninteresse stärker ausgeprägt sind.
Bei In-Group Collectivism geht es um die Bedeutung von Stolz, Loyalität und Kohäsion,
die mit der Mitgliedschaft einer Organisation oder sonstigen Gruppe einhergehen. In Län-
dern wie Iran, Indien und China hat es eine besondere Bedeutung, welcher Familie oder
welchem Verwandtenkreis (In-Group) eine Person angehört und entsprechend hat es hohe
Priorität, den Ansprüchen der Gruppe gerecht zu werden. In Dänemark, Schweden und
Neuseeland wird von der Familie oder dem Freundeskreis deutlich weniger eine besondere
Behandlung, wie zum Beispiel Regelbrüche, erwartet.
Das Konstrukt Gender Egalitarianism zeigt, inwieweit Geschlechtergleichheit gelebt wird
beziehungsweise Diskriminierung aufgrund des Geschlechts eine Rolle spielt. In Ländern
wie Ungarn, Dänemark und Schweden haben Frauen einen höheren Status und sind stärker
in Entscheidungsprozesse involviert als in männlich dominierten Gesellschaften wie Süd-
korea, China oder Ägypten, in denen entsprechend weniger Frauen Führungspositionen
besetzen.
Power Distance beschreibt die Beschaffenheit von Hierarchien in einer Organisation. Wäh-
rend in Ländern wie Russland, Thailand und Spanien stärker zwischen Personen verschie-
dener Hierarchieebenen unterschieden und mehr Gehorsam gegenüber Vorgesetzten erwar-
tet wird, sind die Hierarchien in Ländern wie Dänemark und den Niederlanden deutlich
flacher.
Uncertainty Avoidance zeigt sich in dem Grad, in dem Gesellschaften oder Organisationen
versuchen, durch die Etablierung von Normen, Ritualen und bürokratischen Praktiken die
Unvorhersehbarkeit zukünftiger Ereignisse zu reduzieren. Entsprechend werden in Ländern
wie der Schweiz, Schweden und Dänemark Werte wie Ordnung, Konstanz, Struktur und
Gesetze stärker gewürdigt. Auf der anderen Seite gibt es in Ländern wie Russland, Ungarn
und Bolivien eine stärkere Toleranz für Unsicherheit, Ambiguität und Regelbrüche.
Anschließend wurde der Zusammenhang der in den acht Dimensionen abgebildeten Orga-
nisationskultur mit Kriterien wie dem ökonomischen Erfolg der Organisation sowie dem
physischen und psychologischen Wohlbefinden der Mitarbeiter beleuchtet. Dass die in-
haltlichen Ausprägungen der Organisationskultur mit dem Erfolg einer Organisation zu-
sammenhängen, zeigen zum Beispiel Deshpandé, Farley und Webster (1993). Die Auto-
ren fanden heraus, dass Organisationen, die eine Leistungs- und Wettbewerbsorientierung
aufweisen sowie Unternehmertum und Innovation schätzen, bessere Ergebnisse erzielen als
4 Organisationskultur 89
Organisationen, die stärkeren Wert auf Kohäsion innerhalb der Organisation setzen und
stark durch Hierarchien geprägt sind. Wie in Kapitel 3.4 beschrieben, lässt sich dieser Un-
terschied potenziell durch Effekte wie Groupthink erklären, das insbesondere in Gruppen
mit hoher Kohäsion und einem starken Hierarchiegefälle auftritt.
Denison (1984) erfasste mittels Fragebogen die Organisationskultur von 34 börsengelis-
teten amerikanischen Unternehmen und fand auf Basis der Befragung von über 43.000
Teilnehmern in über 6.000 Arbeitsgruppen heraus, dass Organisationen mit einer par-
tizipativen Kultur – in der die Beteiligung der Mitarbeitern an Entscheidungsprozessen
gefördert wird, also eine niedrige Power Distance herrscht – einen beinahe doppelt so hohen
Return on Investment (ROI) aufweisen als Organisationen mit einer weniger ausgepräg-
ten partizipativen Kultur. Dazu teilten Sie die befragten Organisationen in zwei Gruppen
und verglichen den durchschnittlichen ROI der Gruppe, die bezüglich der partizipativen
Kultur einen Prozentrang von mehr als 50 aufweisen mit dem Durchschnittswert der Or-
ganisationen mit einem Prozentrang von 50 oder weniger. Abbildung 8 zeigt, wie sich die
Performance beider Gruppen über die Jahre entwickelt hat.
Abbildung 8
Organisationskultur und wirtschaftlicher Erfolg
Anmerkung. Der Einfluss der Mitarbeiterpartizipation auf den Return on Investment. Vergleich
von Organisationen mit Prozentrang 0-50 versus 50-100 bezüglich dem Grad an Partizipations-
möglichkeiten. (Denison, 1984, S. 15)
Dass die Differenz sich im Zeitverlauf vergrößert, deutet Denison (1984) als Hinweis für
einen kausalen Zusammenhang zwischen der Organisationskultur und der Leistungsfähig-
keit. Als möglicher Grund für diesen Zusammenhang sieht Denison (1984) die Auswirkung,
die Partizipation an Entscheidungsprozessen auf das Commitment der Mitarbeiter hat, die
durch mehr Entscheidungsverantwortung ein besseres Bewusstsein für die Konsequenzen
4 Organisationskultur 90
ihrer Handlungen erhalten. Durch eine höhere Identifikation mit der Organisation und
deren Zielen übernehmen viele Mitarbeiter außerdem eine ganzheitlichere Sichtweise auf
Probleme. Außerdem eignen sich Gruppen grundsätzlich besser als Individuen, um kom-
plexe und vielschichtige Probleme zu lösen (vgl. Kapitel 2.3), besonders wenn Entschei-
dungsprozesse effektiv strukturiert werden (Denison, 1984).
Denison (1984) argumentiert, dass man die Ausprägung von Faktoren der Organisati-
onskultur, wie der Partizipation an Entscheidungsprozessen beziehungsweise der Power
Distance, nicht isoliert betrachten sollte, sondern auch situative Umweltfaktoren zu be-
rücksichtigen sind. Ein hoher Grad an Inklusion in Entscheidungsprozessen hat, wie die
Studienergebnisse zeigen, in den meisten Situationen und insgesamt einen positiven Ein-
fluss auf den Erfolg von Organisationen. Potenziell ist der positive Effekt dann am höchs-
ten, wenn eine Organisation in einem sich dynamisch ändernden Umfeld agiert und mit
neuartigen Situationen konfrontiert ist, also Situationen, denen sich organisationale Pla-
nungsprozesse zuschreiben lassen. Denison (1984) fand außerdem heraus, dass Items, die
sich auf das Gesamtsystem der Organisation beziehen, wie zum Beispiel „People at all
levels of an organization usually have know-how that could be of use to decision makers.“
(Denison, 1984, S. 10) oder „To what extent is information widely shared in this organiza-
tion so that those who make decisions have access to such knowledge?“ (Denison, 1984, S.
10-11) die besten Prädiktoren für den Erfolg einer Organisation sind, insbesondere wenn
es um die langfristige Perspektive geht, während Skalen, die sich auf einzelne Aspekte, wie
den Führungsstil beziehen, gute Prädiktoren für kurz- und mittelfristige Erfolgsprognosen
sind.
Kotter (2008) fand heraus, dass die Organisationskultur einen starken Einfluss auf Leis-
tungsindikatoren wie den Umsatz, den Gewinn, das Wachstum und den Aktienkurs von
Unternehmen hat. Wichtig scheint dabei zu sein, dass die Kultur zu den Aufgaben und dem
Kontext, in dem die Organisation agiert, passt. In einer sich immer schneller verändern-
den Welt ist ein gewisser Grad an Flexibilität und Adaptivität der Organisationskultur
wichtig (Kotter, 2008). Die Vorteile von Flexibilität, die eine Organisationskultur im Ge-
gensatz zu formalen Strukturen und Prozessen beinhalten kann, sieht auch Reason (2013),
der beschreibt, dass unerwünschte Ereignisse in komplexen Systemen in manchen Fällen
durch das Verletzen regelkonformer Handlungsweisen entstehen können, in anderen Fällen
aber auch das strikte Festhalten an Standardprozeduren ein negatives Ereignis verursacht.
Wenn die Kultur an die Aufgaben der Organisation angepasst ist, hilft eine starke Aus-
prägung dieser Kultur, dass sie Struktur für Arbeitsprozesse bietet, ohne dass diese auf
erdrückenden formalen und bürokratischen Abläufen beruhen, welche die Motivation und
Innovationsfreude der Mitarbeiter einschränken. Auf der anderen Seite kann eine dys-
funktionale Kultur das positive Potenzial einer stark ausgeprägten Kultur ins Gegenteil
verkehren (Kotter, 2008). Im Vergleich zwischen performanceförderlichen Kulturen und
-hinderlichen Kulturen fanden Kotter (2008), dass Erstere ihre Umsätze in 11 Jahren um
4 Organisationskultur 91
vier mal mehr als Letztere erhöhten, acht mal so viele Mitarbeiter einstellten und den
Aktienkurs 12 mal so stark steigerten.
4.3 Einfluss auf Biases
Cultural influences on individual judgment and decision making are increasingly understood in terms of dynamic
constructive processing and the structures in social environments that shape distinct processing styles, directing
initial attentional foci, activating particular judgment schemas and decision strategies, and ultimately reinforcing
some judgment and decision making (JDM) patterns over others. (Weber & Morris, 2010, S. 410).
In den vorherigen Kapiteln wurde der allgegenwärtige Einfluss, den die Kultur allgemein
und speziell die Organisationskultur auf Gruppenmitglieder ausübt, beschrieben. Dieser
Einfluss beschränkt sich nicht auf bewusste Entscheidungen und Verhaltensweisen, son-
dern wird durch kontinuierliche Lernprozesse – assoziatives Lernen, Modelllernen, Kondi-
tionierung – auch Teil unbewusster, automatisierter Urteils- und Entscheidungsprozesse.
Entsprechend dieser Argumentation beschreiben Kahan et al. (2011) mit Cultural Cogniti-
on ein Konstrukt, das zeigt, wie sich soziale oder kulturelle Einflüsse auf die Wahrnehmung
und Informationsverarbeitung von Individuen auswirken und damit auch einen Einfluss
auf die Entstehung von Biases haben. In ihrer Studie zeigen die Autoren eine starke Kor-
relation zwischen kulturellen Werten der Probanden und ihrer Einschätzung dazu, was der
wissenschaftliche Stand beziehungsweise der Expertenkonsens zu bestimmten Themen ist.
Die Probanden wurden mittels entsprechender Fragebögen in zwei Dimensionen differen-
ziert: hierarchisch vs. egalitaristisch und individualistisch vs. kommunitaristisch. Es zeigt
sich, dass sich hierarchisch und individualistische Probanden deutlich von egalitaristisch
und kommunitaristischen Probanden unterscheiden, wenn es um die Einschätzung des
allgemein akzeptierten Wissensstandes zu den Themen Klimawandel, der Endlagerung
radioaktiver Abfälle sowie der Regulierung des Besitzes von Handfeuerwaffen geht. Beide
Gruppen wichen dabei in der vermuteten Richtung vom tatsächlichen Expertenkonsens ab,
der mittels verschiedener Expert Consensus Reports der US National Academy of Sciences
operationalisiert wurde (z. B. National Research Council, 2007). Daraus lässt sich schlie-
ßen, dass die Wahrnehmung und Informationsverarbeitung des wissenschaftlichen Konsens
durch das bestehende Wertesystem der Probanden geprägt ist (Kahan et al., 2011). Die
Ergebnisse zeigen, dass die Ausprägungen bestimmter motivationaler Biases, in diesem
Fall des Confirmation Bias (Kapitel 3.2.4) beziehungsweise des Desirability Bias (Kapitel
3.3.4), von kulturellen Einflüssen abhängen.
Wie beschrieben setzt sich eine Organisationskultur aus Annahmen und Verhaltensweisen
zusammen, die, als Konsequenz von Lernprozessen, mitunter automatisiert und unbewusst
agieren. In diesem Rahmen wird das Potenzial der Organisationskultur zur Formation von
Heuristiken und Biases deutlich. Savani, Cho et al. (2015) diskutieren diesen bisher wenig
4 Organisationskultur 92
untersuchten Zusammenhang zwischen Kultur und der Ausprägung verschiedener Bia-
ses. Ein Faktor ist die selektive Risikowahrnehmung in Abhängigkeit kultureller Werte.
So überschätzen Menschen in individuelleren Kulturen potenziell die Risiken von Maß-
nahmen, die individuelle Freiheiten einschränken – zum Beispiel Maßnahmen zum Um-
weltschutz – während sie zum Beispiel Risiken durch Deregulierung der Finanzmärkte
unterschätzen. Personen in hierarchisch geprägten Kulturen hingegen unterschätzen zum
Beispiel Risiken durch autoritäre Organisationen und Vetternwirtschaft (Savani, Cho et al.,
2015). Europäisch-amerikanische Männer haben beispielsweise eine geringere Risikowahr-
nehmung bezüglich der globalen Erwärmung, Umweltverschmutzung und Waffenbesitz, als
Frauen oder Männer mit einem anderen ethnischen Hintergrund. Kahan, Braman, Gastil,
Slovic und Mertz (2007) sehen hier einen Effekt von cultural-identitiy-protective cognition.
Derartige Effekte können durch kulturell geförderte Meinungshomogenität erklärt werden,
die wiederum durch die eingeschränkte und hypothesenbestätigende Informationssuche
beziehungsweise -interpretation im Rahmen des Confirmation Bias und gruppenbezogene
Effekte wie Group Polarization verstärkt werden. Damit kann die Kultur, wie in den vor-
herigen Beispielen, zum einen den Nährboden für bestimmte Biases bilden, zum anderen
zeigen zum Beispiel Savani, Markus und Conner (2008) den direkten Einfluss der Kultur
auf das Treffen von Urteilen und Entscheidungen. Die Autoren ließen jeweils 60 indische
und 60 amerikanische Studenten mehrere Kugelschreiber auf unterschiedlichen Dimensio-
nen bewerten. Dazu gehörten die Farbe, die Schreibqualität und ein Urteil, wie sehr der
Kugelschreiber ihnen insgesamt gefällt. Anschließend durften die Probanden einen der Ku-
gelschreiber als Geschenk behalten. 84% der amerikanischen, aber nur 62% der indischen
Probanden entschieden sich für den Kugelschreiber, der ihrem höchsten Durchschnittsran-
king entsprach. Ein möglicher Grund für diesen Unterschied liegt im kulturellen Wertesys-
tem der Probanden, möglicherweise in Form einer individuellen vs. kollektiven Entschei-
dung, wobei letztere die stärkere Abweichung von der eigenen Präferenz erklären würde
(Savani, Cho et al., 2015). Eine weitere potenzielle Erklärung bezieht sich auf kognitive
Prozesse, die eine holistischere Auswahl der indischen Probanden nahelegt. Amerikanische
Probanden wählten zu 86% den Kugelschreiber, den sie auf die Frage, wie sehr ihnen der
Kugelschreiber im Gesamturteil gefällt, am höchsten bewerteten, gegenüber 63% der in-
dischen Probanden. Somit könnte es sein, dass die indischen Probanden parallel mehre
Dimensionen bei ihrer Auswahl berücksichtigten. Eine dritte Erklärung bezieht sich auf
den Einfluss sozialer Normen, die die Entscheidung der Probanden insofern beeinflussten,
als dass sie sich Gedanken darum machten, wie andere ihre Auswahl bewerten würden
(Savani et al., 2008). Unterstützung für diese Hypothese fanden Savani, Wadhwa, Uchida,
Ding und Naidu (2015), die feststellten, dass indische Probanden inkonsistenter in ihren
Urteilen wurden, wenn sie sich durch im Labor schematisch angebrachte Augen unbewusst
beobachtet fühlten, während amerikanische Probanden sich dadurch kaum in ihrem Urteil
beeinflussen ließen.
4 Organisationskultur 93
Der Fundamentale Attributionsfehler beziehungsweise die selbstwertdienliche Attribution
wurden in Kapitel 3.3.1 als Ursachenfaktoren bei der Entstehung sämtlicher dort beschrie-
bener motivationaler Biases – Overconfidence, Optimism und Desirability – angeführt.
Dabei wurde in der Literatur zumeist angenommen, dass derartige Attributionseffekte ein
Nebenprodukt universeller Wahrnehmungsprozesse seien (Savani, Cho et al., 2015). J. Mil-
ler (1984) fand heraus, dass indische Probanden ihre eigenen alltäglichen Erfahrungen eher
external und situativ attribuierten, während amerikanische Probanden Geschehnisse eher
auf ihr eigenes Verhalten zurückführten, also internal und stabil. M. W. Morris und Peng
(1994) ließen amerikanische und chinesische Schüler einen Cartoon bewerten, der einen
Fisch zeigt, hinter dem weitere Fische schwimmen. Chinesische Schüler attribuierten das
Verhalten des vorderen Fisches eher auf externe Faktoren, zum Beispiel, dass dieser von
den anderen Fischen gejagt wird, während die amerikanischen Schüler die Situation eher
mit internen Zielen begründeten, zum Beispiel, dass der vordere Fisch die Gruppe anführt.
Die kulturelle Prägung bezüglich des Attributionsstil zeigt sich auch in automatisierten
Verhaltensweisen wie der Sprache oder in Perzeptionsprozessen, wie der Blickbewegung.
Maass et al. (2006) ließen westliche (italienische) und ostasiatische (japanische) Probanden
jeweils einen männlichen und weiblichen Bekannten mit zehn Attributen beschreiben. Die
italienischen Probanden nutzen bei der Beschreibung Adjektive und Verben im Verhältnis
20:1, während das Verhältnis bei japanischen Probanden lediglich 1,2:1 umfasste. Adjek-
tive enthalten mehr Informationen bezüglich persönlicher Eigenschaften, während Verben
mehr situative Informationen enthalten, was einen weiteren Hinweis für einen entspre-
chenden Unterschied im Attributionsstil in Abhängigkeit des kulturellen Hintergrundes
darstellt.
Chua, Boland und Nisbett (2005) ließen Probanden mehrere Bilder auf einer Likert-Skala
auf einer Reihe unterschiedlicher Dimensionen bewerten. Dabei erfassten die Autoren mit-
tels Eye-Tracking-Technologie die Blickbewegungen der Probanden. Die insgesamt 36 Bil-
der zeigten zum Beispiel einen Jet, der durch ein Gebirge fliegt oder einen Tiger, der
an einem Fluss steht. Es zeigte sich, dass chinesische Probanden die Bilder holistischer
wahrnahmen und speicherten, während bei amerikanischen Probanden die Figur-Grund-
Trennung stärker ausgeprägt waren und das zentrale Objekt besser wahrgenommen be-
ziehungsweise erinnert wurde. So zeigten die Blickbewegungen, dass die amerikanischen
Probanden sich früher und länger auf die Figur fokussierten als die chinesischen Pro-
banden. Die Erinnerungsleistung der Probanden entsprach diesem Ergebnis, insofern die
chinesischen Probanden sich in Relation zu den amerikanischen Probanden stärker auf
Basis des Hintergrunds erinnern konnten, ob sie ein Bild bereits gesehen hatten, während
die amerikanischen Probanden im Vergleich die Figur im Vordergrund besser erinnerten.
Hierbei zeigt sich die kulturelle Prägung auf implizite Wahrnehmungsprozesse und folgen-
de Gedächtnis- und Entscheidungsprozesse, die mit dem Attributionsstil der betreffenden
Personen und damit auch ihrer Neigung zu einer Reihe von motivationalen Biases asso-
4 Organisationskultur 94
ziiert sind. Buehler et al. (2009) stellten fest, dass kanadische Probanden einen höheren
Self-Serving Bias zeigten als japanische Probanden, wenn es darum ging, Gründe für die
verspätete Abgabe einer Hausarbeit zu nennen. Kanadische Probanden berichteten mehr
externe, instabile und spezifische Ursachen für den eigenen Misserfolg im Vergleich zu dem
vergleichbaren Misserfolg eines Freundes. Die japanischen Probanden zeigten ein gegen-
teiliges Attributionsmuster, indem sie den eigenen Misserfolg häufiger intern, stabil und
global attribuierten als sie das für andere taten.
Bezüglich der Rolle der Kultur bei der Neigung zum Overconfidence Bias sind die Ergeb-
nisse uneinheitlich (Moore, Dev & Goncharova, 2018). Eine Vielzahl an Studien legt nahe,
dass ostasiatische Populationen weniger Overconfidence zeigen als westliche Populationen,
weil ostasiatische Kulturen zu mehr Selbstkritik und weniger Selbsterhöhung im Sinne des
Self-Serving Bias neigen (Heine, Takata & Lehman, 2000; Kitayama, Markus, Matsumoto
& Norasakkunkit, 1997; Muthukrishna et al., 2018). Andere Autoren fanden eine stär-
kere Ausprägung von Overconfidence bei ostasiatischen Probanden gegenüber westlichen
Probanden (Moore et al., 2018; Yates, Lee & Shinotsuka, 1996). Eine Erklärung, dass
westliche Kulturen trotz einer stärkeren Neigung zum Self-Serving Bias bisweilen weniger
Overconfidence zeigen, kann in der Rolle des Bildungssystems und der Fähigkeit zum kriti-
schen Denken liegen. So zeigte sich, dass amerikanische und japanische Probanden ähnlich
häufig Argumente generierten, die ihrer Schätzung widersprachen, während chinesische
Probanden dies deutlich seltener taten. Die kulturelle Prägung hatte demnach einen ge-
ringeren Einfluss als die höhere Ähnlichkeit des Bildungssystems zwischen den USA und
Japan (Savani, Cho et al., 2015). Die Erkenntnisse, dass ostasiatische Probanden mo-
tivational zu einem geringeren Self-Serving Bias neigen, aber dennoch einen gleichstark
oder sogar stärker ausgeprägten Overconfidence Bias aufweisen, deckt sich mit weiteren
Studienergebnissen:
Research to date suggests that Japanese adults show little or no self-enhancing biases in self-evaluation (and in
fact, sometimes show a self-effacing bias) (Heine & Lehman, 1995). However, the level of ’cognitive’ overconfidence,
as revealed in studies using general knowledge questions, is as great in Japan as in the United States (Lee, Yates,
Shinotsuka, Singh, Onglatco, Yen, Gupta, & Bhatnagar, 1995). (Buehler et al., 2009, S. 259)
Im Rahmen der Abhängigkeit des Optimism Bias vom Self-Serving Bias (vgl. Kapitel
3.3.3), zeigen sich die entsprechend zu erwartenden kulturellen Unterschiede, obwohl auch
diese beiden Effekte in der Vergangenheit häufig als universell betrachtet wurden. So zeig-
ten zum Beispiel Heine und Lehman (1995), dass kanadische Probanden ihre Zukunftser-
wartungen im Vergleich positiv einschätzten, indem sie negative Risiken, wie zum Beispiel
an Hautkrebs oder Demenz zu erkranken, für sich selbst als unterdurchschnittlich ein-
schätzten und positive Ereignisse, wie ein hohes Einstiegsgehalt oder das Erreichen des
80. Lebensjahrs, als überdurchschnittlich. Japanische Probanden hingegen bewerteten ihre
eigenen Risiken beziehungsweise Chancen als ähnlich hoch ein, wie sie es für andere taten.
4 Organisationskultur 95
Dass in diesem Kontext nicht nur von der frühen Kindheit an über die Kultur absorbierte
Wahrnehmungs- und Verhaltensweisen einen derartigen Einfluss haben, sondern im Sinne
eines kulturellen Primings Probanden ebenfalls durch unmittelbare Kontextfaktoren die
beschriebenen Unterschiede aufweisen, zeigen verschiedene Studien mit bikulturellen Pro-
banden. Benet-Martínez, Leu, Lee und Morris (2002) zeigten, dass in den USA lebende
chinesische Immigranten verschiedene Situationen eher internal (westlich) beziehungsweise
external (ostasiatisch) attribuierten und zwar in Abhängigkeit von vor einer Aufgabe ge-
zeigten Stimuli, die westliche beziehungsweise ostasiatische Symbolik aufwiesen. LeBoeuf,
Shafir und Bayuk (2010) zeigten ebenfalls Effekte kulturellen Primings in Urteils- und Ent-
scheidungsprozessen. 120 in China aufgewachsenen und seit durchschnittlich 15,7 Jahren
in den USA lebenden Probanden wurden zunächst kulturelle Primes präsentiert, indem
sie entweder Fragen zu ihrer ursprünglichen kulturellen Identität oder zu ihrer amerika-
nischen Identität beantworteten, zum Beispiel: „Where were you born“ oder „What is
your favorite Chinese holiday?“ versus „Where do you live?“ oder „What is your favorite
American holiday?“. Im nächsten Schritt wurden die Probanden aufgefordert, bezüglich
verschiedener Szenarien Urteile und Entscheidungen zu treffen. Dazu gehörte die Wahl
zwischen einem Auto in ungewöhnlicher oder traditioneller Farbe sowie die Wahl eines
traditionellen oder exotischen Gerichts beim Abendessen mit Freunden. Außerdem wurde
die Neigung zur Reziprozität bezüglich der Erwiderung eines Gefallens erfasst sowie die
Bereitschaft zur Kooperation in einem Prisoners-Dilemma-Spiel. Zur Verstärkung des Pri-
mingeffekts wurden die Instruktionen bei Aktivierung der chinesischen beziehungsweise
amerikanischen Identität dazu passend auf chinesisch beziehungsweise englisch präsen-
tiert. Bei Aktivierung der amerikanischen (chinesischen) Identität wählten 31,6% (24,6%)
der Probanden die ungewöhnliche Farbe, 71,9% (40,4%) das exotische Essen, 86% (80%)
erwiderten den Gefallen nicht und 31,6% (12,3%) kooperierten nicht. Neben nationalen
Identitäten stellten die Autoren ähnliche Effekte bezüglich sozialer Rollen als Studierende
und Familienmitglieder und damit assoziierten Identitäten fest. Die Effekte zeigten sich
nur bei Probanden, die sich mit den aktivierten Kulturen identifizierten, was dafür spricht,
dass die Primingeffekte tatsächlich kulturbedingt sind. Außerdem zeigte sich, dass die Zu-
friedenheit mit den zuvor getroffenen Entscheidungen sank, wenn im Anschluss, die jeweils
andere Identität aktiviert wurde (LeBoeuf et al., 2010).
Im Rahmen dieses Kapitels wurde beschrieben, dass vor allem motivationale Biases nicht
universell gleichmäßig ausgeprägt sind, sondern durch kulturelle Prägungen beeinflusst
werden, die insbesondere durch wiederholte und andauernde Exposition in unbewusste
Denk- und Verhaltensweisen münden. Dabei hat sich in Studien mit bikulturellen Proban-
den gezeigt, dass nicht etwa nur familiäre und frühkindliche Einflüsse einen signifikanten
Effekt haben, sondern auch im Erwachsenenalter kulturelle Prägungen Urteils- und Ent-
scheidungsprozesse unbewusst beeinflussen. Einen entsprechend großen Einfluss hat die
Organisationskultur auf die Organisationsmitglieder und damit eine besondere Bedeutung
4 Organisationskultur 96
für organisationale Planungsprozesse, welche besonders anfällig für kognitive, motivatio-
nale und gruppendynamische Biases sind. Den Grad der Manipulierbarkeit der Organisa-
tionskultur, im Vergleich zu übergreifenden Kulturen, zum Beispiel auf nationaler Ebene,
ist ebenfalls eine zentrale Annahme dieser Arbeit: „Whereas national cultures arise large-
ly out of shared values, organizational cultures are shaped mainly by shared practices.“
(Reason, 2016, S. 192)
Da die Organisationskultur ein sehr umfassendes Konzept darstellt, und der Fokus die-
ser Arbeit auf der Diagnostik organisationaler Planungsprozesse liegt, wird im folgenden
Kapitel das Konzept Sicherheitskultur näher beleuchtet. Die Sicherheitskultur ist im Rah-
men dieser Arbeit besonders relevant, weil sie den Teilaspekt der Organisationskultur
beschreibt, der sich mit dem Umgang mit Chancen und Risiken beschäftigt sowie mit der
Art und Weise, wie Informationen geteilt und genutzt werden, um adäquate Urteile und
Entscheidungen zu treffen.
4.4 Relevanz im Planungsprozess
It has been stated that strategic decisions are made within the context of an overall philosophy or driving force.
From this realisation, it is but a short conceptual step to the notion that all information is gathered and interpreted
in the light of a corporate or organisational culture. (Wright & Geroy, 1991, S. 6)
Das Konstrukt Sicherheitskultur wurde in den 1980er Jahren geprägt und beschreibt den
Teilbereich der Organisationskultur, der die Wahrnehmung und den Umgang mit Risiken
betrifft (Reason, 2016). Im Anschluss an die Nuklearkatastrophe von Tschernobyl im Jahr
1986, die sich auf massive Defizite in der Organisationskultur zurückführen lässt, the-
matisierte die International Atomic Energy Agency (1991) das Thema Sicherheitskultur,
das in der Folge stark an Bedeutung gewann und bis heute in vielen weiteren Fällen als
wichtiger Faktor bei folgenreichen Planungs- und Entscheidungsfehlern identifiziert wurde
(Reason, 2013). Turner, Pidgeon, Blockley und Toft (1989, S. 4) definieren Sicherheitskul-
tur „as that specific set of beliefs, norms, attitudes, roles, and social and technical practices
within an organization which is concerned with minimising exposure of employees, mana-
gers, customers, suppliers and members of the general public to conditions considered to
be dangerous or injurious“.
Aktuelle Modelle zur Sicherheitskultur betonen eine systemische Sichtweise auf eine Orga-
nisation, die einer parallelen Betrachtung verschiedener Entscheidungs- und Handlungs-
ebenen bedarf. Reason unterscheidet im Wesentlichen latente Bedingungen und aktive
Ausfälle (Reason, 2016). Der aktive Ausfall beschreibt die unmittelbare, offensichtliche Ur-
sache für den Ausfall einer Systemkomponente beziehungsweise eines Systems. Während
sich die Suche nach der Ursache für unerwünschte Ereignisse lange Zeit auf die unmittelba-
ren Auslöser beschränkte, hat sich in den letzten Jahrzehnten die Erkenntnis durchgesetzt,
4 Organisationskultur 97
dass es sich hierbei eher um Konsequenzen tieferliegender Ursachen handelt (Woods, Jo-
hannesen, Cook & Sarter, 1994). Damit einher geht die Einsicht, dass die Anfälligkeit für
Fehler ein zwangsläufiger Teil der menschlichen Natur ist, was insbesondere für komplexe
Systeme gilt (Reason, 2016), wie in den vorhergehenden Kapiteln am Beispiel menschlicher
Biases detailliert erläutert wurde.
Latente Bedingungen werden auf der Ebene strategischer Entscheidungsprozesse geschaf-
fen. Dazu gehören Entscheidungen über die Verteilung von Ressourcen oder die Gestaltung
von Strukturen, die in negativen Fällen zum Beispiel zu wenig oder schlecht ausgebil-
detes Personal, lückenhafte Aufsicht oder schlecht praktizierbare Abläufe hervorbringen
(Reason, 2016). Durch Entscheidungen auf der Planungsebene geprägte latente Bedingun-
gen können eine lange Zeit bestehen, und dabei zunächst erfolgreich bestimmte Ziele wie
Kosteneinsparungen erfüllen, bevor ein sichtbares negatives Ereignis auftritt. Eine ergeb-
niesorientierte Betrachtung ist deshalb nicht sinnvoll und ist zur Bewertung des Systems
bezüglich Sicherheitsrisiken ungeeignet .
Die Bedeutsamkeit der Sicherheitskultur zeigt (Reason, 2016) am Beispiel der Luftfahrtin-
dustrie, wo es in den 90er Jahren, trotz weltweit sehr einheitlicher Standards, zwischen den
verschiedenen Fluggesellschaften enorme Unterschiede bezüglich fataler Unfälle gab. Zwi-
schen 1988 und 1998 wies die amerikanische Fluglinie United Airlines eine Absturzrate von
0,27 pro 1.000.000 Flüge auf. Bei Korean Air waren es in der gleichen Zeit 4,79 Abstürze
pro 1.000.000 Flüge, 17 mal so viele (Gladwell, 2008). Die Sicherheitsbedenken bezüglich
Korean Air waren so eklatant, dass die US Army ihrem Personal in Südkorea verbot, mit
Korean Air zu fliegen, und seitens Kanadas Behörden wurde bereits die Absicht geäußert,
Korean Air die Flug und- Landeerlaubnis zu entziehen. In der Folge, von 1999 bis heute,
ist die Sicherheitsbilanz von Korean Air tadellos, nachdem Programme mit einschneiden-
den kulturellen Interventionen durchgeführt wurden. Zuvor war als Hauptursache für die
Abstürze das Hierarchiegefälle (Power Distance) zwischen dem Kapitän und dem Copilo-
ten – das zum Beispiel in ostasiatischen Kulturen grundsätzlich stärker ausgeprägt ist als
in westlichen Kulturen (vgl. Kapitel 4.2) – identifiziert worden. Dieses Hierarchiegefälle
führte dazu, dass wenn der Kapitän Fehlentscheidungen traf, der Copilot diese häufig zu
spät, zu zurückhaltend oder gar nicht kommunizierte:
Of all of Hofstede’s Dimensions, though, perhaps the most interesting is what he called the ’Power Distance Index’
(PDI). Power distance is concerned with attitudes toward hierarchy, specifically with how much a particular culture
values and respects authority. To measure it, Hofstede asked questions like ’How frequently, in your experience, does
the following problem occur: employees being afraid to express disagreement with their managers?’ (Gladwell, 2008,
S. 204)
Wesentlicher Gegenstand dieser Arbeit ist die Tatsache, dass Entscheidungen auch auf der
Planungsebene systematischen Biases unterliegen. Verzerrungen von Urteilen und Ent-
scheidungen in Planungsprozessen können die Basis für inadäquate latente Bedingungen
im Gesamtsystem bilden und unbemerkt ein erhöhtes Risiko für unerwünschte Ereignisse
4 Organisationskultur 98
darstellen, welches sich früher oder später durch einen Fehler auf der operativen Ebene
manifestiert. Beispiele für derartige Konstellationen werden in den Fallstudien detailliert
beschrieben (Kapitel 6.1).
Die Sicherheitskultur wird oft im Kontext von HROs und Risiken für das Leben oder die
Gesundheit von Menschen beschrieben, ist aber nicht darauf begrenzt. Sicherheitsorien-
tierte Verhaltensweisen im Umgang mit Chancen und Risiken sind auch für betriebswirt-
schaftlich orientierte Organisationen bedeutend, um unternehmerischen Problemstellungen
adäquat zu begegnen und nachhaltig am Markt bestehen zu können. So lässt sich der Kol-
laps der Barrings Bank mit einer mangelhaften Sicherheitskultur in Verbindung bringen
(Reason, 2016).
In einer ausgeprägten Sicherheitskultur sind Annahmen, Normen und Verhaltensweisen
innerhalb der Organisation auf einen angemessenen Umgang mit Chancen und Risiken –
also Entscheidungen und Urteilen unter Unsicherheit – ausgerichtet. Entscheidungen und
Urteile unter Unsicherheit stellen gleichzeitig den Kontext dar, in dem Biases ihre negative
Wirkung entfalten und Urteile, auf denen folgenschwere Entscheidungen basieren, unbe-
wusst verzerren (vgl. Kapitel 3.2). In den vorherigen Kapiteln wurde die Wirkung der
Organisationskultur auf unbewusste Denk- und Verhaltensmuster beschrieben, die sich
auch in direkten Zusammenhang mit der Entstehung unterschiedlicher Biases bringen las-
sen. Entsprechend kann die Ausprägung unterschiedlicher Facetten der Sicherheitskultur
einer Organisation oder Abteilung potenziell einen Hinweis darauf geben, wie anfällig Ur-
teile unter Unsicherheit für bestimmte Biases sind beziehungsweise ob Verhaltensweisen
vorherrschen, die das Risiko für das Auftreten bestimmter Biases erhöhen oder reduzieren.
Für die Entstehung von kognitiven Biases spielen vor allem die eingeschränkten Kapazitä-
ten der menschlichen Informationsverarbeitung eine wichtige Rolle, wobei die Akzeptanz
von Methoden und Strategien zur Mitigation kognitiver Einschränkungen von motivatio-
nalen und gruppendynamischen Prozessen abhängt (vgl. Kapitel 2).
Reason (2016) definiert eine Sicherheitskultur im Wesentlichen als eine Informed Culture.
In einer Informed Culture haben diejenigen, die das System managen, aktuelles Wissen
über die menschlichen, technischen, organisationalen und kontextuellen Faktoren präsent
(Reason, 2016). Eine Informed Culture bedeutet, dass in der Organisation relevante Infor-
mationen aktiv gesammelt, analysiert und verbreitet werden. Dies ist besonders wichtig,
da Probleme in komplexen Systemen lange Zeit quasi unsichtbar sein können, somit keine
Aufmerksamkeit auf sich ziehen und viele kleinere Probleme unbemerkt bleiben, wodurch
weniger Lernmöglichkeiten erzeugt werden, bis es zu großen Problemen kommt (Reason,
1998). Anhand des Phänomens WYSIATI wurde bereits die Tendenz beschrieben, dass
Menschen die ihnen bekannten Informationen implizit und fälschlicherweise als erschöp-
fend wahrnehmen (vgl. Kapitel 3.2). Wenn Menschen also ein Problem nicht sehen, ver-
muten sie entsprechend, dass auch kein Problem beziehungsweise keine Risiken vorliegen.
4 Organisationskultur 99
Taleb (2010, S. 303) beschreibt diese Folge mit dem Effekt Round-trip fallacy:
Round-trip fallacy: the confusion of absence of evidence of Black Swans (or something else) for evidence of absence
of Black Swans (or something else). It affects statisticians and other people who have lost part of their reasoning by
solving too many equations.
Dem Ziel einer Informed Culture stehen mitunter kognitive Biases entgegen, die nach den
Prinzipien der Bounded Rationality und des Cognitive Misers in komplexen Planungspro-
zessen zwangsläufig zu einer eingeschränkten Informationssammlung, -verarbeitung und
-interpretation führen, wenn keine entsprechenden Methoden und Strategien eingesetzt
werden, um Urteile und Entscheidungen in diesen Prozessen zu unterstützen. Dabei hängt
die Informationssammlung in komplexen Systemen wesentlich von einer Reporting Culture
ab. Um trotz des fehlenden Feedbacks in Planungsprozessen (vgl. Kapitel 1.1) ein Risiko-
bewusstsein zu entwickeln, benötigt eine Organisation ein Informationssystem, in dem In-
formationen von unerwünschten Ereignissen und Beinahe-Unfällen gesammelt, analysiert
und unter den Organisationsmitgliedern verbreitet werden. Für eine Reporting Culture ist
es essenziell, dass Organisationsmitglieder bereitwillig Informationen teilen, ohne dass sie
für das Berichten von Fehlern, Problemen oder abweichenden Meinungen negative Konse-
quenzen befürchten müssen. Außerdem muss sichergestellt sein, dass Mitarbeiter in dem
Mehraufwand einen Mehrwert sehen, was davon abhängt, ob sie die Erfahrung machen,
dass die Verantwortlichen die Informationen ernst nehmen und entsprechend handeln, oh-
ne dass es negativ auf den Informanten oder sein Team zurückfällt (Reason, 2016). Ein
solches System benötigt die aktive Partizipation und transparente Kommunikation der
Mitarbeiter und geht damit Hand in Hand mit einer Just Culture. Die Just Culture be-
zieht sich auf den Umgang einer Organisation mit Fehlern. Während die Schuldfrage in der
Vergangenheit in vielen Organisationen sehr starr gehandhabt wurde und der Fokus in der
Regel auf der ausführenden Person lag, zeichnet sich eine Just Culture dadurch aus, dass
die Ursache von Fehlern und Problemen im gesamten System und dem Zusammenspiel
von dessen Subsystemen gesucht wird. Dabei sollte eine Grenze definiert werden zwischen
akzeptablem und inakzeptablem Verhalten, zum Beispiel bei Vorsatz, damit das System
als gerecht wahrgenommen wird (Reason, 2016).
Eine adäquate Gestaltung der Reporting Culture und Just Culture kann in diesem Kon-
text potenziell die negative Wirkung des Self-Serving Bias reduzieren, wenn keine Not-
wendigkeit besteht, den Selbstwert und anschließend die Self-Presentation vor negativer
Bewertung zu schützen. Das Berichten der Fehler anderer Organisationsmitglieder würde
entsprechend dazu führen, dass das im Self-Serving Bias implizierte Bedürfnis zum Ver-
gleich der eigenen Leistung mit der von anderen Personen reduziert wird. Insgesamt wäre
somit der Anreiz zum Verschweigen von Fehlern und Problemen, die als latente Bedingung
unbemerkt das System belasten könnten, reduziert. Die höhere Verfügbarkeit von Infor-
mationen insgesamt sowie die höhere Repräsentativität der Informationen – die sowohl
positive, als auch negative Informationen beinhalten – wirkt den Auswirkungen kognitiver
4 Organisationskultur 100
Biases wie der Availability Heuristic und dem Confirmation Bias entgegen beziehungsweise
führt dazu, dass diese Heuristiken zumindest auf einer repräsentativeren Informationsbasis
im semantischen Gedächtnis basieren. Davon ist wiederum die Güte der Eingaben in DSS
und Entscheidungsanalysetools abhängig.
Die Flexible Culture beschreibt die kurzfristige Anpassungsfähigkeit an sich ändernde Ent-
scheidungsbedingungen. Diese Anpassungsfähigkeit bezieht sich häufig auf Krisen, in de-
nen ein Wechsel von starren hierarchischen Strukturen zu flacheren Strukturen stattfin-
det, in denen die Kontrolle an die entsprechenden Fachleute beziehungsweise operatives
Personal abgegeben wird. Wenn die Krise vorüber ist, wird wieder in den traditionellen
bürokratischen Modus gewechselt (Reason, 2016). Eine solche Flexibilität ist insbesondere
in Command & Control Situationen wichtig, in denen klare Befehlsstrukturen notwendig
sind, die aber in bestimmten Situationen, ggf. unter Zeitdruck, flexibel anpassbar sein
müssen. In organisationalen Planungsprozessen hingegen sollte der Fokus grundsätzlich
auf flachen Hierarchien liegen und in den allermeisten Fällen die fachliche Expertise der
Organisationsmitglieder handlungsleitend sein. Die negative Auswirkung von starren Hier-
archien in Planungsprozessen wird zum Beispiel im Rahmen der durch Konformitätsdruck
ausgelösten Facetten von Groupthink deutlich (vgl. Kapitel 3.4.1).
Learning Culture beschreibt die Lernfähigkeit und Reformbereitschaft einer Organisati-
on. In einer Learning Culture besteht der Wille und die Kompetenz der Organisation
beziehungsweise deren Mitgliedern, aus den unterschiedlichen Informationsströmen und
Erfahrungen die richtigen Schlüsse zu ziehen und diese konsequent zur Systemgestaltung
anzuwenden (Reason, 2016). Bezüglich organisationalen Planungsprozessen kann die Lear-
ning Culture auf der Metaebene als Veränderungsbereitschaft der Prozesse selbst gesehen
werden – zum Beispiel bei der Anwendung neuer Methoden oder Strategien zum Debia-
sing. Dementsprechend ist eine Learning Culture eine notwendige Voraussetzung für die
Organisationsdiagnostik, wie sie im Rahmen dieser Arbeit beschrieben wird. Eine Lear-
ning Culture ist entsprechend eine hinterfragende Kultur, die ähnlich wie bei der Just
Culture und Reporting Culture beschrieben, motivationalen Biases wie Overconfidence
oder Optimism potenziell entgegenwirkt und zudem kognitive Biases, wie die hypothesen-
bestätigenden Informationssuche und Interpretation des Confirmation Bias, reduziert.
Die zuvor beschriebenen Facetten der Sicherheitskultur nach Reason (2016) weisen gewisse
Parallelen zu den in Kapitel 4.2 beschriebenen Dimensionen der Organisationskultur nach
House et al. (2004) auf. Insbesondere das Konstrukt Power Distance, das in diesem Ka-
pitel im Zusammenhang mit der Organisationskultur bei Korean Air besprochen wurde,
hat starke Implikationen für eine Informed Culture. Die Sicherheitskultur ist im Rahmen
dieser Arbeit spezifischer und lässt sich potenziell besser auf Denk- und Verhaltenswei-
sen im Rahmen organisationaler Planungs- und Entscheidungsprozesse unter Unsicherheit
übertragen. Die Sicherheitskultur nach Reason beschreibt, wie Informationen gesammelt,
4 Organisationskultur 101
ausgewertet, interpretiert und genutzt werden. Die entsprechenden Facetten der Sicher-
heitskultur wurden in diesem Kapitel beispielhaft mit assoziierten kognitiven, motivationa-
len und gruppendynamischen Biases in Verbindung gebracht, deren Auftreten einer stark
ausgeprägten Sicherheitskultur potenziell entgegenwirkt. Nach dieser Sichtweise hat die
Ausprägung der Sicherheitskultur einen Einfluss auf die Urteils- und Entscheidungsqua-
lität in Planungsprozessen und dieser Zusammenhang wird über unterschiedliche Biases
mediiert. Dazu gehören unmittelbar kulturabhängige Biases, wie der Self-Serving Bias und
damit assoziiert Optimism, Desirability oder Overconfidence. Zudem kann ein Zusammen-
hang zwischen der Sicherheitskultur und der Entscheidungsqualität angenommen werden,
der zusätzlich über die bessere Informationsbasis mediiert wird. Zum Beispiel führt eine
vollständige und repräsentative Informationsbasis dazu, dass die Availability Heuristic zu
akkurateren Urteilen führt. Im besten Fall wird ein Urteil, falls es möglich ist, mithilfe
von Decision-Support-Systems und Entscheidungsanalysetools getroffen. Eine adäquate
Sicherheitskultur und eine damit einhergehende hinterfragende Fehlerkultur verringern
potenziell motivationale und gruppendynamische Biases und erhöhen die Compliance be-
züglich der Nutzung derartiger Tools.
102
5 Untersuchungsmodell
Despite its early stage, the current review of research on culture and JDM [Judgment and Decision Making] demons-
trates ways in which cultural analyses can lead to theoretical progress in the field of JDM. The review highlights that
cultural influences of JDM are not blanket or invariant but are instead highly sensitive both to individual factors and
to the external environment. This nuanced approach represents a constructivist perspective on culture and JDM.
In the constructivist view, the activation of particular schemas within individuals and the external features of the
social environment are two unique features that help maintain cultural patterns of judgments and decisions. Cultu-
ral representations are not just chronic personality traits but rather dynamic mental schemas that are differentially
activated in different situations (Hong et al., 2000). (Savani, Cho et al., 2015, S. 469f.)
In den Kapiteln 1-4 wurden grundlegende Aspekte menschlicher Problemlöseprozesse all-
gemein und speziell im Kontext organisationaler Planungsprozesse erörtert. Der Fokus lag
dabei auf dem Thema der Urteile und Entscheidungen unter Ungewissheit und damit ein-
hergehenden kognitiven, motivationalen und gruppendynamischen Biases, die insbesondere
im Kontext eines volatilen, unsicheren, komplexen und ambigen Entscheidungskontextes
ihre negative Wirkung entfalten. Bezüglich des Ziels, derartige Effekte diagnostizieren
und letztlich mitigieren zu können, wurde das Konstrukt Organisationskultur und des-
sen Wirkung auf implizite Verhaltensweisen untersucht. Im folgenden Methodenteil wird
die Konzeptualisierung dieser Erkenntnisse und deren Operationalisierung zur Entwick-
lung eines Fragebogeninstruments zur Erfassung der beschriebenen Biases im Kontext der
Organisationskultur hergeleitet.
5.1 Der organisationale Planungsprozess
Given that organizations are the coordinated actions of a group of individuals performing specific tasks, it would
seem equally logical to propose that culture and memory development might directly influence the activity of the
individual. It is only through the critical link of the individual that culture and memory can ultimately affect
organizational performance. (Berthon, Pitt & Ewing, 2001, S. 136)
Abbildung 9 fasst auf Basis der in den Kapitel 1-4 herausgearbeiteten Erkenntnisse den
organisationalen Planungsprozess beziehungsweise Gruppenentscheidungsprozess zusam-
men. Demnach wird die Gruppe mit einer Problemstellung konfrontiert, die mit einem
Urteil beziehungsweise einer Entscheidung beantwortet werden soll. Damit ist in erster
Linie nicht die übergeordnete Problemstellung für ein großes Vorhaben gemeint, sondern
die Vielzahl an Urteilen beziehungsweise Entscheidungen oder Einschätzungen, die in um-
5 Untersuchungsmodell 103
fangreichen Planungsprozessen getroffen werden und die gemeinsam und sukzessive das
Gesamtvorhaben beeinflussen.
Abbildung 9
Der organisationale Planungs- und Entscheidungsprozess
Anmerkung. Skizze des organisationalen Planungs- und Entscheidungsprozesses und der Einflüsse
der Organisationskultur und unterschiedlicher Biases. Eigene Darstellung.
Die Individuen treffen bereits Urteile, bevor sie in Interaktion treten, die häufig durch
kognitive beziehungsweise motivationale Biases beeinflusst sind. In der Interaktion sum-
mieren sich diese Urteile, wobei das Gruppenurteil mehr ist als die Summe seiner Teile,
insofern spezifische gruppendynamische Biases diese Interaktion beeinflussen. Das bedeu-
tet nicht, dass gruppendynamische Biases erst in der Interaktion auftreten, sondern Effekte
wie Groupthink, Social Loafing oder Group Polarization beeinflussen die Individuen be-
reits in der Antizipation, dass ihre Urteile in einer sozialen Interaktion stattfinden werden.
Die Organisationskultur ist ein allgegenwärtiger Kontextfaktor im Urteilsprozess, der Ein-
fluss auf sämtliche Aspekte der Entscheidungssituation hat. Wie in Kapitel 4 beschrieben
wurde, beeinflusst die Organisationskultur die Denk- und Verhaltensweisen der Individu-
en auf expliziter und impliziter Ebene, was die Tendenz zu kognitiven und motivationalen
Biases einschließt. Außerdem hat die Organisationskultur einen starken Einfluss auf die
sozialen Aspekte der Entscheidungssituation und damit insbesondere auf die Entstehung
von gruppendynamischen Biases.
Der im Rahmen dieser Arbeit angenommene Einfluss der Organisationskultur beziehungs-
weise Sicherheitskultur auf die Qualität von Planungs- und Entscheidungsprozessen und
5 Untersuchungsmodell 104
die Mediation dieses Zusammenhangs durch die in Kapitel 1-4 beschriebenen Variablen
wird in Abbildung 10 dargestellt.
Abbildung 10
Organisationskultur, Biases und Entscheidungsqualität
Anmerkung. Eigene Darstellung des Untersuchungsmodells, das den Zusammenhang zwischen der
Organisationskultur, den betrachteten Biases und der Entscheidungsqualität als Basis für die zu
entwickelnde Methode bildet.
Wie in Kapitel 1.1 beschrieben wurde, erhöht eine adäquate Organisationskultur potenziell
die Compliance bezüglich der Nutzung von Tools und Strategien zum Debiasing (OD). Er-
klären lässt sich dieser Zusammenhang über die reduzierende Wirkung der Organisations-
kultur auf bestimmte motivationale und gruppendynamische Biases (OG-GD & OM-MD),
die einer Nutzung von Debiasingtools gegebenenfalls im Weg stehen (vgl. Montibeller &
von Winterfeldt, 2015). Die Nutzung von Entscheidungsanalysetools – zum Beispiel quan-
titative Analysen (vgl. Kapitel 1.2) – kann unmittelbar zu einer besseren Informationsbasis
führen (DI) und damit eine zu bevorzugende Handlungsalternative implizieren (IQ). Stra-
tegien zum Debiasing reduzieren kognitive Biases direkt (DK) und führen damit zu einer
besseren Informationsbasis (KI). Zum Beispiel kann die Technik Premortem einen Prompt
bieten, der zur hypothesenfalsifizierenden Informationssuche anregt und damit den Confir-
mation Bias reduziert (vgl. Kapitel 1.1). Wird anschließend ein Wahrscheinlichkeitsurteil
getroffen, beruht die Availability Heuristic auf einer repräsentativeren Informationsba-
sis, wodurch die Entscheidungsqualität verbessert wird. Kulturelle Einflüsse haben zudem
einen direkten Einfluss auf Biases, insbesondere motivationale und gruppendynamische
Biases (OG & OM; vgl. Kapitel 4.3). Diese Biases haben wiederum einen unmittelbaren
negativen Einfluss auf die Entscheidungsqualität, zum Beispiel durch Overconfidence und
Optimism (GQ & MQ; vgl. Kapitel 3). Die Wirkung der Organisationskultur auf die In-
dividuen und auf die Gruppeninteraktion ist natürlich nicht auf einen mediierten Effekt,
auf die Entscheidung über kognitive, motivationale und gruppendynamische Biases, be-
schränkt. Die Organisationskultur beeinflusst die Individuen und die Gruppe auf vielfältige
Weise (OQ; in Abbildung 10 nicht ersichtlich):
5 Untersuchungsmodell 105
If culture is the pattern of conscious and unconscious assumptions, values, and beliefs held by a collective, then
it could be proposed, following the thinking of writers on corporate culture such as Handy (1978, 1993), that
organizational cultures influence decision making on both a collective and an individual basis. The logic of the link
between culture and decision making can be articulated as follows. First, culture specifies what information is of
value – it directs and focuses information scanning (e.g., Brown and Starkey 1994). Second, culture influences the
interpretation of information (e.g., Harris 1994) – it is the collective symbolic context that gives meaning to data.
Culture can even determine the speed at which decisions are taken in organizations, the way in which decisions
are made, and how information is communicated (of. Handy 1978:27). Finally, culture coordinates collective action
taking (cf. Hofstede 1980; Schein 1985; Weick 1994). (Berthon et al., 2001, S. 140)
In Abbildung 11 werden Wechselwirkungen zwischen kognitiven, motivationalen und grup-
pendynamischen Biases skizziert. So verstärken beispielsweise Reputationsbedenken, die
durch den Self-Serving Bias beziehungsweise Self-Presentation ausgelöst werden, die Aus-
wirkung der Sunk-Cost Fallacy (MK; vgl. Kapitel 3.2.3). Die hypothesenbestätigende In-
formationssuche im Kontext des Confirmation Bias kann den Overconfidence Bias und
den Optimism Bias verstärken (MK). In Kapitel 3.4.1 wurde beschrieben, inwieweit Wech-
selwirkungen zwischen gruppendynamischen und kognitiven sowie motivationalen Biases
bestehen (MG & KG).
Abbildung 11
Wechselwirkung zwischen unterschiedlichen Arten von Biases
Anmerkung. Eigene Darstellung zur Verdeutlichung der teilweise starken gegenseitigen Abhängig-
keiten unterschiedlicher Arten von Biases.
Die Bedeutung der Sammlung, Interpretation und Verarbeitung von Informationen für
organisationale Planungsprozesse bestätigt den Fokus dieser Arbeit auf dem nach Reason
(2016) definierten Konzept der Sicherheitskultur für deren Bewertung. Demnach spielt die
Informationsbasis zu einem Sachverhalt, die von den in Kapitel 4.4 beschriebenen Facetten
abhängt, eine zentrale Rolle für die Entscheidungsqualität. Diesbezüglich wird die Wirkung
der Organisationskultur auf die Qualität von organisationalen Planungsprozessen poten-
ziell über unterschiedliche Biases mediiert (Abbildung 10). Abbildung 9 skizziert die in
Kapitel 4 beschriebene allgegenwärtige Auswirkung der Organisationskultur und die Wir-
kungsweise der in Kapitel 3 beschriebenen Arten von Biases. Der Einfluss der Kultur auf
5 Untersuchungsmodell 106
implizite und explizite Denk- und Verhaltensprozesse von Individuen und Gruppen setzt,
wie in Kapitel 4.3 beschrieben wurde, nicht zwingend eine jahrelange oder im Kindesalter
beginnende Exposition voraus und kann damit auch der Organisationskultur zugerechnet
werden, soweit sich die im Untersuchungsmodell angenommene Wirkungsweise bewährt.
Im nächsten Abschnitt wird auf Basis des aus der Theorie abgeleiteten und in diesem
Kapitel präsentierten Untersuchungsmodells die Struktur des zu entwickelnden Fragebo-
gens zur Diagnostik kognitiver, motivationaler und gruppenbezogener Biases in organi-
sationalen Planungsprozessen abgeleitet und anschließend die Operationalisierungen der
Fragebogenitems erläutert.
5.2 Entwicklung des Fragebogens
It is reasonable to expect human cognition to be well adapted to the general environment, but not completely
adaptable to each subenvironment encountered. One can recognize human judgmental errors as real and perhaps
remediable, while also acknowledging that evolution, social transmission, and learning are powerful forces for shaping
appropriate behavior. In other words, it is possible to be very impressed with both the successes and the failures of
human judgment, and to wonder why there is not more of the former and less of the latter. Knowing more about what
makes the difference is important for being able to design effective interventions that can improve performance. And
seeing what does and does not aid performance can reveal a good deal about underlying processes, too. (Klayman,
1993, S. 116-117)
In den vorherigen Kapiteln wurde der Zusammenhang zwischen der Organisationskultur
und der Qualität organisationaler Planungsprozesse im Kontext impliziter Heuristiken und
Biases aufgezeigt. Hierbei wird deutlich, dass mit dem Konzept der Sicherheitskultur ein
Teil der Organisationskultur identifiziert wurde, der in seinen unterschiedlichen Facetten
starke Implikationen für die unterschiedlichen Formen von Biases hat.
Um das Thema Biases in der Urteilsfindung so zu operationalisieren, dass der resultierende
Fragebogen Verhaltensweisen abbildet, die für organisationale Entscheidungsprozesse rele-
vant sind – und die somit eine Selbsteinschätzung durch Führungskräfte und Mitarbeiter
ermöglichen – werden für alle Biases Items entwickelt, die kulturell geprägte Situationen
beziehungsweise Verhaltensweisen mit potenziellem Einfluss auf die Auftretenswahrschein-
lichkeit der entsprechenden Biases beschrieben. Im folgenden Kapitel wird das Vorgehen
bei der Entwicklung der Fragebogenitems genauer beschrieben und der Zusammenhang
zwischen der kulturbezogenen Verhaltensweise und der Auftretenswahrscheinlichkeit des
jeweiligen Bias erläutert. Es werden zu jedem Bias zwei bis drei Items konstruiert, die
bestimmte Situationen beziehungsweise Verhaltensweisen in organisationalen Planungs-
prozessen erfassen. Die Instruktion zur Bewertung der Items lautet: Bitte geben Sie an,
inwieweit die folgenden Aussagen die Situation bei Ihrer Arbeit beschreiben. Anschließend
bewerten die Probanden beziehungsweise Nutzer die jeweilige Situation auf einer sechs-
stufigen Likert-Skala von (1) trifft überhaupt nicht zu bis (6) trifft völlig zu. Eine hohe
5 Untersuchungsmodell 107
Zustimmung beschreibt dabei eine positive Situation, die eine geringe Anfälligkeit für
Biases indiziert. Zudem gibt es invertierte Items, bei denen eine hohe Bewertung ein nega-
tives Ergebnis indiziert. Diese Items werden im Folgenden mit [invertiert] gekennzeichnet.
Weitere Details zu dem Fragebogen, wie der Instruktion und demographischen Variablen,
werden in Kapitel 6.2 und 6.3 bezüglich der in dieser Arbeit durchzuführenden empirischen
Erhebung beschrieben. Eine vollständige Übersicht der Fragebogenitems befindet sich in
Anhang A.
5.3 Operationalisierung der Fragebogenitems
Culture is thus powerful and ubiquitous, especially so because much of what we learn in groups is ’overlearned,’
and, therefore, drops out of awareness until someone calls our attention to it. Thus the patterns of assumptions that
I am calling the culture are largely unconscious in day to day activity, but can be called up into consciousness if
someone raises the right set of questions. (Schein, 1988, S. 8)
Kognitive Biases
Die Availability Heuristic lässt sich den primär kognitiven cold Biases zuordnen, da sie
sich im Gegensatz zu motivationalen hot Biases, wie zum Beispiel Overconfidence oder
Optimism, weniger auf motivationale oder affektive Ursachen zurückführen lässt, sondern
auf die begrenzte Kapazität der menschlichen Kognition, die bei komplexen Urteilen an
ihre Grenzen stößt. Dazu wurden die Prinzipien Bounded Rationality und Cognitive Miser
beschrieben (z. B. Kapitel 2.2). Die Availability Heuristic ist zum Beispiel nützlich und
notwendig, da Menschen ständig Häufigkeits- und Wahrscheinlichkeitsurteile treffen müs-
sen, ohne dass es dabei stets möglich und nötig wäre, vorab eine aufwendige Datenanalyse
durchzuführen. Im Alltag sind annähernd korrekte Urteile, bei zumeist niedrigen Stakes
bzw. Einsätzen, meistens ausreichend. Problematisch ist, wie bei allen Biases, dass die men-
tale Abkürzung dem Bewusstsein unzugänglich ist, da im Sinne der Attribute Substitution
unbewusst eine mittels Gedächtnisprozessen gar nicht oder nur unter großer Anstrengung
lösbare Frage unbewusst durch eine einfach lösbare Frage ersetzt wird (vgl. Kapitel 3.2.1).
Die meisten organisationalen Planungsprozesse sind komplex und die Einsätze sind hoch,
weshalb die Availability Heuristic dort zu verzerrten Urteilen mit potenziell negativen
Konsequenzen führt, wenn keine entgegenwirkenden Verhaltensweisen etabliert sind. Die
folgenden Items sollen das Vorhandensein beziehungsweise Nichtvorhandensein entspre-
chender Verhaltensweisen erfassen:
• Bei Problemdiskussionen werden häufig Ad-hoc-Argumente erfahrener Mitarbeiter*innen als Daten-
quelle verwendet [invertiert]
• Bei Problemdiskussionen dienen in der Regel qualitative und/oder quantitative Analysen empirischer
Daten als Diskussionsgrundlage
5 Untersuchungsmodell 108
Wie in Kapitel 1.1 beschrieben, lassen sich cold Biases aufgrund kognitiver Limitationen
häufig nicht in ihrer Entstehung reduzieren, sondern der Fokus liegt auf der Mitigation
deren Auswirkungen durch die Implementierung von qualitativen oder quantitativen Ana-
lysen, zum Beispiel im Rahmen von Entscheidungsanalysetools. In ähnlicher Weise lässt
sich der Confirmation Bias, also die allgegenwärtige Neigung zur hypothesenbestätigenden
Informationssuche überwiegend durch kognitive Tendenzen erklären (vgl. Kapitel 3.2.4).
Als Gegenmaßnahme können Strategien hilfreich sein, die bewusst Hinweisreize zur hypo-
thesenfalsifizierenden Informationssuche- beziehungsweise -interpretation liefern (Soll &
Klayman, 2004). Die folgenden Items bewerten generisch, inwieweit entsprechende Ver-
haltensweisen etabliert sind. Konkrete Techniken, wie Premortem oder Red Team (vgl.
Kapitel 1.1.2), werden bei der Itemkonstruktion nicht berücksichtigt, sondern als Inter-
ventionsmöglichkeiten im Diskussionsteil (Kapitel 7) beschrieben.
• In Entscheidungsprozessen wird eine selbstkritische und hinterfragende Herangehensweise bei der Ur-
teilsfindung bestärkt
• Mitarbeiter*innen und Führungskräfte sind lernwillig und offen für negatives Feedback bezüglich ihres
Vorgehens beziehungsweise des Vorgehens ihrer Abteilung
• In Entscheidungsprozessen werden primär den bestehenden Ansichten zustimmende Argumente aufge-
nommen und ausgetauscht
Der Anchoring Effect scheint stabil in der menschlichen Kognition verankert zu sein (no
pun intended). So zeigen Studien, dass Probanden selbst bei Instruktion über den An-
choring Effect, plus Aufforderung, diesen bei der anschließenden Aufgabe zu vermeiden,
der entsprechenden Verzerrung unterlagen und schlechter urteilten als die Kontrollgruppe
(Wilson et al., 1996). Wie im Fall der Availability Heuristic sollte der Entscheidungskontext
so gestaltet sein, dass der Anchoring Effect die Urteile so wenig wie möglich beeinflusst,
während eine Vermeidung auf kognitiver Ebene nicht praktikabel erscheint. Die folgenden
Items erfassen förderliche, beziehungsweise hinderliche Verhaltensweisen bezüglich des An-
choring Effects:
• Meinungen und Einschätzungen unterschiedlicher Mitarbeiter*innen werden zunächst individuell und
unabhängig voneinander entwickelt, bevor sie im Entscheidungsprozess aggregiert oder diskutiert wer-
den
• Es entstehen spontane Diskussionen auf Basis anfänglicher Informationen [invertiert]
Die Sunk-Cost Fallacy, die durch motivationale Aspekte verstärkt wird, kann bezüglich
der Ursache eher den Cold Biases zugeordnet werden. So ist das Framing der Situation und
eine dadurch ausgelöste Loss Aversion, die sich durch die Prospect Theory erklären lässt,
ein entscheidender Faktor (Kahneman & Tversky, 1979). Loss Aversion kann insofern als
primär kognitiv betrachtet werden, als dass ein verändertes Framing der Situation den
Effekt auflösen kann. Darauf geht zum Beispiel Thaler (1999) im Rahmen des Konzepts
5 Untersuchungsmodell 109
Mental Accounting genauer ein. Die motivationale Komponente ist eher sekundär und
verstärkt das Ausmaß der Sunk Cost Fallacy zum Beispiel beim Festhalten an einem Vor-
haben aufgrund von Reputationsbedenken, obwohl dessen Chance-/Risikoverhältnis einen
Abbruch suggerieren würde. Dabei spielen zum Beispiel soziale und selbstwerterhaltende
Mechanismen eine Rolle (vgl. Kapitel 3.2.3). Die folgenden Items erfassen, inwieweit sich
die Sunk-Cost Fallacy bei der Bewertung von Vorhaben zeigt:
• Es wird häufig versucht ein schlecht laufendes Projekt fortzuführen, obwohl der finanzielle Aufwand
oder das Risiko unverhältnismäßig hoch sind [invertiert]
• Wenn sich ein Projekt als teurer oder riskanter als erwartet herausstellt, wird stets auch ein Abbruch
als gangbare Alternative diskutiert
• Der Abbruch eines Projekts wird in der Organisation wertfrei und als unter Umständen angemessene
Reaktion auf sich ändernde Bedingungen oder Einschätzungen betrachtet
Motivationale Biases
Der Self-Serving Bias beschreibt die menschliche Tendenz zur selbstwertdienlichen Attri-
bution, also zum Beispiel das Zurückführen positiver Ergebnisse auf stabile und interne
Faktoren und negativer Ereignisse auf variable externe Faktoren. Diese verzerrte Attri-
bution kann potenziell als Ursache für weitere Biases, wie Desirability, Optimism und
Overconfidence gedeutet werden (vgl. Kapitel 3.3.1). Kulturelle Einflüsse, wie die Leis-
tungsorientierung und die Dimension individualistisch vs. kollektivistisch, haben einen
Einfluss auf die Entstehung des Self-Serving Bias (vgl. Kapitel 4). Bei niedrigerer Leis-
tungsorientierung gibt es potenziell insgesamt weniger Anreize für eine selbstwertdienliche
Attribution. Bezüglich der individuellen beziehungsweise kollektivistischen Orientierung
können Unterschiede darüber angenommen werden, welche Verhaltensweisen als nega-
tiv beziehungsweise positiv gelten und somit Ziel selbstwertdienlicher Attribution sein
könnten. So bestimmt eine Organisationskultur, was erwünschte beziehungsweise positive
Verhaltensweisen sind. Hilfreich zur Minimierung negativer Effekte durch den Self-Serving
Bias kann es entsprechend sein, dass die Organisationskultur weniger auf Leistung in Form
individueller Ergebnisse fokussiert ist, sondern stattdessen gegenseitige Unterstützung der
Gruppenmitglieder (ein hohes Maß an Institutional Collectivism; Kapitel 4.2) und eine
hinterfragende Grundhaltung in Form einer gut ausgeprägten Fehlerkultur aufweist – in
der es als positive Leistung gilt, wenn man Verhaltensweisen im Einklang mit letzteren
Werten zeigt. So kann man mittels kultureller Einflüsse potenziell dafür sorgen, dass kein
negatives Feedback für erwünschte Verhaltensweisen, wie dem Berichten von Fehlern und
Problemen, zu befürchten ist und gleichzeitig egoistisches oder riskantes Verhalten nicht
belohnt wird. Dazu ist es auch wichtig, dass die Intention der Handlung in den Vorder-
grund gerückt wird und sich die Verhaltensevaluation nicht primär am Ergebnis orientiert,
da irrationales und riskantes Verhalten auch zu positiven Ergebnissen führen kann, wäh-
rend auch rationales und angemessenes Verhalten negative Konsequenzen nach sich ziehen
5 Untersuchungsmodell 110
kann. Dabei gilt, je komplexer und vernetzter das System ist, desto größer ist der Einfluss
des Zufalls beziehungsweise von Störvarianz. Die folgenden Items dienen diesbezüglich als
Indikatoren der auf den Self-Serving Bias bezogenen kulturellen Werte:
• Konkurrenzdenken führt dazu, dass es besonders wichtig ist, die eigene, individuelle, Leistung hervor-
zuheben [invertiert]
• Erfolge werden als verdiente Leistung bewertet und Probleme eher auf unglückliche Umstände zurück-
geführt [invertiert]
• Es findet eine kritische Reflektion der Ergebnisse sowohl bei Erfolgen als auch bei Misserfolgen statt
Es wird angenommen, dass eine Ursache für den Overconfidence Bias im Self-Serving Bias
liegt (vgl. Kapitel 3.3.1), also einer Attribution positiver Ereignisse auf die persönliche Leis-
tung und negativer Ereignisse auf externe Umstände, wodurch letztlich auch die Einschät-
zung der eigenen Fähigkeiten übertrieben hoch ausfällt. Der Self-Serving Bias wiederum
lässt sich auf motivationale Prozesse, wie der Steigerung des psychologischen Wohlbefin-
dens oder einer verbesserten Präsentation nach außen zurückführen (vgl. Kapitel 3.3.1).
Die Ausprägung des Self-Serving Bias variiert, wie zuvor beschrieben, in Abhängigkeit des
kulturellen Kontexts. Es wird ein entsprechender Einfluss der Organisationskultur auf die
Ausprägung des Overconfidence Bias der Organisationsmitglieder angenommen. Zudem
können kognitive Faktoren, wie der Confirmation Bias, die Ausprägung des Overconfi-
dence Bias potenziell beeinflussen (siehe oben). Die kognitiven und motivationalen Aspek-
te des Overconfidence Bias im Rahmen kulturell geprägter Verhaltensweisen werden mit
folgenden Items operationalisiert:
• Mögliche Schwächen in der eigenen Planung werden proaktiv thematisiert und diskutiert
• Mitarbeiter*innen informieren sich gegenseitig über Schwierigkeiten und Probleme bei der Erreichung
ihrer Ziele
• Informationen und Daten aus vergangenen Projekten, aus denen Erfolgs- sowie Misserfolgsfaktoren
("lessons learned") hervorgehen, werden regelmäßig präsentiert und diskutiert
Der Optimism Bias umfasst die Tendenz, den negativen Einfluss externer Ereignisse, mit-
unter unbekannter Variablen, zu unterschätzen und den positiver Ereignisse zu überschät-
zen (vgl. Kapitel 3.3.3). Wie für viele andere Biases, kann ein starkes Argument dafür
angeführt werden, dass es sich nur um die Schattenseite einer grundsätzlich nützlichen
und evolutionär adaptiven Heuristik handelt und diese deshalb weit verbreitet ist. So geht
die Theorie des Depressive Realism davon aus, dass depressive Personen zwar gegebenen-
falls einem pessimistischen Bias unterliegen, in der Regel aber näher an einer realistischen
Einschätzung der Situation liegen als gesunde Probanden aufgrund des Optimism Bi-
as (vgl. Kapitel 3.3.3). Optimism Bias führt also im Zuge einer positiven Sicht auf die
Zukunft zu psychologischem Wohlbefinden, kann aber gleichzeitig mit einer mangelnden
Vorbereitung auf negative Ereignisse einhergehen, was sich in Planungsprozessen häufig
5 Untersuchungsmodell 111
in Form der Planning Fallacy niederschlägt oder in der Vernachlässigung von Sicherheits-
maßnahmen. Es erscheint nicht wünschenswert zu versuchen, Einfluss auf den Optimism
Bias gesunder Personen zu nehmen. Potenziell können aber durch Gestaltungsmaßnahmen
im Sinne einer entsprechend gestalteten Organisationskultur – beziehungsweise hinterfra-
genden Kultur – Entscheidungsprozesse so manipuliert werden, dass sie den Einfluss des
Optimism Bias auf die Entscheidung im Sinne eines moderierten Effekts abmildern (vgl.
Abbildung 12).
Abbildung 12
Moderierender Effekt der Organisationskultur
Anmerkung. Potenzieller moderierender Effekt auf den Zusammenhang zwischen der Sicherheits-
kultur und der Urteilsqualität. Eigene Darstellung.
Im Vergleich dazu wurde zuvor, im Kontext des Self-Serving Bias beschrieben, dass die
Kultur einen direkten Einfluss auf das Ausmaß an selbstwertdienlicher Attribution nehmen
kann oder zumindest über die Definition von erwünschten Verhaltensweisen impliziert, wel-
che Verhaltensweisen positiv verstärkt werden und somit zur Steigerung des Selbstwertes
eher gezeigt werden (vgl. Abbildung 13).
Die folgenden Items beziehen sich entsprechend auf die Prozessgestaltung, die mit einer
hinterfragenden Kultur zur Reduktion des Optimism Bias in Verbindung stehen:
• In Entscheidungsprozessen werden bei qualitativen und quantitativen Analysen auch externe Risiken,
die außerhalb des Einflusses der Organisation liegen, berücksichtigt
• Dem Einfluss unvorhersehbarer externer Ereignisse wird durch Schaffung von Redundanz (zusätzlichen
Ressourcen) Rechnung getragen
Analog zu, aber anders als der Confirmation Bias, beschreibt der Desirability Bias den
Effekt, demnach neue Informationen tendenziell zugunsten der eigenen Wünsche oder Prä-
ferenzen gesucht und interpretiert werden. Während der Confirmation Bias auch bei vor-
heriger Indifferenz gegenüber unterschiedlichen Einstellungen, zum Beispiel allein durch
Reihenfolgeeffekte, auftreten kann, definiert sich der Desirability Bias über die Suche und
5 Untersuchungsmodell 112
Abbildung 13
Direkter Effekt der Organisationskultur
Anmerkung. Potenzieller Effekt der Sicherheitskultur auf den Self-Serving Bias und damit indirekt
auf die Urteilsqualität. Eigene Darstellung.
Interpretation neuer Informationen zugunsten des emotional erwünschten Ergebnisses. Die
beiden Biases sind potenziell konfundiert, entsprechend vermuten Tappin et al. (2017), dass
in vielen Fällen, in denen der Confirmation Bias berichtet wird, tatsächlich der Desirability
Bias für die verzerrte Informationsverarbeitung verantwortlich sein könnte. Auf der ande-
ren Seite wird der Desirability Bias auch häufig mit dem Self-Serving Bias (Kapitel 3.3.1)
oder Optimism Bias (Kapitel 3.3.3) konfundiert. Die Problematik der uneinheitlichen be-
grifflichen Definitionen und Abgrenzungen im Bereich Heuristiken und Biases wurde in
Kapitel 3.5 thematisiert.
Im Rahmen dieser Arbeit werden die verschiedenen Biases folgendermaßen abgegrenzt:
Der Self-Serving Bias, bezieht sich allgemein auf selbstwertdienliche Attributionen, der
Confirmation Bias bezieht sich auf die hypothesenbestätigende Informationssuche und
-interpretation aufgrund kognitiver Effekte, der Desirability Bias bezieht sich auf die hy-
pothesenbestätigende Informationssuche und -interpretation bezüglich wünschenswerter
Ergebnisse und der Optimism Bias beschreibt die optimistische Prognose zukünftiger Er-
eignisse bezüglich externer Einflussvariablen. Damit unterscheidet sich der Optimism Bias
wiederum vom Overconfidence Bias, der die Überschätzung der eigenen Fähigkeiten betrifft
und damit ebenfalls zu optimistischen Fehleinschätzungen führt. Folgendes Zitat, indem
es primär um den Optimism Bias geht, spiegelt diese Unterscheidung wider. Gleichzeitig
zeigen sich dabei erneut die starken Wechselwirkungen der verschiedenen Biases:
In general, people tend to hold subjective beliefs with great confidence and are resistant to acknowledging new
evidence (Slovic et al., 1982) [Confirmation Bias]. However, our findings indicate that this general tendency has to
be differentially weighted. When people make judgments about the future, they tend to learn from desirable, but
not from undesirable information [Desirability Bias]. Thus, the persistence of beliefs seems to be specifically strong
when it leads to protective rejections of new information that would support negative expectations toward the future
[Optimism Bias]. (Kuzmanovic, Jefferson & Vogeley, 2015, S. 291)
5 Untersuchungsmodell 113
Bezüglich der Prävalenz und der interindividuellen beziehungsweise interkulturellen Va-
rianz des Desirability Bias gelten entsprechend der gegenseitigen Abhängigkeit ähnliche
Annahmen, wie für den Self-Serving Bias. Die den eigenen Wünschen entsprechende Wahr-
nehmung und Verarbeitung von Informationen betrifft mit ca. 80% der Population die
Mehrheit (Sharot, 2011). Dabei zeigt sich, dass das Auftreten des Desirability Bias mit
einer reduzierten Kodierung unerwünschter zukunftsbezogener Informationen in Regionen
des frontalen Kortex – die sensitiv für die Verarbeitung negativer Informationen sind – kor-
reliert. Die resultierende verzerrte Sichtweise scheint, wie bereits beschrieben, adaptiv zu
sein, da Personen, die diesen Biases nicht unterliegen, eine erhöhte Neigung für depressive
Verstimmungen haben (Korn, Sharot, Walter, Heekeren & Dolan, 2014). Der Fokus sollte
also hier, analog zum Self-Serving Bias sowie Overconfidence Bias, auf der entsprechenden
Gestaltung des kulturellen Kontextes organisationaler Planungsprozesse liegen, indem die
Zwangsläufigkeit des Effekts antizipiert wird und Maßnahmen etabliert werden, die den
Auswirkungen des Desirability Bias entgegenwirken. Dabei kann die Organisationskultur
potenziell auch mitbestimmen, was erwünschte beziehungsweise unerwünschte Informatio-
nen sind beziehungsweise definieren, dass insbesondere Informationen, die das bestehende
Lagebild hinterfragen, erwünschte Informationen sind. Dazu beinhaltet der Fragebogen
die Items:
• Im Planungsprozess herrscht eine offene Diskussionskultur, in der auch die Nachteile eines bevorzugten
Vorhabens diskutiert und Alternativen ernsthaft betrachtet werden
• Es wird unabhängig vom erwünschten Ziel abgewogen beziehungsweise kalkuliert, was realistisch und
sicher erreichbar ist, ohne dass Wunschdenken diese Abwägungen beeinflusst
Gruppendynamische Biases
Das Auftreten von und der Grad an Groupthink weisen einen direkten Bezug zu Ausprä-
gungen verschiedener Aspekte der Organisationskultur auf. Als ein wichtiger Aspekt von
Kultur wurde in Kapitel 4.2 In-Group Collectivism identifiziert, womit das Ausmaß der
Bedeutung von Stolz, Loyalität und Kohäsion beschrieben wird, die mit der Mitgliedschaft
in einer Gruppe oder Organisation einhergehen. Wie in Kapitel 3.4.1 beschrieben, ist der
Grad der Gruppenkohäsion ein wichtiger Prädiktor sowohl für positive Outcomes, wie die
Gruppenleistung und -zufriedenheit, als auch im negativen Sinne für das Auftreten von
Groupthink. In-Group Collectivism ist potenziell mit verschiedenen Facetten von Group-
think assoziiert. Dazu gehören Belief in Inherent Morality of the Group, dass mit den
folgenden beiden Items erfasst wird:
• Es kann vorkommen, dass ethische Konsequenzen im Einzelfall weniger genau betrachtet werden, weil
sich die Gruppe/Organisation insgesamt als moralische Instanz betrachtet [invertiert]
• Die Gruppe reagiert irritiert oder ablehnend auf selbstkritische Anmerkungen einzelner Mitglieder
[invertiert]
5 Untersuchungsmodell 114
Ähnlicherweise kann angenommen werden, dass gruppenbezogener Stolz das Phänomen
Illusion of Invulnerability hervorruft, bei der vor allem positive Eigenschaften der Gruppe
und vergangene Erfolge betont werden:
• Vergangene Erfolge führen in der Gruppe zu Selbstüberschätzung und in der Folge zu einem sorgloseren
Umgang mit Risiken [invertiert]
• Erfolge steigen der Gruppe nicht zu Kopf und sie ist stets bemüht, die eigenen Pläne zu hinterfragen
und Verbesserungspotenziale abzuleiten
Des Weiteren kann ein ausgeprägter In-Group Collectivism potenziell das Aufkommen von
Out-Group Stereotypes verstärken:
• Innerhalb der Gruppe sind häufig die Unfähigkeit oder ähnliche negative Eigenschaften anderer Akteure
ein Thema [invertiert]
• Es kommt vor, dass negative Einstellungen gegenüber externen Gruppen die Kommunikation und den
Informationsaustausch mit diesen beeinträchtigen [invertiert]
Sowohl In-Group Collectivism, als auch Uncertainty Avoidance können potenziell dazu
führen, dass Führungskräfte die Gruppenmitglieder nicht ermutigen, abweichende Mei-
nungen zu teilen – Self-Censorship – oder abweichende Argumente vorschnell ablehnen –
Collective Rationalization (Taylor, 2006). Self-Censorship sowie Collective Rationalization
können wiederum die Illusion of Unanimity bewirken.
Die Diagnose von Self-Censorship erfolgt mittels der Items:
• Manchmal hält man sich mit seiner Meinung zurück, um nicht bei der Führungskraft oder anderen
Gruppenmitgliedern anzuecken [invertiert]
• Im Planungsprozess wird sichergestellt, dass alle Gruppenmitglieder ihre Standpunkte äußern
Collective Rationalization wird durch folgende Items operationalisiert:
• Kritische Meinungen gegenüber dem von der Führungskraft oder der gesamten Gruppe favorisiertem
Plan werden offen aufgenommen und weiterdiskutiert
• Kritische Hinweise und Warnungen bezüglich eines Plans werden häufig nicht ausreichend ernst genom-
men [invertiert]
Die Items zur Erfassung von Illusion of Unanimity lauten:
• Das Schweigen einzelner Gruppenmitglieder wird von der Gruppe als stille Zustimmung interpretiert
[invertiert]
• Bei scheinbarer Meinungshomogenität wird bewusst nachgehakt, ob es auch alternative Sichtweisen
gibt, die von der bisherigen Gruppenmeinung abweichen
5 Untersuchungsmodell 115
Wenn Power Distance, also ein Hierarchiegefälle, Einfluss auf den Entscheidungsprozess
nimmt und der Gehorsam der Gruppenmitglieder impliziert ist, hat dies potenziell ei-
ne verstärkende Wirkung auf In-Group Collectivism und Uncertainty Avoidance. So ist
zum Beispiel die Hemmschwelle für kontroverse Anmerkungen weiter erhöht, wenn die
bevorzugte Meinung von einer höher gestellten Führungskraft bestimmt wird, zu der die
Gruppenmitglieder zu einem gewissen Grad in einem Abhängigkeitsverhältnis stehen.
Weitere Folgen, die sich mutmaßlich einerseits auf In-Group Collectivism und Uncertain-
ty Avoidance zurückführen lassen und andererseits durch Power Distance deutlich ver-
stärkt werden, sind Direct Pressure on Dissenters und Self-Appointed Mindguards. So ist
der direkte Druck, der von der Gruppe auf einzelne Gruppenmitglieder ausgeübt werden
kann, zusätzlich erhöht, wenn ein von der Organisation definiertes Machtgefälle zwischen
einzelnen Gruppenmitgliedern besteht. Ähnlich verhält es sich beim Auftreten von Self-
Appointed Mindguards. Je stärker das Hierarchiegefälle, desto eher gibt es einen Grund
für einzelne Gruppenmitglieder, kontroverse Informationen von der Führungskraft fernzu-
halten – zum Beispiel um die eigene Rolle zu stärken oder negative Konsequenzen für die
gesamte Gruppe zu vermeiden.
Im Fragebogen wird Direct Pressure on Dissenters durch diese Items erfasst:
• Es kommt vor, dass Druck auf Gruppenmitglieder mit abweichender Meinung ausgeübt wird [invertiert]
• Es kommt vor, dass kritische Meinungsträger von Gruppenprozessen ausgeschlossen werden [invertiert]
• Gruppenmitglieder nutzen ihre hierarchische Position, um ihre Meinung durchzusetzen [invertiert]
Self-Appointed Mindguards wird mittels dieser Items erfasst:
• Manche Gruppenmitglieder versuchen kritische Meinungen anderer Mitglieder aus Loyalität zur Füh-
rungskraft abzuwehren [invertiert]
• Es kommt vor, dass Minderheitsmeinungen vorschnell durch einzelne Gruppenmitglieder schlechtgere-
det werden [invertiert]
Social Loafing tritt vor allem bei geringer Bewertbarkeit der Einzelleistungen, bei gerin-
ger Erwartung an die Einsatzbereitschaft der Kollegen, bei geringer Bedeutsamkeit der
Aufgabe und eher in individualistisch geprägten Organisationskulturen auf (vgl. Kapitel
3.4.2). Während sich die negativen Auswirkungen von In-Group Collectivism vor allem
durch die Abgrenzung zu Fremdgruppen definieren, beschreibt Institutional Collectivism
die Tendenz zu gemeinschaftlichem Handeln und der gleichmäßigen Verteilung von Res-
sourcen. Belohnt wird eher gegenseitige Unterstützung und die Teamleistung anstatt des
Hervorhebens von Einzelleistungen (vgl. Kapitel 4.2). Neben einem stark ausgeprägten
Individualismus spielen bei Social Loafing Verantwortungsdiffusion beziehungsweise Rol-
lenambiguität und schlecht definierte Ziele eine Rolle (siehe oben). Social Loafing wird
5 Untersuchungsmodell 116
über diese Aspekte folgendermaßen erfasst:
• Zwischenziele werden konkret und mit festgelegtem Zeithorizont definiert
• Arbeitspakete werden für einzelne Gruppenmitglieder konkret zugeordnet
• Zwischenergebnisse aus den einzelnen Verantwortungsbereichen werden Führungskräften und anderen
Gruppenmitgliedern in regelmäßigen Abständen präsentiert
Der False Consensus Effect, der sich primär auf den Fundamentalen Attributionsfehler
zurückführen lässt, wirkt auf individueller Ebene, betrifft aber besonders Gruppen. Im
Gruppenkontext zeigt sich der False Consensus Effect darin, dass die einzelnen Grup-
penmitglieder zur Annahme tendieren, dass die Meinung ihrer Gruppe der erweiterten
Population entspricht. Als ein Ursachenfaktor für den False Consensus Effect gilt die se-
lektive Exposition gegenüber anderen Menschen. Da Menschen primär Kontakt zu anderen
Menschen suchen, die ihnen überdurchschnittlich ähnlich sind und die gemeinsamen Er-
fahrungen diese Ähnlichkeit – zum Beispiel durch kulturelle Einflüsse – weiter verstärken,
ergibt sich eine Verzerrung in der Wahrnehmung der Ähnlichkeit mit einer Gesamtpopu-
lation (vgl. Kapitel 3.4.4). So erklären Choi und Cha (2019) die Ergebnisse ihrer Studie,
dernach Koreaner einen stärker ausgeprägten False Consensus Effect aufweisen als Ameri-
kaner. In ostasiatischen Kulturen besteht ein stärkerer Fokus auf Konformität und der Po-
sition in abgegrenzten sozialen Netzwerken, was die selektive Wahrnehmung im Vergleich
zu unabhängigeren westlichen Kulturen potenziell steigert. Auch im Sinne des Attributi-
onsstil haben interdependente Kulturen eine noch stärkere Neigung, Verhaltensweisen auf
situative Faktoren zurückzuführen als individuellere westliche Kulturen. In weniger star-
ker Ausprägung betrifft der False Consensus Effect auch westliche Kulturen und kann als
allgegenwärtig betrachtet werden. Die Auswirkungen lassen sich potenziell im Sinne einer
hinterfragenden Kultur, im bewussten Austausch mit externen Personen beziehungsweise
Gruppen, mitigieren. Die entsprechenden Items lauten:
• Das Verhalten und die Pläne der Gruppe werden kritisch – auch im Austausch mit Personen außerhalb
der Gruppe – reflektiert
• Führungskräfte beziehen auch Informationen von externen Quellen ausreichend mit ein
Eine Übersicht über den gesamten Fragebogen befindet sich in Anhang A.
117
6 Studien
Im Folgenden werden im Rahmen der eingangs beschriebenen Zielstellung drei empirische
Studien durchgeführt, um die im Theorieteil beschriebene Relevanz der unterschiedlichen
Biases zu untermauern sowie die Reliabilität und Validität des neu entwickelten und zuletzt
beschriebenen Fragebogens zu prüfen. Dazu wird zunächst anhand von zwei Fallstudien die
externe Validität der im Theorieteil identifizierten Biases im Kontext von realen Planungs-
prozessen dargestellt. Gleichzeitig werden Hinweise auf die augenscheinliche Validität der
Fragebogenitems beschrieben.
Als nächstes wird in einer quantitativen Expertenbefragung die Inhaltsvalidität des Fra-
gebogens beleuchtet, in dem Probanden die Passung der Items zu Konstruktdefinitionen
der Biases bewerten. Schließlich wird in einer Validierungsstudie die Testgüte des Fragebo-
gens bestimmt. Dazu wird der Fragebogen Probanden vorgelegt, die aktiv und regelmäßig
in organisationale Planungsprozesse eingebunden sind, und diese Prozesse bezüglich der
Anfälligkeit für Biases bewerten.
6.1 Fallstudien
Managers should not be averse to learning from the mistakes of others. The tools of the historian, objectivity, critical
analysis and the synthesis of widely-varied data (which may involve quantitative techniques) into meaningful wholes,
can be used to chart change through time and to point out where alternative responses might have been possible. The
planning function, therefore, while oriented to the future, is rooted in the past, as the examination of background
issues can support arguments for change and aid in the definition of issues that require attention. (Wright & Geroy,
1991, S. 10)
Flyfbjerg (2011) argumentiert, dass Einzelfallstudien von vielen Forschern zu Unrecht als
gegenüber quantitativen Verfahren unterlegene Methode betrachtet werden. Als wichtiges
Argument für die Durchführung von Einzelfallstudien nennt er die Kontextabhängigkeit
von Wissen und Erfahrung. In ähnlicher Weise wurde in dieser Arbeit für den Bedarf nach
externer Validität von in Laborstudien gewonnenen Erkenntnissen zu Heuristiken und
Biases plädiert. Der organisationale Planungsprozess stellt den bisher wenig erforschten
Kontext dar. Um zu einem Thema in einem relativ neuen Kontext das Verständnis des
Autors beziehungsweise des Lesers zu fördern, bieten Fallstudien einen adäquaten Zugang.
So kommt Beveridge (1951) zu dem Schluss „that there are more discoveries stemming from
6 Studien 118
intense observation of individual cases than from statistics applied to large groups“ (zitiert
nach Flyfbjerg, 2011, S. 310).
Im Folgenden werden zwei Fallbeispiele analysiert, die sich durch fehlgeleitete Planungs-
prozesse charakterisieren lassen. Dazu gehören zum einen der Planungsprozess, der zu
den katastrophalen Ereignissen im Rahmen zweier Flugzeugabstürze mit Maschinen des
Typs Boeing 737-MAX führte, und zum anderen der Planungsprozess, der dem tödlichen
Massengedränge auf der Loveparade 2010 in Duisburg vorausging.
Zu Beginn dieser Arbeit wurde die Problematik der Urteils- und Entscheidungsfindung
unter Unsicherheit im Kontext organisationaler Planungsprozesse beschrieben, die in der
Regel durch Unstrukturiertheit, Situationsspezifität und Komplexität charakterisiert sind.
In diesem Zusammenhang wurden die Grenzen von insbesondere quantitativen Entschei-
dungsanalysetools bezüglich derartiger Settings aufgegriffen (vgl. Kapitel 1.1). Analog
dazu beschreibt Seibel (2017) diese Problematik für die retrospektive Analyse von ent-
sprechenden Planungsprozessen und geht dabei auf das Verallgemeinerungspotenzial von
Einzelfallstudien ein. So können im Rahmen von Einzelfallstudien keine statistischen Hypo-
thesen über Kausalzusammenhänge mittels Korrelations- oder Regressionskoeffizienten be-
rechnet werden. Im Sinne der von Taleb (2010) popularisierten Schwarze-Schwan-Metapher
ist eine Analyse von extrem seltenen negativen Ereignissen aufgrund der katastrophalen
Auswirkungen dennoch wichtig und sinnvoll.
Flyfbjerg (2011) stellt fest, dass bezüglich des Ziels einer Fallstudie, möglichst viele Infor-
mationen über ein Phänomen zu erhalten, die Auswahl eines repräsentativen Falls nicht
die beste Strategie sei, denn ein durchschnittlicher Fall beinhaltet in der Regel weniger
reichhaltige Informationen zum Untersuchungsgegenstand als sogenannte Extreme cases.
Diese eignen sich besonders, um tieferliegende Ursachen eines Phänomens und dessen
Konsequenzen zu erfassen. So sieht auch Seibel (2017) einen Vorteil bei der Auswahl
seltener und extremer Ereignisse darin, dass sich dabei eine besondere Ausprägung der
Wirkmächtigkeit bestimmter Mechanismen – in Rahmen dieser Arbeit der potenziellen
Wirkmächtigkeit diverser Biases – bezüglich des interessierenden Kriteriums zeigen. Das
interessierende Kriterium dieser Arbeit ist nicht der desaströse Ausgang der betreffenden
Planungsprozesse, sondern der fehlgeleitete Planungsprozess selbst, der nicht zwangsläu-
fig zu einer Katastrophe hätte führen müssen. So wird eine ergebnisorientierte Sichtweise
abgelehnt, es ist aber hochwahrscheinlich, dass bei schwerwiegenden Katastrophen, wie
bei den beschriebenen Fällen, Fehler im Planungsprozess vorausgegangen sind, weshalb
diese sich besonders als zu untersuchende Extrem cases eignen. In der Statistik spricht
man, bei einer aufgrund des Eintritt des Kriteriums verzerrten Stichprobe – in diesem
Kontext etwas ironisch anmutend – von einem Survivorship-Bias. Da in dieser Arbeit be-
züglich kausaler Zusammenhänge nur auf inhaltlicher Ebene argumentiert wird, entsteht
dadurch zunächst keine Einschränkung bei der Interpretierbarkeit der Ergebnisse. Für die
6 Studien 119
Quantifizierung der Effektstärke eines potenziellen Zusammenhangs zwischen bestimmten
Biases und der Qualität von Planungsprozessen, sollte zukünftig eine ausreichend große
Stichprobe repräsentativer Fälle erhoben werden. Die beiden ausgewählten extreme Ca-
ses wurden zudem ausgewählt, weil die Planungsprozesse und Umstände der Ereignisse
gut dokumentiert sind und damit die Möglichkeit für eine detaillierte Aufbereitung und
Analyse bieten.
Fehlentscheidungen im Planungsprozess können als Voraussetzung für eine Katastrophe
betrachtet werden, insofern diese Fehlentscheidungen als latente Bedingungen beziehungs-
weise Risikofaktoren im System bestehen (vgl. Kapitel 5.1). Je nach Ausmaß der Fehlent-
scheidungen manifestieren sich diese Risikofaktoren gegebenenfalls erst in Kombination
mit Fehlern oder unglücklichen Umständen auf der operativen Ebene. Wie später disku-
tiert wird, kann dieser Sachverhalt dazu führen, dass die Ursachen der Katastrophe auf
die operative Ebene verkürzt werden. Eine weitere Konsequenz ist, dass, wenn trotz im
Planungsprozess produzierter fataler Risiken, sich selbige nicht materialisieren, die verur-
sachenden Fehler häufig unsichtbar bleiben – insbesondere im Kontext einer inadäquaten
Sicherheitskultur (vgl. Kapitel 4.4) – und Planungsrisiken in der Zukunft folglich unter-
schätzt werden.
Nach Blatter, Janning und Wagemann (2007) sollten Einzelfallstudien zwei analytische
Strategien umfassen: 1. Eine Prozessanalyse innerhalb der Einzelfälle und 2. Vergleiche
von Faktoren und Prozessen in einem oder mehreren Fällen mit theoretischen Konzepten
(d. h. der Vergleich zwischen mehreren Fällen ist immer über das theoretische Konzept
vermittelt). Dabei erfolgen kausalanalytische Schlussfolgerungen nicht über quantitative
Zusammenhangs- oder Unterschiedsanalysen – wie zum Beispiel Regressionsverfahren be-
ziehungsweise Varianzanalysen – sondern vor allem über die Feststellung von Kongruenz
zwischen theoretischen Erwartungen und empirischen Informationen (Blatter et al., 2007).
In den Fallstudien werden, parallel zur inhaltlichen Rekonstruktion der Planungsprozesse,
diejenigen Situationen und Verhaltensweisen identifiziert, die potenziell im Zusammenhang
mit den in Kapitel 3 beschriebenen Biases stehen. Dazu werden die entsprechenden Items,
deren Konstruktion in Kapitel 5.3. beschrieben wurde, auf diese Situationen angewendet.
Dieses Vorgehen entspricht einem von Seibel (2017) beschriebenen deduktiven und va-
riablenorientierten Analyseverfahren. So ist die Suche nach verallgemeinerbaren kausalen
Mechanismen naturgemäß deduktiv, weil diese Mechanismen sich nur mithilfe eines theo-
retischen Instrumentariums identifizieren lassen, das auf die entsprechenden Pathologien
von Organisationen, in diesem Fall der Neigung zu bestimmten Biases, abgestimmt ist (vgl.
Seibel, 2017). So wird, im Sinne der externen Validität, die Relevanz der unterschiedlichen
Biases im Kontext organisationaler Planungsprozesse aufgezeigt, und es werden Hinweise
auf die inhaltliche Validität des in Kapitel 5.3 beschriebenen Fragebogens geprüft. Der
Umfang der Fallstudien kann variieren, da dieser von den Zeiträumen der jeweiligen Pla-
6 Studien 120
nungsgeschehnisse sowie der Art der verfügbaren Dokumentation abhängt.
Neben den Vorteilen von Fallstudien, weisen diese natürlich auch einige Limitationen auf,
insbesondere wenn diese auf einer reinen Dokumentenanalyse basieren. In Kapitel 6.1.3
werden diese Limitationen aufgegriffen und in Kapitel 7 werden Vorschläge für durch ver-
schiedene Methoden erweiterte Fallstudien abgeleitet. Erkenntnisse aus Fallstudien sind
zukünftig auch durch quantitative und repräsentative Erhebungen zu validieren bezie-
hungsweise mögliche Effekte zu quantifizieren.
In dieser Arbeit geht es nicht um die Diskussion der Schuldfrage und potenzielle Fehler
der Beteiligten werden nicht als das Ende, sondern als der Anfang bei der Suche nach
Ursachen betrachtet. Die Frage nach der moralischen oder juristischen Verantwortung ist
nicht Gegenstand dieser Arbeit, insofern in den folgenden Kapiteln der Fokus auf unbe-
wussten, systematischen Biases als Ursachen für Fehlverhalten liegt, die durch bestimmte
Kontextfaktoren beeinflusst werden und damit zu einem gewissen Grad personenüber-
greifend auftreten. Ein Ziel dieser Arbeit ist es, aus diesem Fehlverhalten Lehren für die
Zukunft abzuleiten und mit dem in Kapitel 5 entwickelten Fragebogen diesbezüglich rele-
vante Aspekte erfassen zu können:
At the time of writing, I have before me a newspaper headline that reads ’Human error is blamed for crash’. This is
a source of confusion rather than clarification. In aviation and elsewhere, human error is one of a long-established
list of ’causes’ used by the press and accident investigators. But human error is a consequence not a cause. Errors,
as we have seen in earlier chapters, are shaped and provoked by upstream workplace and organizational factors.
(Reason, 2016, S. 126)
Die Rekonstruktion und Analyse der beschriebenen Szenarien basiert auf Primärquellen,
wie Besprechungsprotokollen und prozessbezogen Dokumentationen sowie Sekundärquel-
len wie Zeitungsartikeln, Fernsehreportagen oder weiteren Fallstudien. Da sämtliche Quel-
len den Verlauf der Ereignisse zu einem gewissen Grad subjektiv wiedergeben, wird kein
Anspruch auf die Richtigkeit und Vollständigkeit der Darstellung erhoben. Die Ereignisse
werden dennoch so realitätsnah wie möglich wiedergegeben, um eine ausreichend objek-
tive Datenbasis für die Aufbereitung und Analysen zu gewährleisten. Insbesondere die
Zuschreibung unbewusster kognitiver, motivationaler und gruppendynamischer Biases zu
bestimmten Verhaltensweisen beziehungsweise Kontextfaktoren unterliegt im Rahmen von
Fallstudien und der unvollständigen Datenbasis einem gewissen Maß an Unsicherheit.
6.1.1 The Boeing Company
If it ain’t Boeing, I ain’t going lautet ein altes Sprichwort aus der Luftfahrtindustrie, das
von der hohen Reputation zeugt, die der Flugzeugbauer aus Seattle, Washington, in Bezug
auf die Sicherheit seiner Flugzeuge jahrzehntelang genoss (Kennedy, 2022). Das Vertrauen
der Mitarbeiter und der Öffentlichkeit in die Zuverlässigkeit von Boeings Produkten hat in
6 Studien 121
den letzten Jahren jedoch gelitten. Den Höhepunkt dieser Vertrauenskrise markierten zwei
Flugzeugabstürze innerhalb von fünf Monaten mit dem brandneuen Flugzeugtyp Boeing
737-MAX (Abbildung 14). Die Abstürze lösten ein weltweites Grounding des Flugzeug-
typs aus, das knapp zwei Jahre andauerte, bis es im November 2020, nach technisch und
softwaretechnischen Modifikationen am Flugzeug, wieder aufgehoben wurde.
Abbildung 14
Die Boeing 737-MAX
Anmerkung. Ein Flugzeug des Typs Boeing 737-MAX. Darstellung von Boeing (o. J.).
Der erste Absturz der 737-MAX ereignete sich am 29. Oktober 2018, als Lion Air Flight
610 13 Minuten nach dem Start in Jakarta abstürzte. Wenige Monate später, am 10. März
2019, verunglückte Ethopian Airlines Flight 302 sechs Minuten nach dem Start in Addis
Abeba. Insgesamt verlieren bei den beiden Abstürzen 346 Passagiere und Crewmitglieder
ihr Leben. In beiden Fällen herrschten vergleichbare Bedingungen. Die Abstürze ereigneten
sich kurz nach dem Start, in relativ geringer Höhe und bei guten Wetterbedingungen
(Kennedy, 2022). Bei der Suche nach den Absturzursachen geriet in beiden Fällen vor
allem das in der 737-MAX neu implementierte Maneuvering Characteristics Augmentation
System (MCAS) in den Fokus der Ermittlungen. Die Funktionsweise von MCAS beschreibt
Richard Reed, der 2007 bis 2017 Systems Engineer bei der Federal Aviation Administration
(FAA) war, folgendermaßen (Kennedy, 2022, 0:13:16):
The MCAS, or the Maneuvering Characteristics Augmentation System, really is just some Software connected to
the Angle Of Attack Sensor. Because of the Flight characteristics of the new MAX, when certain Angles of Attacks
were reached at certain speeds, the airplane tended to stall out. So the MCAS was designed to automatically push
the nose back down. Simple concept, all they had to do was add a few lines of code to an existing system.
6 Studien 122
Abbildung 15 skizziert die Funktionsweise von MCAS, wenn das System wie vorgesehen
funktioniert.
Abbildung 15
Funktionsweise des MCAS
Anmerkung. Die Funktionsweise des Maneuvering Characteristics Augmentation System. Darstel-
lung von Gates und Baker (2019).
Bei beiden Abstürzen führte ein defekter Angle of Attack (AoA)-Sensor dazu, dass der
Anstiegswinkel der Flugzeuge falsch erfasst wurde. Das System nahm fälschlicherweise an,
dass das Flugzeug sich in einem stark steigenden Winkel befindet und sendete ein ent-
sprechendes Signal an MCAS. MCAS betätigte automatisch das Höhenleitwerk am Heck
des Flugzeugs und drückte damit die Nase des Flugzeugs mehrmals und stark nach unten.
In beiden Fällen gelang es den Piloten nicht, das Flugzeug rechtzeitig unter Kontrolle zu
bringen.
Um die Funktion und den Zweck von MCAS – und die zugrundeliegenden Planungsprozesse
– besser zu verstehen, werden im folgenden die internen und externen Einflüsse bei Boeing
vor und während der Entwicklung des Modells Boeing 737-MAX näher erläutert. Die Boe-
ing Company wurde 1916 in Seattle, Washington, gegründet und produziert unter anderem
Raketen, Satelliten, Verteidigungssysteme sowie militärische und zivile Flugzeuge (Cruz
& de Oliveira Dias, 2020). Das Unternehmen weist derzeit eine Marktkapitalisierung von
ca. 110 Milliarden Dollar auf (Google Finance, 2022). Boeing hatte in der Vergangenheit
enormen Erfolg mit der Entwicklung und Fertigung zuverlässiger Passagierflugzeuge und
einen entsprechend guten Ruf in der Öffentlichkeit. So beschreiben viele Ingenieure und
6 Studien 123
Qualitätsmanager, die insbesondere in den 1980er, 1990er und 2000er Jahren bei Boeing
tätig waren, dass Boeing in der Vergangenheit sehr qualitätsorientiert gearbeitet hat und
eine Kultur gegenseitigen Vertrauens vorherrschte (Kennedy, 2022). So äußert sich zum
Beispiel – ähnlich wie viele andere (ehemalige) Mitarbeiter – Cynthia Cole, Ingenieurin
bei Boeing zwischen 1978 und 2010 (Kennedy, 2022, 0:42:16):
I really loved working there because I had a say. And when something wasn’t right I could bring it up, and I wasn’t
afraid of being fired. Boeing management knew that safety came first, and if we’d say ’Hey, it’s not safe. It’s not
ready to fly’, we’re not going.
1997 fusioniert Boeing mit McDonnell Douglas, damals ebenfalls einer der weltweit größten
Hersteller von zivilen und militärischen Flugzeugen, aus St. Louis, Missouri. Infolge der
Fusion wurde Harry Stonecipher, zuvor CEO bei McDonnell Douglas, CEO bei Boeing
und der Einfluss der neuen Führungsriege und einer neuen Unternehmensstrategie wirkte
sich laut dem Luftfahrtexperten Michael Goldfarb stark auf die Organisationskultur der
neuen Boeing Company aus:
The 1996 acquisition of McDonnell Douglas by Boeing was part and parcel of what was happening across the country.
Merger, buyouts, consolidation. That was the way companies viewed their ability to stay competitive. Boeing’s place
in the aviation industry was preeminent, they were the gold standard. They were the people you looked up to for
their engineering excellence. But that began to fall apart when McDonell Douglas and Boeing merged. (Kennedy,
2022, 0:43:56).
Zusätzlich zu dem stärkeren Profitfokus, im Rahmen der Fusion mit McDonnell Dou-
glas, verschärfte sich in den 2000er Jahren die Konkurrenzsituation mit dem europäischen
Flugzeugbauer Airbus, der einen immer höheren Marktanteil im Bereich der Passagierflug-
zeuge für sich beanspruchte. Der betreffende Markt lässt sich als Duopol zwischen Boeing
und Airbus charakterisieren und Airbus steigerte seine Anteile kontinuierlich zulasten von
Boeing (vgl. Abbildung 16).
Die dadurch bei Boeing ausgelöste Krise fand ihren Höhepunkt, als Airbus 2010 den Flug-
zeugtyp A320neo vorstellte, der starke Verbesserungen bezüglich Treibstoffeffizienz und
Reichweite versprach. Im folgenden Jahr kündigte American Airlines an, darüber nachzu-
denken, ihre Flotte von Boeing auf Airbus umzustellen und hunderte Flugzeuge des Typs
A320neo in Auftrag zu geben.
Boeings Management war über diese Entwicklung extrem beunruhigt und entschied sich
für ein Eilprogramm zur Überarbeitung der aktuellen 737-Generation. Ziel war es, un-
ter anderem die Flügel und Triebwerke zu modifizieren, um die Leistung des Flugzeuges
zu verbessern und nicht nur effizienter als das aktuelle Modell zu werden, sondern auch
einen geringfügigen Effizienzvorteil gegenüber dem A320Neo zu erlangen (Langewiesche,
2019). Ein weiteres Ziel Boeings war es, dass die 737-MAX von der FAA als Weiterent-
wicklung der 737-NG bewertet wird und nicht als neuer Flugzeugtyp. Zum einen wäre die
Reklassifizierung teuer und langwierig für Boeing geworden, zum anderen war es Boeing
6 Studien 124
Abbildung 16
Marktanteil Boeing vs. Airbus
Anmerkung. Vergleich von Boeings und Airbus Auslieferungszahlen und Marktanteilen bezüglich
Passagierflugzeugen. Darstellung von Rubick (2019).
wichtig, dass Piloten, ohne zusätzliche Simulatortrainings von der 737-NG auf die 737-
MAX umsteigen können beziehungsweise dürfen, da Simulatortrainings für die Airlines
teuer sind und somit die Konkurrenzfähigkeit zum A320Neo geschwächt wäre. So schrieb
Boeing in seiner Marketingliteratur zum Verhältnis zwischen 737-NG und -MAX: „same
pilot type rating, same ground handling, same maintenance program, same flight simu-
lators, same reliability“ (zitiert nach Langewiesche, 2019, S. 12). Somit wird frühzeitig
im Planungsprozess das erwünschte Vorgehen festgelegt, wodurch Alternativen mutmaß-
lich nicht ausreichend diskutiert werden und sich das Risiko des Desirability Bias, also
eine Suche und Interpretation neuer Informationen zugunsten der von Anfang an stark
erwünschten Handlungsalternative, erhöht. Die im Rahmen von Kapitel 5.3 beschriebenen
Items zur Erfassung des Desirability Bias lauten:
• Im Planungsprozess herrscht eine offene Diskussionskultur, in der auch die Nachteile eines bevorzugten
Vorhabens diskutiert und Alternativen ernsthaft betrachtet werden
• Es wird unabhängig vom erwünschten Ziel abgewogen beziehungsweise kalkuliert, was realistisch und
sicher erreichbar ist, ohne dass Wunschdenken diese Abwägungen beeinflusst
Um die Effizienzziele zu erreichen, wurde die 737-MAX mit größeren Triebwerken ausge-
stattet, die etwas weiter vorne und höher am Flugzeug angebracht waren, als bei den Vor-
gängerversionen. Ein aerodynamischer Effekt dieser Veränderungen führte dazu, dass die
Nase des Flugzeugs in bestimmten Situationen beim Beschleunigen zu steil nach oben zieht
und damit die Gefahr eines Strömungsabrisses besteht. Boeing wollte, dass sich die 737-
MAX genauso verhält, wie die Vorgängerversionen, jedoch – um besagte langwierige und
teurere Rezertifizierung sowie Pilotentrainings zu vermeiden – ohne die von Ingenieuren
präferierten aerodynamischen Veränderungen am Flugzeug vorzunehmen (Seyer & Lond-
ner, 2020). Die frühe Zielfixierung und der Desirability beziehungsweise Confirmation Bias
6 Studien 125
auf der Managementebene führten potenziell dazu, dass die abweichenden Meinungen der
Ingenieure nicht als gangbare Alternative berücksichtigt wurden. Auf Gruppenebene kann
hier von Collective Rationalization, einer Facette von Groupthink, gesprochen werden,
wenn abweichende Meinungen leichtfertig verworfen werden. Collective Rationalization
wird mit den folgenden Items erfasst:
• Kritische Meinungen gegenüber dem von der Führungskraft oder der gesamten Gruppe favorisiertem
Plan werden offen aufgenommen und weiterdiskutiert
• Kritische Hinweise und Warnungen bezüglich eines Plans werden häufig nicht ausreichend ernst genom-
men [invertiert]
Dass die Sichtweise der Ingenieure keine Berücksichtigung gefunden hat, lässt die Validität
der Items unter der Einschränkung, dass keine entsprechenden Details aus den Besprechun-
gen bekannt sind, zumindest plausibel erscheinen.
In der Folge entschied man sich für die Implementierung einer Softwarelösung – MCAS
(Langewiesche, 2019). MCAS sollte, wie in Abbildung 15 skizziert, dafür sorgen, dass die
Software unmittelbar auf den ungewohnt steilen Anstieg reagiert und die Nase in glei-
chem Maße nach unten drückt. Wenn alles korrekt funktioniert, würde MCAS nur in sehr
seltenen Bedingungen aktiviert werden und würde dann beim Erkennen des zu steilen
AoA dem Anstieg so nahtlos entgegenwirken, dass sich das Flugzeug wie der Vorgänger,
die 737-NG, verhält und den Piloten die Existenz des Systems gar nicht auffallen würde.
Die softwaregesteuerte Modifikation des Flugverhaltens war so originalgetreu, dass Boe-
ing sich selbst und die FAA überzeugte, dass es nicht einmal nötig sei, die Piloten über
die Existenz des Systems zu informieren. Sie gingen davon aus, dass Piloten bei einer
Fehlaktivierung, auch ohne Kenntnis über das System, rechtzeitig die Problematik einer
überrissenen Trimmung erkennen würden und unmittelbar darauf reagieren, indem sie die
elektrische Trimmung durch eine vermeintlich einfache Betätigung zweier Schalter deakti-
vieren (Langewiesche, 2019). Dass Mitarbeiter bei Boeing und der FAA sich so leicht von
der Zuverlässigkeit des Systems überzeugen ließen, kann potenziell auf den Desirability
Bias (siehe oben) und einer folgenden vorschnellen Einstellung der Informationssuche –
nach dem Prinzip von WYSIATI – (Kapitel 3.2) zurückgeführt werden. Es wurden zu
Testzwecken Simulationen und Flüge mit MCAS durchgeführt, und es ist anzunehmen,
dass dabei auch diverse unterschiedliche Bedingungen berücksichtigt wurden, in denen
MCAS tadellos funktionierte. Mutmaßlich hatten die Manager, deren Sichtweise stark
durch den Desirability Bias geprägt war, sich auf diese positiven Ergebnisse fixiert, ohne
dass die Komplexität des Gesamtsystems und unterschiedliche Einflussfaktoren erschöp-
fend erfasst wurden. Diese Situation führte potenziell dazu, dass die Suche nach konträren
Informationen zu früh eingestellt wurde, dieses Unterlassen nach dem Prinzip WYSIATI
aber nicht bewusst wahrgenommen wurde, weil sich bei den Verantwortlichen bereits ein
Gefühl der Zufriedenheit und Sicherheit eingestellt hatte.
6 Studien 126
Entsprechend fiel Boeings Reaktion nach dem ersten Absturz aus, als starke Vorwürfe
bezüglich fehlender Pilotentrainings und dem Verschweigen von MCAS Existenz laut wur-
den. Boeing verteidigte sich mit der Aussage, dass die Piloten hätten erkennen sollen, dass
sich das Höhenleitwerk unerwünscht verhält und, als Standardprozedur gemäß Piloten-
checkliste, entsprechend eines Stabilizer Runaway reagieren sollen. Demnach hätten sie
durch die Betätigung der Stabilizer Cutoff Switches die automatische Trimmung deakti-
vieren können und damit auch das Eingreifen durch MCAS (Gates, 2019). Zu beachten
ist dabei jedoch, dass das wiederholte starke Trimmen in Intervallen durch MCAS un-
typisch war und nicht dem den Piloten bekannten kontinuierlichen Standard Stabilizer
Runaway entsprach, was zu Verwirrungen führen konnte – insbesondere im Kontext der
vielen Warnsignale, die zeitgleich aktiviert wurden (Gates, 2019). Captain Dennis Tajer
kommentiert die Situation folgendermaßen (Kennedy, 2022, 0:10:37):
Right away, not only did the stick shaker go off, but there was a master caution light, airspeed disagree alerts,
and the altitude’s not reading right. You have this tidal wave of distraction. And on top of all that, something
was putting repeated nose-down pressure on the airplane. These pilots are fighting, and are pulling back up on the
airplane and trying to get it to come back up. But it happens again and drives the nose back down. So they’re
having this oscillating battle. I remember thinking ’what’s making that happen?’
Hier kann man den Optimism Bias unterstellen. Aus Sicht der Manager sind die Piloten
als externe Faktoren zu betrachten, deren Einfluss sie zu optimistisch eingeschätzt haben,
indem sie von perfekten Reaktionen auf die geschilderten Probleme ausgingen. Optimism
wird im Fragebogen wie folgt erfasst:
• In Entscheidungsprozessen werden bei qualitativen und quantitativen Analysen auch externe Risiken,
die außerhalb des Einflusses der Organisation liegen, berücksichtigt
• Dem Einfluss unvorhersehbarer externer Ereignisse wird durch Schaffung von Redundanz (zusätzlichen
Ressourcen) Rechnung getragen
Bezüglich des ersten Items fällt auf, dass die externen Risiken (in diesem Fall die Piloten)
sich innerhalb der Organisation befinden, was durchaus auch in anderen Szenarien denk-
bar ist und entsprechend auf „[...] außerhalb des Einflusses der Entscheidungsträger [...]“
verallgemeinert werden kann.
Auch nach dem zweiten Absturz behauptete Boeing weiter beharrlich, dass primär Pi-
lotenfehler für die Abstürze verantwortlich seien. Teilweise wird auch von dritter Seite
zu bedenken gegeben, dass es schwankende Qualitätsstandards der Pilotenausbildung in
unterschiedlichen Ländern gibt und dies als Einflussfaktor im Falle der 737-MAX eine Rol-
le spielte (Langewiesche, 2019). Diese Sichtweise geht allerdings am Kern des Problems
vorbei, insofern Leistungsschwankungen der Piloten bei der Systemgestaltung berücksich-
tigt werden müssen. Die Verantwortlichen bei Boeing sind mutmaßlich geneigt, neue In-
formationen stark gemäß ihren bisherigen Überzeugungen zu interpretieren, wie es der
Confirmation Bias beschreibt:
6 Studien 127
• In Entscheidungsprozessen wird eine selbstkritische und hinterfragende Herangehensweise bei der Ur-
teilsfindung bestärkt
• In Entscheidungsprozessen werden primär den bestehenden Ansichten zustimmende Argumente aufge-
nommen und ausgetauscht [invertiert]
• Mitarbeiter*innen und Führungskräfte sind lernwillig und offen für negatives Feedback bezüglich ihres
Vorgehens beziehungsweise des Vorgehens ihrer Abteilung.
Die Items erscheinen wirksam, um in der beschriebenen Situation die Confirmation Bi-
as zu erfassen. Allerdings gilt es im konkreten Beispiel zu beachten, dass es zu diesem
Zeitpunkt Boeings bewusste Strategie ist, die 737-MAX und damit auch MCAS als si-
cher darzustellen, um ein Grounding der Flugzeuge zu verhindern, wodurch hier keine
unbewusste kognitive Verzerrung vorliegen muss. So engagierte Boeing mutmaßlich Lob-
byisten, um in der Öffentlichkeit das Bild mangelhafter Qualitätsstandard der Piloten in
bestimmten Ländern zu zeichnen (Buse et al., 2019). Glaubten die Verantwortlichen dies
tatsächlich selbst, können Out-Group Stereotypes eine Rolle spielen, die das Erkennen
eigener Probleme zusätzlich erschweren:
• Innerhalb der Gruppe sind häufig die Unfähigkeit oder ähnliche negative Eigenschaften anderer Akteure
ein Thema [invertiert]
• Es kommt vor, dass negative Einstellungen gegenüber externen Gruppen die Kommunikation und den
Informationsaustausch mit diesen beeinträchtigen [invertiert]
Einen Monat nach dem ersten Absturz besuchten hochrangige Boeing Manager und Lob-
byisten die Pilotengewerkschaft Allied Pilots Association, um über die Sicherheit der 737-
MAX zu sprechen. John Carey zeichnet das Gespräch mit seinem Handy auf (Kennedy,
2022, 0:18:23):
pilot 1: These guys didn’t even know the damn system was on there. Nor did anybody else.
executive: We try not to overload the crews with information that’s unnecessary.
pilot 2: I would think there would be a priority on explanations of things that could kill you.
executive: We take your point. We really do.
pilot 2: Is there something being done where Boeing might address ways to make sure it doesn’t happen again?
executive: We’re looking at relatively straightforward software changes that we expect we can get out in a fairly
short period of time. Maybe six weeks.
Carey: „They told us at that meeting, they’re gonna have a software fix in six weeks.
Nothing gets done in six weeks. So we asked: ’Why don’t you just ground the airplane till
you have this fix?’“
executive: ’cause no one has yet concluded, that the sole cause of this was a dysfunction of the airplane.
Die letzte Aussage deutet wie zuvor beschrieben auf den Confirmation Bias hin. Auf der
6 Studien 128
Managementebene werden alle Informationen zum Absturz so interpretiert, dass MCAS
nicht als entscheidende Absturzursache gilt. Ähnliches gilt für die Aussage: „They told
us at that meeting, they’re gonna have a software fix in six weeks. Nothing gets done
in six weeks.“ (siehe oben). Hier scheint die Planning Fallacy als Folge des Optimism
Bias plausibel. Boeing reagierte lediglich mit der Veröffentlichung eines Bulletin, dass
Piloten darauf hinweist, dass das Problem einer fehlerhaften MCAS-Aktivierung aufgrund
eines defekten Sensors durch Abschaltung der automatischen Trimmung gelöst werden
könne. Entsprechend wussten wenige Monate später, am 10.03.2019, auch die Piloten des
Flugs Ethopian Airlines Flight 302 von der Existenz der Software und reagierten korrekt,
indem sie das, wie beim ersten Absturz durch einen fehlerhaften Sensor aktivierte MCAS,
deaktivierten. Sie reagierten jedoch zu spät, um den durch MCAS ausgelösten Sturzflug
abzuwenden (Kennedy, 2022).
Bei der Analyse interner Boeing-Dokumente stellte sich heraus, dass ein Coordination
Sheet vom 11.6.2018, vier Monate vor dem ersten Absturz, eine Sicherheitsanalyse zur
fehlerhaften Auslösung von MCAS enthält. Darin kommt Boeing zu dem Ergebnis, dass
eine typische Reaktionszeit zur Deaktivierung vier Sekunden seien und eine Reaktionszeit
von über zehn Sekunden zu katastrophalen Konsequenzen führen kann. Zur Zertifizierung
gehörte auch eine Funcional Hazard Analysis (FHA) des MCAS. Darin wird die Kritikalität
des Systems identifiziert beziehungsweise die Konsequenzen einer Fehlaktivierung. MCAS
wurde als hazardous eingestuft, was wie folgt definiert wird:
Reduces the capability of the system or the operator ability to cope with adverse conditions to the extent that there
would be: large reduction in safety margin or functional capability, crew physical distress/excessive workload such
that operators cannot be relied upon to perform required tasks accurately or completely. (Seyer & Londner, 2020,
S. 98)
Eine solche Systemkomponente darf eine Fehlerrate von 10−7 pro Flugstunde nicht über-
steigen. Es wird also maximal ein Fehler pro 10 Millionen Flugstunden toleriert. Dabei
legt die Definition nahe, dass nicht davon ausgegangen werden kann, dass Piloten bei
einer Fehlaktivierung verlässlich in der Lage sind, MCAS korrekt und vollständig zu de-
aktivieren, indem sie die elektrische Trimmung ausschalten. Eine Annahme, die sich bei
den beiden Abstürzen bestätigt hat, als MCAS gar nicht deaktiviert wurde (Lion Air)
beziehungsweise zu spät (Ethopian Air):
The pilots in the first crash had no inkling. Their plane was behaving completely differently from the way they had
ever seen it, and they didn’t know what to do. In the Ethiopian airplane, it was a crew that had been briefed by
Boeing on how this MCAS system worked. And they did what they were supposed to do. They turned the system
off, and they still crashed. (Andy Pasztor; Kennedy, 2022, 0:37:12).
Dabei ist anzumerken, dass einige aktuelle und ehemalige Ingenieure, die an der Sicher-
heitsanalyse von MCAS beteiligt waren, der Seattle Times anonym berichteten, dass die
Sicherheitsanalyse die Stärke von MCAS untertrieb (Gates, 2019). So war vorgesehen,
6 Studien 129
dass das Höhenleitwerk am Heck des Flugzeugs durch MCAS höchstens um 0.6 Grad
getrimmt wird, während knapp 5 Grad das technische Maximum wären. Bei Simulatio-
nen und Testflügen zeigte sich, dass die Trimmung in bestimmten Situationen nicht aus-
reicht und die Einflussmöglichkeiten von MCAS deshalb nachträglich verstärkt wurden.
Als Boeing, nach dem ersten Absturz der 737-MAX, die Airlines in einem Bulletin das ers-
te mal über die Existenz von MCAS informierte, gaben die Verantwortlichen das Limit der
MCAS-Aktivierung mit 2,5 Grad an – zur Überraschung der FAA-Ingenieure – denen aus
der FHA nur das Limit von 0,6 Grad bekannt war. Laut ehemaliger FAA Ingenieure sei es
inakzeptabel, solche Änderungen nicht in der Sicherheitsanalyse zu berücksichtigen. Eine
weiterer Fakt, der in der Sicherheitsanalyse nicht berücksichtigt wurde, ist, dass MCAS
die Macht hatte, unbegrenzt wiederholt einzugreifen, solange die automatische Trimmung
nicht deaktiviert wird (Gates, 2019). Dass diese kritischen Punkte nicht stärker themati-
siert wurden, kann mutmaßlich auf die hypothesenbestätigende Informationsverarbeitung
im Rahmen des Confirmation Bias beziehungsweise Desirability Bias zurückgeführt wer-
den (siehe oben) und auf Gruppenebene auf Collective Rationalization. Kritische negative
Informationen wurden zugunsten des bevorzugten Plans potenziell nicht ausreichend the-
matisiert. In dem Ausmaß, in dem die Problematik thematisiert, aber nicht weitergetragen
wurde, kann man von Self-Appointed-Mindguards sprechen. Die oben beschriebenen Items
zu Collective Rationalization scheinen auch in diesem Fall valide, unter der Einschränkung,
dass keine Details aus den Besprechungen vorhanden sind, die das konkrete Verhalten be-
legen könnten. Self-Appointed Mindguards werden im Fragebogen wie folgt erfasst:
• Manche Gruppenmitglieder versuchen kritische Meinungen anderer Mitglieder aus Loyalität zur Füh-
rungskraft abzuwehren [invertiert]
• Es kommt vor, dass Minderheitsmeinungen vorschnell durch einzelne Gruppenmitglieder schlechtgere-
det werden [invertiert]
An dieser Stelle kann im Rahmen der zur Verfügung stehenden Informationen nur vermutet
werden, dass derartige Verhaltensweisen eine Rolle gespielt haben könnten und in dem
Fall auf Collective Rationalization beziehungsweise Self-Appointed Mindguards hindeuten
würden.
Das wiederholte Eingreifen durch MCAS führte bei den Unglücksflügen dazu, dass wäh-
rend die Piloten von den vielen Warnsignalen und Meldungen überfordert wurden, MCAS
sich aufgrund des defekten Signals alle fünf Sekunden erneut aktivierte und die Nase des
Flugzeugs nach unten drückte. Da sich die Trimmung des Höhenleitwerks durch die wie-
derholte Aktivierung aufsummierte, erreichte das Flugzeug somit nach wenigen Iterationen
den maximalen Abwärtsdruck von 5 Grad, im Gegensatz zu den ursprünglich vorgesehe-
nen 0,6 Grad und den später kommunizierten 2,5 Grad (Gates, 2019). An dieser Stelle ist
die Problematik potenziell nicht aufgefallen, weil die Informationssuche nach abweichen-
den Informationen voreilig eingestellt wurde, nachdem die gewünschte Alternative gewählt
6 Studien 130
wurde und diese potenziell kurzgefasste Informationssuche keine kognitive Dissonanz er-
zeugte (WYSIATI). Hier kann erneut der Desirability Bias angenommen werden, der mit
diesen beiden Items augenscheinlich hätte erfasst werden können (siehe oben). So sagt Pe-
ter Lemme, ein ehemaliger Boeing Flight Controls Ingenieur: „it effectively has unlimited
authority... It had full authority to move the stabilizer the full amount. There was no need
for that. Nobody should have agreed to giving it unlimited authority“ (Gates, 2019, S. 8).
Schließlich wurde MCAS bereits mit diesen untertriebenen Annahmen mit der zweithöchs-
ten Gefahrenstufe Hazardous klassifiziert (siehe oben). Diese Einstufung erfordert es, dass
die Aktivierung des Systems nicht abhängig von einem einzelnen Sensor sein darf, um
keinen Single Point of Failure zu erzeugen. Dass Boeing schließlich MCAS’ Eingreifen
von einem einzelnen AoA-Sensor abhängig machte, ist vor dem Hintergrund, dass bei der
737-MAX ohnehin zwei AoA-Sensoren verbaut sind, umso überraschender. So könnte man
bei der Einbindung beider Sensoren mögliche Diskrepanzen bereits vor dem Start iden-
tifizieren oder die MCAS-Aktivierung unmittelbar davon abhängig machen, dass beide
Sensoren den gleichen Winkel anzeigen (Gates, 2019). Der Fakt, dass Boeing auf diese
effektive Redundanz verzichtete, obwohl diese ohne besonders großen Aufwand umsetzbar
gewesen wäre, deutet darauf hin, dass das Risiko von den Verantwortlichen tatsächlich
massiv unterschätzt wurde und dieses Vorgehen zu einem signifikanten Anteil auf un-
bewusste Urteilsverzerrungen zurückzuführen ist. Informationen wurden zwar mitunter
bewusst zurückgehalten, allerdings war man im Boeing Management allem Anschein nach
vollkommen überzeugt, dass MCAS eine unproblematische Systemkomponente sei. Der
bereits weiter oben attestierte Optimism Bias wird wie folgt erfasst:
• In Entscheidungsprozessen werden bei qualitativen und quantitativen Analysen auch externe Risiken,
die außerhalb des Einflusses der Organisation liegen, berücksichtigt
• Dem Einfluss unvorhersehbarer externer Ereignisse wird durch Schaffung von Redundanz (zusätzlichen
Ressourcen) Rechnung getragen
Laut Lemme sei außerdem die in kurzen Abständen automatische und wiederholte Akti-
vierung von MCAS, die in beiden Fällen zu den fatalen Abstürzen beigetragen hat, bei
der Sicherheitsanalyse nicht thematisiert worden (Gates, 2019). Dieser Aspekt ist insofern
nicht überraschend, da die Verantwortlichen so überzeugt waren, dass das System stets
völlig unbemerkt im Hintergrund laufen würde, dass die Piloten vor dem ersten Absturz
gar nicht über dessen Existenz informiert wurden (siehe oben).
Die Seattle Times konfrontierte die FAA sowie Boeing am 07.03.2019 mit diesen Warnun-
gen bezüglich der Wirkungsmacht und fehlenden Redundanz von MCAS – drei Tage vor
dem zweiten Absturz der 737 MAX am 10.03.2019. Die Reaktionen darauf erfolgten am
15.03.2019 respektive 16.03.2019. Die FAA antwortete lediglich mit der Aussage, sie ha-
be den Standardzertifizierungsprozess durchgeführt. Boeing wiederum berief sich auf die
6 Studien 131
FAA, die MCAS bewertet, und alle Voraussetzungen zum Flugbetrieb als erfüllt erachtet
hat. Zu den konkreten Vorwürfen nahmen weder die FAA noch Boeing Stellung. Boeing
kommentierte diese lediglich mit „there are some significant mischaracterizations“ (zitiert
nach Gates, 2019, S. 3).
Mehrere technische Experten der FAA berichteten zudem, dass die Problematik mit MCAS
lediglich ein weiterer Hinweis dafür sei, dass die Delegation von Zertifizierungsprozessen
an Boeings eigene Mitarbeiter zu weit gegangen sei und diese zu viel Macht bezüglich der
Sicherheitsanalysen von Boeings Flugzeugen hätten. Die FAA begründet es mit mangeln-
der Finanzierung, dass immer mehr Sicherheitsbewertungen an Boeingingenieure abgege-
ben wurden, während einige FAA-Mitarbeiter zusätzlich von Problemen wegen Zeitdrucks
durch das Boeingmanagement sprechen (Gates, 2019). Das Einbinden einer unabhängigen
Regulierungsbehörde soll verhindern, dass Zielkonflikte auftreten. Symptome von Group-
think und diverser kognitiver Biases, lassen sich durch das Hinzuziehen unabhängiger
Instanzen mitigieren. Dazu verwenden viele Organisationen bewusst Techniken wie Red
Team oder Devil’s Advocate. Die Delegationsprozesse führen dazu, dass Mitarbeiter von
Boeing in Zielkonflikte geraten, die eine Rolle bei den in diesem Kapitel beschriebenen
Biases spielen.
Die negativen Folgen des starken Profitfokuses auf die Qualität von Boeingprodukten zeig-
ten sich bereits Jahre vor der Planung der 737-MAX. 2013 erhielt der neue Boeing 787
Dreamliner weltweit ein vorübergehendes Flugverbot, da es innerhalb von neun Tagen zu
zwei Fällen von Batteriebränden mit anschließender Notlandung in Japan beziehungsweise
den USA kam (Shaffer, 2014). Die Recherchen und Interviews, die Shaffer (2014) veröf-
fentlichte, zeigen, dass als Ursache bereits ähnliche planungsbezogene Fehlentscheidungen
erkennbar waren wie im Fall der 737-MAX. Bezüglich der einzusetzenden Batterien ent-
schied sich Boeing aus Effizienzgründen für Lithium Cobalt, die ein vergleichsweise hohes
Gefahrenpotenzial aufweisen. Die FAA testete die Batterien laut Shaffer (2014) nach ei-
nem schwachen Standard, der speziell für den Dreamliner geschrieben wurde. Darüber
hinaus delegierte die FAA Zertifizierungsprozesse größtenteils an Boeing. Das Mindern
von Standards, um ein gewünschtes Ergebnis zu erreichen, erscheint sehr fahrlässig und
spricht für den Optimism Bias (siehe oben) bis hin zur Einstellung, dass man unantastbar
sei (Illusion of Invulnerability). Illusion of Invulnerability:
• Vergangene Erfolge führen in der Gruppe zu Selbstüberschätzung und in der Folge zu einem sorgloseren
Umgang mit Risiken [invertiert]
• Erfolge steigen der Gruppe nicht zu Kopf und sie ist stets bemüht, die eigenen Pläne zu hinterfragen
und Verbesserungspotenziale abzuleiten
Um Kosten zu sparen, wurde die Produktion teilweise nach Italien zur Firma Alania aus-
gegliedert, bei der Sicherheitsinspekteure 2010 Qualitätsmängel feststellten und den Stop
6 Studien 132
der Produktion anordneten. Boeings Manager verwarfen den Produktionsstopp jedoch und
ordneten an, dass die Produktion ohne Verzögerung weiterlaufen solle. Ein internes Boeing
Memo dazu stellt fest: „Schedule may require deviations to the preferred quality process.“
(Shaffer, 2014, 0:20:50).
Dieses Verhalten kann erneut potenziell auf den Optimism Bias beziehungsweise die Illu-
sion of Invulnerability (siehe oben) zurückgeführt werden. Um Kosten zu senken und die
Bildung von Gewerkschaften zu vermeiden, gliederte Boeing auch innerhalb der USA seine
Produktion teilweise nach Charleston in South Carolina aus. Dort hätte man zur Produk-
tion vor allem auf ungelerntes Personal zurückgegriffen, das nicht entsprechend qualifiziert
gewesen sei und entsprechend wären gewisse Qualitätsstandards nicht eingehalten worden
(Shaffer, 2014).
Der ehemalige Boeing-Ingenieur John Woods berichtet, dass er versuchte, Qualitätsstan-
dards durchzusetzen und dafür von seinen Vorgesetzten beleidigt wurde, die ihn in Mee-
tings anschrien und aufforderten, seine Arbeitsvorschriften herunterzusetzen (dumb down),
um die Arbeit zu beschleunigen (Shaffer, 2014). Hier wird starker Druck auf den Mitar-
beiter mit abweichender Meinung ausgeübt, Direct Pressure on Dissenters:
• Es kommt vor, dass Druck auf Gruppenmitglieder mit abweichender Meinung ausgeübt wird [invertiert]
• Es kommt vor, dass kritische Meinungsträger von Gruppenprozessen ausgeschlossen werden [invertiert]
• Gruppenmitglieder nutzen ihre hierarchische Position, um ihre Meinung durchzusetzen [invertiert]
Woods habe gesehen, dass beschädigte Teile ignoriert oder verdeckt wurden und ist über-
zeugt, dass mangelhafte Reparaturen an dem 787 Dreamliner das Werk verließen. Nachdem
er sich an die Personalabteilung gewandt und ausgesagt hatte, dass er dafür schikaniert
wurde, dass er seine Tätigkeit korrekt ausführen wollte, wurde er wenige Wochen später
entlassen. Dass Woods’ Beschwerden auch abteilungsübergreifend von der Personalabtei-
lung nicht Ernst genommen wurden und sogar zu seiner Entlassung führten, zeigt, wie
stark Groupthink zu dieser Zeit in der Kultur Boeings verankert war und wie schlecht
ausgeprägt Aspekte wie die Fehlerkultur und psychologische Sicherheit waren. Daraufhin
wendete sich Woods mit einer Whistleblower-Beschwerde an die FAA. Das entsprechende
Dokument beinhaltet sieben schwerwiegende Verstöße im Werk in South Carolina. Mary
Schiavo – ehemalig US Transportation Inspector General – sagt über die Beschwerde:
So I’ve gone to the page where they reach their conclusions in their discussion, and what they found is all the
allegations, all but one of them they could not substantiate, and the one that they could substantiate they asked
Boeing to fix it, Boeing said ’OK, we fixed it’, and then they closed the investigation. And that’s pretty much how
they all go. I mean, I’ve seen this so many times. (Shaffer, 2014, 0:35:40).
Im Rahmen der Reportage wurde recherchiert, dass ein Mitarbeiter der FAA, Ali Bahrami,
eine wichtige Rolle für Boeing spielte. Er war bei der FAA verantwortlich für Boeings 787-
6 Studien 133
Dreamliner und bearbeitete auch Woods’ Beschwerde. Er war ebenfalls für die ursprüng-
liche Freigabe der kritischen Batterien verantwortlich und derjenige, der den Dreamliner
nach dem Grounding wieder freigab. Kurze Zeit später beendete er seine Karriere bei der
FAA. Zwei Wochen darauf wurde Bahrami Vizepräsident der Aerospace Industries Asso-
ciation, die als Lobbyist für Boeing tätig ist. Eine seiner ersten Amtshandlungen war es,
im Kongress für mehr Selbstregulation bei Unternehmen wie Boeing zu plädieren (Shaffer,
2014). Mary Schiavo sagt, dass derartige Interessenskonflikte generell dazu führen, dass
Regulatoren nicht strikt genug mit den zu regulierenden Unternehmen umgehen. Shaffer
(2014, 0:47:34) schließt mit einer Aussage, die ca. fünf Jahre später, nach den Abstürzen
der 737-MAX, ähnlich klingen könnte:
Boeing says the 787 has no more problems than previous models. The FAA says there’s never been a safer time to
fly. The Dreamliner is the fastest selling plane in the world. One day we may all find ourselves on board. When we
do, we will trust Boeing has put quality first. We will trust the regulators have been rigorous. Ultimately we will
trust the plane is safe.
Zusammenfassung
Wie in Kapitel 4 beschrieben, haben die Kultur einer Organisation und damit einherge-
hende Normen einen Einfluss auf bewusste wie auch unbewusste kognitive, motivationale
und gruppendynamische Prozesse. Die Organisationskultur prägt also auch auf unbewus-
ster Ebene die Wahrnehmung und Kognition der Gruppenmitglieder und damit auch die
Auftretenswahrscheinlichkeit von Heuristiken beziehungsweise Biases. Die Planungs- und
Entwicklungsprozesse im Rahmen der Boeing 737 MAX liefern dabei vielfältige Hinweise
für die Relevanz diverser Biases.
Die Kultur bei Boeing ist geprägt von vergangenen Erfolgen und einer glorreichen Ge-
schichte. Dadurch wird übergreifend Groupthink in den Facetten Illusion of Invulnerability
und Belief in Inherent Morality of the Group gefördert.
Bei der Entscheidung zur Modifikation der Boeing 737 – anstelle der Entwicklung ei-
nes neuen Flugzeugtyps – und der Entscheidung, ob diese Modifikation hardware- oder
softwaretechnisch umgesetzt werden soll, beeinflussten Zeit- und Konkurrenzdruck (bias-
verstärkende Faktoren) den Prozess.
Die von vielen Ingenieuren bevorzugten Alternativen wurden potenziell vorschnell ver-
worfen (Collective Rationalization), und es wurde sich sehr früh für die softwaretechnische
Modifikation der 737-MAX entschieden, die schneller und kostengünstiger umzusetzen war
(Desirability Bias).
Die leichtfertige Überzeugung von Boeing selbst und der FAA im Rahmen von Simulator-
tests beziehungsweise Testflügen, dass das Flugverhalten unter MCAS so originalgetreu
sei, dass es nicht einmal für nötig erachtet wurde, die Piloten über die Existenz des Systems
zu informieren, ist potenziell darin begründet, dass die Suche nach konträren Informatio-
6 Studien 134
nen voreilig eingestellt wurde (Desirability Bias), nachdem das Wunschergebnis erreicht
war und man dies als ausreichend wahrnahm (WYSIATI).
Die Annahme, dass Piloten MCAS ohne Training bei Fehlaktivierung wie einen Stabilizer
Runaway behandeln würden und innerhalb von zehn Sekunden richtig reagieren, indem
sie die automatische Trimmung deaktivieren, stellte sich als überoptimistisch heraus (Op-
timism Bias).
Nach dem ersten Absturz fokussierte Boeing die Aufmerksamkeit auf das Verhalten der
Piloten und würdigte deutliche Hinweise auf Schwächen von MCAS und eigenes Fehlver-
halten in der Kommunikation des Systems nicht ausreichend (Confirmation Bias). Statt-
dessen suchte Boeing die Ursache bei mangelhaften Ausbildungsstandards in bestimmten
Regionen (Out-Group Stereotypes), insofern sie mutmaßlich sogar Lobbyisten in Washing-
ton engagierten, ein solches Bild zu zeichnen. Selbst wenn eine gewisse Variabilität in den
Ausbildungsstandards existieren sollte, ist die Argumentation nicht zielführend. Dass es
bezüglich der Expertise von Piloten neben interindividuellen Unterschieden auch systema-
tische Variation auf nationaler Ebene gibt, hätte Boeing bei der Entwicklung eines neuen
Systems antizipieren können und das System umso resilienter gestalten müssen – mehr
Redundanz und Sicherheitsmargen (siehe FHA) – anstatt zuzulassen, dass eine Fehlakti-
vierung von MCAS leicht zu einem Absturz führen kann, wenn die Piloten nicht optimal
reagieren.
Das Festhalten an dem aktuellem System und Verhinderung eines vorübergehenden Groun-
dings bis zum Systemupdate sowie die Annahme, dass ein Softwareupdate in ca. sechs Wo-
chen nachgeliefert werden könne, zeugt von unrealistischem Optimismus (Optimism Bias),
wobei der wirtschaftliche Druck bei den Verantwortlichen auch zu bewusster Risikoneigung
geführt haben kann.
Kritische Informationen aus probabilistischen Sicherheitsanalysen zur Wahrscheinlichkeit
und dem Ausmaß einer Fehlaktivierung von MCAS sowie Möglichkeiten zur Kompensation
durch die Piloten wurden entweder nicht ausreichend an die Leitungsebene weitergetra-
gen (Self-Appointed Mindguards) oder von von dieser nicht ausreichend berücksichtigt
(Collective Rationalization).
Bezüglich der Nichtbeachtung bestimmter Effekte, wie dem Aufsummieren der Winkelän-
derungen durch MCAS, kann auch hier unterstellt werden, dass im Rahmen des Desirabi-
lity Bias nach Erreichung des erwünschten Ergebnisses die Informationssuche eingestellt
wurde und somit keine oder zu wenige konträre Szenarien generiert wurden, deren mögli-
che Existenz kognitiv unbewusst blieb (WYSIATI). Ein Indiz dafür, dass es sich bei den
zuvor erläuterten Fehlentscheidungen primär um unbewusste Biases und nicht bewusste
Täuschungen handelt, ist der Fakt, dass Boeing die Aktivierung von MCAS von einem ein-
zigen AoA-Sensor abhängig machte und somit einen Single-Point of Failure kreierte, der
6 Studien 135
mit verhältnismäßig geringem Aufwand durch Einbindung des ohnehin verbauten zweiten
AoA-Sensors hätte verhindert werden können. Dies unterstreicht den starken Einfluss von
Optimismus (Optimism Bias) und Wunschdenken (Desirability Bias).
Fast zehn Jahre zuvor waren bei Boeing bereits ähnliche kulturelle Prägungen und Ent-
scheidungsverzerrungen bemerkbar, die im Zusammenhang mit den Batteriebränden des
Boeing 787 Dreamliners stehen.
Der Fakt, dass die Batterien mit einem extra dafür angefertigten schwächeren Standard
getestet wurden, spricht für einen extremen Optimismus (Optimism Bias) bis hin zur An-
nahme, dass man unantastbar sei (Illusion of Invulnerability). Das gleiche gilt für den Fakt,
dass man Abweichungen von Qualitätsstandards in der Produktion in Italien akzeptiert,
um nicht weiter in Zeitverzug zu geraten.
Eine extreme Ausprägung von Groupthink zeigt sich in der Behandlung des Ingenieurs,
der versucht, bestimmte Sicherheitsstandards durchzusetzen. Er bekommt zunächst star-
ken Druck durch seine direkten Vorgesetzten (Direct Pressure on Dissenters) und an-
schließend auch durch die Personalabteilung, die schließlich seine Kündigung einleitet.
Nachdem er sich mit seinen Bedenken als Whistleblower an die FAA wendet, versagt auch
diese Instanz und widmet den Bedenken keine Aufmerksamkeit. An dieser Stelle werden
die Interessenskonflikte deutlich, die sich im engen Verhältnis zwischen Boeing und der
FAA zeigen und der dazu führt, dass die Problematik von Groupthink teilweise sogar or-
ganisationsübergreifend auftritt und diejenige Organisation einschließt, die eigentlich als
unabhängige staatliche Genehmigungsbehörde agieren soll.
Der Fakt, dass von der Führungsebene kommuniziert wurde, dass wirtschaftliche Effizienz
wichtig ist und Sicherheitsbedenken negative Reaktionen hervorrufen, prägt die Organisa-
tionskultur und somit auch heuristische Entscheidungen, die einen Großteil der kognitiven
Prozesse ausmachen (vgl. Kapitel 4.3) und die im Rahmen der beschriebenen Ereignisse
potenziell einen starker Einfluss auf die organisationalen Planungs- und Entscheidungs-
prozesse hatten.
6.1.2 Die Loveparade 2010
Am 24.07.2010 findet in Duisburg zum letzten Mal das Musikfestival Loveparade statt
(Abbildung 17). Dabei ereignet sich das schlimmste Veranstaltungsunglück der deutschen
Nachkriegsgeschichte. Im Eingangsbereich des Veranstaltungsgeländes, der sich aus einem
Tunnel und einer Rampe zusammensetzt, kommt es zu einem Massengedränge, bei dem
21 Menschen sterben. 652 Menschen werden teils schwer verletzt und viele weitere leiden
nachhaltig an den psychologischen Folgen der Ereignisse.
An der vorausgegangenen monatelangen Planung war eine Vielzahl von Akteuren aus
6 Studien 136
Abbildung 17
Das Veranstaltungsgelände der Loveparade 2010
Anmerkung. Foto des Veranstaltungsgeländes der Loveparade 2010 (Fromme, 2010)
6 Studien 137
unterschiedlichen Bereichen beteiligt. Dazu gehören neben dem privaten Veranstalter ver-
schiedene Akteure aus der Politik, der Stadtverwaltung sowie der Polizei und der Feuer-
wehr. Dass die Vielzahl der beteiligten Akteure und deren Interaktion untereinander es
schwer machen, die Verantwortung für die Katastrophe einzelnen Entscheidungsträgern
zuzuordnen, ist typisch für komplexe Planungs- und Entscheidungsprozesse und spiegelt
sich auch in der juristischen Aufarbeitung der Katastrophe wider. Das Gerichtsverfahren
wird im Frühjahr 2020 – nach 180 Verhandlungstagen und kurz vor der drohenden Ver-
jährung – ohne Urteil eingestellt. Das Gericht bezeichnet das Ereignis als multikausales
Geschehen, bei dem die Schuld der einzelnen Angeklagten eher gering einzustufen sei. Die
Angeklagten hätten sich bemüht, die Loveparade sicher zu gestalten, auch wenn diese Be-
mühungen unzureichend waren. Entsprechend hätte niemand gewissenlos oder aus ethisch
verwerflichen Motiven gehandelt. Zudem könne nicht ausgeschlossen werden, dass nicht
angeklagte Dritte Mitverantwortung für das Unglück tragen (LTO-Redaktion, 2020).
Schwierigkeiten bezüglich der Ausrichtung der Loveparade 2010 in Duisburg zeichneten
sich schon im Vorfeld des Planungsprozesses ab und beeinflussten diesen maßgeblich, wes-
halb bestimmte Ereignisse in den vorherigen Jahren bei dieser Fallstudie ebenfalls berück-
sichtigt werden.
Die Loveparade fand 1989 zum ersten Mal als Friedensdemonstration mit 150 Teilneh-
mern in Berlin statt und entwickelte sich im Laufe der Jahre zu einem stetig wachsenden
Techno-Musikfestival. Sie fand seitdem, mit wenigen Unterbrechungen und stark steigen-
den Besucherzahlen, jährlich statt. 1995 kamen bereits 500.000 Besucher zur Loveparade,
woraufhin die Veranstaltung ab 1996 auf das weitläufige Areal des Stadtteils Tiergarten
verlegt wurde. Bis 2006 fand die Loveparade dort mit Besucherzahlen zwischen 500.000
und 1,5 Millionen Menschen statt. Nachdem der Loveparade 2001 der Demonstrationssta-
tus aberkannt wurde und deshalb erhebliche Zusatzkosten für die Veranstalter enstanden,
fiel die Loveparade 2004 und 2005 aus, bevor 2005 die Fitnessstudiokette McFit bei dem
pleitebedrohten Veranstalter Planetcom GmbH einstieg (Die Loveparade Geschichte: Vom
Protestmarsch zum Millionen-Event! , 2020).
Im Februar 2007 entschlossen sich die neuen Verantwortlichen – aufgrund einer noch aus-
stehenden Genehmigung und damit einhergehenden Meinungsverschiedenheiten mit der
Stadt Berlin – die Loveparade in Berlin abzusagen und Verhandlungen mit anderen Städ-
ten aufzunehmen. Als Gesamtkonzept für das Ruhrgebiet und in Kooperation mit der Wirt-
schaftsförderungsgesellschaft Metropoleruhr GmbH (WiFö) sollte die Loveparade 2007 bis
2011 unter dem Motto Ruhr-Love-Weekend in Essen, Dortmund, Bochum, Duisburg und
Gelsenkirchen stattfinden. Somit wurde – mit großer Unterstützung durch die Öffentlich-
keit und Landespolitiker aller Parteien – im Juni 2007 die Durchführung der Loveparade
2010 in Duisburg durch den dortigen Stadtrat beschlossen. Die Loveparades 2007 und
2008 fanden zuvor wie geplant in Essen und in Dortmund statt. In beiden Fällen wurde
6 Studien 138
das Modell der für Berlin konzipierten Loveparade übernommen, indem sie auf öffentlich
zugänglichen Straßen ausgerichtet wurde. In Duisburg waren sich bereits im Herbst 2008
das Polizeipräsidium, die Feuerwehr und das Ordnungsamt einig, dass die Loveparade in
Duisburg aus Kapazitätsgründen nicht auf öffentlichen Verkehrsflächen durchführbar ist
(Seibel & Wenzel, 2017).
Im Januar 2009 sagte die Stadt Bochum die Loveparade ein halbes Jahr vor der dort ge-
planten Veranstaltung ab. Hauptgrund für die Absage war die unzureichende Infrastruktur,
insbesondere die mangelnde Kapazität des Bochumer Hauptbahnhofs und Schwierigkeiten
mit dem Finden einer geeigneten Strecke für die Veranstaltung (“Loveparade Fällt 2009 in
Bochum Aus”, 2009). Nach der Absage durch den Bochumer Polizeipräsidenten Thomas
Wenner folgte starke Kritik aus Politik und Öffentlichkeit. Nordrhein-Westfalens Verkehrs-
minister kommentierte die Bochumer Absage mit den Worten: „Denn die Absage ist ein
kräftiger Schlag gegen den Anspruch des Ruhrgebiets, eine Metropole zu sein. Eine Me-
tropole muss so etwas leisten“ (Szymaniak, 2009, S. 1).
Wenner reagiert in einem offenen Brief auf die Kritik:
Was denken sich eigentlich Politiker und Journalisten, die die Metropole Ruhr als Monstranz ihrer Popularität vor
sich hertragen, wenn es um die Verantwortung derer geht, die als Amtsträger für die Folgen ihres Handelns persönlich
haften? Die mit ihrem Tun die öffentliche Sicherheit zu gewährleisten haben? Die die Enge des Veranstaltungsraumes
und die Disfunktionalität der Zu- und Abfahrtströme kennen, die wissen, dass es schon in Dortmund diesbezüglich
heikle Situationen gegeben hat? [...] Eine Metropole, die als solche überhaupt keine verantwortlich Handelnden
kennt, weil die Politik dafür keine Voraussetzungen geschaffen hat. Wer manifeste Sicherheitsbedenken so wenig ernst
nimmt, obwohl sie offenkundig sind, sollte sich von Verantwortung fernhalten, statt auf die einzuprügeln, die sich
ihrer Verantwortung bewusst sind und sich ihr stellen. (“Polizeipräsident Schreibt Offenen Brief Zur Loveparade”,
2009, S. 1)
Wenner hatte Rückhalt von der Oberbürgermeisterin Bochums, galt aber vielen als der
Verursacher der Absage (Hans, 2010). Er wurde einige Monate später – aus offiziell anderen
Gründen – vom damaligen NRW-Innenminister gegen seinen Willen in den einstweiligen
Ruhestand versetzt (“NRW-Regierung Schasst Missliebigen Beamten”, 2009). Die WiFö
kritisierte die Absage ebenfalls und hatte Sorge: „Wenn nämlich Bochum für die Love
Parade zu klein ist, dann sind eigentlich auch Duisburg und Gelsenkirchen als Veranstal-
tungsorte gestorben“ (Hans, 2010, S. 1).
2010 war das Ruhr-Love-Weekend und damit die Loveparade zudem zentraler und aus
Marketingperspektive besonders wichtiger Bestandteil des Programms Ruhr. 2010 Kultur-
hauptstadt Europas, für das ebenfalls die WiFö zuständig war (Seibel & Wenzel, 2017). Die
Loveparade 2010 war somit zu einem Politikum für das gesamte Bundesland Nordrhein-
Westfalen geworden, wodurch schon vor Beginn der eigentlichen Planung ein enormer
Druck zur Ausrichtung der Loveparade 2010 auf Duisburgs Politik und Verwaltung lastete.
Das zeigte sich auch, als der Duisburger Polizeipräsident im Februar 2009 wegen erheb-
licher Sicherheitsbedenken öffentlich vor der Durchführung der Loveparade in Duisburg
6 Studien 139
warnte. Daraufhin forderte ein Bundestagsabgeordneter in einem Schreiben an Nordrhein-
Westfalens Innenminister dessen Ablösung. Dazu führte der Abgeordnete zunächst eini-
ge von der Loveparade unabhängige Kritikpunkte am Polizeipräsidenten auf und schrieb
dann:
Am vergangenen Wochenende ließ die Duisburger Polizei nunmehr erklären, eklatante Sicherheitsmängel stünden
einer Durchführung der Love Parade [sic!] in Duisburg im Jahre 2010 entgegen. Während der Veranstalter der Love
Parade noch nicht einmal eine Strecke angemeldet hat und die Gespräche zwischen Stadt und Veranstalter ge-
führt werden, sagt [der Polizeipräsident], wenn man die Presseberichterstattung richtig interpretiert, die Loveparade
für Duisburg ab. Eine Negativberichterstattung in der gesamten Republik ist die Folge [...] Der neuerliche Eklat
veranlasst mich zu der Bitte, Duisburg von einer schweren Bürde zu befreien und den personellen Neuanfang im
Polizeipräsidium Duisburg zu wagen. (Grünendahl, 2012, S. 1)
Es wird hier bereits ein halbes Jahr vor Beginn der eigentlichen Planung starker Druck
auf Kritiker ausgeübt. Dieser Direct Pressure on Dissenters, eine Facette von Groupthink,
schafft ein Klima, dass sich später offensichtlich auch auf die Entscheidungen der Pla-
nungsverantwortlichen auswirkt:
• Es kommt vor, dass Druck auf Gruppenmitglieder mit abweichender Meinung ausgeübt wird [invertiert]
• Es kommt vor, dass kritische Meinungsträger von Gruppenprozessen ausgeschlossen werden [invertiert]
• Gruppenmitglieder nutzen ihre hierarchische Position, um ihre Meinung durchzusetzen [invertiert]
Gleichzeitig bekräftigt Duisburgs Oberbürgermeister, dass die Stadt alles daran setzen
würde, dass die Loveparade nach Duisburg kommt und von ihm nicht abgesagt werden
würde (Seidlitz, 2010). Die konkrete Planungsphase der Loveparade 2010 in Duisburg
begann knapp ein Jahr vor der Veranstaltung im September 2009. Zur Übersicht werden
die wichtigsten Akteure und deren Rolle im Planungs- und Entscheidungsprozess vorab
kurz beschrieben (vgl. auch Seibel & Wenzel, 2017). Dazu gehören:
• Der private Veranstalter Lopavent GmbH, der die Rechte an der Loveparade nach dem Aus in Berlin
erwarb und diese seit 2006 durchführte.
• Der Leiter des Dezernat für Sicherheit und Recht (Dezernat II). Dieser agierte im Planungsprozess als
Vertreter von Duisburgs Oberbürgermeister und nahm entsprechend eine Schlüsselrolle im Planungs-
prozess ein. Zu seinem Verantwortungsbereich gehörte das Ordnungsamt (Amt 32), das federführend
für die Planung der Loveparade zuständig war.
• Als im späteren Planungsverlauf offiziell beschlossen wurde die Loveparade stationär, auf einem voll-
ständig umzäunten Gelände zu veranstalten, nahmen das Amt für Baurecht und Bauberatung (Amt
62) und dessen Dienstvorgesetzter – der Leiter des Dezernat V – eine entscheidende Rolle ein, da diese
nun für die Genehmigung der Veranstaltung verantwortlich waren.
• Später wird darüber hinaus ein Professor für Physik und Experte für Transport und Verkehr von der
Universität Duisburg-Essen als Gutachter engagiert. Das Gutachten wird auf Basis einer Simulation
der Firma TraffGo GmbH erstellt, die von ehemaligen Mitarbeitern des Professors gegründet wurde.
• Weitere beteiligte Akteure umfassen den Eigentümer des Veranstaltungsgeländes (Firma Aurelis), die
6 Studien 140
WiFö, die Bundespolizei sowie die Polizei und Feuerwehr Duisburgs.
Beim ersten Treffen, am 25.09.2009, wird in einer Ergebnisniederschrift festgehalten, dass
der Veranstalter 1.000.000 Besucher anstrebt, während bei der internen Planung weiterhin
mit einer Besuchermenge von 500.000 bis 600.000 gerechnet werden solle – ohne dass die-
se Diskrepanz schriftlich begründet wird (WikiLeaks, 2009a). Die logistische Umsetzung
der Loveparade ist noch ungewiss. Die Verantwortlichen gehen zu diesem Zeitpunk noch
davon aus, dass es wie in der Vergangenheit zunächst einen Paradezug geben wird, der
später in eine stationäre Abschlusskundgebung übergeht. Die Firma Aurelis beziffert die
zur Verfügung stehende Gesamtfläche des Veranstaltungsgeländes, das für die Abschluss-
kundgebung genutzt werden soll, mit ca. 258.000 qm (WikiLeaks, 2009a).
In einem weiteren Treffen am 02.10.2009 wird in einer Sachverhaltsdarstellung durch den
Leiter des Dezernat II zu Beginn betont, dass die Loveparade in Duisburg politisch er-
wünscht sei und nach erster Einschätzung auch möglich erscheine (WikiLeaks, 2009b).
Die nutzbare Fläche des ehemaligen Güterbahnhofs wird auf 220.000 qm revidiert, da
man Teile des Geländes als nicht nutzbar bewertetet. Es wird zudem festgehalten, dass
die Loveparade dort „mehr oder weniger ’stationär’“ durchgeführt werden soll (WikiLeaks,
2009b, S. 1). Man strebe zwar keinen neuen Besucherrekord an, ginge aber weiterhin von
ca. 1.000.000 Besuchern aus – eine Zahl die im Sinne des Veranstalters insbesondere auch
medial genannt werden soll.
Es zeigt sich bereits hier, im Zuge einer „angeregten Diskussion“ der Teilnehmer, dass
der unbedingte Wille zur Durchführung die Wahrnehmung und Urteilsprozesse des Leiters
des Dezernat II maßgeblich prägt. So betont er als Reaktion auf Kritik erneut den star-
ken politischen Willen zur Durchführung der Loveparade und unterstreicht seine Aussage
mit einem Verweis auf eine entsprechende Äußerung der damaligen Ministerpräsidentin
Nordrhein-Westfalens, die gesagt habe, dass die Loveparade in Duisburg stattfinden solle
(WikiLeaks, 2009b). Dass der Leiter des Dezernat II bereits zu Beginn des Planungs-
prozesses ständig betont, dass die Loveparade in Duisburg politisch stark erwünscht sei,
hemmt, nach dem Prinzip des Desirability Bias, eine kritischere Reflektion verschiedener
Alternativen. Hier setzt er zudem frühzeitig einen Anker für die anderen Beteiligten bezüg-
lich des gewünschten Ergebnisses des Prozesses. Es wird sich zeigen, dass dieses Ergebnis,
also die Genehmigung der Loveparade und die assoziierten eingeschränkten Handlungsal-
ternativen im weiteren Planungsverlauf von allen Beteiligten zunehmend als alternativlos
wahrgenommen werden. Desirability Bias:
• Im Planungsprozess herrscht eine offene Diskussionskultur, in der auch die Nachteile eines bevorzugten
Vorhabens diskutiert und Alternativen ernsthaft betrachtet werden.
• Es wird unabhängig vom erwünschten Ziel abgewogen beziehungsweise kalkuliert, was realistisch und
sicher erreichbar ist, ohne dass Wunschdenken diese Abwägungen beeinflusst.
6 Studien 141
Anchoring Effect:
• Meinungen und Einschätzungen unterschiedlicher Mitarbeiter*innen werden zunächst individuell und
unabhängig voneinander entwickelt, bevor sie im Entscheidungsprozess aggregiert oder diskutiert wer-
den
• Es entstehen spontane Diskussionen auf Basis anfänglicher Informationen [invertiert]
• Im Planungsprozess wird hinreichend über unterschiedliche Alternativen diskutiert, bevor man sich für
eine Vorgehensweise entscheidet
Mutmaßlich kann der Leiter des Dezernat II hier auch als Self-Appointed Mindguard, eine
Facette von Groupthink, bezeichnet werden. Er vermittelt zwischen der Verwaltungs- und
politischen Ebene und steht zum Beispiel im engen Kontakt mit Duisburgs Oberbürger-
meister, der als starker Verfechter der Loveparade in Duisburg wenig von Planungsproble-
men mitbekommen haben will:
• Manche Gruppenmitglieder versuchen kritische Meinungen anderer Mitglieder aus Loyalität zur Füh-
rungskraft abzuwehren [invertiert]
• Es kommt vor, dass Minderheitsmeinungen vorschnell durch einzelne Gruppenmitglieder schlechtgere-
det werden [invertiert]
Am 20.10.2009 findet ein Treffen zum Thema Verkehr/Transporte statt, bei dem neben
verschiedenen Verkehrsbetrieben auch das Ordnungsamt, der Veranstalter sowie Polizei
und Feuerwehr vertreten sind (WikiLeaks, 2009c). Es wird über die Handhabung der An-
und Abreise von und nach Duisburg gesprochen und auch die Lenkung der Besucherströme
zum und vom anvisierten Veranstaltungsgelände. Das Ordnungsamt informiert bei diesem
Treffen über Aussagen des später begutachtenden Professors für Physik. Laut diesem gäbe
es grundsätzlich drei Möglichkeiten der Besucherführung, von denen zwei aus Sicherheits-
und Kostengründen nicht möglich seien. Nicht möglich seien ein direkter Zugang vom
Bahnhofsgelände sowie die Nutzung der A59 als Zu- oder Abmarschstrecke. Als einzig
machbare Möglichkeit sieht er eine „weitläufige Umgehung vom Hbf zum Veranstaltungs-
gelände“ (WikiLeaks, 2009c, S. 3). Dazu werden zwei mögliche Strecken und damit ein-
hergehende Herausforderungen genannt. Die kritische Implikation dieses Vorgehens, dass
der Tunnel von der Karl-Lehr-Straße dann der einzige und gleichzeitige Ein- und Aus-
gang des Veranstaltungsgeländes wäre, findet in der Einschätzung und dem Treffen keine
Beachtung. Die frühzeitige, und, wie sich später zeigen wird, fatale Festlegung auf dieses
Konzept der Besucherführung, lässt sich als Fall von Anchoring bezeichnen (siehe oben).
Es wird nicht ergebnisoffen diskutiert, stattdessen werden die Überlegungen des Professors
als final hingenommen und daraufhin auch im späteren Verlauf keine Alternativen mehr
besprochen. Einige Monate später appelliert ein Brandschutzexperte noch eindringlich, die
ohnehin zu sperrende A59 als zusätzlichen Ein- beziehungsweise Ausgang zu öffnen, findet
aber für diesen Vorschlag – den der Veranstalter als zu teuer ablehnt – kein Gehör mehr.
6 Studien 142
Abbildung 18 zeigt das Veranstaltungsgelände sowie die Zu- und Ablaufwege.
Abbildung 18
Skizze des Veranstaltungsgeländes der Loveparade 2010
Anmerkung. Darstellung der Zu- und Ablaufwege zwischen dem Hauptbahnhof und der Loveparade
in Duisburg (WikiLeaks, 2010m).
Bei einem Treffen am 29.10.2009 stellt der Veranstalter den Sachstand in einer Präsentati-
on dar, bei dem die Problematik des gleichzeitigen Ein- und Ausgangs zumindest in einem
Punkt erwähnt wird. So heißt es in der Präsentation: „Ist ein Zu- und Abweg zur Veranstal-
tungsfläche, der auch noch in einem Tunnel liegt, (Karl-Lehr-Str.) ausreichend, besteht die
Gefahr, dass der Tunnel ggf. mit Wasser volläuft? evtl. Gutachten erstellen lassen“ (Wi-
kiLeaks, 2009d, S. 6). Später wird die Problematik des gleichzeitigen Ein- und Ausgangs
in keinen Unterlagen mehr festgehalten. Die Genehmigungsbehörde beschränkt sich dar-
auf, die Einhaltung jener gesetzlichen Vorschriften zu fordern, die – wie sich im weiteren
Verlauf zeigt – durch Ausnahmegenehmigungen ausgehebelt werden, während die spezielle
Ein-/Ausgangssituation anscheinend nicht explizit von den gesetzlichen Bestimmungen der
Sonderbauverordnung erfasst wird. Auf der anderen Seite ist die politische Ebene, deren
Vertreter in der Verwaltung sowie der Veranstalter vollständig darauf fixiert, die Lovepa-
rade um jeden Preis zur Genehmigung zu bringen, wie die weiteren Ausführungen zeigen
werden. Möglicherweise ist die Problematik neben den zahlreichen anderen Sicherheitsbe-
denken und dem Zeitdruck in den Hintergrund gerückt. Teilweise wird gemutmaßt, dass
die Schwierigkeiten mit der Ein- und Ausgangssituation bewusst ausgeklammert wurden:
Ich habe geschrieben, man hat den Tunnel vergessen, aber je mehr ich mich mit der Sache beschäftige, umso mehr
drängt sich doch der Verdacht auf, dass man hier ganz bewusst übliche Planungsmechanismen nicht angewendet
6 Studien 143
hat, möglicherweise weil einem klar sein musste, dass diese Menschenzahl durch diesen Tunnel so nicht zu steuern
war. Richard Wittsiepe – Wirtschaftsprüfer und Analyst (Roeingh, Lenz & Jankuhn, 2010, 0:23:38)
Man muss dann, wenn man schon sagt, und das ist mein Kernpunkt, ich kapriziere mich auf diese Tunnellösung
und ich gehe davon aus, dass sie funktioniert, wobei ich meine – und würde es auch belegen können – dass hätte
nie funktionieren können, ja, aber gesetzt den Fall, derjenige ist der Meinung es funktioniert. Da muss ich doch
sicherstellen, dass [...] bei nachhaltigeren Störungen, ich noch raus komme aus der Nummer und das haben sie alle
versäumt. Dr. Rainer Könnecke – Sicherheitsforscher (Roeingh et al., 2010, 0:20:31).
Bei einem Treffen im März 2010 wird festgehalten: „Nach den in der letzten Woche be-
kannt gewordenen Planungen des Veranstalter [sic!] lopavent GmbH soll jedoch die gesam-
te Veranstaltungsfläche durch stabile Zäune eingegrenzt werden und lediglich der Zugang
an der Karl-Lehr-Straße offen sein.“ (WikiLeaks, 2010e, S. 2). Aufgrund dieser anvisier-
ten Nutzungsänderung – von einer mobilen Parade mit einem später offenen Veranstal-
tungsgelände zu einer stationären und durch stabile Zäune begrenzten Veranstaltung –
wird nun erstmals das in dem Fall zuständige Amt für Baurecht und Bauberatung (Amt
62) in die Planung einbezogen. Für ein abgeschlossenes Gelände gelten eigene gesetzliche
Bestimmungen, in diesem Fall die Sonderbauverordnung, laut derer die maximale Zahl
der zugelassenen Besucher bei zwei Personen pro Quadratmeter liegt. In diesem Kontext
wird kritisiert, dass sich „die Veranstaltungsfläche nach den Planungen des Veranstal-
ters/Eigentümer immer weiter verkleinern würde“ (WikiLeaks, 2010e, S. 3). Nach den
ursprünglich angekündigten 258.000 qm wäre „dann schon immer vage von der Fa. Lopa-
vent GmbH angedeutet worden, dass der Südteil der Fläche nur für Logistik und ähnliches
genutzt werden sollte. Bereits hiergegen wurden Bedenken durch 32 [Ordnungsamt] geäu-
ßert.“ (WikiLeaks, 2010e, S. 3).
Zuvor, am 25.02.2010, hatte der Veranstalter dem Ordnungsamt (Amt 32) demnach erst-
mals die Zahl von nunmehr noch 90.000 qm inklusive der Zuwege genannt und dabei auch
die geplante Eingrenzung des Geländes mit massiven Zäunen kommuniziert. Weiter heißt
es im Protokoll:
Danach ist die Durchführung der Veranstaltung auf dem jetzt beplanten Gelände nicht möglich, da es höchstens
180.000 Besucher fassen würde. [...] Diese Problematik ist nicht lösbar! Auf die möglichen strafrechtlichen Konse-
quenzen für die MA von Genehmigungsbehörden wurde hingewiesen. (WikiLeaks, 2010e, S. 3).
Diese Bewertung zeigt, dass den Beteiligten der Verwaltung das Ausmaß der Problematik
und die potenziell dramatischen Konsequenzen bewusst waren. Sie schließen daraus:
Es muss daher dringend ein Gespräch zwischen lopavent GmbH [Veranstalter], dem Bauordnungsamt [Amt 62],
dem Ordnungsamt [Amt 32] und evtl. der Fa. Aurelis [Eigentümer des Geländes] stattfinden, in dem das endgültige
Veranstaltungskonzept mit der geplanten qm-Zahl für die Besucher vorgelegt wird. Auch ist dringend ein formeller
Antrag mit fundierten Unterlagen an das Bauordnungsamt zu stellen. (WikiLeaks, 2010e, S. 3)
Es sollte bis zum 10.06.2010 dauern, bis die zuständige Anwaltskanzlei im Auftrag des
Veranstalters den formellen „Antrag auf Erteilung erforderlicher baurechtlicher Genehmi-
6 Studien 144
gungen für die Durchführung der Loveparade 2010“ beim Amt für Baurecht und Bau-
beratung (Amt 62) einreichte. Zwischenzeitlich machte der Veranstalter keine Anstalten,
einen solchen Antrag überhaupt anzufertigen. So heißt es in einem nach der Katastrophe
veröffentlichten Sachverhaltsbericht der Stadt Duisburg:
In einem Gespräch mit dem Veranstalter wies die Untere Bauaufsicht noch einmal auf die Notwendigkeit der Ein-
reichung eines konkreten Antrags mit Bauvorlagen hin. Der Veranstalter machte keine konkreten Angaben, sondern
Ausführungen allgemeiner Art zum Versammlungsstättenrecht, die begründen sollten, warum Antrag und Geneh-
migung nicht erforderlich wären. (Wojtek, 2010, S. 53)
Hier verfestigt sich der Eindruck, dass der Veranstalter versucht, Zeit zu gewinnen, in dem
Wissen über den ohnehin starken politischen Druck zur Durchführung der Loveparade,
der mit der Zeit immer größer werden würde, da im Kontext der im politischen Umfeld
getätigten Aussagen (siehe oben) eine Absage eine große Blamage für die betreffenden
Politiker wäre. Diese steigenden monetären sowie vor allem psychologischen Kosten lassen
sich mittels der Sunk-Cost Fallacy erklären und erhöhen zunehmend die von Beginn an
starken Hemmungen, auf eine Absage hinzuwirken:
• Es wird häufig versucht ein schlecht laufendes Projekt fortzuführen, obwohl der finanzielle Aufwand
oder das Risiko unverhältnismäßig hoch sind [invertiert]
• Wenn sich ein Projekt als teurer oder riskanter als erwartet herausstellt, wird stets auch ein Abbruch
als gangbare Alternative diskutiert
• Der Abbruch eines Projekts wird in der Organisation wertfrei und als unter Umständen angemessene
Reaktion auf sich ändernde Bedingungen oder Einschätzungen betrachtet
Beim nächsten Treffen wird aufgegriffen, dass die nach neuester Planung zur Verfügung ste-
hende Fläche von 90.000 qm zu klein für die geplante Besucherzahl sei (WikiLeaks, 2010f).
Die Vertreterin des Amts für Baurecht und Bauberatung (Amt 62) weist noch einmal aus-
drücklich auf die Grenze von zwei Personen pro Quadratmeter Fläche hin. Deswegen will
der Veranstalter nun ca. 20.000 – 30.000 qm Fläche im Süden des Veranstaltungsgeländes
aufbereiten lassen, auf die die Besucher bei drohender Überfüllung „zwangsumgeleitet“
werden würden, um die Veranstaltung von dort über eine Videoleinwand weiterzuverfol-
gen. Bei einer Gesamtfläche von bestenfalls 90.000 + 30.000 = 120.000 qm wären demnach
qua Gesetz 240.000 Besucher zulässig. Dazu macht der Veranstalter folgende Rechnung:
Die Hauptzahl der Besucher ist zwischen 17.00 Uhr und 21.00 Uhr vor Ort. Es findet aber ein ständiges Kommen
und Gehen statt – nur die wenigsten würden sich über eine Vielzahl von Stunden auf dem Veranstaltungsgelände
aufhalten. Bei einer echten Gesamtbesucherzahl von 400.000 Leuten (mehr können auch kaum durch die Bahn
befördert werden, die von ca. 90% der Anreisenden genutzt wird) würden sich aber gleichzeitig höchstens 200.000
bis 250.000 Leute auf der Fläche aufhalten da eben ein ständiger Austausch stattfinden würde (WikiLeaks, 2010f,
S. 3).
Auffällig ist, dass analog zur verfügbaren Veranstaltungsfläche, nun auch die erwartete
Besucherzahl schrumpft. Während zu Beginn 1.000.000 Besucher angestrebt wurden, und
6 Studien 145
man intern von 500.000 bis 600.000 Besuchern ausging (siehe oben), rechnet der Veran-
stalter nunmehr nur noch mit 400.000 Besuchern. Es drängt sich der Eindruck auf, dass
der Veranstalter die Schätzungen unter dem Druck zur Einhaltung der zulässigen Ober-
grenze an die gesetzlichen Bestimmungen anpasst. Entsprechend lässt sich ein ausgepräger
Desirability Bias beim Veranstalter erkennen, dessen einziges Ziel es zu sein scheint, die
Loveparade als werbewirksames Event zur Genehmigung zu bringen. Sicherheitsbedenken
spielen für den Veranstalter keine Rolle, wie sich im Planungsprozess immer wieder zeigen
wird. Zu dem später kritischen Bereich, dem gleichzeitigen Ein- und Ausgang, heißt es:
Der Bersucherzu- und abstrom soll auf jeden Fall durch den Karl-Lehr-Tunnel gelenkt werden. Es können [sic!] al-
lenfalls zu kurzfristigen Zugangsperrungen [sic!] kommen, um eine Bewegungsdynamik zu erreichen. Nachströmende
Besucher würden dann wie geschildert ggf. auf die Auslauffläche im Süden umgeleitet. (WikiLeaks, 2010f, S. 3).
Als Redundanz für den Fall eines zu starken Besucherstroms zum Tunnel des Eingangsbe-
reichs sollte also ebenfalls die für die notwendige Gesamtfläche essenzielle „Auslauffläche“
im Süden dienen. Tatsächlich stellte sich später heraus, dass besagte Fläche bei der Ver-
anstaltung dafür nicht zur Verfügung stand (Seibel & Wenzel, 2017).
Am 22.03.2010 findet ein Workshop statt, an dem das Ordnungsamt (Amt 32) und Amt
für Baurecht und Bauberatung (Amt 62) anwesend sind. Ein Brandschutzexperte, der an
der Planung der Loveparade 2008 in Dortmund mitgewirkt hat, berichtet davon, dass es
bereits in Dortmund zu brenzligen Szenen kam (Brandt, Bönisch, Dahlkamp & Röbel,
2011). Der Tunnel der Karl-Lehr-Staße sei an der schmalsten Stelle nur 30 Meter breit,
was für höchstens 40.000 bis 60.000 Menschen pro Stunde reiche, ohne Gegenverkehr.
Dass die Besucher auf diese Weise auf und von dem Gelände gelotst werden sollen, hält
der Brandschutzexperte für Irrsinn und sagt später in kleinerer Runde, dass einer, der
so etwas plane, sie nicht mehr alle habe. Er appelliert dafür, einen Ausgang über die
ohnehin am Tag der Veranstaltung gesperrten A59 aufzumachen, was vom Veranstalter
als zu teuer abgelehnt worden war. Zudem berichtet er, dass die Mitarbeiter der Stadt ihm
Recht gegeben hätten, aber über politischen Druck geklagt hätten (Brandt et al., 2011).
Hier wird explizit von Direct Pressure on Dissenters berichtet, der von der politischen
Ebene auf die Verwaltungsebene wirkt:
• Es kommt vor, dass Druck auf Gruppenmitglieder mit abweichender Meinung ausgeübt wird [invertiert]
• Es kommt vor, dass kritische Meinungsträger von Gruppenprozessen ausgeschlossen werden [invertiert]
• Gruppenmitglieder nutzen ihre hierarchische Position, um ihre Meinung durchzusetzen [invertiert]
Eine Mitarbeiterin des Amt 32 hätte gesagt, dass ihr Chef kritische Hinweise schlicht
ausblende (Brandt et al., 2011). Das Ignorieren kritischer Informationen lässt sich auf
Collective Rationalization, ebenfalls eine Facette von Groupthink, zurückführen. So ist es
nicht überraschend, dass der Leiter des Dezernats II, der von Beginn an immer wieder
betonte, dass die Loveparade politisch erwünscht sei, kritische Informationen, die eine
6 Studien 146
Genehmigung der Loveparade in Frage stellen, verwirft:
• Kritische Meinungen gegenüber dem von der Führungskraft oder der gesamten Gruppe favorisiertem
Plan werden offen aufgenommen und weiterdiskutiert
• Kritische Hinweise und Warnungen bezüglich eines Plans werden häufig nicht ausreichend ernst genom-
men [invertiert]
Am 28.04.2010 findet ein Treffen zwischen dem Veranstalter, dem Leiter des Dezernats
II, dem Leiter des Amt 32 und einem Sprecher des Oberbürgemeisters – ohne Beteiligung
des Amts 62 – statt. Der Veranstalter klagt darüber, dass das Amt 62 ständig mit der
Sonderbauverordnung querkäme, besonders die Mitarbeiterin Frau G. Der Ordnungsamt-
chef sagte laut einem Vermerk, dass die Dame anscheinend mangelnde Übung in solchen
Dingen habe, sich an ihrer Zuständigkeit jedoch nichts rütteln lasse. Der Leiter des De-
zernats II werde mit ihrem Vorgesetzten sprechen, um „positiven Einfluss“ auf Frau G.
zu nehmen (Brandt et al., 2011). Derartige Äußerungen stempeln jene Gruppe von Mit-
arbeitern, die auf ein ordentliches Verwaltungsvorgehen pochen, als unerfahren ab und
erzeugen damit im Zuge der eben erwähnten Collective Rationalization auch Out-Group
Stereotypes, ebenfalls eine Facette von Groupthink:
• Innerhalb der Gruppe sind häufig die Unfähigkeit oder ähnliche negative Eigenschaften anderer Akteure
ein Thema [invertiert]
• Es kommt vor, dass negative Einstellungen gegenüber externen Gruppen die Kommunikation und den
Informationsaustausch mit diesen beeinträchtigen [invertiert]
Im Protokoll der Besprechung bringt der Leiter des Dezernats II außerdem die Idee ein, ein
Expertengutachten erstellen zu lassen, wenn bei der Stadt keiner bereit sei, das Risiko für
die Genehmigung zu übernehmen (Brandt et al., 2011). Die logische Konsequenz seines
starken Desirability Bias ist hier, dass er einen Lösungsweg sucht, um die gesetzlichen
Bestimmungen zu umgehen. Ein entsprechendes Gutachten soll die Rechtfertigung hierfür
erbringen:
• Im Planungsprozess herrscht eine offene Diskussionskultur, in der auch die Nachteile eines bevorzugten
Vorhabens diskutiert und Alternativen ernsthaft betrachtet werden
• Es wird unabhängig vom erwünschten Ziel abgewogen beziehungsweise kalkuliert, was realistisch und
sicher erreichbar ist, ohne dass Wunschdenken diese Abwägungen beeinflusst
An dieser Stelle wird der Professor für Physik erneut ins Spiel gebracht, mit der Begrün-
dung, dass es gut wäre, ihn ins Boot zu holen. Dadurch würde man von vorneherein ver-
hindern, dass dieser in der Öffentlichkeit unerwünschte Äußerungen zur Loveparade tätige
(Brandt et al., 2011). Zusätzlich wird auf ein Büro in Duisburg verwiesen, dass für veran-
stalterfreundliche Gutachten bekannt sei und schließlich tatsächlich den Auftrag für eine
Entfluchtungsanalyse bekommen sollte. Dieses Verhalten, potenziell kritische Meinungen
6 Studien 147
abzuwehren, bevor diese getätigt werden, kann als Form von Self-Appointed Mindguards
betrachtet werden:
• Manche Gruppenmitglieder versuchen kritische Meinungen anderer Mitglieder aus Loyalität zur Füh-
rungskraft abzuwehren [invertiert]
• Es kommt vor, dass Minderheitsmeinungen vorschnell durch einzelne Gruppenmitglieder schlechtgere-
det werden [invertiert]
Am 11.05.2010 schreibt Frau G. – die sich bislang so vehement gegen die Loveparade
gestellt hatte – in einer E-Mail, dass die Leiter der Dezernate V und II besprochen hätten,
dass der Veranstalter der Stadtverwaltung schriftlich versichern soll, am Veranstaltungstag
die Besucherzahlen und -ströme zu kontrollieren, dafür bleiben alle Mitarbeiter des Amts
62 zuhause. Dass sei laut Frau G. doch eine charmante Lösung und so wird es schließlich
auch gemacht – am Tag der Loveparade ist niemand vom Amt 62 anwesend (Brandt et
al., 2011; Seibel & Wenzel, 2017).
Am 20.05.2010, zwei Monate vor der Veranstaltung, legt der Veranstalter eine interne
Entwurfsfassung des Veranstaltungskonzept – Sicherheit vor. Darin räumt der Veranstal-
ter selbst ein: „Im aktuellen Zustand birgt das zukünftige Veranstaltungsgelände noch
immense Sicherheitsrisiken, die eine Veranstaltung mit mehreren 100.000 Besuchern un-
möglich machen“ (WikiLeaks, 2010c, S. 3). Allerdings betreffe diese Aussage nicht den
Verantwortungsbereich des Veranstalters, sondern läge allein in der Verantwortung des
Grundstückeigentümers. Diese Situation spricht für Verantwortungsdiffusion beziehungs-
weise mangelnde Rollenklarheit und führt zu Social Loafing:
• Zwischenziele werden konkret und mit festgelegtem Zeithorizont definiert
• Arbeitspakete werden für einzelne Gruppenmitglieder konkret zugeordnet
• Zwischenergebnisse aus den einzelnen Verantwortungsbereichen werden Führungskräften und anderen
Gruppenmitgliedern in regelmäßigen Abständen präsentiert
Das in weiten Teilen vage und inhaltlich irrelevante Konzept enthält Aussagen wie:
Zu gravierenden Personen oder Sachschäden ist es in der Vergangenheit nicht gekommen. Angesichts der wiederhol-
ten Durchführung der Veranstaltung unter Wahrung gleichbleibender Standards in wechselndem Umfeld ist davon
auszugehen, dass es sich um der Veranstaltung immanente Elemente und nicht um zufällige Befunde handelt. (Wi-
kiLeaks, 2010c, S. 2).
Dabei liegt das Problem darin, dass sich gleichbleibende Standards nicht zwangsläufig auf
ein wechselndes Umfeld übertragen lassen. Die Argumentation klingt vor allem deshalb pa-
radox, weil der Veranstalter erst zwei Loveparades durchgeführt hat und das Umfeld dieses
Mal – mit einem festumzäunten Gelände und einem unterdimensionierten Tunnel als Ein-
und Ausgang – mit vorangegangenen Veranstaltungen nicht vergleichbar ist. Genau dieser
Sachverhalt spiegelt sich in den geänderten gesetzlichen Bedingungen für geschlossene Ver-
6 Studien 148
anstaltungsgelände wider, auf deren Einhaltung das Amt für Baurecht und Bauberatung
(Amt 62) nach wie vor pocht. Die mangelhafte Wahrnehmung von Risiken durch sich stark
verändernde Bedingungen kann als Ergebnis des Optimism Bias betrachtet werden:
• In Entscheidungsprozessen werden bei qualitativen und quantitativen Analysen auch externe Risiken,
die außerhalb des Einflusses der Organisation liegen, berücksichtigt
• Dem Einfluss unvorhersehbarer externer Ereignisse wird durch Schaffung von Redundanz (zusätzlichen
Ressourcen) Rechnung getragen
Eine weitere unbelegte Behauptung des Konzepts betrifft die der Steuerbarkeit der Besu-
chermasse durch die Bewegung der Floats. So schreibt der Veranstalter: „Aus den bisheri-
gen Loveparade- Erfahrungen orientieren sich die Besucher sehr stark an den Floats! [...]
So lässt sich die Masse je nach Bedarf hervorragend dynamisch steuern. (Rattenfänger-
Methode)“ (WikiLeaks, 2010c, S. 5). Ganz im Gegensatz zu dieser Aussage blockierten
die Floats den Besucherstrom auf das Gelände am Veranstaltungstag sogar, indem sie
das Einfädeln der Besuchermenge verzögerten, was als Mitursache maßgeblich zum tödli-
chen Gedränge auf der Rampe beitrug (Rehm, 2020). Der Veranstalter überschätzt seine
Fähigkeiten, das Geschehen kontrollieren zu können, was auf den Overconfidence Bias
hindeutet:
• Mögliche Schwächen in der eigenen Planung werden proaktiv thematisiert und diskutiert
• Mitarbeiter*innen informieren sich gegenseitig über Schwierigkeiten und Probleme bei der Erreichung
ihrer Ziele
• Informationen und Daten aus vergangenen Projekten, aus denen Erfolgs- sowie Misserfolgsfaktoren
(„lessons learned“) hervorgehen, werden regelmäßig präsentiert und diskutiert
Als Basis des Überoptimismus und der Selbstüberschätzung kann die Availability Heuri-
stic dazu geführt haben, dass die sehr beschränkten Erfahrungen von zwei Loveparades,
die unter anderen Bedingungen stattfanden, als ausreichende Informationsbasis wahrge-
nommen wird. Tversky und Kahneman (1971) sprechen in einem solchen Fall auch auch
von einem Belief in the Law of Small Numbers. Availability Heuristic:
• Bei Problemdiskussionen werden häufig Ad-hoc-Argumente erfahrener Mitarbeiter*innen als Daten-
quelle verwendet [invertiert]
• Bei Problemdiskussionen dienen in der Regel qualitative und/oder quantitative Analysen empirischer
Daten als Diskussionsgrundlage
Der formelle Antrag des Veranstalters, der sich inhaltlich lediglich auf das eben beschrie-
bene Veranstaltungskonzept bezieht, geht am 31.05.2010 beim Amt für Baurecht und
Bauberatung (Amt 62) ein und wird am 14.06.2010 mit einer umfangreichen Liste an Be-
anstandungen beantwortet. Darin fordert das Amt 62 auf fünf Seiten etliche durch staatlich
6 Studien 149
anerkannte Sachverständige erstellte Nachweise zur Veranstaltungsfläche und zur Statik
ein (WikiLeaks, 2010g). In dem Schreiben zeigt sich die Irritation der Mitarbeiter des
Amt 62 über die unprofessionelle Arbeitsweise des Veranstalters. So wird impliziert, dass
das Sicherheitskonzept in der vorgelegten Form unbrauchbar sei. Es enthalte in weiten
Teilen irrelevante Ausführungen – zum Beispiel die Verweise auf Erfahrungen mit bishe-
rigen Loveparades – die für die Genehmigung keinen Wert haben. Auf der anderen Seite
fehlen Bezüge zu der tatsächlich geplanten Veranstaltung und den damit einhergehenden
gesetzlichen Bestimmungen:
Gemäß BauPrüfVO beschränkt sich der Inhalt der Bauvorlagen, also auch des Sicherheitskonzeptes und der Veran-
staltungsbeschreibung, auf das für dieses Vorhaben Erforderliche. Das bisher vorliegende Sicherheitskonzept wurde
mit der Prüfbehörde nicht abgestimmt. Hinweise auf vertragliche Gegebenheiten und Abstimmungsgespräche sind
nicht Gegenstand eines Sicherheitskonzeptes oder der Veranstaltungsbeschreibung. Bauvorlagen müssen bestimmt
sein und derartige Darstellungen führen nur zur Unbestimmtheit der Vorlagen. (WikiLeaks, 2010g, S. 4)
Anschließend zweifelt das Amt 62 die Genehmigungsfähigkeit der Loveparade in Duisburg
offen an: „Obwohl die bisher vorgelegten Unterlagen nicht ausreichend, teilweise unbe-
stimmt und nicht geeignet sind eine hinreichend bestimmte Genehmigung erteilen zu kön-
nen, sind allerdings aus den Angaben bereits bestimmte Punkte erkennbar, die Fragen zur
Genehmigungsfähigkeit aufwerfen“ (WikiLeaks, 2010g, S. 5). Die erläuterten Kritikpunkte
beziehen sich auf jene Aspekte, die allen Beteiligten seit Monaten bekannt sind und die das
Amt 62 bereits im März als „unlösbar“ bezeichnet hatte und dabei auf mögliche strafrecht-
liche Konsequenzen für die Mitarbeiter verwies (siehe oben). Dazu gehört ein Hinweise auf
die Grenze für die maximale Besucherzahl von zwei Personen pro Quadratmeter, die der
Veranstalter in seiner Rechnung unbegründet auf 2,5 Personen pro Quadratmeter erhöht
hat (WikiLeaks, 2010g). So erfordern die vom Veranstalter errechneten maximal 220.000
zeitgleich erwarteten Besucher bezüglich der Entfluchtung insgesamt 440m (Not-)ausgänge
für das gesamte Gelände, während die Aufstellung des Verantalters nur 154,8m darstellt
(WikiLeaks, 2010g). Man verbleibt mit dem Hinweis, dass der Antrag „aufgrund der feh-
lenden Unterlagen nicht abschließend bearbeitet“ werden kann und fehlende Unterlagen
bis zum 29.06.2010 einzureichen sind (WikiLeaks, 2010g, S. 6).
Drei Tage später, am 17. Juni, findet eine Pressekonferenz statt, auf der werbewirksam
über die Loveparade 2010 informiert wird. Anwesend waren unter anderem der Geschäfts-
führer und Projektmanager des Veranstalters sowie Duisburgs Oberbürgermeister. Ent-
gegen des drei Tage zuvor vom Amt für Baurecht und Bauberatung (Amt 62) verfassten
Schreibens bezüglich der eklatanten Mängel und zahlreicher Nachforderungen, das dem
Büro des Oberbürgermeisters in Kopie zugegangen war sagt der Oberbürgermeister, dass
die endültige Genehmigung zur Durchführung der Loveparade auf gutem Weg und die
Genehmigungsunterlagen komplett seien. Zum Thema Besucherzahl betont der Geschäfts-
führer des Veranstalters, dass die Loveparade in Duisburg größer werde als geplant und
dass sie weiter mit über 1 Million Zuschauern rechnen würden (Seibel & Wenzel, 2017).
6 Studien 150
Einen Tag später kritisiert die Polizei Duisburg in einer Sitzung der Arbeitsgruppe 4 –
Sicherheit die in der Pressekonferenz getätigten Aussagen:
Die Aussagen des Veranstalters in der o.g. Pressekonferenz zu den Eckdaten der Veranstaltung weichen erheblich
von denen ab, die in Sicherheitsbesprechungen benannt wurden. Insbesondere die Aussagen zur Größe der geplanten
Veranstaltung (größte Bühne aller Zeiten, zweite Bühne etc.) und zu den erwarteten Zuschauerzahlen (’weit’ über
1 Mio.) lassen eine Werbestrategie vermuten, die den tatsächlichen Möglichkeiten des Veranstaltungsraumes und
damit notwendigen Sicherheitsüberlegungen nicht entsprechen beziehungsweise diesen zuwiderlaufen. Das Erreichen
der in der Pressekonferenz kommunizierten Zahlen erscheint zwar auf Grund der zu erwarteten Transportkapazitäten
der Bahn AG tatsächlich nicht realisierbar. Gleichwohl wird der Öffentlichkeit und insb. potentiellen Besuchern sug-
geriert, eine Teilnahme an der Veranstaltung sei – auch bei derart hohen Teilnehmerzahlen – vollkommen problemlos
möglich. Fakt ist hingegen, dass die eigentliche Veranstaltungsfläche ab einer gewissen Besucherzahl überfüllt sein
wird und es beim Zulauf weiterer Besucher zu Rückstauungen auf den Wegführungen bis hin zu der nicht geringen
Wahrscheinlichkeit kommt, dass angereiste Besucher die Veranstaltungsfläche selbst gar nicht erreichen. Diese Rück-
stauungen können bei entsprechenden Menschenmengen – insbesondere auf der weniger leistungsstarken Ostroute
– bis hin zu einer Befüllung der Wegführung aufwachsen. Dass dies Auswirkungen auf die (Un-)Zufriedenheit der
Besucher hat, zu einem nicht mehr funktionierenden Wegekonzept führt (Besucher bleiben auf ihrer „Anreiseseite“
und wählen diese – anders als geplant – letztlich auch für die Abreise) und damit letztlich sicherheitsrelevant ist,
bedarf keiner weiteren Darstellung. Diese Entwicklung kann bereits bei deutlich geringeren, aber bei einer derart
offensiven Bewerbung der Veranstaltung erreichbaren Besucherzahl eintreten. (Polizeipräsidium Duisburg, 2010, S.
3)
Am 18.06.2010 findet außerdem ein Gespräch statt, an dem zwei Vertreter des Amts für
Baurecht und Bauberatung (Amt 62), drei Vertreter des Veranstalters, drei Mitarbeiter
des Dezernat für Sicherheit und Recht (Derzernat II; inkl. des Leiters), ein Verterter der
Feuerwehr sowie zwei Mitarbeiter des Ordnungsamts (Amt 32) teilnehmen (WikiLeaks,
2010h). Anlass des Gesprächs ist die Klärung der vom Amt 62 in Frage gestellten Ge-
nehmigungsfähigkeit der Loveparade 2010. Eingangs wird die Problematik aufgegriffen,
dass nach Sonderbauverordnung nur zwei Personen pro Quadratmeter zugelassen werden
dürfen, was der Veranstalter anders sieht, obwohl er durch das Amt 62 wiederholt darauf
hingewiesen worden war. Dazu kommt der Umstand, dass Lopavent – trotz der durch die
Sonderbauverordnung gestellte Anforderung von insgesamt 440m Fluchtwegen bei 220.000
Besuchern – nur 155 Meter nachgewiesen hat, da sie es „aus ihrer Erfahrung für ausrei-
chend halten, wenn 1/3 der Personen entfluchtet werden können.“ (WikiLeaks, 2010h, S.
1). Diese Aussagen deuten auf Overconfidence oder Optimism Biases hin (Items siehe
oben). Als nächstes hält eine Mitarbeiterin des Amt 62 im Protokoll folgendes fest:
Hier entspannte [sic!] sich eine ’engagierte’ Diskussion, in der Lopavent darauf hinwies, dass Fluchtwege mit 440
Metern von ihnen nicht dargestellt werden könnten. Diese rechtlichen Voraussetzungen hätten sie noch nie machen
müssen. Sie seien überrascht, welche rechtlichen und formalen Anforderungen die Bauordnung stellen würde, ihnen
ginge es allein um die praktische Seite. Mein Hinweis, dass dies sich daraus ergäbe, dass zum ersten Mal [sic!] eine
Genehmigung im Sinne der Sonderbauverordnung erteilt werden müsse, konnten sie nicht nachvollziehen. Es könne
nicht um rechtliche sondern nur um die tatsächlichen Probleme gehen (WikiLeaks, 2010h, S. 1).
Diese absurde Gegenüberstellung von rechtlichen und praktischen Fragen kann als Hin-
weis gedeutet werden, dass der Veranstalter fest entschlossen war, die geltenden Sicher-
6 Studien 151
heitsbestimmungen zu missachten (Seibel & Wenzel, 2017). Die Einstellung, die hier zum
Ausdruck kommt – und sich bei manchen Akteuren durch den gesamten Planungsprozess
zieht – impliziert potenziell, dass man meint, zu den Guten zu gehören, weil man der Stadt
Duisburg und der Region ein tolles Fest bescheren möchte, und man den zur Sicherheit
dienenden gesetzlichen Rahmen als Hindernis betrachtet, der diesem noblen Anliegen ent-
gegensteht. Eine derartige Einstellung deutet auf Belief In Inherent Morality of the Group
hin:
• Es kann vorkommen, dass ethische Konsequenzen im Einzelfall weniger genau betrachtet werden, weil
sich die Gruppe/Organisation insgesamt als moralische Instanz betrachtet [invertiert]
• Die Gruppe reagiert irritiert oder ablehnend auf selbstkritische Anmerkungen einzelner Mitglieder
[invertiert]
Als Hindernis wird dabei, wie aus den bisherigen Erörterungen hervorgeht, nicht nur der
gesetzliche Rahmen gesehen, sondern auch die Personen, die sich für dessen Einhaltung
einsetzen (Out-Group Stereotypes; siehe oben). Weiter heißt es:
[Leiter des Dezernat II] stellte in diesem Zusammenhang fest, dass der OB [Oberbürgermeister] die Veranstaltung
wünsche und dass daher hierfür eine Lösung gefunden werden müsse. Die Anforderung der Bauordnung, dass der
Veranstalter ein taugliches Konzept vorlegen müsse, ließ er nicht gelten. Er forderte [Amt] 62 auf, an dem Ret-
tungswegkonzept konstruktiv mitzuarbeiten und sich Gedanken darüber zu machen, wie die Fluchtwege dargestellt
werden könnten. Die Feuerwehr solle sich ebenfalls an der Erarbeitung beteiligen, es könne nicht sein, dass [Amt] 62
diese Pflicht nur auf die Antragsteller abwälzen würden, schließlich wolle der OB die Veranstaltung. Er würde die
rechtlichen Verantwortlichkeiten von [Amt] 62 anerkennen, aber hier sei konstruktiv zu handeln, er habe dies mit
[Leiter des Dezernat V] so abgesprochen. (WikiLeaks, 2010h, S. 1-2)
Durch das Amt 62 wird noch festgehalten, dass ein Rettungswegekonzept grundsätzlich
vom Veranstalter vorzulegen sei, und es nicht die Aufgabe der Bauordnungsbehörde sei,
ein solches Konzept zu erarbeiten. Der bei der Besprechung nicht anwesende Leiter des
Dezernat V notiert später handschriftlich auf dem Protokoll:
Ich lehne aufgrund dieser Problemstellung eine Zuständigkeit und Verantwortung von [Amt] 62 ab. Dieses ent-
spricht in keinerlei Hinsicht einem ordentlichen Verwaltungshandeln und einer sachgerechten Projektsteuerung. Die
Entscheidung in allen Belangen obliegt [Dezernat] II. [Leiter des Dezernats V], Ø OB. (WikiLeaks, 2010h, S. 2)
Die Aussage ist irrig, da es dem Leiter des Dezernat V nicht freisteht, die Verantwortung,
die das ihm unterstehende Amt 62 trägt, an den Leiter des Dezernat II abzugeben. So
war es seine Aufgabe, dafür zu sorgen, dass die Mitarbeiter des Amts 62 ihre staatlichen
Aufgaben frei von sachfremden Einflüssen erfüllen können (Seibel & Wenzel, 2017). An-
scheinend spürte auch der Leiter des Dezernat V den politischen Druck, denn anstatt
seinen Mitarbeitern im Amt 62 den Rücken zu stärken, zieht er sich vollständig aus der
Verantwortung und aus der Pflicht seines Amtes. Der Leiter des Dezernat II stellte sich
hinter den Veranstalter und baut weiteren Druck auf die Mitarbeiter des Amt 62 auf, in-
dem er diese auffordert, sich an der Erarbeitung des Sicherheitskonzepts zu beteiligen. Die
6 Studien 152
Beteiligung an der Erarbeitung eines Sicherheitskonzept gehört dabei nicht zum Aufga-
benbereich des Amt 62, und dessen Mitarbeiter hatten schon im März darauf hingewiesen,
dass die Problematik bezüglich der maximalen Besucherzahl sowie der Verfügbarkeit von
Fluchtwegen unlösbar sei (siehe oben). Direct Pressure on Dissenters:
• Es kommt vor, dass Druck auf Gruppenmitglieder mit abweichender Meinung ausgeübt wird [invertiert]
• Es kommt vor, dass kritische Meinungsträger von Gruppenprozessen ausgeschlossen werden [invertiert]
• Gruppenmitglieder nutzen ihre hierarchische Position, um ihre Meinung durchzusetzen [invertiert]
Der unbedingte Wille des Leiters des Dezernat II spricht, wie bereits beschrieben, für eine
starke Ausprägung des Desirability Bias beziehungsweise einer Zielorientierung, insofern
der Wunsch zur Durchführung der Loveparade seine Wahrnehmung und Entscheidungen
stark dominiert.
Beim nächsten Treffen, am 25.06.2010, sind zwei Vertreter des Veranstalters, vier Verterter
des Amts 62, zwei Vertreter der Berufsfeuerwehr, ein Vertreter der Duisburger Marketing
GmbH und ein Vertreter der Firma Ökotec anwesend (WikiLeaks, 2010i). Thema des
Gesprächs ist die durch das Amt 62 festgestellte fehlende Rechtsgrundlage zur Durchfüh-
rung der Loveparade am 24.07.2010. Der Vertreter der Firma Ökotec verweist auf seine
Erfahrungen mit anderen Großveranstaltungen und erläutert, dass das Aufstellen einer
Fluchtanalyse die Möglichkeit bietet, an bestimmten Stellen – zum Beispiel „vor den Sze-
neflächen“ – Verdichtungen von mehr als zwei Personen pro Quadratmeter darzustellen
und „daraus kann dann evtl. eine erforderliche Abweichung zur SBauVO Teil 1 formuliert
werden“ (WikiLeaks, 2010i, S. 1). Ein Mitarbeiter des Ministeriums für Bauen und Verkehr
in NRW habe ihm das telefonisch bestätigt. Die Logik dieses Arguments erschließt sich
nicht ohne Weiteres. Dass auf einem Veranstaltungsgelände, auf dem sich insgesamt die
maximale Kapazität von zwei Personen pro Quadratmeter befinden, nicht überall genau
zwei Personen pro Quadratmeter stehen und sich an bestimmten Stellen, zum Beispiel
vor Veranstaltungsbühnen, mehr Menschen aufhalten und dafür woanders weniger, ist
offensichtlich (Seibel & Wenzel, 2017). Dass dieser Fakt Einfluss auf die gesetzlich vorge-
schriebene maximale Gesamtbesucherzahl oder auf die Gesamtbreite der Fluchtwege haben
soll, erscheint nicht nachvollziehbar. Die vom Vertreter der Firma Ökotec genannten Refe-
renzbeispiele, der Papstbesuch in Köln und der Kirchentag in Kleve, fanden zudem unter
anderen Bedingungen, auf offenen Verkehrsflächen, statt. Die Firma Ökotec war somit
im Sinne des Veranstalters bemüht, die Vorschriften der Sonderbauverordnung in dessen
Sinne zu interpretieren, anstatt die tatsächlichen Gegebenheiten zu prüfen. Der Vetreter
der Firma Ökotec schlägt auch direkt ein Unternehmen vor, Traffgo HT GmbH, die er
für die Erstellung der von ihm vorgeschlagenen Entfluchtungsanalyse für qualifiziert hält
und mit denen er bereits Vorgespräche geführt habe. Die Mitarbeiter des Amt 62 stimmen
dem Vorgehen zu und geben damit defacto ihre Amtspflicht zum Einhalten sicherheitskri-
6 Studien 153
tischer gesetzlicher Anforderungen an ein privates Unternehmen ab, dessen Simulationen
nun diese gesetzlichen Anforderungen ersetzen sollen (Seibel & Wenzel, 2017). Dass die
Mitarbeiter des Amt 62 ihren Widerstand nun aufgeben, lässt sich potenziell dadurch er-
klären, dass sie in den Wochen zuvor kontinuierlich eine starke kognitive Dissonanz erlebt
haben – zwischen einerseits ihrer Motivation zur korrekten Ausführung ihres Berufs und
andererseits dem damit unvereinbaren politischen Druck zur Genehmigung der Loveparade
– den die Politik, die mediale Berichterstattung, der Leiter des Dezernat II und der Ver-
anstalter auf sie ausübten (Direct Pressure on Dissenters). Kurz zuvor hatte sich bereits
ihr Dienstvorgesetzter – der Leiter des Dezernat V – der Verantwortung entzogen, und
sie folgten nun diesem Beispiel, was mutmaßlich zur Auflösung der kognitiven Dissonanz
und einem damit einhergehenden Gefühl der Erleichterung geführt hat. Diesen entschei-
denden Wendepunkt im Planungsprozess kommentiert Rainer Wendt, Chef der Deutschen
Polizeigewerkschaft, später wie folgt:
Die Loveparade war nie genehmigungsfähig. Schon deshalb nicht, weil ganz offensichtlich die erforderlichen Unter-
lagen nicht beigebracht wurden. Die sind ja auch mehrfach noch angemahnt worden, aber man kann schon aus
den Unterlagen ersehen, dass der Veranstalter einen gehörigen politischen Druck aufgebaut hat, der wohl nicht
nur vom Veranstalter, sondern auch von anderer interessierter politischer Seite auf die Verantwortlichen der Stadt
zugekommen ist. Von daher war da auch von vielen Seiten erheblicher Druck, aber das sind alles Profis, das sind
Spitzenbeamte, die hätten diesem Druck standhalten müssen und sagen müssen ’Aus Sicherheitsgründen geht es
nicht’. (Roeingh et al., 2010, 1:52:56).
Am 08.07.2010 versucht der Veranstalter in einem Schreiben an das Ordnungsamt (Amt
32) die Diskrepanz zwischen den intern versus öffentlich kommunizierten Besucherzahlen
zu erklären. Dabei hält der Veranstalter im Anschreiben fest: „Bitte behandeln Sie diese
Unterlagen streng vertraulich! – Eine Veröffentlichung dieser Zahlen könnte dem öffent-
lichen Ansehen der Veranstaltung immensen Schaden zuführen [sic!], was sicher weder
im Interesse des Veranstalters liegt noch im Interesse der Stadt Duisburg.“ (WikiLeaks,
2010a, S. 1). Der Veranstalter zeigt hier also noch einmal sein unprofessionelles Vorgehen,
bezüglich der medial und intern unterschiedlich kommunizierten Besucherzahlen, welches
die Polizei zuvor als Sicherheitsrisiko bewertet hat. Inhatlich wiederholt der Veranstal-
ter größtenteils nur die zurvor schon in der Veranstaltungsbeschreibung vom 28.05.2010
angestellten Berechnungen. Diese Veranstaltungsbeschreibung war wiederum die Grund-
lage des formellen Genehmigungsantrags, der als nicht genehmigungsfähig zurückgewiesen
wurde (siehe oben). Der Veranstalter wiederholt hier einen bereits zuvor zurückgewiese-
nen „nur geringfügig erhöhten“ Schlüssel von 2,5 Personen pro qm und impliziert, dass die
Vorschriften der Sonderbauverordnung eine solche Abweichung „für Versammlungsstätten
im Freien“ zuließen (WikiLeaks, 2010b, S. 14) – entgegen der Aussagen des zuständigen
Amts 62. Die damals als unlösbare Problematik beschriebene Situation der Notausgän-
ge, die insgesamt 440m aufweisen müssten, wird erneut nicht erwähnt. Die Ignoranz des
Veranstalters deutet neben dem bereits beschriebenen Belief in the Inherent Morality of
the Group auch auf den Aspekt Illusion of Invulnerability hin, da sich Sicherheitsrisiken
6 Studien 154
anscheinend seiner Vorstellungskraft entziehen:
• Vergangene Erfolge führen in der Gruppe zu Selbstüberschätzung und in der Folge zu einem sorgloseren
Umgang mit Risiken [invertiert]
• Erfolge steigen der Gruppe nicht zu Kopf und sie ist stets bemüht, die eigenen Pläne zu hinterfragen
und Verbesserungspotenziale abzuleiten
Am 15.07.2010 findet die letzte Planungssitzung vor der Loveparade statt, bei der von
allen beteiligten Akteuren jeweils ein Vetreter anwesend ist, der den aktuellen Stand aus
seiner Perspektive vortragen soll (WikiLeaks, 2010d). Der Vertreter des Amts für Baurecht
und Bauberatung muss dabei allerdings zu Protokoll geben, dass er noch keine Aussage
zum Genehmigungsverfahren machen kann. Einen Tag zuvor hatte das Amt 62 in einen
Schreiben an den Veranstalter festgestellt, dass nach wie vor fast alle geforderten Unter-
lagen und Nachweise fehlen (WikiLeaks, 2010j). Zum Schluss gibt es keine Einwände auf
die Frage des Leiters des Dezernats II, ob es noch „Fragen, Kritik oder Anregungen“ gäbe
(WikiLeaks, 2010d, S. 1), wobei aufgrund des Fehlens genehmigungsfähiger Unterlagen gar
keine Geschäftsgrundlage für Fragen, Anregungen oder Kritik bestand (Seibel & Wenzel,
2017). Dass hier niemand mehr protestiert, ist potenziell auch auf den starken Druck zu-
rückzuführen, den der Leiter des Dezernat II und der Veranstalter auf die anderen Akteure
während des gesamten Planungsprozesses ausgeübt haben. Das Schweigen wäre demnach
auf Self-Censorship zurückzuführen:
• Manchmal hält man sich mit seiner Meinung zurück, um nicht bei der Führungskraft oder anderen
Gruppenmitgliedern anzuecken [invertiert]
• Im Planungsprozess wird sichergestellt, dass alle Gruppenmitglieder ihre Standpunkte äußern
Die direkte Folge ist eine Illusion of Unanimity:
• Das Schweigen einzelner Gruppenmitglieder wird von der Gruppe als stille Zustimmung interpretiert
[invertiert]
• Bei scheinbarer Meinungshomogenität wird bewusst nachgehakt, ob es auch alternative Sichtweisen
gibt, die von der bisherigen Gruppenmeinung abweichen
In der finalen Modifikation seiner Veranstaltungsbeschreibung, die am 19.07.2010 – fünf
Tage vor der Loveparade – beim Amt für Baurecht und Bauberatung (Amt 62) zur Ge-
nehmigung eingeht, macht der Veranstalter folgende Aussage zur maximalen Besucherzahl:
Damit reicht die auf der geplanten Veranstaltungsfläche zur Verfügung stehende Nettogesamtfläche von ca. 110.000
qm nach den Vorgaben der Sonderbauverordnung unter Verwendung eines ca. 10%-igen Sicherheitspuffers aus, um
während des gesamten Zeitraumes die zuströmenden Personen aufzunehmen. (WikiLeaks, 2010k, S. 14)
Während es in der Fassung vom 28.05.2010 noch hieß:
Damit reicht die auf der geplanten Veranstaltungsfläche zur Verfügung stehende Nettogesamtfläche von ca. 110.000
6 Studien 155
qm selbst bei Annahme eines gegenüber der Sonderbauverordnung (diese schreibt für Versammlungsstätten im Freien
ohnehin nur eine entsprechende Anwendung des Personenschlüssels vor) nur geringfügig erhöten Schlüssels von
lediglich 2,5 Personen Pro qm aus, um während des gesamten Zeitraumes die zuströmenden Personen aufzunehmen.
(WikiLeaks, 2010b, S. 14)
Dabei geht der Veranstalter in beiden Fällen von maximal 250.000 Personen aus und
verstößt somit nach wie vor in gleichem Maße gegen die Bestimmungen der Sonderbau-
verordnung, geändert hat sich nur die Formulierung. Zusammenfassend lässt sich hinzufü-
gen, dass bezüglich der für die spätere Katastrophe relevanten, zu geringen Kapazitäten
der Notausgänge immer noch keine Lösungsmöglichkeit vorgeschlagen wurde – vermutlich
konnte es diese auch gar nicht geben, wie das Amt 62 bereits angedeutet hatte, als es die
Genehmigungsfähigkeit der Loveparade anzweifelte (siehe oben).
Inzwischen hatte das Sachverständigenbüro TraffGo HT die mittels Simulationen erstell-
te Entfluchtungsanalyse fertiggestellt. Auf Basis dieser Analyse erfolgte das Gutachten
des Professors für Physik, der sich wie folgt äußert: „Innerhalb der Möglichkeiten von Si-
mulationsuntersuchungen sind die Ergebnisse nachvollziehbar und für die beschriebenen
Szenarien als realistisch anzusehen. Damit ist nicht ausgesagt, dass sich evtl. die Menschen
vor Ort in den entsprechenden Situationen anders verhalten und abweichende Szenarien
entstehen.“ (Schreckenberg, 2010, S. 1). Es folgt ein Hinweis auf den späteren Ort der
Katastrophe: „Allerdings kommt dem Zugang zum Gelände durch den Tunnel Karl-Lehr-
Straße eine besondere Rolle zu, die in jedem Falle detailliertere Betrachtung benötigt.“
(Schreckenberg, 2010, S. 1). Und schließlich folgt noch ein Fazit zur Entfluchtungsanalyse:
„Dieser Meinung schließen [sic!] ich mich im Rahmen der mir zur Verfügung stehenden
Informationen und Unterlagen an.“ (Schreckenberg, 2010, S. 1). Der Gutachter bleibt in
seiner Bewertung der Analyse betont unverbindlich und versieht sein Gutachten mit diver-
sen Relativierungen, weswegen daraus eigentlich keine belastbaren Schlüsse bezüglich der
Sicherheitsbedenken hervorgehen. Allerdings wurde die Aussagekraft der Analyse und des
Gutachtens nicht in Frage gestellt, da sie dem Auftraggeber – dem Leiter des Dezernats
II – mutmaßlich ohnehin lediglich als Rechtfertigung für die Umgehung der gesetzlichen
Bestimmungen dienen sollte, um den Wunsch zur Genehmigung der Loveparade durch-
zusetzen (Seibel & Wenzel, 2017) – woraus sich ein weiterer Hinweis für den Desirability
Bias ergibt (siehe oben).
In einem Schreiben am 21.07.2010 genehmigt das Amt 62 nach monatelangem Widerstand
schließlich die Durchführung der Loveparade am 24.07.2010 mit einem Hinweis, dass eine
Abweichung von den Vorschriften bezüglich der „§ 7 (4) SBauVO Teil 1 – Unterschreitung
der erf. Fluchtwegausgangsbreiten“ erteilt wird (WikiLeaks, 2010l, S. 1).
Am 24.07.2010 findet in Duisburg die letzte Loveparade statt. Im Eingangsbereich des
Güterbahnhofs, der aus einem Tunnel und einer Rampe besteht, kommt es zu einem Mas-
sengedränge, bei dem 21 Menschen sterben, 652 Menschen teils schwer verletzt werden und
6 Studien 156
viele bis heute psychisch unter den traumatischen Erlebnissen leiden. In der Öffentlichkeit
und in den Medien war im Kontext der Katastrophe häufig von einer Massenpanik die
Rede. Helbing und Mukerji (2012) betonen, dass es sich bei der Loveparade nicht um eine
Massenpanik gehandelt habe, ein Begriff der impliziert, dass sich die Masse aufgrund eines
plötzlich eintretenden Ereignisses panisch in Bewegung setzt und aus diesem Verhalten ei-
ne Gefahr entsteht. Dementsprechend könnte der Eindruck entstehen, dass die Besucher
durch ihr panisches Verhalten zu der Katastrophe beigetragen haben oder dass die Si-
tuation weniger vorhersehbar war, was im Fall der Loveparadekatastrophe beides nicht
zutrifft. Stattdessen handelte es sich bei der Loveparade um Massenturbulenzen oder ein
Massenbeben, das letztlich eine kaum vermeidbare Konsequenz aus der stetig zunehmen-
den Dichte an Besuchern im Eingangsbereich der Loveparade als antizipierbare Folge der
in diesem Kapitel beschriebenen Fehlplanung war (vgl. Abbildung 19):
Abbildung 19
Ein- und Ausgangsbereich der Loveparade 2010
Anmerkung. Foto des gleichzeitigen Ein- und Ausgangsbereich der Loveparade 2010, in dem es zu
dem fatalen Massengedränge kam (Stollowsky, 2010).
As a consequence, an uncontrollable kind of collective dynamics occurs in the crowd, which is called ’crowd turbu-
lence’ or ’crowd quake’. The forces in this dynamical state of the crowd can cause various injuries (in particular of the
chest, as in crowd crushes). They are so high that they cannot even be controlled by large numbers of police forces.
Individuals can handle the situation even less. They are exposed to a large risk of losing balance and stumbling.
Once people have fallen, they constitute obstacles to others and are endangered by others falling on top of them,
since these can also not control their steps anymore as they wish. Hence, the surrounding people are likely to stumble
as well, which creates a ’domino effect’. The resulting number of falling people may be large. This creates a heap
of people, in which nobody can easily get back on their feet again. Those on the bottom have serious difficulties to
breathe, and they are likely to suffocate if this state lasts too long, given the weight of others on their top. (Helbing
6 Studien 157
& Mukerji, 2012, S. 14-15).
Die medizinischen Diagnosen spiegeln ein solches Geschehen auf der Loveparade wider:
In fact, suffocation was diagnosed as the reason for the death of people during the Love Parade [sic!] disaster. In
simple words, this means that the lungs of the victims have been compressed so much that they were unable to
breathe enough to get the required amount of oxygen to survive. (Helbing & Mukerji, 2012, S. 14).
Im Anschluss an die Katastrophe war bezüglich der Attribuierung der unterschiedlichen
Akteure ein starkes Maß an Self-Serving Bias zu erkennen. So übernahmen zwar zumin-
dest einige der Verantwortlichen eine moralische Schuld, die ausschlaggebenden Ursachen
wurden jedoch stets bei anderen Akteuren verortet. Vom Self-Serving Bias muss natürlich
die Sorge vor expliziten strafrechtlichen oder sozialen Konsequenzen abgegrenzt werden,
die mutmaßlich ebenfalls eine Rolle bei der Ablehnung von Verantwortung gespielt hat.
Nichtsdestotrotz kann davon ausgegangen werden, dass die Verantwortlichen die vorlie-
genden Informationen im Rahmen der kognitiven Dissonanzreduktion so interpretierten,
dass sie tatsächlich dachten, dass sie jeweils keine oder kaum Schuld trifft. Das ist insbe-
sondere wahrscheinlich, da die komplexe Gesamtkonstellation – bei der unterschiedliche
Faktoren und deren Interaktion eine Rolle spielten – dazu führte, dass die Verantwortung
sich auf mehrere Akteure verteilt, wie sich auch in der juristischen Aufarbeitung gezeigt
hat (siehe oben), was eine Verzerrung der Wahrnehmung von Verantwortung einfacher
macht. Self-Serving Bias:
• Konkurrenzdenken führt dazu, dass es besonders wichtig ist, die eigene, individuelle, Leistung hervor-
zuheben [invertiert]
• Erfolge werden als verdiente Leistung bewertet und Probleme eher auf unglückliche Umstände zurück-
geführt [invertiert]
• Es findet eine kritische Reflektion der Ergebnisse sowohl bei Erfolgen als auch bei Misserfolgen statt
Der begutachtende Professor für Physik von Transport und Verkehr macht zwei Tage nach
der Katastrophe zunächst das Verhalten einiger Besucher als Auslöser der Katastrophe aus,
die sich „nicht an die Spielregeln gehalten“ hätten (Fromme, 2010, S. 1). Er sagt, dass es
oft kleine Sachen seien, die Katastrophen auslösen, und man die Treppe vorher hätte
sprengen müssen, die er als Ursache für die Katastrophe betrachtet. Die besagte Treppe
ist der Ort, den viele der Besucher während der Katastrophe als potenziellen Ausweg aus
dem tödlichen Gedränge sahen, weswegen dort ein besonders starker Druck entstand und
eine Vielzahl der Opfer in deren Nähe zu Tode kamen.
Tatsächlich ist es so, dass viele Faktoren bei der Entstehung oder dem Verlauf der Kata-
strophe eine Rolle gespielt haben. Eine Fokussierung auf einzelne derartige Faktoren geht
aber am Kern des Problems vorbei, denn es hätte nicht zu einer Situation kommen dürfen,
in der die vom Gutachter beschriebenen „kleinen Sachen“ über Leben und Tod der Be-
sucher entscheiden. Ein ordentliches Planungskonzept hätte ausschließen müssen, dass es
6 Studien 158
zu einer so gefährlich hohen Personendichte im Ein- und Ausgangsbereich der Loveparade
kommen kann. Ein vergleichbarer Faktor war, dass der Veranstalter im Genehmigungs-
verfahren hätte garantieren müssen, dass eine Lautsprecheranlage bereitstehen würde, mit
der die Polizei die Musik stummschalten könnte, um Durchsagen zu tätigen. Als die Po-
lizei wenige Stunden vor der Katastrophe von Problemen im Ein- und Ausgangsbereich
erfahren hatte und von dieser Anlage Gebrauch machen wollte, hieß es vom Veranstal-
ter nur, dass dies technisch nicht möglich sei. Bekanntermaßen war am Veranstaltungstag
niemand vom Amt 32 oder Amt 62 vor Ort, um die Einhaltung der Genehmigungsaufla-
gen zu überprüfen (siehe oben). Laut Staatsanwaltschaft hätte zu diesem Zeitpunkt eine
funktionierende Lautsprecheranlage die Katastrophe wahrscheinlich noch verhindern kön-
nen (Brandt et al., 2011). Auch eine Kombination derartiger Faktoren muss ein resilientes
System in Form von Redundanz beziehungsweise Sicherheitsmargen berücksichtigen. Der
Veranstalter übernimmt nach der Katastrophe zunächst nicht nur keinerlei Verantwortung
für die Geschehnisse, sondern versucht aktiv, diese auf andere Akteure abzuwälzen, indem
er zum Beispiel animierte Filme erstellt und verbreitet, die vermitteln sollen, dass das Ver-
halten der Polizei am Veranstaltungstag maßgeblich für die Katastrophe verantwortlich
gewesen sei (Rehm, 2020).
Der Self-Serving-Bias bei der Aufarbeitung von Fehlentscheidungen kann dazu führen,
dass sich Akteure ihrer Verantwortung nicht bewusst sind, und das hat Konsequenzen
für zukünftige Vorhaben. Zum einen führt die selbstwertdienliche Attribution dazu, dass
eigene Fehler und Schwächen nicht erkannt und eigene Fähigkeiten grundsätzlich über-
schätzt werden, wodurch sich situationsübergreifend der Overconfidence Bias verstärkt.
Zum anderen erscheinen die Ereignisse aufgrund des Hindsight Bias rückwirkend erklär-
barer und steuerbarer, als sie es in komplexen Planungssituationen tatsächlich sind. So
führen simple Erklärungsmuster in komplexen Systemen – wie jenes, dass die Treppe die
Loveparadekatastrophe ausgelöst habe und deren Sprengung die Katastrophe verhindert
hätte – fälschlicherweise dazu, dass ähnliche Probleme in Zukunft durch einfache Inter-
ventionen beherrschbar erscheinen. Der Hindsightbias führt also dazu, dass der Einfluss
unvorhersehbarer Einflussfaktoren unterschätzt wird, womit wiederum die Grundlage für
den Optimism Bias geschaffen ist.
Zusammenfassung
Trotz der deutlich unterschiedlichen Beschaffenheit der beiden Fälle bezüglich des Pla-
nungshorizonts – viele Jahre bei Boeing vs. wenige Monate bei der Loveparade – und der
Organisationsgröße und Komplexität – Boeing als globaler Großkonzern vs. Lopavent mit
einer handvoll Mitarbeitern – zeigen sich deutliche Parallelen in den Planungsprozessen,
die im nächsten Kapitel genauer beschrieben werden. Zunächst werden die Ergebnisse aus
der Fallstudie zur Loveparade 2010 zusammengefasst:
Nachdem bereits zuvor Bochums Polizeipräsident nach der Absage der Loveparade in
6 Studien 159
Bochum gegen seinen Willen in den Ruhestand versetzt wurde, führten die Warnungen des
Duisburger Polizeipräsidenten ebenfalls zu Rücktrittsforderungen. Dieser starke öffentliche
Druck hatte Signalwirkung und hat die Duisburger Behördenmitarbeiter von Anfang an
stark beeinflusst (Direct Pressure on Dissenters).
Entsprechend pocht der Leiter des Dezernats II vom ersten Planungstag an darauf, dass die
Loveparade in Duisburg erwünscht sei und möglich erscheine, anstatt den Planungsprozess
ergebnisoffen zu starten (Desirability Bias).
Hier zeigt sich auch schon zu Beginn seine mutmaßliche Rolle als Self-Appointed Mind-
guard, soweit er kritische Informationen nicht an den Oberbürgermeister weitergeleitet
haben sollte, wie dieser später behauptet.
Der beratende Professor für Physik rät direkt zu Beginn der Planung dazu, zwei von drei
Varianten zur Besucherführung aus Kosten- und Sicherheitsgründen auszuschließen. Übrig
bleibt nur die Variante des einzigen und gleichzeitigen Ein- und Ausgangs durch den Tunnel
in der Karl-Lehr-Straße. Die frühe Festlegung eines fachlichen Experten, hat die anderen
Beteiligten mutmaßlich durch das Setzen eines mentalen Ankers beeinflusst (Anchoring
Effect). Passend dazu finden die problematischen Implikationen dieser Lösung wenige Tage
später letztmalig explizite Erwähnung in einer Präsentation und tauchen anschließend in
keinem der verfügbaren Protokolle mehr auf, da sie mutmaßlich als gegeben betrachtet
werden und kaum noch Alternativen ins Bewusstsein rücken.
Ähnlich wie im Fall von MCAS bei Boeing, kann dieser Sachverhalt so interpretiert wer-
den, dass, nachdem eine wünschenswerte Alternative gefunden wurde – primär nach dem
Kriterium geringer Kosten – die Suche nach konträren Informationen eingestellt wurde
(Desirability Bias), in der unbewussten Annahme, dass man genug weiß (WYSIATI).
Das Verzögern des Veranstalters beim Einreichen der zur Genehmigung nötigen Unterlagen
könnte Teil einer Strategie gewesen sein, die darauf abzielt, die monetären und psychologi-
schen Kosten einer Absage zu erhöhen, in dem Wissen, dass der Druck zur Durchführung
der Loveparade von Öffentlichkeit und Medien auf die Politik sowie von der Politik auf die
Verwaltung groß ist und im Laufe der Zeit weiter zunimmt, was bei den Entscheidungs-
verantwortlichen den Effekt der Sunk-Cost Fallacy verstärkte.
Die Anpassung der Prognose der erwarteten Besucherzahl durch den Veranstalter, um den
Bedingungen der Bauordnung gerecht zu werden, ist zielgerichtet anstatt ergebnisoffen
(Desirability Bias).
Mitarbeiter der Verwaltung klagen über politischen Druck (Direct Pressure on Dissen-
ters) und sagen, dass kritische Hinweise von Vorgesetzten schlicht ausgeblendet würden
(Collective Rationalization).
Das Abstempeln von Mitarbeitern, die sich richtigerweise gegen das Vorgehen stellen, als
6 Studien 160
Akteure mit „mangelnder Übung“, spricht für das Bilden von Out-Group-Stereotypes, was
das eben beschriebene Ausblenden von Kritik erleichtert.
Die Idee des Leiters des Dezernats II, ein Gutachten erstellen zu lassen, um die rechtlichen
Anforderungen zu überbrücken, spricht erneut für einen ausgeprägten Desirability Bias.
Der Vorschlag, eine potenziell kritische Stimme „ins Boot zu holen“, indem man die betref-
fende Person als Gutachter beauftragt, läuft den Prinzipien einer guten Entscheidungs-
findung vollständig entgegen und bedeutet, dass man kritische Informationen blockiert
(Self-Appointed Mindguards), bevor diese überhaupt geäußert werden.
Dass zwei Monate vor Durchführung der Veranstaltung noch Unklarheiten bezüglich Ver-
antwortungsbereichen herrschen, ist bezeichnend für den gesamten Prozess und spricht für
Social Loafing.
Die Annahme des Veranstalters, dass sich sein gleichbleibendes Konzept in wechselnden
Umfeldern bewährt hat (Stichprobe der Umfelder: 2) ist überoptimistisch (Optimism Bi-
as), insbesondere unter den in Duisburg besonders stark veränderten Bedingungen. Die
Fehlannahme des Veranstalters, dass sich die Besucherströme „hervorragend“ durch die
Bewegung der Floats steuern ließen, überschätzt dessen Einflussmöglichkeiten (Overcon-
fidence) und verkehrt sich später auf fatale Weise ins Gegenteil, wenn das Warten auf die
Floats den Stau im Tunnel verstärkt und die Katastrophe maßgeblich mitverursacht. Hier
lässt sich die Availability Heuristic als Einflussfaktor benennen, welche Zuversicht in ein
Häufigkeits- beziehungsweise Wahrscheinlichkeitsurteil auf Basis einer nicht repräsentati-
ven Stichprobe verursachen kann.
Auch die falsche Interpretation der gesetzlichen Bestimmungen, auf die der Veranstalter
trotz gegenteiliger Hinweise der Baubehörde beharrt, sowie die Aussage „Es könne nicht
um rechtliche, sondern nur um die tatsächlichen Probleme gehen“, zeigt die Ignoranz,
die sich mitunter in der Sichtweise des Veranstalters begründet, zu den „Guten“ zu ge-
hören, die der Stadt und der Region ein tolle Fest bescheren wollen (Belief in Inherent
Morality of the Group). Diese implizierte Sichtweise bewertet auf der anderen Seite das
Amt 62 beziehungsweise dessen Mitarbeiter als Antagonisten, die versuchen, an gesetzli-
chen Bestimmungen festzuhalten und diesem vermeintlich noblen Anliegen entgegenstehen
(Out-Group Stereotypes).
Der Leiter des Dezernats II stellt sich hinter den Veranstalter und baut Druck auf die
Mitarbeiter des Amt 62 auf, indem er diese auffordert, sich an der Erarbeitung des Sicher-
heitskonzepts zu beteiligen, obwohl das nicht zu deren Aufgabenbereich gehört und diese
die Probleme bereits drei Monate zuvor als unlösbar bezeichnet hatten (Direct Pressure
on Dissenters).
Der Veranstalter hat zwei Wochen vor der Veranstaltung immer noch keine Lösung für
6 Studien 161
die beschriebenen Probleme vorgebracht und behauptet weiterhin, dass die Sonderbauver-
ordnung Abweichungen für Veranstaltungen im Freien zulassen würde, was das zuständige
Amt 62 längst verneint hat. Sicherheitsbedenken spielen für den Veranstalter keine Rol-
le, und die Möglichkeit von Gefahren entzieht sich anscheinend seiner Vorstellungskraft
(Illusion of Invulnerability).
Neun Tage vor der Loveparade findet die letzte Planungssitzung statt, bei der auf Nachfra-
ge niemand Einwände erhebt. Die kritischen Stimmen sind nach dem monatelangen Druck
vom Veranstalter, der Politik und der Verwaltung verstummt (Self-Censorship), was zur
Illusion of Unanimity führt.
Der Professor für Physik bleibt in seinem halbseitigen Gutachten unbestimmt und relati-
viert sämtliche seiner Aussagen, vermutlich, um sich nicht angreifbar zu machen und lässt
damit viel Interpretationsspielraum zu. Der Leiter des Dezernats II nutzt das Gutachten
für den Zweck, für den er es in Auftrag gegeben hat – als Rechtfertigung zur Umgehung
der Bauordnung (Desirability Bias).
Anschließend an das Ereignis folgen gegenseitige Schuldzuweisungen und unplausible Recht-
fertigungen, die ein Lernen aus Fehlern erschweren (Self-Serving Bias).
6.1.3 Fazit
Most accident sequences, like the road to hell, are paved with good intentions — or with what seemed like good
ideas at the time. (Reason, 2016, S. 21)
Die Fallstudien bieten interessante Erkenntnisse zu der Relevanz und Häufigkeit verschie-
dener Biases in organisationalen Planungs- und Entscheidungsprozessen sowie Hinweise
auf ein zufriedenstellendes Maß an Augenscheinvalidität bezüglich der im Rahmen dieser
Arbeit konstruierten Fragebogenitems, die in den folgenden Kapiteln im Rahmen empi-
rischer Erhebungen weiter auf ihre Testgüte hin geprüft werden. Abbildung 20 zeigt die
Häufigkeit der in den beiden Fällen identifizierten biasbezogenen Effekte.
Dabei gibt es bezüglich der aus den Fallstudien abgeleiteten Erkenntnisse bestimmte
Aspekte zu beachten. Zum einen muss einschränkend angemerkt werden, dass der Zusam-
menhang zwischen der Häufigkeit und der Relevanz der Effekte mit einer methodischen
Einschränkung, nämlich der Identifizierbarkeit der einzelnen Effekte mittels Dokumen-
tenanalyse, konfundiert ist. Die Ausführungen aus den unterschiedlichen Quellen stellen
lediglich eine Zusammenfassung der Ereignisse dar und bevorzugen damit potenziell be-
stimmte Effekte. So unterliegen zwar alle Zuschreibungen spezifischer Effekte im Rahmen
dieser Analyse einem gewissen Grad an Unsicherheit, davon sind jedoch primär kognitive
Cold Biases – Gedächtnis- und Statistikbezogene Effekte – wie zum Beispiel der Availa-
bility Bias, stärker betroffen als motivations- und emotionsbezogene Hot Biases, wie der
6 Studien 162
Abbildung 20
Häufigkeit verschiedener Biases in den Fallstudien
Anmerkung. Darstellung der Häufigkeit der durch den Autor identifizierten Biases in den Fallstu-
dien.
Desirability Bias, da letztere in Fallstudien potenziell besser erkennbar sind. Des Weiteren
wurden die Zuschreibung der Effekte im Rahmen der Fallstudien durch eine Problematik
erschwert, die bezüglich der Klassifikation von Heuristiken und Biases bereits in Kapitel
3.5 beschrieben wurde. Dabei geht es um die gegenseitige Beeinflussung der einzelnen Ef-
fekte sowie teilweise auch konzeptuelle Überschneidungen. Der Confirmation Bias und der
Desirability Bias ließen sich in den Fallstudien kaum voneinander abgrenzen, was nicht
überraschend ist, wenn man die starke inhaltliche Überschneidung der Effekte betrachtet.
Der Unterschied besteht lediglich darin, dass beim Confirmation Bias die bestehenden
Ansichten und beim Desirability Bias die erwünschten Ansichten die Informationssuche,
Speicherung und Interpretation beeinflussen und die bestehenden und gewünschten An-
sichten häufig – jedoch nicht zwangsläufig – übereinstimmen. Diese Erkenntnis steht im
Einklang mit der von Tappin et al. (2017) geäußerten Vermutung, dass in vielen Fällen,
in denen der Confirmation Bias angeführt wird, das Urteil tatsächlich auf den Desirability
Bias zurückgeführt werden kann (vgl. Kapitel 3.3.4). Zudem hat sich bei der Identifika-
tion der Eindruck bestätigt, der in Kapitel 3.4.1 zu Groupthink herausgearbeitet wurde,
demnach einzelne Facetten von Groupthink eine durch den Gruppenkontext verstärkte
Form intraindividueller Biases darstellen. So wurde zum Beispiel die Facette Illusion of
Invulnerability als gruppenbezogene Form des Overconfidence Bias betrachtet. Schließlich
ist es wichtig, dass die Validität der Erkenntnisse zukünftig durch weitere Expertenbeur-
teilungen geprüft wird.
Abgesehen von den bei Fallstudien zum Teil unabdingbaren Limitationen lassen sich in-
6 Studien 163
teressante Erkenntnisse zum Einfluss von kognitiven, motivationalen und gruppendynami-
schen Biases in realen Bedingungen ableiten. Auffällig ist, wie stark die Entscheidungspro-
zesse in beiden Fällen durch den Desirability Bias geprägt sind. Man kann den Entschei-
dungsträgern in beiden Fällen eine übergeordnete Zielorientierung unterstellen, die sich
jeweils durch den gesamten Prozess zieht und diesen durchgehend stark beeinflusst. Aus
der selektiven Wahrnehmung und Verarbeitung wünschenswerter Informationen entstehen
in der Folge überoptimistische Zukunftsprognosen (Optimism Bias), die sich in einer zu ge-
ringen Beachtung externer Risikofaktoren zeigen. Dazu gehört eine Unterschätzung bereits
bekannter Risikofaktoren – zum Beispiel die zu knapp bemessene Kapazität des Geländes
bei der Loveparade – sowie eine unzureichende Suche nach unbekannten, aber erfassbaren
Risiken – zum Beispiel das Testen von MCAS in umfangreicheren Bedingungen, wie der
Fehlaktivierung des Systems – die zu konkreten Maßnahmen hätten führen können. Zudem
sollten in komplexen Systemen unvorhersehbare Risiken beziehungsweise deren Verkettung
mit zusätzlicher Redundanz beziehungsweise Sicherheitsmargen bedacht werden. So wur-
den bezüglich der Loveparade unterschiedliche verstärkende Faktoren auf der operativen
Ebene berichtet. Dazu gehören eine Verzögerung der Eröffnung aufgrund von Bauarbeiten,
das Verpassen einer Priorisierung des überlasteten Mobilfunknetzes für Kommunikations-
geräte der Polizei sowie ein Schichtwechsel der Polizei im kritischen Zeitraum (Helbing &
Mukerji, 2012). Da bei komplexen, unstrukturierten und situationsspezifischen Vorhaben
Erfahrungswerte nur einen begrenzten Nutzen bringen, stehen – neben dem Desirability
Bias – in dieser Arbeit beschriebene Effekte, wie Optimism oder Overconfidence, einer
Antizipation derartiger Ereignisse im Weg.
Overconfidence wurde nur einmal im Fall der Loveparade genannt, im Zuge der starken
Selbstüberschätzung des Veranstalters. Die Überschätzung der Möglichkeiten der Ausfüh-
rungsebene bezüglich der Kontrollierbarkeit der Situation wird wie oben dem Optimism
Bias zugeschrieben, da die ausführenden Akteure aus Sicht der Planungsebene externe
Faktoren darstellen, die durch eine zu optimistische Sichtweise auf der Planungsebene in
die betreffenden Situationen geraten. Dafür wurde in beiden Fällen der potenziell mit
Optimism und Overconfidence konfundierte Effekt Illusion of Invulnerability festgestellt.
Illusion of Invulnerability beschreibt, in ähnlicher Form, ein durch vergangene Erfolge
gespeistes überhöhte Selbstbewusstsein auf Gruppenebene.
Bei der Rekonstruktion der Planungsprozesse fällt besonders der starke Einfluss durch
Groupthink auf. Vor allem bei der Planung der Loveparade, bei der durch die Veröffent-
lichung der Protokolle Detailwissen aus den einzelnen Planungssitzungen vorliegt, lassen
sich alle Facetten von Groupthink identifizieren:
Illusion of Invulnerability: Lopavent verweist immer wieder auf die erfolgreiche Durchfüh-
rung vergangener Loveparades und blendet in der Folge Sicherheitsbedenken völlig aus.
Boeing blickt als einziger relevanter amerikanischer Flugzeugbauer auf eine jahrzehntelan-
6 Studien 164
ge Erfolgsgeschichte zurück, die bis zu den beschriebenen Ereignissen in der öffentlichen
Wahrnehmung nur selten in Frage gestellt wurde. Dazu genoss man als einzig großer Flug-
zeugbauer in den USA besondere Privilegien, die sich zum Beispiel in den Beziehungen zu
staatlichen Behörden wie der FAA zeigten, und die mutmaßlich das Gefühl vermittelten,
dass der Organisation von außen kaum Grenzen gesetzt werden. Die National Aeronau-
tics and Space Administration (NASA), der Janis (1971) im Rahmen des Absturzes des
Challenger-Spaceshuttles Groupthink zugeschrieben hat, war in einer ähnlichen Situation
und deren Mitarbeiter zeigten ähnliche Verhaltensmuster.
Belief in Inherent Morality of the Group: Bezüglich der Loveparde sahen sich der Veran-
stalter und führende Verwaltungsmitarbeiter als Kämpfer für die gute Sache, die weltoffen
sind und die Stadt sowie die ganze Region mit der Veranstaltung aufwerten wollen. Boeing
genoss lange Zeit einen besonders guten Ruf bei den Mitarbeitern und in der Bevölkerung
und die wichtige wirtschaftlichen Funktionen, die Boeing im Duopol neben Airbus ein-
nimmt, prägte das Selbstverständnis der Organisation. Auch hier zeigen sich Parallelen zu
den Ereignissen bei der NASA (vgl. Janis, 1971).
Collective Rationalization: Konkrete Warnungen werden bei der Planung der Loveparade
in der Regel nicht aufgegriffen, sondern mit teils inhaltslosen Argumenten verdrängt. Als
Reaktion auf Zweifel an der Durchführbarkeit der Loveparade in Duisburg verweist zum
Beispiel der Leiter des Dezernats II darauf, dass der Oberbürgermeister die Veranstaltung
wünsche und deshalb eine Lösung gefunden werden müsse. An einer anderen Stelle sagt
der Veranstalter, dass es ihm um „tatsächliche“ Probleme gehe und nicht um rechtliche.
Bei Boeing gibt es Hinweise, dass Ingenieure in unterschiedlichen Planungsphasen Kritik
äußerten, die im Management nicht ausreichend beachtet wurden. Die anonymen Berichte
von Ingenieuren besagen, dass bekannt war, dass die Sicherheitsanalysen die Einflussmög-
lichkeiten von MCAS untertrieben.
Out-Group Stereotypes: Es zeigt sich während der Planung der Loveparade immer wieder,
dass kritische Akteure direkt oder indirekt als „Sicherheitsfanatiker“ abgetan wurden, die
dem als nobel wahrgenommenen Vorhaben – die Loveparade nach Duisburg im Ruhrgebiet
zu holen – entgegenstünden. Bei Boeing zeigt sich der Effekt bei der Ursachenbewertung
in der Behauptung, dass die fehlende Kompetenz einiger Piloten aufgrund mangelhafter
Ausbildungsstandards in bestimmten Regionen für die Abstürze verantwortlich seien.
Self-Censorship: Der Effekt zeigt sich in der letzten Planungssitzung kurz vor der Love-
parade mit allen Beteiligten, in der keiner der Kritiker die zuvor geäußerten und nicht
gelösten Bedenken anspricht.
Illusion of Unanimity: Als Folge der zuvor beschriebenen Effekte, wie Self-Censorship und
Collective Rationalization, entsteht die Illusion von Einstimmigkeit, da zuvor kritische
Stimmen nicht geäußert oder unterdrückt wurden. Der Effekt zeigt sich zum Beispiel
6 Studien 165
in der eben beschriebenen Planungssitzung vor der Loveparade, in der keine kritischen
Meinungen mehr geäußert wurden.
Direct Pressure on Dissenters: Direkter Druck auf Personen mit abweichender Meinung
zieht sich von Beginn an durch den gesamten Planungsprozess der Loveparade 2010. Der
Effekt zeigt sich besonders stark in den Forderungen nach dem Rücktritt des damaligen
Duisburger Polizeipräsidenten und in dem Druck, den der Veranstalter und Leiter des
Dezernats II auf die Mitarbeiter des Bauamts ausübten. Bei Boeing zeigt sich der Effekt
am Beispiel des Ingenieurs, der später als Whistleblower Kritik an den Sicherheitsstandards
äußerte und zuvor abteilungsübergreifend zunächst unter Druck gesetzt und anschließend
gekündigt wurde.
Self-Appointed Mindguards: Als Self-Appointed Mindguard agierte mutmaßlich der Lei-
ter des Dezernats II, insofern er kritische Informationen nicht an den Oberbürgermeister
weiterleitete. Bei Boeing agierten Mitarbeiter als Self-Appointed Mindguards, wenn sie
Probleme, die sich aus der Sicherheitsanalyse ergeben haben, nicht vollständig an ihre
Führungskräfte kommuniziert haben sollten, was jedoch nicht eindeutig aus den Unterla-
gen hervorgeht.
In den Fallstudien zeigen sich einige auffällige Parallelen bezüglich des Entscheidungs-
kontextes. Beide Fälle sind durch Zeit- und Erfolgsdruck gekennzeichnet. Boeing wollte
unbedingt in wenigen Jahren einen neuen effizienteren Flugzeugtyp auf den Markt brin-
gen, um gegenüber Airbus konkurrenzfähig zu bleiben. Bei der Planung der Loveparade
hatten die Verantwortlichen nur zehn Monate Zeit, das Event zu planen, was insbesondere
aufgrund der ungeeigneten geographischen und logistischen Verhältnisse sowie der mut-
maßlichen Verzögerungstaktiken des Veranstalters zu starkem Zeitdruck führte. Zeitdruck
führt generell dazu, dass durch die enge Planungstaktung Entscheidungen häufiger durch
heuristische Prozesse geprägt sind (Kahneman & Frederick, 2009).
In beiden Fällen herrschte ein besonderer Erfolgsdruck. Wenn das erwünschte Ergebnis von
vorneherein als so existentiell wahrgenommen und kommuniziert wird, legt dieser starke
Wunsch die Grundlage für eine sehr starke Zielorientierung beziehungsweise einen stark
ausgeprägten Desirability Bias bei den Verantwortlichen. Der eben beschriebene Zeitdruck
verschärft die Situation, weil nicht nur das Ziel selbst nicht zur Debatte steht, sondern auch
kaum verschiedene Alternativen zur Erreichung dieses Ziels entwickelt werden. Zum Bei-
spiel wurde bei der Loveparade nicht nur – entgegen unterschiedlicher Expertenmeinungen
bezüglich der sicherheitskritischen Situation in Duisburg – stark darauf hingewirkt, dass
die Loveparade dort dennoch staffindet – es wurde anschließend viel zu wenig ergebnisoffen
darüber diskutiert, wie man beispielsweise Wegekonzepte gestalten kann, obwohl bekannt
war, dass es Alternativen zur fatalen Tunnellösung gegeben hätte. Bei Boeing hat man
sich nicht nur entgegen der Empfehlung der Ingenieure gegen die Entwicklung eines neu-
en Flugzeugtyps entschieden, man hat auch bei der Weiterentwicklung der 737-MAX auf
6 Studien 166
einfach umsetzbare Sicherheitsmechanismen verzichtet, die das Risiko für katastrophale
Fehlaktivierungen hätten minimieren können.
Eine weitere Gemeinsamkeit der beiden Fälle besteht darin, dass jeweils die Kontrollfunkti-
on der zuständigen Behörden versagte. Bezüglich der Loveparade wurde der Druck seitens
der Politik vom Leiter des Dezernats II übernommen, der, gemeinsam mit dem Veran-
stalter, Druck auf die ihm unterstellten und weitere Verwaltungsmitarbeiter ausübte, was
diesen die gewissenhafte Ausführung ihrer Tätigkeit stark erschwerte. Im Falle Boeings
sourcte die FAA, um den eigenen Ressourcenaufwand zu reduzieren, viele Kontrolltätig-
keiten an Boeing selbst aus, die sich folglich zum Teil selbst kontrollierten. Des Weiteren
erhoffen sich viele FAA-Mitarbeiter lukrative Anschlussbeschäftigungen bei Boeing oder
mit Boeing assoziierten Organisationen und halten sich deshalb mit Kritik an Boeing
zurück, wie es mutmaßlich im Falle der Beschwerden des Ingenieurs Woods geschehen
ist. In beiden Fällen zeigen sich auch Parallelen darin, wie die Verantwortlichen mit In-
formationen zu Fehlern und Problemen aus der Vergangenheit umgehen beziehungsweise
diese ignorieren und welche Schlüsse sie nach den beschriebenen Ereignissen über den
eigenen Planungsprozess ziehen beziehungsweise nicht ziehen. Bei Boeing waren bereits
einige Jahre vor den beiden Abstürzen mit der 737-Max Klagen über Probleme bezüg-
lich der Organisationskultur laut geworden, die sich zum Beispiel anhand der gefährlichen
Situationen im Zusammenhang mit den Batteriebränden des Dreamliners zeigten. Es fan-
den anscheinend keine Lernprozesse statt, denn Kritik wurde nicht angenommen, sondern
unterdrückt, wie sich am Beispiel des Ingenieurs Woods zeigte. Diese Kultur und die
assoziierten Strukturen bildeten die Grundlage für die fatalen Planungsfehler bei der Ent-
wicklung der 737-MAX. Nach dem ersten Absturz hielt Boeing trotz massiver Hinweise auf
MCAS als Ursache an dem Standpunkt fest, dass die 737-MAX sicher sei und selbst nach
dem zweiten Absturz, als eigentlich kaum noch Zweifel über die Gefahr, die von MCAS
ausgingen, blieben, beharrte Boeing auf diesem Standpunkt. Erst nachdem die interna-
tionalen Luftfahrtbehörden ein Grounding der 737-MAX erzwungen haben, überarbeitete
Boeing die Wirkungsweise von MCAS, das inzwischen als zuverlässig gilt.
An dieser Stelle kommt, bei mangelnder Reflektion der Verantwortlichen, die obstruktive
Wirkung des Hindsightbias zur Geltung. Wenn sich, wie zuvor bei den Batteriebränden,
die Maßnahmen nur auf die technische Weiterentwicklung des betreffenden Systems be-
schränken, wird das Symptom bekämpft, nicht aber die tieferliegende Ursache. Die Suche
nach der Ursache muss das gesamte System berücksichtigen und liegt in den beschriebenen
Fällen unter anderem in einer mangelnden Berücksichtigung des Einflusses der Organisati-
onskultur und assoziierter Biases auf organisationale Entscheidungsprozesse. Die Wirkung
des Hindsightbias im Nachgang der Loveparadekatastrophe wurde in Kapitel 6.1.2 aus-
führlich besprochen. Auch hier führt, neben der Angst vor juristischen Konsequenzen, die
mangelnde Einsicht der Akteure dazu, dass eigene Planungsfehler nicht ausreichend oder
gar nicht reflektiert werden und stattdessen versucht wird, die Ursache in Einzelheiten
6 Studien 167
des Geschehens vor Ort, wie der Treppe oder dem Verhalten der Polizei zu suchen, die
nicht den Kern des Problems darstellen, wie sich bei detaillierter Betrachtung des Gesamt-
systems herausstellt. Im Sinne der kognitiven Dissonanzreduktion ist es nachvollziehbar,
dass Menschen versuchen das Geschehen so zu attribuieren, dass sie selbst der Meinung
sind, keine Verantwortung für ein tragisches Ereignis zu tragen (Self-Serving Bias). Um
als Organisation – und auch als Gesellschaft als Ganzes – aus solchen Ereignissen besser
lernen zu können, ist es wichtig, eine angemessene Fehlerkultur zu etablieren. Wie zu-
vor beschrieben wurde, ist ein zu starker Fokus auf der Schuldfrage nicht hilfreich, weil es
dadurch erschwert wird, aus unerwünschten Ereignissen die richtigen Schlüsse zur System-
gestaltung zu ziehen. Darüber hinaus verhindert eine mangelhafte Fehlerkultur, dass aus
Angst vor Repressalien bereits im Planungsprozess Fehler und Probleme offen diskutiert
werden, was essenziell für adäquate Entscheidungsprozesse ist.
Im Anschluss an die Ereignisse der Loveparade 2010 äußerten viele der trauernden und
leidenden Opfer und Hinterbliebenen das Bedürfnis nach Gerechtigkeit und den Wunsch,
dass die Schuldigen zur Verantwortung gezogen werden. Entsprechend groß ist – neben
dem Fakt, dass einige kritische Akteure bis heute nicht einmal eine moralische Schuld an-
erkannt haben – die Enttäuschung über die juristische Aufarbeitung der Ereignisse (vgl.
Kapitel 6.1.2). Bei derartigen Ereignissen, die auf multikausale Ursachen mit vielen betei-
ligten Akteuren zurückzuführen sind, kann die Schuldfrage, wie vom Gericht betont, häufig
nicht zufriedenstellend geklärt werden. Sicher ist, dass keiner der Akteure die Ereignisse
vorsätzlich herbeigeführt hat und im Rahmen dieser Arbeit wurde gezeigt, dass das mitun-
ter grob fahrlässige Handeln bestimmter Akteure zumindest zum Teil auf systematischen
Biases basiert. Ein weiteres wichtiges Anliegen von Opfern und Hinterbliebenen ist es, dass
viel dafür getan wird, dass sich derartige Katastrophen nicht wiederholen. Diesbezüglich
hat jede Organisation das Potenzial, die Chancen auf nachhaltigen Erfolg zu erhöhen, wenn
es Ressourcen für die Etablierung einer Kultur und entsprechender Strukturen bereitstellt,
die das Ausmaß von Biases reduzieren oder deren Auswirkung mitigieren.
6.2 Expertenbefragung
Die im Folgenden beschriebene Expertenbefragung entspricht nicht dem praktischen Ein-
satz des Fragebogens zur Organisationsdiagnostik. Der zur Anwendung vorgesehene Frage-
bogen wird in der Validierungsstudie in Kapitel 6.3 anhand einer Befragung von Probanden
der Zielgruppe beschrieben. Die folgende Befragung dient ausschließlich der inhaltlichen
Validierung der Items, wie im folgenden Abschnitt genauer beschrieben wird. Entspre-
chend beschränken sich die Analysen der Expertenbefragung auf die Zustimmungstendenz
und qualitative Kommentare bezüglich Verbesserungspotenzialen.
6 Studien 168
6.2.1 Vorgehen
Die quantitative Expertenbefragung dient dem Ziel, Hinweise zur Inhaltsvalidität der in
Kapitel 5 entwickelten Fragebogenitems zu erhalten. Dazu wurden, auf Basis der in Kapi-
tel 3 erarbeiteten theoretischen Grundlagen, kurze Konstruktdefinitionen zu den Einzel-
nen kognitiven, motivationalen und gruppendynamischen Biases beschrieben, welche zum
besseren Verständnis mit kurzen Beispielen angereichert wurden. Zu den Konstruktdefini-
tionen wurden den Probanden die zugehörigen Items des Fragebogens präsentiert, mit der
Aufforderung zu bewerten, inwieweit das beschriebene Verhalten einen Hinweis für den
entsprechenden Effekt darstellt. Abbildung 21 zeigt am Beispiel des Optimism Bias den
Aufbau des Fragebogens.
Abbildung 21
Expertenbefragung – Beispiel Optimism Bias
Anmerkung. Beispiel der Expertenbefragung anhand des Optimism Bias.
Die Bewertung wird auf einer vierstufigen Likert-Skala unter den Abstufungen trifft gar
nicht zu bis trifft völlig zu festgelegt. Ein hoher Wert bedeutet, dass die im jeweiligen Item
beschriebene Situation oder Verhaltensweise einen ausgeprägten Bezug zu dem entspre-
chenden Bias aufweist. Darüber hinaus besteht auf jeder Seite die Möglichkeit, in einem
Freitextfeld Anmerkungen zu den präsentierten Inhalten vorzunehmen.
6 Studien 169
Um die Verständlichkeit zu erhöhen, wurden positiv und negativ gepolte Items mit jeweils
spezifischen Instruktionen präsentiert, wie in Abbildung 22, am Beispiel der Availability
Heuristic, dargestellt wird.
Abbildung 22
Expertenbefragung – Beispiel Availability Heuristic
Anmerkung. Beispiel der Expertenbefragung anhand der Availability Heuristic (ohne Kommentar-
feld).
Die Befragung wurde ausschließlich in elektronischer Form über das Portal soscisurvery.de
durchgeführt. Eine Übersicht der gesamten Expertenbefragung befindet sich in Anhang D.
6.2.2 Stichprobe
Die Befragung fand zwischen dem 21.10.21 und 28.01.2022 statt. Die Stichprobe besteht
zum einen aus Wissenschaftlichen Mitarbeitern der Universität Kassel und wurde zum
anderen über die Plattform surveycircle.com aquiriert. Als Anreiz zur Teilnahme wurden
fünf Amazongutscheine im Wert von jeweils 10 Euro ausgelobt. Zudem wurde pro Teil-
nahme 1 Euro an die Welthungerhilfe gespendet. Um potenzielle Probanden nicht von
vorneherein auszuschließen, wurde kein spezifisches Expertenwissen bezüglich individuel-
ler oder gruppendynamischer Biases zur Teilnahme vorausgesetzt. Stattdessen wurde in
den demographischen Daten erfasst, wie hoch die entsprechende Expertise der Probanden
ist.
Insgesamt wurde der Fragebogen 100 mal aufgerufen. Alle Fälle, bei denen weniger als
50% der Fragen beantwortet wurden oder die eine auffällig kurze Bearbeitungszeit von
6 Studien 170
weniger als fünf Minuten (Mittelwert: 11:45) aufweisen, wurden aus der Stichprobe aus-
geschlossen. Zudem wurden fünf Probanden aus der Stichprobe entfernt, die insofern ein
auffälliges Antwortmuster aufweisen, als dass sie bei allen Items den maximalen Wert von
vier vergaben.
Übrig geblieben sind 63 Probanden, davon 73% weiblich und 27% männlich. 92% der Be-
fragten sind zwischen 20 und 34 Jahre alt . Als höchsten Abschluss geben 40% der Befrag-
ten das Abitur an, 41% besitzen einen Bachelorabschluss, 13% einen Masterabschluss und
5% den Doktor-Grad. 63% der Probanden geben an, sich im Studium zu befinden, während
37% berufstätig sind. Bei den Studierenden sind die häufigsten Fächer Psychologie (17%),
Wirtschaftspsychologie (11%) und Wirtschaftswissenschaften oder Betriebswirtschaftsleh-
re (10%).
Vorhandene Kenntnisse zu den Themen kognitive Biases und gruppendynamische Biases
bewerteten die Probanden jeweils auf einer vierstufigen Skala, wie in den Abbildungen 23
und 24 dargestellt.
Abbildung 23
Kenntnisse der Probanden im Bereich kognitiver Biases
Anmerkung. Erfassung des Kenntnissstands zum Vergleich zwischen Laien und Experten.
Ein ähnliches Bild zeigt sich bei der Angaben zu der Anzahl an Heuristiken und Biases, die
den Befragten bereits bekannt sind. Diese Angaben korrelieren bei den individuellen Bia-
ses mit r=.54 mit dem berichteten Kenntnissstand. Bei den gruppendynamischen Biases
beträgt die entsprechende Korrelation r=.73.
Die Erfassung des Kenntnissstands bietet später die Möglichkeit, die Ergebnisse in Ab-
6 Studien 171
Abbildung 24
Kenntnisse der Probanden im Bereich gruppendynamischer Biases
Anmerkung. Erfassung des Kenntnissstands zum Vergleich zwischen Laien und Experten.
hängigkeit der Expertise auszuwerten. Da die Beurteilung der Validität der präsentierten
Items nicht trivial ist, kann somit potenziell die Plausibilität der Items aus Sicht von
Laien von der Bewertung durch Fortgeschrittene beziehungsweise Experten unterschieden
werden.
6.2.3 Ergebnisse
Abbildung 25 zeigt für die 43 Items des Fragebogens jeweils das arithmetische Mittel
sowie die Standardabweichung der Bewertungen durch die 63 Probanden. Die Zuordnung
der Itemnamen zu den Itemlabels lässt sich Anhang A entnehmen.
Der niedrigste Mittelwert liegt bei 2.85, und damit noch über der Skalenmitte der 4-
stufigen Likert-Skala von 2.5, während der maximale Mittelwert 3.62 beträgt. Der Durch-
schnitt der Mittelwerte über alle 43 Items liegt wiederum bei 3.21, die mittlere Standardab-
weichung bei .87. Die Befragung zeigt somit insgesamt eine zufriedenstellende Bewertung
der Passung zwischen den Operationalisierungen und den zu messenden Konstrukten.
Im Folgenden wird analysiert, ob Unterschiede bei der Gütebewertung zwischen Laien
und Experten bestehen. Bezüglich der individuellen Biases – und analog dazu bezüglich
der gruppendynamischen Biases – werden jene Probanden der Gruppe der Laien zuge-
ordnet, die in den demographischen Daten bei dem Item: „Bitte geben Sie an, inwieweit
Sie bereits Kenntnisse im Bereich Cognitive Biases/kognitive Verzerrungen haben“ mit
1 oder 2 geantwortet haben (vgl. Abbildung 23). Die Gruppe der Experten umfasst ent-
6 Studien 172
Abbildung 25
Expertenbeurteilung bezüglich der Inhaltsvalidität
Anmerkung. Darstellung der Mittelwerte und Standardabweichung der Validitätsurteile der n=63
Probanden.
sprechend jene Probanden, die mit 3 oder 4 geantwortet haben. Insgesamt basiert der
Laien-Experten-Vergleich bei den individuellen Biases demnach auf der Bewertung von
n=32 Laien und n=31 Experten. Bei der Bewertung der gruppendynamischen Biases sind
es n=34 Laien und n=28 Experten. Im Mittel bewerteten die Experten die Items mit 3,31
(stdv: .8) und schätzten diese damit als geringfügig adäquater zur Erfassung der Biases
ein als die Laien (M=3.21; stdv: .87). Gemäß einem zweiseitigen t-Test unterscheiden sich
die Mittelwerte nicht signifikant (p=.07).
In den offenen Kommentarfeldern wurden zu den 18 Biases insgesamt 24 Eingaben getätigt.
An dieser Stelle werden einige relevante Beispiele besprochen. So lautet eine Anmerkung:
Mitarbeiter*innen UND Führungskräfte. Ist schwer zu beurteilen, wenn für die einen "ja"gilt und für die anderen
"nein"gilt! Das gilt bei den meisten Items. Sie sind auf Organisationsebene formuliert. Wenn man aber an Mitarbei-
ter*innen und die eigene Führungskraft gleichzeitig denken soll, ist es manchmal schwer ein Urteil zu abzugeben,
wenn beide (Gruppen) sehr stark differieren.
Die Kritik macht die Problematik deutlich, dass die Verknüpfung UND aus logischer Sicht
impliziert, dass die Bedingung für beide Personengruppen gegeben sein müsste, damit eine
Zustimmung erfolgen kann. Von daher sind die betreffenden Items zukünftig so abzuän-
dern, dass anstatt und die Konjunktion oder oder beziehungsweise verwendet wird, um
deutlich zu machen, dass es für eine Zustimmung ausreicht, wenn eine der beiden Perso-
nengruppen das Verhalten zeigt. Alternativ können die beiden Gruppen Mitarbeiter und
6 Studien 173
Führungskräfte zur Vereinfachung auf die Ebene Organisationsmitglieder beziehungsweise
Gruppenmitglieder verallgemeinert werden. Schließlich kann der Hinweis, dass beide Grup-
pen ggf. stark differieren, implizieren, dass eine Bewertung für beide Gruppen getrennt
durchgeführt werden sollte, was allerdings unter ökonomischen Gesichtspunkten bezüglich
des Einsatzes zeitlicher und kognitiver Ressourcen bei der Durchführung des Fragebogens
abgewogen werden muss.
Zu dem Item „In Entscheidungsprozessen werden primär den bestehenden Ansichten zu-
stimmende Argumente aufgenommen und ausgetauscht.“ (Confirmation Bias), schreibt
ein Proband: „Bzgl. Frage 3: diese Phänomen könnte z.B. auch auf Groupthinking [sic!]
zurückzuführen sein beziehungsweise auf weitere Phänomene“.
Die Kritik macht ein Problem deutlich, dass zum einen mit konzeptuellen Überschnei-
dungen sowie gegenseitigen Abhängigkeiten unterschiedlicher Biases zusammenhängt (vgl.
Kapitel 3.5), aber vor allem auch damit, dass bestimmte Verhaltensweisen Ursache bezie-
hungsweise Indikatoren für verschiedene Biases sein können. Zudem wurde in Kapitel 3.4.1
beschrieben, dass insbesondere diverse Facetten von Groupthink auf Verhaltensweisen hin-
deuten, die als das Auftreten individueller Biases auf Gruppenebene interpretiert werden
können. Diese Problematik beziehungsweise Limitation wird im Schlussteil der Arbeit noch
einmal aufgegriffen.
Eine itemübergreifende Anmerkung, die sich auf den gesamten Fragebogen bezieht, lautet:
Ich finde es allgemein schwierig zu sagen, dass ein bestimmtes Verhalten in einer bestimmten Situation eindeutig ein
Hinweis auf einen Bias ist oder nicht, das Verhalten kann situationsbedingt viele Ursachen haben und muss nicht
unbedingt stabil auftreten.
In ähnlicher Weise beschreibt die folgende Aussage diese Problematik anhand eines kon-
kreten Beispiels :
Ich finde alle drei Fragen nicht geeignet zur Bewertung beziehungsweise als Hinweise auf einen geringem oder hohen
Grad an Social Loafing, da aus keiner Frage hervorgeht, wie sich die Mitglieder dann tatsächlich VERHALTEN. Zwi-
schenziele können ja definiert werden, aber das heißt ja nicht, dass ein Mitglied trotzdem Kein Social Loafing zeigen
kann. Genauso die Arbeitspakete: Mitgleider müssen die Pakete ja nicht erfüllen – dass sie existieren beziehungsweise
individuell zugeordnet werden sagt ja noch nichts über das letztliche tatsächliche Verhalten der Gruppenmitglieder
aus.
Diese Anmerkungen sind potenziell darauf zurückzuführen, dass darauf verzichtet wur-
de, die Logik des im Theorieteil dieser Arbeit beschriebenen Untersuchungsmodells zu
erläutern, nach der bestimmte kulturabhängige Verhaltensweisen als wahrscheinlichkeits-
steigernd, aber nicht als zwingende Ursache für bestimmte Biases betrachtet werden. So
stellen die Items keine direkte Operationalisierung der Phänomenologie der Biases dar, son-
dern kulturell geprägte Verhaltensweisen im Planungskontext, welche die Auftretenswahr-
scheinlichkeit der entsprechenden Biases potenziell beeinflussen. Dieser Sachverhalt hätte
ggf. expliziter erklärt werden sollen. Um die Verständlichkeit der Befragung zu gewährleis-
6 Studien 174
ten und eine bessere Rücklaufquote zu erhalten, wurde darauf verzichtet. Das Vorgehen
stützt sich zudem auf den Fakt, dass den Befragten bei der Nutzung des tatsächlichen In-
struments die Logik des potenziellen Zusammenhangs zwischen den Verhaltensweisen und
den Biases nicht bewusst sein muss, um ihre eigene Arbeitssituation zu bewerten. So war
es von Beginn an das Ziel, dass der Fragebogen einfach bewertbare Verhaltensweisen um-
fasst, um dessen Praxistauglichkeit zu gewährleisten. Die eingangs beschriebene, trotzdem
insgesamt recht hohe Zustimmung bezüglich der Passung zwischen Operationalisierungen
und Konstruktdefinitionen deutet darauf hin, dass die meisten Probanden die Logik des
Zusammenhangs intuitiv angenommen haben.
Weitere Anmerkungen in den Kommentarfeldern bieten Potenzial, sie bei der Weiterent-
wicklung des Fragebogens zu nutzen, werden an dieser Stelle aber nicht weiter thematisiert.
Eine vollständige Übersicht der Kommentare befindet sich in Anhang E.
6.3 Validierungsstudie
In diesem Abschnitt wird die Validierungsstudie beschrieben im Rahmen derer Organisa-
tionsmitglieder mit Planungsverantwortung die eigenen Prozesse bewerteten. Dazu wurde
eine Stichprobe mit Probanden unterschiedlicher Organisationen und Branchen gewählt,
um eine repräsentative Datenbasis zu erhalten, die nicht durch die Gegebenheiten einer
bestimmten Organisation geprägt ist. Wenn es um die tatsächliche Diagnostik geht, sollen
natürlich pro Organisation bzw. Organisationseinheit alle verfügbaren Gruppenmitglieder
befragt werden. Dabei könnte eine repräsentative Stichprobe, wie in dieser Studie, z. B.
als Eichstichprobe für einen Normvergleich dienen. Allerdings haben sich in der zuvor be-
schriebenen Expertenbefragung in den qualitativen Kommentaren bereits einige Verbesse-
rungsvorschläge ableiten lassen. Das war im Rahmen der Neuentwicklung des Instruments
und des explorativen Charakters der Thematik zu erwarten, weshalb – nach einer Anpas-
sung verschiedener Items bzw. Skalen – mindestens eine weitere Befragung zur Validierung
indiziert ist, wie auch die Analysen im folgenden Abschnitt zeigen werden. Dabei geben
bereits deskriptive Statistiken zur Reliablität und Item- bzw. Skalenverteilungen sowie die
qualitativen Kommentare hilfreiche Ansätze, die – neben den überwiegend zufriedenstel-
lenden Ergebnissen – Verbesserungspotenzial aufzeigen. Insofern wurde auf tiefgreifendere
Analysen, wie eine Faktorenanalyse, zur Bestimmung der faktoriellen Validität, zunächst
verzichtet, da hierfür zum einen eine größere Stichprobe angebracht ist (Osborne & Co-
stello, 2004). Zum anderen bieten sich bereits auf Basis der im folgenden beschriebenen
Analysen einige Veränderungsansätze, so dass eine tiefergreifendere Analyse nach einer
Überarbeitung des Fragebogens sinnvoll erscheint.
6 Studien 175
6.3.1 Vorgehen
Das Ziel der Validierungsstudie ist es, die Testgüte und die Gebrauchstauglichkeit des Fra-
gebogens anhand der tatsächlichen Zielgruppe – Probanden, die aktiv an organisationalen
Planungsprozessen beteiligt sind – zu prüfen. Mittels der Instruktion „Bitte geben Sie an,
inwieweit die folgenden Aussagen die Situation bei Ihrer Arbeit beschreiben“ werden die
Probanden aufgefordert, die 43 Items des Fragebogens auf einer 6-stufigen Likert-Skala
von „trifft überhaupt nicht zu“ bis „trifft völlig zu“ zu beantworten. Zudem kann mit-
tels der Option „Kann ich nicht beantworten“ signalisiert werden, dass die Aussage sich
inhaltlich nicht auf die eigene Arbeitssituation übertragen lässt (Abbildung 26).
Abbildung 26
Ausschnitt des finalen Fragebogens
Anmerkung. Beispielhafter Ausschnitts des finalen Fragebogens.
Um kognitive Anforderungen zu verringern und bestimmte Antwortverzerrungen zu ver-
meiden, wurden die positiv formulierten Items und die invertierten, also negativ formulier-
ten Items, in getrennten Blöcken präsentiert. Als erstes wurden die 15 positiv formulierten
Items zu individuellen Biases präsentiert, gefolgt von sechs negativen Items zu individu-
ellen Biases. Anschließend folgen 13 negativ formulierte Items zu gruppendynamischen
Biases, gefolgt von neun positiv formulierten Items zu gruppendynamischen Biases. Zum
Schluss wird mit dem Item „Wie beantworten Sie insgesamt die Qualität der Planungs-
und Entscheidungsprozesse in Ihrer Organisation oder Abteilung?“ ein Globalurteil er-
fragt, das auf einem Schieberegler von „Sehr geringe Qualität“ bis „Sehr hohe Qualität“
beantwortet wird (1-100; Abbildung 27) und als Kriterium dient.
Eine vollständige Übersicht des Fragebogens befindet sich in Anhang B (Paper-pencil)
bzw. Anhang C (elektronisch). Eine Übersicht aller Items lässt sich Anhang A entnehmen.
6 Studien 176
Abbildung 27
Bewertung der Entscheidungsqualität als Kriterium
Anmerkung. Bewertung der Entscheidungsqualität, als Basis zur Ermittlung der Kriteriumsvalidi-
tät.
6.3.2 Stichprobe
Die Befragung fand zwischen dem 13.09.2021 und 24.01.2022 statt. Die Stichprobe umfasst
Personen, die in verschiedenen Berufen und Branchen aktiv in organisationale Planungs-
prozesse einbezogen sind. Die Einladung zur Umfrage wurde per E-Mail an entsprechend
ausgesuchte Personen versendet. Insgesamt wurde der Fragebogen 65 mal aufgerufen. Pro-
banden, die weniger als 50% des Fragebogens bearbeitet haben sowie eine Person mit einer
auffällig kurzen Bearbeitungszeit (19s), wurden aus dem Datensatz entfernt. Übrig bleibt
eine Stichprobe von n=42. 62% der Befragten sind männlich, 36% weiblich und eine Person
divers (2%). Knapp 50% sind zwischen 20 und 39 Jahren alt, die andere Hälfte entspre-
chend 40 oder älter (Abbildung 28).
Abbildung 28
Häufigkeitsverteilung der Altersgruppen
Anmerkung. Absolute Häufigkeiten der Altersgruppen.
Als höchsten Abschluss gaben 7% der Befragten den Bachelor-Abschluss, 45% einen Master-
Abschluss und 48% den Doktor-Grad an. Zu den Angaben der Branchen gehören unter
6 Studien 177
anderem: Wissenschaft, Ingenieurwesen, Luftfahrt, Risikomanagement und Chemie. Bei-
spiele für die angegebenen Berufe sind: Wissenschaftlicher Mitarbeiter, Ereignisanalytiker,
Senior Consultant, Projektingenieurin, Principal Investigator und Cockpit Engineer.
Die Probanden wurden zudem gefragt „Wie hoch ist der Anteil von Routinetätigkeiten
an Ihrer Arbeit und wie hoch der Anteil von Prozessen, die neuartigen [sic!] Entschei-
dungen erfordern.“ Wie sich Abbildung 29 entnehmen lässt, trifft ein Großteil der Proban-
den überwiegend neuartige Entscheidungen. Neuartige Entscheidungen in organisationalen
Planungsprozessen, die mit einem hohen Maß an Unsicherheit behaftet sind und die An-
fälligkeit dafür, dass Heuristiken in situationsspezifischen Entscheidungssituationen eine
verzerrte Entscheidung verursachen, sind der Kern der Problemstellung dieser Arbeit (vgl
Kapitel 1.1.2), weshalb die Stichprobe adäquat erscheint.
Abbildung 29
Anteil von Routinetätigkeiten gegenüber neuartigen Entscheidungen
Anmerkung. Absolute Häufigkeiten bezüglich des Anteils neuartiger bzw. routinemäßiger Entschei-
dungen an allen Entscheidungen.
Schließlich wurden die Probanden gefragt: „Wie groß ist der Anteil von Gruppenprozes-
sen an Ihrem Arbeitsalltag? (Besprechungen oder Aufgaben, die Sie mit mindestens zwei
weiteren Personen erledigen).“ Abbildung 30 zeigt, dass ein überwiegender Anteil der Pro-
banden einen bedeutsamen Anteil an ihrer Arbeit in Gruppenprozessen bewältigt und
somit auch eine gute Basis zur Beantwortung der Items zu gruppendynamischen Biases
besteht.
6.3.3 Ergebnisse
Zur Auswertung wurden die invertierten Items zunächst so rekodiert, dass eine hohe po-
sitive Ausprägung bei sämtlichen Items für ein geringes Risiko des entsprechenden Bias
beziehungsweise für einen adäquaten Entscheidungsprozess steht. Anschließend wurden
6 Studien 178
Abbildung 30
Anteil von Gruppenprozessen an der Gesamttätigkeit
Anmerkung. Absolute Häufigkeiten bezüglich des Anteils von Gruppenprozessen an allen Entschei-
dungsprozessen.
für die einzelnen Biases kurze Skalen (zwei beziehungsweise drei Items), basierend auf
dem ungewichteten Mittelwert aller zugehörigen Items, gebildet. Um die Reliabilität zu
bestimmen, wurde für alle Skalen mit drei Items Cronbachs Alpha berechnet, während
für diejenigen Skalen, die nur aus zwei Items bestehen – in Anlehnung an die Empfehlung
von Eisinga, te Grotenhuis und Pelzer (2013) – der Spearman-Brown-Koeffizient bestimmt
wurde. Die Ergebnisse lassen sich Tabelle 3 entnehmen.
Auffällig ist, dass die drei Skalen zum Availability Bias, zum Anchoring Bias und zur Illusi-
on of Unanimity gar keine oder sogar eine negative interne Konsistenz aufweisen. Aufgrund
der Kürze der Skalen mit zwei Items lässt sich auf statistischer Basis keine Aussage bezie-
hungsweise bei drei Items nur sehr bedingt eine Aussage über die Ursache treffen. Deshalb
wird die Reliabilität der betreffenden Skalen beziehungsweise Items später auf inhaltlicher
Basis, auch unter Einbezug der Korrelationen mit dem Kriterium, ausführlicher beschrie-
ben. Alle anderen Skalen weisen interne Konsistenzen zwischen .58 und .84 – im Mittel .67
– auf. Als Faustregel gelten Werte ab .7 als akzeptabel, allerdings sollte die Interpretation
der internen Konsistenz nicht pauschal erfolgen, sondern von diversen weiteren Faktoren
abhängig gemacht werden (Taber, 2018). Ein wichtiger Aspekt ist hierbei, dass Cronbachs
Alpha, neben der durchschnittlichen Korrelation zwischen allen Einzelitems die Anzahl
der Items berücksichtigt. Das Hinzufügen weiterer Items erhöht den Wert von Cronbachs
Alpha entsprechend auch dann, wenn diese insgesamt zu keiner höheren durchschnittlichen
Korrelation der Items untereinander führen. Das ist insofern plausibel, als dass zusätzli-
che Items – auch bei gleichbleibendem Durchschnittswert – insgesamt die Fehlervarianz
reduzieren. Allerdings gilt es zu bedenken, dass Cronbachs Alpha die Reliabilität längerer
Skalen tendenziell überschätzt und entsprechend die sehr kurzer Skalen etwas unterschätzt,
wie im Fall dieser Arbeit. Des Weiteren halten Schermelleh-Engel und Werner (2012) im
Bereich der Kollektivdiagnostik, wie hier im Beispiel der Organisationsdiagnostik, eine
6 Studien 179
Tabelle 3
Reliabilität der Skalen
Skala Reliabilität
Individuelle Biases
Overconfidence Bias α=.58
Optimism Bias ρ=.84
Availability Heuristic ρ=0
Confirmation Bias α=.67
Desirability Bias ρ=.59
Self-Serving Bias α=.72
Anchoring Bias α=0
Sunk-Cost Fallacy α.72
Gruppendynamische Biases
GT – Illusion of invulnerability ρ=.65
GT – Belief in inherent morality of the group ρ=.65
GT – Collective Rationalization ρ=.59
GT – Out-group stereotypes ρ=.61
GT – Self-censorship ρ=.62
GT – Illusion of unanimity ρ=-.13
GT – Direct pressure on dissenters α=.62
GT – Self-appointed mindguards ρ=.81
Social loafing α=.79
False-consensus effect ρ=.59
Anmerkung. Angabe des Spearman-Brown-Koeffizienten (ρ) für Zwei-Item-Skalen sowie Cronbachs
Alpha (α) für Drei-Item-Skalen.
6 Studien 180
geringere Reliabilität für vertretbar, da sich Messfehler durch die Mittelwertberechnung
diverser Individuen reduzieren. Zudem sind beim Screening kürzere und ökonomische In-
strumente zu bevorzugen, für die eine gewisse Einschränkung der Realibilität in Kauf
genommen werden kann – ein Punkt, der bei der Konstruktion dieses Fragebogens eine
wichtige Rolle spielte. Weiterhin spielt es bei der Interpretation von Cronbachs Alpha eine
Rolle, ob die betreffenden Skalen ein sehr homogenes oder eher heterogenes Konstrukt
messen (Schermelleh-Engel & Werner, 2012). Organisationale Verhaltensweisen, die das
Auftreten bestimmter Biases wahrscheinlicher machen, lassen sich tendenziell als eher he-
terogen einstufen. Hierbei kann die Ermittlung der Retest-Reliabilität zukünftig weitere
Aufschlüsse liefern.
In Anbetracht der genannten Aspekte wird, abgesehen von den drei hervorgehobenen Ska-
len, die interne Konsistenz aller weiterer Skalen als akzeptabel betrachtet, auch wenn
natürlich Optimierungsbedarf bezüglich der Änderung, Löschung beziehungsweise dem
Hinzufügen weiterer Items in diesem Stadium einen wichtigen nächsten Schritt darstel-
len, weswegen jedes Item und jede Skala unter parallelem Einbezug statistischer und in-
haltlicher Überlegungen detailliert zu betrachten ist, was beispielhaft weiter unten und
schließlich in Kapitel 7 noch einmal thematisiert wird.
Abbildung 32 zeigt die Verteilung der unterschiedlichen Skalen als Boxplots, nach dem
arithmetischen Mittel absteigend sortiert. Als Interpretationshilfe wird in Abbildung 31
die Bedeutung der in den Boxplots enthaltenen Statistiken erläutert.
Im zukünftigen praktischen Einsatz lassen sich – bei Zugehörigkeit aller Befragten zu einer
Organisation oder Organisationseinheit – im Sinne des Screenings potenziell erste Schlüsse
über die Anfälligkeit bezüglich bestimmter Biases beziehungsweise der assoziierten Verhal-
tensweisen erkennen. Im Rahmen der Validierung, bei der die Befragten unterschiedliche
Organisationen bewerteten, zeigt dieser erste Blick keine besonderen Auffälligkeiten bezüg-
lich der Skalenwertverteilung. Um einen besseren Eindruck über die Itemgüte zu erhalten,
wird deshalb in Abbildung 33 die Verteilung der einzelnen Items, ebenfalls als Boxplots,
dargestellt.
Die Verteilung der Items ist zufriedenstellend, insofern kaum Boden- oder Deckeneffekte
auftreten, die – im Sinne der Itemschwierigkeit – auf zu schwierige beziehungsweise zu ein-
fache Items hindeuten würden. Analog zu einem Leistungstest steht bei einer derartigen
Meinungsabfrage ein leichtes Item für eine starke Zustimmungstendenz beziehungsweise ein
schwieriges Item für eine geringe Zustimmungstendenz. Weist ein Item starke Ablehnungs-
oder Zustimmungstendenzen an den Enden der Likert-Skala auf, kann das Item nicht gut
zwischen Probanden mit unterschiedlichen Ansichten unterscheiden, was sich wiederum
negativ auf die Trennschärfe des Items auswirkt. Im vorliegenden Fall weisen lediglich
zwei Items der Facette Direct pressure on dissenters von Groupthink Deckeneffekte auf.
Die Items lauten wie folgt: „Es kommt vor, dass Druck auf Gruppenmitglieder mit abwei-
6 Studien 181
Abbildung 31
Erläuterung des Boxplot-Diagramms
Anmerkung. Darstellung der unterschiedlichen Elemente eines Boxplot-Diagramms.
Abbildung 32
Skalenwertverteilungen
Anmerkung. Verteilung der Skalenwerte, dargestellt als Boxplots, absteigend sortiert. Hohe Werte
indizieren eine geringe Anfälligkeit für den entsprechenden Effekt.
6 Studien 182
Abbildung 33
Itemwertverteilungen
Anmerkung. Verteilung der Itemwerte, dargestellt als Boxplots, absteigend sortiert. Hohe Werte
indizieren eine geringe Anfälligkeit für den entsprechenden Effekt.
chender Meinung ausgeübt wird.“ und „Es kommt vor, dass kritische Meinungsträger von
Gruppenprozessen ausgeschlossen werden.“. Hier werden sehr gravierende Verhaltenswei-
sen angesprochen, weswegen eine tendenziell sehr positive Bewertung – welche eine geringe
Ausprägung der Verhaltensweisen indiziert – zu erwarten ist. Denkbar ist eine weitere Stei-
gerung der Schwierigkeit durch eine Formulierung wie „Es kommt hin und wieder vor, ...
“, um Deckeneffekte zukünftig zu vermeiden.
Am Ende des Fragbogens wurden die Probanden aufgefordert, ein Globalurteil zur Quali-
tät der Planungs- und Entscheidungsprozesse in ihrer Organisation abzugeben. Das Item
bewerteten die Probanden auf einem Schieberegler, der ein Ergebnis zwischen 0 (sehr ge-
ringe Qualität) und 100 (sehr hohe Qualität) darstellt. Das Histogramm in Abbildung 34
zeigt die Verteilung der Bewertungen.
Zwischen dem arithmetischen Mittel über sämtliche Items und dem Globalurteil besteht
eine Korrelation von r=.6. Der Wert zeigt einen hohen Zusammenhang zwischen den im
Fragebogen erfasssten biasbezogenen Verhaltensweisen und dem Qualitätsurteil der eige-
nen Entscheidungsprozesse. Der Wert ist insofern zufriedenstellend, als dass das Quali-
tätsurteil natürlich auch von anderen, nicht erfassten Variablen abhängt und – aufgrund
der gleichen Erhebungsweise der Prädiktoren und des Kriteriums mittels Fragebogen – ein
noch stärkerer Zusammenhang auch als Hinweis auf Methodenverzerrung hätte interpre-
tiert werden können.
6 Studien 183
Abbildung 34
Häufigkeitsverteilung des Globalurteils bezüglich der Entscheidungsprozesse
Anmerkung. Histrogramm der Verteilung des Globalurteils auf einer Skala von 1 bis 100.
Zur Bestimmung der Kriteriumsvalidität wurde die Korrelation zwischen den Skalen und
diesem Globalurteil herangezogen. Abbildung 35 zeigt die entsprechenden Ergebnisse, sor-
tiert nach der Effektstärke.
Abbildung 35
Korrelation zwischen den Skalen und dem Kriterium
Anmerkung. Korrelation zwischen den Skalen und dem Kriterium zur Ermittlung der Kriteriums-
validität. ** Signifikant bei p<.001 (zweiseitig); * Signifikant bei p<.05 (zweiseitig)
Zehn der Effekte weisen einen signifikanten Zusammenhang mit dem Globalurteil auf, die
anderen acht tun dies nicht. Die Fehlerbalken zeigen jeweils das 95%-Konfidenzintervall
des Korrelationskoeffizienten. Auffällig ist, dass diejenigen Biases, deren Auftreten die
größte Korrelation mit dem Qualitätsurteil der Planungs- und Entscheidungsprozesse auf-
6 Studien 184
weisen, eine augenscheinlich hohe Übereinstimmung mit den im Rahmen der Fallstudien
am häufigsten identifizierten Effekten aufweisen. So stimmen drei der fünf jeweils als am
relevantesten identifizierten Effekte überein (Tabelle 4).
Tabelle 4
Die einflussreichsten Biases in den Fallstudien und der Validierungsstudie
Fallstudien Validierungsstudie
Desirability Bias Desirability Bias
Optimism Bias Overconfidence Bias
Direct Pressure on Dissenters Confirmation Bias
Collective Rationalization Collective Rationalization
Self-Appointed Mindguards Optimism Bias
Anmerkung. Verlgeich der fünf als bedeutsamsten identifizierten Biases in den Fallstudien gegen-
über der Validierungsstudie.
In beiden Fällen sind die Operationalisierungen der Items sowie der Grad der Identifi-
zierbarkeit der Effekte in Fallstudien beziehungsweise in den eigenen Planungsprozessen
als mögliche Störvariablen gegenüber der tatsächlichen Relevanz zu berücksichtigen, wie
in Kapitel 6.1.3 für die Fallstudien ausführlich beschrieben wurde. Die Rangkorrelation
nach Spearman für alle in den Fallstudien identifizierten Biases mit deren entsprechenden
Werten der Kriteriumskorrelation umfasst moderate r=.35. Dabei führen die in Kapitel
6.1.3 bezüglich der Fallstudien genannten einschränkenden Faktoren eher dazu, dass die
Korrelation den wahren Zusammenhang unterschätzt und damit ein stärkerer Validitäts-
hinweis für die Items des Fragebogens darstellt, als der Wert annehmen lässt. So wurde das
Problem, dass viele Biases konzeptuell konfundiert sind, beschrieben. Ein deutliches Bei-
spiel hierfür sind der Confirmation Bias und der Desirability Bias (vgl. auch Tappin et al.,
2017). Während in den Fallstudien für jeden bewerteten Sachverhalt eine Entscheidung,
meistens für den Desirability Bias, getroffen wurde, nehmen in der empirischen Erhebung
– mit Platz 1 beziehungsweise Platz 3 bezüglich der Effektstärken – beide Phänomene eine
bedeutsame Rolle ein. Ein weiteres Beispiel ist, dass Direct Presure on Dissenters bei den
Fallstudien am dritthäufigsten auftritt, bei der Fragebogenstudie hingegen im Vergleich
nur den 11. Rang einnimmt. So handelt es sich um einen sehr schwerwiegenden Sach-
verhalt, der entsprechend selten auftritt, weswegen im Fragebogen bei den zugehörigen
Items Deckeneffekte festgestellt wurden (vgl. Abbildung 33). Die Fallstudien stellen je-
weils Extrembeispiele fehlgeschlagener Planungsprozesse dar, bei denen der direkte Druck
auf Abweichler als gut dokumentierte Vorkommnisse leicht identifiziert werden konnte. In
Anbetracht dieser Abweichungen lässt sich die dennoch hohe Übereinstimmung der re-
levantesten Effekte in Abbildung 4, im Kontext unabhängiger Erhebungsmethoden, als
vielversprechender Validitätshinweis deuten.
6 Studien 185
Eine ausführliche Diskussion der in Abbildung 35 dargestellten Ergebnisse und die darin
implizierte Relevanz der einzelnen Effekte findet in Kapitel 7 statt. Zunächst sind Skalen,
die keine signifikante und in einem Fall sogar eine negative Korrelation aufweisen, näher
zu betrachten. Die am stärksten betroffenen Skalen fielen bereits bei der Berechnung der
internen Konsistenzen auf, da die jeweils zugrunde liegenden Items kaum oder gar keine
Konsistenz miteinander aufweisen. Insbesondere bei Skalen mit nur zwei Items konnte
hier auf statistischer Ebene keine Aussage über die Ursache getroffen werden. Ersatzweise
kann die Korrelation der Items mit dem Kriterium, also dem Globalurteil, und die Trenn-
schärfe der Items, also deren Korrelation mit dem Mittelwert aller Items, Hinweise geben,
die eine inhaltliche Thematisierung und anschließend ggf. eine Löschung oder Änderung
der betreffenden Items impliziert. Abbildung 36 zeigt für sämtliche Items die korrigier-
te Trennschärfe und deren Korrelation mit dem Kriterium, absteigend sortiert nach der
Korrelation mit dem Kriterium.
Abbildung 36
Trennschärfe und Korrelation mit dem Kriterium aller Items
Anmerkung. Korrelation aller Items mit dem Kriterium und Trennschärfe aller Items, sortiert nach
der Korrelation mit dem Kriterium.
Beispielhaft soll das Item Anchoring 3 betrachtet werden: „Es entstehen spontane Dis-
kussionen auf Basis anfänglicher Informationen“. Das Item, das den Anchoring Effect
erfassen soll, weist eine negative Trennschärfe auf (r=-.29) und ist gleichzeitig deutlich
negativ mit dem Kriterium korreliert (r=-.43). Entgegen der ursprünglichen Annahme, ist
eine hohe Ausprägung dieses invertierten Items mit einer hohen Bewertung der Qualität
der Planungs- und Entscheidungsprozesse assoziiert. An dieser Stelle kann inhaltlich argu-
mentiert werden, dass das Item zu unspezifisch formuliert ist, denn spontane Diskussionen
zu Beginn eines Planungsprozesses können positive Implikationen für den Planungspro-
6 Studien 186
zess haben, zum Beispiel im Kontext von Brainstorming. Das Item sollte eigentlich die
negativen Aspekte des Anchoring Effects deutlich machen und könnte folglich zum Bei-
spiel folgendermaßen umformuliert werden: „Es entstehen spontane Diskussionen auf Basis
anfänglicher Informationen, bevor die Gruppenmitglieder genug Zeit hatten, alle verfüg-
baren Informationen zu verarbeiten“ oder ein positiv formuliertes Item wie: „Bevor ein
Lösungsweg ausführlich diskutiert wird, werden unterschiedliche Sichtweisen der Grup-
penmitglieder ausreichend besprochen“.
Ähnliches gilt für das Item Availability 2 zur Availability Heuristic: „Bei Problemdis-
kussionen werden häufig Ad-hoc-Argumente erfahrener Mitarbeiter*innen als Datenquelle
verwendet.“. Die Problematik bezüglich erfahrungsbasierter Expertise in neuartigen Situa-
tionen im Kontext kognitiver Biases wurde zu Beginn der Arbeit beschrieben (vgl. Kapitel
1.1.2). Dabei wurde angemerkt, dass derartige Expertise auf der anderen Seite dennoch
auch sehr hilfreich sein kann, was erklären könnte, warum das Item eine negative Trenn-
schärfe (r=-.37) und einen ambivalenten beziehungsweise gar keinen Zusammenhang mit
dem Kriterium (r=0) aufweist. Hier ist ebenfalls eine Umformulierung des Items indiziert,
welche stärker auf negative Aspekte von erfahrungsbasierter Expertise abzielt, indem zum
Beispiel hinzugefügt wird, dass derartige Ad-hoc-Argumente zulasten einer datenbasierten,
tiefergreifenden Analyse verwendet werden.
Ein weiteres Item, Sunk-Cost 2, beschäftigt sich mit der Sunk-Cost Fallacy: „Der Abbruch
eines Projekts wird in der Organisation wertfrei und als unter Umständen angemessene
Reaktion auf sich ändernde Bedingungen oder Einschätzungen betrachtet.“ Auffällig ist
hier die Diskrepanz zwischen Trennschärfe (r=.34) und Korrelation mit dem Kriterium
(r=-.24). Das Item korreliert also in gewissem Maß mit dem Auftreten anderer Biases,
allerdings negativ mit der wahrgenommenen Qualität der Entscheidungsprozesse. Eine
mögliche Erklärung liegt in dem in Kapitel 3.2.3 besprochenen Dilemma der Sunk-Cost
Fallacy. Das Festhalten an einem schlecht laufenden Projekt ist insofern adaptiv, als dass
es kognitive Redundanz reduzieren kann. Das unangenehme Gefühl der Ressourcenver-
schwendung und mögliche Reputationsbedenken können durch ein Fortführen reduziert
werden. Wenn ein Projekt zu einem viel zu hohen Preis fertigestellt wird, fühlt es sich
für die Gruppe möglicherweise dennoch wie ein gemeinsamer Erfolg an, auch wenn ein
Abbruch zu einem früheren Zeitpunkt besser gewesen wäre. Die negativen Konsequenzen
betreffen möglicherweise auch gar nicht die verantwortliche Gruppe, sondern den Haus-
halt der Organisation auf höherer Ebene oder im öffentlichen Bereich den Staatshaushalt,
und werden somit von den Entscheidungsverantwortlichen nicht als negativ wahrgenom-
men. Eine derartige Entkopplung zwischen Entscheidungsmacht und den Konsequenzen
für die Entscheidungsverantwortlichen kritisiert Taleb (2018) als einen Mangel an Skin in
the game, der sich auf die in Kapitel 3.1 bezüglich der Definition einer rationalen Ent-
scheidung beschriebene Problematik beziehen lässt, demnach fehlgeleitete Anreizsysteme
zu Zielkonflikten bei Entscheidungsträgern führen. Die drei besprochenen Items zeigen
6 Studien 187
beispielhaft das Vorgehen bei der Weiterentwicklung des Fragebogens, auf die im Ausblick
dieser Arbeit noch einmal eingegangen wird.
Ein Blick auf die Häufigkeit der Kategorie „Kann ich nicht beurteilen“ kann ebenfalls
Hinweise über die Validität der Items liefern, insofern sich darin zeigt, ob die Befragten
die geschilderten Situationen in ihrem eigenen Arbeitsalltag wiedererkennen. Abbildung 37
lässt sich pro Item die prozentuale Häufigkeit dieser Kategorie, bezüglich der 42 Befragten,
entnehmen.
Abbildung 37
Prozentualer Anteil der Antwortkategorie „Kann ich nicht beurteilen“
Anmerkung. Prozentualer Anteil der Antwortkategorie „Kann ich nicht beurteilen“, absteigend
nach der Häufigkeit sortiert.
Besonders auffällig ist, dass die drei Items zur Sunk-Cost Fallacy – die bereits bezüglich der
Kriteriumsvalidität und der Trennschärfe negativ auffielen – sehr häufig als nicht beant-
wortbar bewertet wurden (19% bis 26%), während der Mittelwert aller Items bei 5% liegt.
Neben dem zuvor beschriebenen Item Sunk-Cost 2 sticht zum Beispiel das Item Sunk-
Cost 3 mit einer Quote von 26% hevor: „Es wird häufig versucht, ein schlecht laufendes
Projekt fortzuführen, obwohl der finanzielle Aufwand oder das Risiko unverhältnismäßig
hoch sind.“. Möglicherweise wird die Beantwortung einer solchen Aussage als komplex
wahrgenommen und lässt sich nicht ohne Weiteres beantworten. So wurde bezüglich der
Sunk-Cost Fallacy zuvor beschrieben, dass die Entscheidungsverantwortung und die fi-
nanzielle Verantwortung in einigen Fällen von unterschiedlichen Ebenen getragen wird.
In komplexen Vorhaben gibt es zudem mitunter mehrere Gruppen mit Entscheidungs-
verantwortung und eine Bewertung des Gesamtvorhabens ist nicht immer ohne Weiteres
möglich.
Das mit einem relativ hohen Anteil von 12% der Probanden als nicht beantwortbar be-
6 Studien 188
wertete Item GT – Invulnerability 2 lautet: „Vergangene Erfolge führen in der Gruppe zu
Selbstüberschätzung und in der Folge zu einem sorgloserem Umgang mit Risiken.“ Hier
kann argumentiert werden, dass die Operationalisierung nahe an der Definition des ent-
sprechenden Konstruktes – der Illusion of Invulnerability als Facette von Groupthink –
liegt, aber in diesem Fall dem Ziel nicht gerecht wird, einfach zu beobachtende Situationen
und Verhaltensweisen darzustellen, die einen Zusammenhang mit dem Effekt aufweisen.
Zudem sind zwei Bedingungen mit der Konjunktion und getrennt, was zu Unklarheiten
führen kann, wie im nächsten Schritt im Rahmen der Freitextkommentare aufgegriffen
wird. Grundsätzlich gilt es, solche Konjunktionen bei der Itemkonstruktion eher zu ver-
meiden, und in diesem Fall sind potenziell etwas zu wenig stark assoziierte Sachverhalte
zusammengefasst.
Im Folgenden bieten die Kommentare der Probanden gegebenenfalls weitere Hinweise für
Verbesserungspotenzial. Insgesamt wurden sieben Kommentare getätigt, davon vier zu
individuellen Biases und drei zu gruppendynamischen Biases. Zwei Kommentare geben
Aufschluss über die geringe Beurteilungsfähigkeit der Items zur Sunk-Cost Fallacy: „In
aller Regel lassen vertragliche Vereinbarungen den Abbruch eines Vorhabens nicht zu.
Entsprechend kann diese Alternative gar nicht in Betracht gezogen werden.“ und „Sonder-
fall bezüglich ’Projektabbruch wird nicht erwogen’: Die Aufträge stammen in der Regel
von der öffentlichen Hand (Staatsaufträge).“.
Eine weitere Bemerkung bezieht sich itemübergreifend auf die Itemkonstruktion:
Items mit ’häufig’ und ’manchmal’ vermeiden. Items mit Verknüpfungen sind schwierig, z.B. ’Vergangene Erfolge
führen in der Gruppe zu Selbstüberschätzung und in der Folge zu einem sorgloserem Umgang mit Risiken.’ oder
’Es kann vorkommen, dass ethische Konsequenzen im Einzelfall weniger genau betrachtet werden, weil sich die
Gruppe/Organisation insgesamt als moralische Instanz betrachtet. ’
Letztere Problematik bezüglich der Konjunktion zweier Sachverhalte mit und wurde wei-
ter oben bereits beschrieben und legt in dem Fall eine entsprechende Überarbeitung des
Items nahe, zum Beispiel durch die Streichung eines Teils und Modifikation des ande-
ren zur Konkretisierung. An dieser Stelle bieten sich entsprechend weitere Anhaltspunkte
zur Überarbeitung der Items. Im nächsten Schritt werden die Erkenntnisse und empiri-
schen Ergebnisse dieser Arbeit reflektiert und theoretische und praktische Implikationen
aufgezeigt.
189
7 Diskussion
Wie zu Beginn der Arbeit anhand von Beispielen einfacher Wahrnehmungsheuristiken
beschrieben wurde, trifft der Mensch kontinuierlich und zumeist implizit Urteile und Ent-
scheidungen. Eine rein objektive Wahrnehmung existiert nicht, denn die Wahrnehmung
von Stimuli wird stets durch Top-Down-Prozesse interpretiert. Top-Down-Prozesse kön-
nen wiederum auch als subjektive erfahrungsbasierte Urteile bezeichnet werden. Analog
zu Paul Watzlawicks berühmtem Axiom „Man kann nicht nicht kommunzieren“, könnte
man ebenso sagen „Man kann nicht nicht urteilen“. Urteile stellen also einen allgegenwär-
tigen Teil des Menschseins dar und entsprechend sind implizite Fehlurteile, die sich aus
einem Mismatch zwischen vergangenen Erfahrungen und aktuellen Anforderungen spei-
sen, ein zwangsläufiger Bestandteil des Alltags. Erstaunlich ist eher, wie gut und akkurat
implizite Urteile in den allermeisten Fällen funktionieren, die aber immer häufiger an ihre
Grenzen geraten, je komplexer der Entscheidungskontext ist und folglich zu unbemerkten
Fehlurteilen führen. Organisationale Planungsprozesse stellen einen Kontext dar, der ein
Maximum an Komplexität aufweist und somit einen Nährboden für durch Biases ausge-
löste Fehlentscheidungen bildet.
Der Fokus der Forschung zu Biases lag in der Vergangenheit vor allem auf der Demonstrati-
on der betreffenden Effekte in Laborexperimenten. Die dort erlangten Erkenntnisse haben
auf beeindruckende Weise die Mechanismen diverser Heuristiken und Biases belegt und
damit eine Basis für Feldstudien und anwendungsorientierte Forschung bereitet. Zuletzt
wurde häufig ein stärkerer Fokus auf praktische Implikationen von Biases gefordert (z. B.
Milkman et al., 2009; Stafford et al., 2018). In diesem Sinne war ein Ziel der Arbeit, der
übergeordneten Frage der Relevanz des Themas kognitive, motivationale und gruppendy-
namische Biases in organisationalen Planungsprozessen nachzugehen und damit die Auf-
merksamkeit auf die externe Validität laborbezogener Erkenntnisse zu lenken. Zu Beginn
der Arbeit wurden unterschiedliche Charakteristiken beschrieben, anhand derer deutlich
wird, warum diverse Biases einen immensen Einfluss auf organisationale Planungsprozesse
haben. So zeichnen sich organisationale Planungsprozesse dadurch aus, dass sie unstruk-
turiert, komplex und situationsspezifisch sind, in einer durch VUCA geprägten Umwelt
stattfinden und erfahrungsbasierte Expertise nur einen eingeschränkten Nutzen bringt.
Gleichzeitig fehlt für qualitative und vor allem quantitative Analysen häufig die entspre-
chende Datenbasis (vgl. Kapitel 1.1.2). Somit müssen im Verlauf eines Vorhabens etli-
che Entscheidungen unter Unsicherheit getroffen werden – mitunter von unterschiedlichen
7 Diskussion 190
Entscheidungsträgern auf unterschiedlichen Hierarchieebenen und mit unterschiedlichen
fachlichen Hintergründen. Entscheidungen, die zwangsläufig ein gewisses Maß an Unsi-
cherheit beinhalten, provozieren häufig eine verkürzte Analyse der Problemstellung und
somit treten fehlgeleitete Heuristiken als entscheidungsverzerrende Biases in Erscheinung.
Dass keine adäquate erfahrungsbasierte Informationsbasis zur Verfügung steht, bedeutet
dabei mitnichten, dass verkürzte Urteils- und Entscheidungsprozesse unvermeidbar sind.
Eine weitere Folge des Fokus auf der reinen Demonstration entscheidungsverzerrender
Mechanismen ist jedoch, dass relativ wenig Forschung zur Mitigation derartiger Mecha-
nismen vorliegt (Larrick, 2004). In Kapitel 1.1.2 wurden einige personen- beziehungsweise
prozessbezogene Techniken zum Debiasing sowie erfahrungsunabhängige Analysestrategi-
en vorgestellt, welche die Entscheidungsqualität im betreffenden Kontext steigern können.
Viele dieser Strategien haben das Potenzial, Planungsprozesse zu verbessern, das jedoch je
nach Situation und Strategie variiert. Außerdem steht auch hier die externe Validität, also
der Transfer der Techniken in die Praxis sowie die Compliance bezüglich der Verwendung
entsprechender Tools zur Debatte.
Bei der Frage, welche Biases in organisationalen Planungsprozessen besonders relevant sind
und wie sich diese in einem entsprechenden Kontext diagnostizieren lassen beziehungsweise
welche Gestaltungsmaßnahmen letztlich welche Effekte reduzieren, wurde bereits bei der
Literaturrecherche eine Problematik deutlich, die sich später auch in den Fallstudien und
empirischen Befragungen bestätigte. Dabei geht es um die Problematik der unscharfen
Kategorisierung von Biases (vgl. Kapitel 3.5). Es wird deutlich, dass insbesondere wenn
– wie in dieser Arbeit – ein ganzheitlicher Blick auf die Thematik Heuristiken und Biases
eingenommen wird und der Fokus auf der anwendungsorientierten Forschung liegt, damit
einhergehende Probleme hervortreten. Die Laborforschung fokussiert sich in der Regel auf
einzelne Effekte, da hier sinnvollerweise die interne Validität und ein inkrementeller Er-
kenntnissgewinn zu einem bestimmten Bias Priorität haben. In diesem Zusammenhang
stellt sich zunächst nicht die Frage nach der Einordnung der Effekte in eine Taxonomie
bestehender Biases oder der trennscharfen Abgrenzung der identifizierten Effekte unter-
einander. Des Weiteren können unterschiedliche Benennungen gleichförmiger Effekte das
Aufbauen auf bestehenden Erkenntnissen erschweren. Schließlich führt die inflationäre
Konzeption neuer Biases – die entsprechende Wikipediaseite weist über 200 Effekte auf –
zu mindestens 176 davon existiert wissenschaftliche Literatur (Dimara et al., 2020) – zu ei-
ner unübersichtlichen Forschungslage, erschwert die Kommunikation und wirkt potenziell
abschreckend auf Praktiker. In Kapitel 3.5 wurden dazu beispielhaft einige wissenschaft-
lich erforschte Biases aufgelistet, die auch als Spezialfall eines vorhandenen Effektes oder
sogar nur als Beispiel eines basaleren Bias bewertet werden können. Im Rahmen dieser
Arbeit – mit dem Ziel der Demonstration der Relevanz diverser Biases in organisationalen
Planungsprozessen und der Entwicklung eines entsprechenden Diagnostikinstrumentes –
stellte dieser Sachverhalt eine Herausforderung dar. Entsprechend explorativ gestaltete
7 Diskussion 191
sich das Vorgehen dieser Arbeit und entsprechend limitiert sind die Ergebnisse, die primär
als Basis für weitere Forschungsanstrengungen zu betrachten sind.
In den Fallstudien zeigte sich die Problematik in der Schwierigkeit, bestimmten Situatio-
nen, in denen mutmaßlich implizite Biases eine Rolle spielten, trennscharf einen entspre-
chenden Effekt zuzuordnen. Dabei fiel insbesondere die bereits im Theorieteil identifizierte
Problematik auf (vgl. Kapitel 3.4.1), dernach sich bestimmte Facetten von Groupthink
nicht von individuellen Effekten abgrenzen lassen – zum Beispiel Overconfidence vs. Illusi-
on of Invulnerability oder Confirmation Bias vs. Collective Rationalization. Auch einzelne
qualitative Kommentare der Probanden in den beiden Befragungen legen nahe, dass be-
stimmte Verhaltensweisen auf diverse Biases hindeuten können (vgl. Kapitel 6.2.3). Neben
Verbesserungspotenzial bezüglich der Operationalisierungen deuten auch diese Erfahrun-
gen auf eine konzeptuelle Konfundierung unterschiedlicher Biases hin.
Für die Praxis wäre diesbezüglich eine hierarchisch gegliederte Taxonomie nützlich, in
der Biases entsprechend ihrer Ursachen verschiedene Cluster bilden, welche die „Komor-
bidität“ der entsprechenden Effekte berücksichtigt und damit die Komplexität bezüglich
der daraus folgenden Handlungsempfehlungen reduziert, die für ähnliche Biases potenzi-
ell gleichförmig sind. Als Beispiel bezüglich der für diese Arbeit entwickelten Taxonomie
könnte der Cluster motivationale Biases darüber definiert werden, dass sich die darin ent-
haltenen Effekte zu einem bedeutsamen Anteil auf zugrundeliegende motivationale/soziale
Mechanismen wie dem Selbstwerterhalt, der Selbstpräsentation und der kognitiven Dis-
sonanzreduktion zurückführen lassen. Dabei handelt es sich um Effekte, die nur bedingt
veränderbar sind und zudem auch erwünschte Charakteristiken aufweisen (vgl. Kapitel
3.3.1).
Eine aus dem Modell dieser Arbeit abgeleitete Lösungsidee könnte kulturelle Verände-
rungsprozesse umfassen, die nicht primär auf die Ursachen selbst abzielen, sondern auf die
Definition, welche Verhaltensweisen in der Organisation als wünschenswert erachtet wer-
den. Werden zum Beispiel Werte vertreten, welche die Teamleistung über die Einzelleis-
tung stellen und eine Fehlerkultur vorgelebt, die es als positiv erarchtet, wenn Mitarbeiter
Probleme frühzeitig ansprechen, wird die Entstehung kognitiver Dissonanz reduziert. Die
positive Selbstpräsentation umfasst dann eher diese, durch die Kultur als positiv defi-
nierte, Verhaltensweisen. Offensichtlich ist, wie in Kapitel 3.5 beschrieben wurde, keine
Kategorisierung von Biases abschließend oder trennscharf, da zum Beispiel auch motiva-
tionale Biases kognitive Elemente beinhalten und vice versa. Dieses Problematik ist in
der Psychologie jedoch allgegenwärtig und betrifft zum Beispiel auch die klinische Psy-
chologie und das am meisten verbreitete Manual DSM-V, in dem zum Beispiel Persönlich-
keitsstörungen gewissen Clustern zugeordnet werden, Komorbiditäten jedoch auch clus-
terübergreifend vorhanden sind. Trotz der beschriebenen Einschränkungen bezüglich der
Trennschärfe, erlaubt eine hiearchische Kategorisierung Praktikern, bestimmte Probleme
7 Diskussion 192
besser zu diagnostizieren und Handlungsmaßnahmen abzuleiten. Analog zu dem Beispiel
des DSM-V könnte – entsprechend der Logik des in dieser Arbeit entwickelten Fragebogens
– eine Taxonomie für Biases in Planungsprozessen bestimmte Symptome gemäß der as-
soziierten Verhaltensweisen umfassen. Eine solche Taxonomie hilft bei der Festlegung auf
relevante Biases, deren einheitliche Bezeichnung, deren Interaktion untereinander sowie
deren gegenseitige Beeinflussung und Abgrenzung voneinander. Beispielsweise könnte der
Self-Serving Bias als basales Attributionsmuster ursächlich für komplexere Biases, wie den
Optimism Bias oder den Overconfidence Bias betrachtet werden. Die Planning Fallacy
kann wiederum als Spezialfall beziehungsweise Folge von Optimismus und Selbstüber-
schätzung betrachtet werden. Derartige Zusammenhänge über verschiedene Ebenen sind
entsprechend durch empirische Studien zu belegen. Potenziell steigert ein ganzheitlicher
Blick auf das Thema Heuristiken und Biases in organisationalen Entscheidungsprozessen
das wissenschaftliche Verständnis und ermöglicht gleichzeitig die viel geforderte bessere
Integration in die Praxis.
Die in der Theorie beschriebene Problematik der Abwesenheit unmittelbaren Feedbacks in
komplexen Planungsprozessen spiegelt sich auch in den Fallstudien wieder, bei denen im
Planungsprozess diverse Fehlurteile getroffen wurden, die als latente Systembedingungen
die folgenden Katastrophen maßgeblich verursachten. Die Rolle einer zum Teil unglückli-
chen Manifestierung verschiedener Risiken auf der operativen Ebene, die – vor allem im
Fall der Loveparade – erst in ihrer kombinierten Wirkung zu der Katastrophe führten,
sollte nicht darüber hinwegtäuschen, wie fahrlässig der vorangegangene Planungsprozess
war, der derartige Risiken nicht ausreichend berücksichtigte. Das Problem ist vielmehr,
dass die ergebnisorientierte Sichtweise in den allermeisten Fällen, in denen katastropha-
le Konsequenzen trotz diverser Fehlentscheidungen ausbleiben, zu einer unerwünschten
Verstärkung der vorangegangenen Verhaltensweisen führt. Angenommen dem Fall, die
Lautsprecheranlage auf der Loveparade wäre einsatzbereit gewesen (vgl. Kapitel 6.1.2)
und die Polizei hätte es geschafft, die gefährliche Situation rechtzeitig aufzulösen, dann
wären die unverantwortlichen Risiken nie in das Bewusstsein der Öffentlichkeit gerückt.
Stattdessen hätte der Veranstalter das Event mutmaßlich als vollen Erfolg vermarktet,
inklusive frei erfundener Besucherrekorde, während die beteiligten Politiker und Mitar-
beiter der Verwaltung von der Presse für ihren unbürokratischen Einsatz gelobt worden
wären. Diese Beschaffenheit organisationaler Planungsprozesse, insbesondere im Bereich
von Hochrisikoindustrien, verringert das Problembewusstsein bei den Verantwortlichen,
denn das Feedback ist nicht nur zeitlich verzögert oder ambivalent, sondern kann sich
bei hoher Komplexität ins Gegenteil verkehren. Im Bereich von Hochrisikoindustrien ist
diese Charakteristik so relevant, weil man es hier mit sogenannten „Black-Swan-Events“
zu tun hat (Taleb, 2010). Dabei handelt es sich um Ereignisse, die eine sehr niedrige
Eintrittswahrscheinlichkeit haben, deren potenzielle Konsequenzen allerdings so immens
sind, dass sie sehr starke Sicherheitsvorkehrungen unabdingbar machen. Zudem sind Ent-
7 Diskussion 193
scheidungen in komplexen Planungsprozessen in der Regel nicht unabhängig voneinander,
weshalb die Verkettung verschiedener Risiken einen schwer erfassbaren multiplikativen Ef-
fekt annehmen kann, der in der Risikwahrnehmung unterschätzt wird, wie zum Beispiel in
Experimenten zum Anchoring-Effect gezeigt wurde (vgl. Kapitel 3.2.2). Das möglicherwei-
se kontinuierliche positive Feedback bei Nichteintreten des Ereignisses kann dazu führen,
dass sich ein falsches Gefühl von Sicherheit einstellt und Sicherheitsmaßnahmen zuneh-
mend erodieren. Dekker (2016) spricht in diesem Kontext von einem Drift into failure.
Mutmaßlich kann im Fall der Boeing 737-MAX ein derartiger Prozess unterstellt werden,
insofern in der Fallstudie festgestellt wurde, dass Boeing auf eine lange Erfolgsgeschichte
zurückblickte und das damit einhergehende Selbstverständnis einen Erklärungsansatz für
diverse fahrlässige Fehlentscheidungen bietet (vgl. Kapitel 6.1.1). Das Selbstverständnis
der Gruppe kann hierbei als Teil der Organisationskultur betrachtet werden.
Die Organisationskultur bildet wiederum einen wichtigen Einflussfaktor auf die Entschei-
dungsqualität in Planungsprozessen und dieser Einfluss wird potenziell durch diverse ko-
gnitive, motivationale und gruppendynamische Biases mediiert. So prägt die Organisati-
onskultur sowohl die implizite als auch die explizite (soziale) Kognition der Organisati-
onsmitglieder. Denn obwohl das Auftreten von Biases häufig als universell erachtet wird,
gibt es deutliche Hinweise auf eine Abhängigkeit von kulturellen Einflüssen (vgl. Kapitel
4.3). Dabei wurden folgende potenzielle Wirkmechanismen abgeleitet:
Erstens kann für die Organisationskultur ein direkter Einfluss auf die Ausprägung oder
inhaltliche Ausrichtung motivationaler und gruppendynamischer Biases angenommen wer-
den. So wurde in Kapitel 4.4 zum Beispiel argumentiert, dass organisationale Lernprozesse
beeinflussen können, welche Verhaltensweisen im Sinne des Self-Serving Bias selbstwert-
dienlich sind. Beinhalten diese Verhaltensweisen im Sinne einer adäquaten Fehlerkultur
auch das Äußern und die Akzeptanz konstruktiver Kritik, besteht eine Kongruenz zwi-
schen den Organisationszielen und der Motivationslage der Gruppenmitglieder.
Zweitens kann für kognitive Heuristiken beziehungsweise Biases nur bedingt ein kulturel-
ler Einfluss angenommen werden, auch wenn sich auf regionaler Ebene zeigt, dass kultu-
relle Einflüsse auch basale Wahrnehmungsfunktionen beeinflussen (Kapitel 4.3). Auf der
Organisationsebene besteht hierbei aber viel mehr das Potenzial, dass kulturell gepräg-
te Verhaltensweisen dazu führen, dass ein implizites System-1-Urteil durch eine explizite
Analyse ersetzt wird. So ist anzunehmen, dass Gruppenmitglieder im Kontext einer hin-
terfragenden Kultur häufiger Hinweisreize erkennen beziehungsweise generieren, die auf
eine verkürzte Verarbeitung einer Problemstellung hindeuten und diese durch explizite
Analysen beziehungsweise den Einsatz entsprechender Strategien entgegenwirken.
Drittens kann eine adäquate Organisationskultur zudem als notwendige Bedingung für die
Akzeptanz von Entscheidungsanalysetools betrachtet werden, da diese Akzeptanz erfor-
dert, dass Organisationsmitglieder einsehen, dass ihre bisherigen Prozesse Verbesserungs-
7 Diskussion 194
potenzial aufweisen, ohne dass diese Akzeptanz zu einer starken kognitiven Dissonanz
führt. Somit hat die Organisationskultur auch einen Einfluss auf die Compliance bezüg-
lich der Nutzung expliziter Strategien zum Debiasing.
Auf Basis dieser Annahmen wurde das in Kapitel 5.1 beschriebene Untersuchungsmodell
hergeleitet, das als Grundlage für die Operationalisierungen der Fragebogenitems dient.
So erfassen die Items kulturabhängige Verhaltensweisen als Indikatoren für das Auftreten
bestimmter Biases. Damit wurde das Ziel umgesetzt, einen Fragebogen als Screeninginstru-
ment zu entwickeln, der zur Bewertung alltägliche Planungssituationen umfasst und beim
Anwender keine spezifischen Kenntnisse voraussetzt. Die Erkenntnisse der Fallstudien und
der empirischen Befragungen zeigen vielversprechende Ergebnisse bezüglich der Validität
dieser Indikatoren. Dabei unterliegt das explorative Vorgehen diversen Limitationen, die
es in zukünftigen Vorhaben zu adressieren gilt und bezüglich derer in diesem Kapitel ver-
schiedene konkrete Ideen sowohl zur Theorieentwicklung als auch zur Weiterentwicklung
des Fragebogens thematisiert werden.
Anhand der Fallstudien lässt sich insgesamt eine zufriedenstellende Augenscheinvalidität
der Fragebogenitems und damit auch der Relevanz der diesen zugrundeliegenden Biases
feststellen. So gelang es zum einen, relevante Situationen, denen sich entsprechende Biases
zuordnen lassen, zu identifizieren. Zum anderen lässt sich die Phänomenologie dieser Situa-
tionen durch die im Fragebogen definierten Verhaltensweisen augenscheinlich gut erfassen.
Ein besonders interessantes Ergebnis der Fallstudien ist, dass die Rangfolge der in den bei-
den Fallstudien am häufigsten festgestellten Biases eine recht hohe Übereinstimmung mit
der Rangfolge in der Validierungsstudie bezüglich der Kriteriumskorrelation relevantesten
Biases aufweist. Da es sich um weitestgehend unabhängige Methoden handelt, kann dies,
im Sinne der Logik des Prinzips Multitrait-multimethod, als Hinweis auf einen gewissen
Grad an Konstruktvalidität gedeutet werden – allerdings, wie in Kapitel 6.3.3 beschrie-
ben wurde, nur auf einer qualitativen Ebene unter Berücksichtigung diverser methodischer
Limitationen. Durch die fallbezogenen Analysen konnte insgesamt der Einfluss durch die
zum Teil kombinierte Wirkung verschiedener Biases in einem realen Umfeld festgestellt
und dadurch zum einen das Verständnis der Wirkung von Biases in realen Planungspro-
zessen gesteigert werden. Auf der anderen Seite bieten sich interessante Ansätze, diese
Erkenntnisse aus der subjektiven Dokumentenanalyse in zukünftigen Forschungsvorhaben
aufzugreifen.
Dabei wurden unterschiedliche Limitationen der Fallstudien beschrieben, die dazu füh-
ren, dass der Interpretationsspielraum bei der Zuschreibung von Biases zu bestimmten
Situationen zum Teil sehr groß ist (Kapitel 6.1.3). Das liegt zum einen an der limitierten
Datenbasis, die oft keine detaillierten Rückschlüsse auf die konkreten Planungssitzungen
zulässt. Diese Limitation betrifft vor allem die Fallstudie bezüglich der Boeing Company,
während bei der Loveparade die Dokumentenlage besser ist und Sitzungsprotokolle eine
7 Diskussion 195
detailliertere Rekonstruktion der psychologischen Prozesse ermöglichen. Die Validität ist
jedoch auch hier eingeschränkt, da Protokolle nur eine verkürzte und subjektiv verzerrte
Sicht auf die Ereignisse darstellen. Als weitere Problematik wurde die zum Teil schwierige
Abgrenzung zwischen unterschiedlichen Biases beschrieben, die bereits weiter oben the-
matisiert wurde und die sich insbesondere im Rahmen der Fallstudien als Schwierigkeit
bei der Passung zwischen bestimmten Situationen und dem entsprechenden Bias zeigte.
Dieser Sachverhalt zeigte sich insbesondere bezüglich der unterschiedlichen Facetten von
Groupthink, die zum Teil sehr stark mit bestimmten individuellen Biases korrespondieren.
Aber auch einzelne individuelle Biases lassen sich zum Teil schwer voneinander abgrenzen.
Hier zeigt sich der zuvor beschriebene Bedarf einer Taxonomie, der unterschiedliche indi-
viduelle sowie gruppendynamische Heuristiken und Biases klar definiert und voneinander
abgrenzt.
Abgesehen von den genannten Limitationen, die in zukünftigen Studien aufzugreifen sind,
bedingt bereits der subjektive Charakter, dass derartige Studien beziehungsweise die ab-
geleiteten Ergebnisse und Interpretationen durch eine Erhöhung der Anzahl der Rater
erweitert werden müssen. Die Ergebnisse der Fallstudien in dieser Arbeit basieren allein
auf der Einschätzung und Argumentation des Autors, der zuvor die Biases ausgewählt und
den Fragebogen konstruiert hat. Auch unter großer Bemühung, die Fälle so unvoreinge-
nommen wie möglich zu analysieren, wäre es bei einem derartigen Interpretationsspielraum
– insbesondere in Anbetracht des Themas dieser Arbeit – naiv anzunehmen, dass sich im-
plizite Einflüsse, zum Beispiel durch den Confirmation Bias, gänzlich ausschließen lassen.
Um neben den Vorteilen der externen Validität von Fallstudien auch die interne Validität
zu steigern, wären zudem aufwändigere Studien sinnvoll, die reale Planungsprozesse beglei-
ten. Eine vollständige Wiedergabe von Planungsprozessen mittels Ton-/Videoaufzeichnung
würde zum Beispiel eine deutlich bessere Datenbasis bilden und die interne Validität stark
erhöhen. Diese Variante könnte durch andere Techniken, wie die Methode des lauten Den-
kens oder zusätzliche individuelle Interviews nach den Planungssessions, ergänzt werden.
Derartige Techniken könnten hilfreich sein, um die in Kapitel 6.1.3 beschriebene Pro-
blematik der Identifizierbarkeit unterschiedlicher Biases im Kontext von Fallstudien zu
begegnen. So wurde argumentiert, dass einige kognitive Biases potenziell schlechter in
der Dokumentenanalyse identifiziert werden können als motivationale Biases. Der Einsatz
von Techniken, welche die Gedankengänge der an Planungsprozessen beteiligten Personen
transparent machen, können dieser Verzerrung potenziell entgegenwirken.
Die beiden quantitativen empirischen Erhebungen zeigen insgesamt vielversprechende Er-
gebnisse, insofern sie eine zufriedenstellende Reliabilität, Inhaltsvalidität sowie Kriteriums-
validität des Fragebogens nahelegen. So zeigt sich in der quantitativen Expertenbefragung
eine zufriedenstellende inhaltliche Passung zwischen den Operationalisierungen und den
Konstruktdefinitionen der Biases als Indikator für die Inhaltsvalidität. In der Befragung
wurden die Vorkenntnisse der Probanden zum Thema Heuristiken und Biases erhoben. Ein
7 Diskussion 196
Gruppenvergleich zwischen Laien und Experten wies jedoch keinen signifikanten Unter-
schied bezüglich der Bewertung aus (Kapitel 6.2.3). Als Limitation ist anzumerken, dass
die Konstruktdefinitionen sich an den theoretisch etablierten Definitionen der einzelnen
Effekte orientieren, allerdings durch den Autor formuliert und mit zu dem Thema passen-
den Beispielen ergänzt wurden. Dabei wurde jedoch darauf geachtete, dass die Beispiele
keine inhaltlichen Überschneidungen mit den zugehörigen Items aufweisen. Des Weiteren
zeigte sich eine potenzielle Einschränkung bei der Bewertbarkeit, da einzelne Probanden
die Logik des Zusammenhangs zwischen den Verhaltensweisen und den Biases nicht her-
stellten. Hier wäre es gegebenenfalls sinnvoll gewesen, in der Instruktion deutlicher darauf
hinzuweisen, dass die zu bewertenden Items nicht unmittelbar den Bias, sondern ledig-
lich potenziell assoziierte Verhaltensweisen beschreiben. Zu betonen ist hierbei, dass die
Limitationen dieser Befragung nur die Expertenbefragung zur Inhaltsvalidität betreffen,
die insgesamt ein zufriedenstellendes Ergebnis aufweist. Die Limitationen haben keine Im-
plikationen für den praktischen Einsatz des Fragebogens, der in der Validierungsstudie
getestet wurde.
In der Validierungsstudie wurde eine repräsentative Stichprobe von Entscheidungsverant-
wortlichen in organisationalen Planungsprozessen zur Bewertung der eigenen Planungs-
prozesse befragt. Die Reliabilität der Skalen, die mit Cronbachs Alpha beziehungsweise
dem Spearman-Brown-Koeffizienten ermittelt wurden, weist nur in einzelnen Fällen Ein-
schränkungen auf, obwohl die Skalen aus ökonomischen Gründen bewusst jeweils nur zwei
bis drei Items pro Bias umfassen (Kapitel 6.3.3). Für die meisten Skalen kann damit an-
genommen werden, dass die Items die Anfälligkeit für die entsprechenden Biases mit einer
zufriedenstellenden Genauigkeit erfassen. Bei Skalen, bei denen sich bezüglich der inter-
nen Konsistenz Einschränkungen zeigten, wurden unter Einbezug weiterer Statistiken –
wie der Trennschärfe und der Korrelation mit dem Kriterium – problematische Items iden-
tifiziert und potenzielle inhaltliche Ursachen abgeleitet. Dazu wurden auch die qualitativen
Kommentare berücksichtigt, aus denen sich inhaltliche Kritik an bestimmten Items ent-
nehmen ließen. Eine Modifikation der betreffenden Items kann die Reliabilität und damit
die Messgenauigkeit der Skalen zukünftig erhöhen. Zusätzlich kann in weiteren Erhebun-
gen die Erfassung der Retest-Reliabilität weitere Aufschlüsse über die Messgenauigkeit
liefern. Die Verbesserungspotenziale betreffen zudem inhaltliche Aspekte der Items, die
auch Implikationen zur Steigerung der Validität beinhalten.
Der Fragebogen zeigt insgesamt eine gute Kriteriumsvalidität, insofern die einzelnen Ska-
len moderat bis hoch mit dem Kriterium – der Gesamtqualität der Planungsprozesse –
korrelieren. Für Skalen, bei denen keine oder eine sehr niedrige Korrelation festgestellt
wurde, konnten potenzielle Ursachen in der Analyse einzelner Items festgestellt werden.
Abgesehen davon bewegen sich die Korrelationskoeffizienten zwischen r=.2 und r=.6. Für
die Korrelationen von r<.3 sind die Zusammenhänge nicht signifikant, obwohl die Effekt-
stärke als moderat, aber dennoch bedeutsam betrachtet werden kann. Hierbei spielt auch
7 Diskussion 197
die moderate Stichprobengröße von n=48 eine Rolle, die zukünftig durch weitere Erhe-
bungen ergänzt werden sollte. Aus der parallelen Betrachtung statistischer und aus den
Kommentaren abgeleiteter qualitativer Kommentare lassen sich eine Reihe von Verbesse-
rungspotenzialen ableiten, die bezüglich einer weiteren Verbesserung der Reliabilität und
Validität des Fragebogens vielversprechend sind. Eine größere Stichrpobe und gegebenen-
falls eine Erweiterung der Itemanzahl pro Skala würde neben einer weiteren Steigerung
der Reliabilität auch erlauben, mittels Einsatz faktoranalytischer Verfahren die faktorielle
Validität der Skalen zu bestimmen.
Konkrete Interventionsstrategien zur Reduzierung der beschriebenen Biases wurden im
Rahmen dieser Arbeit nur oberflächlich – insbesondere auch bezüglich ihrer Limitationen
– thematisiert (Kapitel 1.1.2), da es um die Diagnostik geht und diese von Interventionen
weitestgehend abgegrenzt wurde. Die Items beziehen sich zudem auf kulturell geprägte
Verhaltensweisen, deren Implikationen über die Anwendung konkreter Strategien hinaus-
gehen sowie die Nutzung derartiger Strategien beeinflussen. Dies sind die Annahmen, die
gemäß dem Untersuchungsmodell den Kern dieser Arbeit bilden. Entsprechend sollte die
Entwicklung des Fragebogens zukünftig Interventionen hevorbringen, die kulturelle Ver-
änderungsprozesse umfassen. Dabei bieten insbesondere die in Kapitel 4.4 beschriebenen,
unterschiedlichen Facetten der Sicherheitskultur Ansätze, die eine Basis für Veränderungs-
prozesse darstellen können. Organisationale Veränderungsprozesse sind langwierig, insbe-
sondere wenn sie die Organisationskultur betreffen. Als wichtiger Faktor gilt dabei zum
Beispiel, dass erwünschte Verhaltensweisen von Führungskräften nicht nur vorgeschrieben,
sondern Tag für Tag vorgelebt werden (Kotter, 2008). Daneben bieten der Diagnostik ent-
sprechende Entscheidungsanalysestrategien die Möglichkeit, unmittelbare Verbesserungen
der Entscheidungsprozesse zu erreichen, die – wenn sie bestenfalls Hand in Hand mit kul-
turellen Veränderungsprozessen stattfinden – besonders wirksam sind, wie im Folgenden
näher erläutert wird.
So sollten zukünftig, in Abhängigkeit der Ergebnisse einer Befragung, konkrete Ansätze als
Feedback präsentiert werden. Dazu gehören zum Beispiel die in Kapitel 3.1 beschriebene
MAUT oder die Analysis of competing hypotheses (Straus, Parker & Bruce, 2011), die mut-
maßlich kognitiven Biases, wie der Availability Heuristic oder dem Anchoring-Effect sowie
dem durch WYSIATI ausgelösten „Tunnelblick“ entgegenwirkt, indem die Planungsverant-
wortlichen aufgefordert sind, so erschöpfend wie möglich alternative Handlungsmöglichkei-
ten zu generieren sowie deren Konsequenzen mit zugehörigen Eintrittswahrscheinlichkeiten
zu quantifizieren. Denkbar ist unter anderem auch eine Reduktion der Sunk-Cost Fallacy,
da sich durch die Quantifizierung der Erwartungswerte verschiedener Handlungsalternati-
ven auch eher ein Projektabbruch als dominante Handlungsalternative durchsetzen kann.
Bezüglich motivationaler Biases, wie dem Confirmation Bias oder Desirability Bias, er-
scheinen Techniken sinnvoll, die bewusst dazu auffordern, das bestehende Meinungsbild
7 Diskussion 198
zu hinterfragen. Dazu gehören Techniken wie Red Team beziehungsweise Contrarian Team
A/Team B, Devil’s Advocate oder Premortem (vgl. Kapitel 1.1.2). Bei derartigen Tech-
niken scheinen parallel stattfindende kulturelle Veränderungsprozesse besonders wichtig,
da die Kritik am eigenen Vorgehen, im Sinne selbstwerterhaltender Attributionen, bei den
betroffenen Gruppenmitgliedern kognitive Dissonanz erzeugen kann. Wenn keine entspre-
chende Fehlerkultur etabliert ist und konstruktive Kritik als Angriff auf den Selbstwert
wahrgenommen wird, führt dies potenziell zu Konflikten. Premortem oder die ähnlich
gestaltete High-impact/low probability analysis (Straus et al., 2011) erscheinen im sicher-
heitskritischen Kontext besonders sinnvoll, weil sie sehr seltene Ergebnisse mit enorm
negativen Konsequenzen ins Blickfeld rücken. Im Beispiel der Loveparade fand die Proble-
matik der Ein- und Ausgangssituation mehrmals Erwähnung, wie die Protokolle zeigen,
leider stets als Randnotiz. Eine bewusste Vertiefung von Worst-Case-Szenarien im Sinne
der Premortem-Technik hätte die später eintretende Problematik potenziell präsent ge-
macht. Auf der anderen Seite gab es bereits etliche Warnungen und damit Chancen, sich
vertieft mit der fatalen Problematik auseinanderzusetzen. In den Fallstudien wurde hier
immer wieder der Desirability Bias als Ursache für das entsprechende Versäumnis ange-
führt. Hier zeigt sich die im Untersuchungsmodell angesprochene Problematik, dass der
Erfolg des Einsatzes von entscheidungsförderlichen Techniken davon abhängt, dass der
Prozess tatsächlich ergebnisoffen durchgeführt wird und dafür bedarf es ebenfalls einer
adäquaten Organisations- beziehungsweise Sicherheitskultur.
Abschließend soll noch einmal der potenzielle Nutzen der Organisationsdiagnostik mittels
des in dieser Arbeit entwickelten Fragebogens und der daran anzuschließenden Interven-
tionen als Fazit thematisiert werden. Insbesondere im Bereich der HRO, denen sich die
in dieser Arbeit behandelten Fallstudien zuordnen lassen, ist die Verhütung von schwer-
wiegenden unerwünschten Ereignissen eine undankbare Aufgabe. Sicherheit als „dynami-
sches Nichtereignis“ ist der Normalzustand und Bemühungen zu deren Aufrechterhaltung
finden entsprechend wenig Wertschätzung. Im Zuge der Corona-Pandemie wurde diesbe-
züglich der Satz „There’s no glory in prevention“ geprägt. Auf der anderen Seite können
auch adäquate Planungsprozesse schwerwiegende Ereignisse nicht ausschließen. Es muss
hier eine probabilistische Sichtweise eingenommen werden, da die komplexe Umwelt or-
ganisationaler Planungsprozesse zwangsläufig auch von einer Reihe nicht kontrollierbarer
Störvariablen beeinflusst wird. Das unzuverlässige Feedback solcher Prozesse bezüglich
deren Ergebnis führt auch dazu, dass der potenzielle Nutzen von Interventionen zur Ver-
besserung der Planungsprozesse von den Verantwortlichen nicht zwingend wahrgenommen
wird und damit die Akzeptanz dieser Interventionen schwieriger zu erreichen ist. Neben
zukünftiger Forschung zu diesem Thema, die weitere Erkenntnisse zum Nutzen derarti-
ger Bemühungen erbringen sollte, spielt die Erwartungshaltung bezüglich der Effektstär-
ke kultureller Veränderungen und dem Einsatz von Entscheidungsanalysestrategien eine
Rolle. Aufgrund der Komplexität und Dynamik organisationaler Planungsprozesse haben
7 Diskussion 199
derartige Interventionen möglicherweise eine eher moderate Effektstärke. Wenn aber in
der Konsequenz der Verringerung biasinduzierender Situationen und Verhaltensweisen die
Qualität organisationaler Planungsprozesse nur um wenige Prozentpunkte gesteigert wer-
den könnte, könnte diese inkrementelle Verbesserung, bei hohen Projektkosten oder in
sicherheitskritischen Bereichen, bereits enorme positive Auswirkungen haben. Dabei sind
auch Synergieeffekte bestimmter, in dieser Arbeit angesprochener kultureller Veränderun-
gen zu anderen positiven Outcomes anzunehmen, da eine adäquate Kultur zum Beispiel
zu einer höheren psychologischen Sicherheit und damit einer besseren Mitarbeiterbelas-
tung und -zufriedenheit führen kann (Frazier, Fainshmidt, Klinger, Pezeshkan & Vracheva,
2017).
Dass die Organisationskultur auf vielfältige Weise einen starken Einfluss auf den langfris-
tigen Erfolg einer Organisation hat, ist lange bekannt (vgl. Kapitel 4.2). Die Ergebnisse
dieser Arbeit legen nahe, dass diverse kognitive, motivationale und gruppendynamische
Biases diesen Einfluss auf bedeutsame Weise mediieren, wenn es um die Qualität orga-
nisationaler Planungsprozesse geht. Damit bietet die Organisationskultur und damit as-
soziierte Verhaltensweisen einen vielversprechenden Zugang zur Diagnostik der Anfällig-
keit für diverse unbewusste Biases und letztlich einen vielversprechenden Ansatzpunkt für
entsprechende Interventionen. Der Autor hofft, mit dieser Arbeit und dem hierbei entwi-
ckelten Fragebogen einen positiven Beitrag zur weiteren Erforschung des Themas „Biases
in organisationalen Planungsprozessen“ und zur diesbezogenen Organisationsdiagnostik
zu leisten, um weitere Forschung zu inspirieren und das Thema stärker in der Praxis zu
integrieren.
200
Literaturverzeichnis
Abu-Jarad, I. Y., Yusof, N. & Nikbin, D. (2010). A review paper on organizational cul-
ture and organizational performance. International Journal of Business and Social
Science, 1 (3), 26–46. Zugriff auf shorturl.at/csvMS
Ahronson, A. & Cameron, J. E. (2007). The nature and consequences of group
cohesion in a military sample. Military Psychology, 19 (1), 9–25. htt-
ps://doi.org/10.1080/08995600701323277
Al-Zahrani, S. S. A. & Kaplowitz, S. A. (1993). Attributional biases in individualistic and
collectivistic cultures: A comparison of Americans with Saudis. Social Psychology
Quarterly, 223–233. https://doi.org/10.2307/2786780
Alloy, L. B. & Abramson, L. Y. (1988). Depressive realism: Four theoretical perspectives.
In L. B. Alloy (Hrsg.), Cognitive Processes in Depression (S. 223–265). The Guilford
Press.
Alnuaimi, O. A., Robert, L. P. & Maruping, L. M. (2010). Team size, dispersion, and
social loafing in technology-supported teams: A perspective on the theory of mo-
ral disengagement. Journal of Management Information Systems, 27 (1), 203–230.
https://doi.org/10.2753/MIS0742-1222270109
Arenius, M. & Sträter, O. (2013). Resilience engineering in railways - results from a
systemic accident and event analysis in German railways. In R. D. J. M. Steenbergen,
P. H. A. J. M. van Gelder, S. Miraglia & A. C. W. M. Ton Vrouwenvelder (Hrsg.),
Safety, reliability and risk analysis: Beyond the horizon (S. 423–428). Boca Raton:
CRC Press.
Arkes, H. R. & Blumer, C. (1985). The psychology of sunk cost. Organizational Behavior
and Human Decision Processes, 35 (1), 124–140. https://doi.org/10.1016/0749-
5978(85)90049-4
Asch, S. E. (1951). Effects of group pressure upon the modification and distortion of
judgments. In H. Guetzkow (Hrsg.), Groups, leadership and men; research in human
relations (Bd. 58, S. 177–190). Pittsburgh: Carnegie Mellon University Press.
Baddeley, A. (2000). The episodic buffer: A new component of working memory? Trends in
Cognitive Sciences, 4 (11), 417–423. https://doi.org/10.1016/S1364-6613(00)01538-
2
Literaturverzeichnis 201
Baddeley, A. (2007). Working memory, thought, and action (Bd. 45). Oxford University
Press.
Baddeley, A. & Andrade, J. (2000). Working memory and the vividness of imagery. Journal
of Experimental Psychology: General, 129 (1), 126. https://doi.org/10.1037/0096-
3445.129.1.126
Bar-Hillel, M. (1973). On the subjective probability of compound events. Organizational
Behavior and Human Performance, 9 (3), 396–406. https://doi.org/10.1016/0030-
5073(73)90061-5
Barnes, J. H. (1984). Cognitive biases and their impact on strategic planning. Strategic
Management Journal, 5 (2), 129–137. https://doi.org/10.1002/smj.4250050204
Baron, J. (1995). Myside bias in thinking about abortion. Thinking and Reasoning, 1
(3), 221–235. https://doi.org/10.1080/13546789508256909
Barrett, L. F., Tugade, M. M. & Engle, R. W. (2004). Individual differences in working
memory capacity and dual-process theories of the mind. Psychological Bulletin, 130
(4), 553–573. https://doi.org/10.1037/0033-2909.130.4.553
Baumeister, R. F., Ainsworth, S. E. & Vohs, K. D. (2016). Are groups more or less than the
sum of their members? The moderating role of individual identification. Behavioral
and Brain Sciences, 39 , S. 1-56. https://doi.org/10.1017/S0140525X15000618
Bazerman, M. H. & Moore, D. A. (2013). Judgment in managerial decision making (8.
Aufl.). New York: John Wiley & Sons, Ltd.
Beck, A. T. (1979). Cognitive therapy and the emotional disorders. New York: Penguin
Group.
Beck, D., Taskan, E., Elskamp, E., Gold, M., Gregersen, S., Klamroth, H., . . . Wittmann,
S. (2022). Empfehlungen zur Umsetzung der Gefährdungsbeurteilung Psychischer
Belastung. GDA-Arbeitsprogramm Psyche. Zugriff am 2022-07-08 auf shorturl.at/
euRZ1
Bénabou, R. & Tirole, J. (2002). Self-confidence and personal motivation. The Quar-
terly Journal of Economics, 117 (3), 871–915. Zugriff am 2022-10-18 auf https://
EconPapers.repec.org/RePEc:oup:qjecon:v:117:y:2002:i:3:p:871-915
Benard, S. & Doan, L. (2011). The conflict–cohesion hypothesis: Past, present, and
possible futures. In S. R. Thye & E. J. Lawler (Hrsg.), Advances in group processes
(Bd. 28, S. 189–225). Bingley: Emerald Group Publishing Limited.
Benet-Martínez, V., Leu, J., Lee, F. & Morris, M. W. (2002). Negotiating bicultura-
lism: Cultural frame switching in biculturals with oppositional versus compatible
cultural identities. Journal of Cross-Cultural Psychology, 33 (5), 492–516. htt-
ps://doi.org/10.1177/0022022102033005005
Literaturverzeichnis 202
Bennet, A. & Bennet, D. (2008). The decision-making process for complex situations in
a complex environment. In F. Burstein & C. W. Holsapple (Hrsg.), Handbook on
decision support systems (S. 3–20). New York: Springer.
Berthon, P., Pitt, L. F. & Ewing, M. T. (2001). Corollaries of the collective: The in-
fluence of organizational culture and memory development on perceived decision-
making context. Journal of the Academy of Marketing Science, 29 (2), 135–150.
https://doi.org/10.1177/03079459994515
Beveridge, W. I. B. (1951). The art of scientific investigation. London: Heinemann.
Zugriff am 2023-04-25 auf https://www.cabdirect.org/cabdirect/abstract/
19511401246
Bierce, A. (1911). The unabridged devil’s dictionary. New York: The Neale Publishing
Company.
Blatter, J., Janning, F. & Wagemann, C. (2007). Qualitative Politikanalyse: eine Einfüh-
rung in Forschungsansätze und Methoden (1. Aufl.) (Nr. 44). Wiesbaden: VS Verl.
für Sozialwissenschaften.
Boeing. (o. J.). 737 MAX. Zugriff am 2022-12-17 auf https://www.boeing.com/
commercial/737max/
Brandt, A., Bönisch, G., Dahlkamp, J. & Röbel, S. (2011, Mai). Schwarzer Sams-
tag. Spiegel. Zugriff auf https://www.spiegel.de/politik/schwarzer-samstag
-a-5195a478-0002-0001-0000-000078522270?context=issue
Buehler, R., Griffin, D. & MacDonald, H. (1997). The role of motivated reasoning in
optimistic time predictions. Personality and Social Psychology Bulletin, 23 (3),
238–247. https://doi.org/10.1177/0146167297233003
Buehler, R., Griffin, D. & Ross, M. (1994). Exploring the “planning fallacy”: Why peo-
ple underestimate their task completion times. Journal of Personality and Social
Psychology, 67 (3), 366–381. https://doi.org/10.1037/0022-3514.67.3.366
Buehler, R., Griffin, D. & Ross, M. (2009). Inside the planning fallacy: The causes
and consequences of optimistic time predictions. In T. Gilovich, D. W. Griffin &
D. Kahneman (Hrsg.), Heuristics and biases - The psychology of intuitive judgment
(8. Aufl., S. 250–270). New York: Cambridge University Press.
Burke, W. W. & Litwin, G. H. (1992). A causal model of organizational per-
formance and change. Journal of Management, 18 (3), 523–545. htt-
ps://doi.org/10.1177/014920639201800306
Buse, U., Deckstein, D., Evers, M., Fichtner, U., Großekathöfer, M., Mingels, G., . . . Trau-
fetter, G. (2019). 737 Max: Boeing’s crashes expose systemic failings. Der Spiegel.
Zugriff am 2022-12-17 auf https://www.spiegel.de/international/business/
737-max-boeing-s-crashes-expose-systemic-failings-a-1282869.html
Literaturverzeichnis 203
Camina, E. & Güell, F. (2017). The neuroanatomical, neurophysiological and psychological
basis of memory: Current models and their origins. Frontiers in Pharmacology, 8
(438), 1–16. https://doi.org/10.3389/fphar.2017.00438
Campbell, W. K., Goodie, A. S. & Foster, J. D. (2004). Narcissism, confidence, and
risk attitude. Journal of Behavioral Decision Making, 17 (4), 297–311. htt-
ps://doi.org/10.1002/bdm.475
Campbell, W. K. & Sedikides, C. (1999). Self-threat magnifies the self-serving bias:
A meta-analytic integration. Review of General Psychology, 3 (1), 23–43. htt-
ps://doi.org/10.1037/1089-2680.3.1
Caputo, A. (2013). A literature review of cognitive biases in negotiation proces-
ses. International Journal of Conflict Management, 24 (4), 374–398. htt-
ps://doi.org/10.1108/IJCMA-08-2012-0064
Chaiken, S. & Trope, Y. (1999). Dual-process theories in social psychology. New York:
Guilford Press.
Choi, I. & Cha, O. (2019). Cross-cultural examination of the False Consensus Effect. Fron-
tiers in Psychology, 10 (2747), 1–13. https://doi.org/10.3389/fpsyg.2019.02747
Chua, H. F., Boland, J. E. & Nisbett, R. E. (2005). Cultural variation in eye movements
during scene perception. Proceedings of the National Academy of Sciences, 102 (35),
12629–12633. https://doi.org/10.1073/pnas.0506162102
Clayson, D. E. (2005). Performance overconfidence: Metacognitive effects or mispla-
ced student expectations? Journal of Marketing Education, 27 (2), 122–129. htt-
ps://doi.org/10.1177/0273475304273525
Collins, A. M. & Quillian, M. R. (1969). Retrieval time from semantic memo-
ry. Journal of Verbal Learning and Verbal Behavior , 8 (2), 240–247. htt-
ps://doi.org/10.1016/S0022-5371(69)80069-1
Cruz, B. S. & de Oliveira Dias, M. (2020). Crashed Boeing 737-MAX: Fatalities or
malpractice? Global Scientific Journals, 8 (1), 11. Zugriff am 2021-10-08 auf
shorturl.at/kDJMS
Cunha, J. A., Viglioni, T., Thomaz, J. & Moura, H. (2014). Project Management in Light
of Cognitive Biases: A Public Sector IT Organization Case. In In Proceedings of the
10th European Conference on Management, Leadership and Governance–ECMLG
2014 (S. 50–58).
Darley, J. M. & Latané, B. (1968). Bystander intervention in emergencies: Diffusion of
responsibility. Journal of Personality and Social Psychology, 8 (4p1), 377. htt-
ps://doi.org/10.1037/h0025589
Dekker, S. (2016). Drift into failure: From hunting broken components to understanding
complex systems. CRC Press.
Literaturverzeichnis 204
Denison, D. R. (1984). Bringing corporate culture to the bottom line. Organizational
Dynamics, 13 (2), 5–22. https://doi.org/10.1016/0090-2616(84)90015-9
Deshpandé, R., Farley, J. U. & Webster, F. E. (1993). Corporate culture, customer
orientation, and innovativeness in Japanese firms: A quadrad analysis. Journal of
Marketing, 57 (1), 23–37. https://doi.org/10.1177/002224299305700
Deutsches Institut für Normung. (2004). Ergonomische Grundlagen bezüglich Psychischer
Arbeitsbelastung - Teil 3: Grundsätze und Anforderungen an Verfahren zur Messung
und Erfassung Psychischer Arbeitsbelastung (ISO 10075-3:2004) (Bericht). Berlin:
Deutsches Institut für Normung.
Devos, T. & Banaji, M. R. (2003). Implicit self and identity. Annals of the New York
Academy of Sciences, 1001 (1), 177–211. https://doi.org/10.1196/annals.1279.009
Die Loveparade Geschichte: Vom Protestmarsch zum Millionen-Event! (2020). Zugriff am
2022-12-26 auf https://www.djmag.de/einzelnews/die-loveparade-geschichte
-vom-protestmarsch-zum-millionen-event/
Dimara, E., Franconeri, S., Plaisant, C., Bezerianos, A. & Dragicevic, P. (2020).
A task-based taxonomy of cognitive biases for information visualization. IEEE
Transactions on Visualization and Computer Graphics, 26 (2), 1413–1432. htt-
ps://doi.org/10.1109/TVCG.2018.2872577
Dittes, J. E. & Kelley, H. H. (1956). Effects of different conditions of acceptance upon
conformity to group norms. The Journal of Abnormal and Social Psychology, 53 (1),
100–107. https://doi.org/10.1037/h0047855
Dobbins, G. H. & Russell, J. M. (1986). Self-serving biases in leadership: A
laboratory experiment. Journal of Management, 12 (4), 475–483. htt-
ps://doi.org/10.1177/0149206386012004
Eil, D. & Rao, J. M. (2011). The good news - bad news effect: Asymmetric processing of
objective information about yourself. American Economic Journal: Microeconomics,
3 (2), 114–138. https://doi.org/10.1257/mic.3.2.114
Einhorn, H. J. & Hogarth, R. M. (1978). Confidence in judgment: Persistence of the illusion
of validity. Psychological Review, 85 (5), 395–416. https://doi.org/10.1037/0033-
295X.85.5.395
Eisinga, R., te Grotenhuis, M. & Pelzer, B. (2013). The reliability of a two-item scale:
Pearson, Cronbach, or Spearman-Brown? Int J Public Health, 58 (4), 637–642.
https://doi.org/10.1007/s00038-012-0416-3
Englich, B., Mussweiler, T. & Strack, F. (2006). Playing dice with criminal sen-
tences: The influence of irrelevant anchors on experts’ judicial decision ma-
king. Personality and Social Psychology Bulletin, 32 (2), 188–200. htt-
ps://doi.org/10.1177/0146167205282152
Englisch, F. (2018). MABO – Ein ganzheitliches Verfahren zur Gefährdungsanalyse von
Literaturverzeichnis 205
Psychischer Belastung am Arbeitsplatz. In R. Trimpop, J. Kampe, M. Bald, I. Seliger
& G. Effenberger (Hrsg.), Psychologie der Arbeitssicherheit und Gesundheit (S. 725–
728). Kröning: Asanger.
Esser, J. K. & Lindoerfer, J. S. (1989). Groupthink and the space shuttle Challenger acci-
dent: Toward a quantitative case analysis. Journal of Behavioral Decision Making,
2 (3), 167–177. https://doi.org/10.1002/bdm.3960020304
Evans, J. S. B. T. (1989). Bias in human reasoning: Causes and consequences. Hilsdale,
NJ: Lawrence Erlbaum Associates.
Festinger, L. (1950). Informal social communication. Psychological Review, 57 (5), 271–
282. https://doi.org/10.1037/h0056932
Festinger, L. (1962). A theory of cognitive dissonance (Bd. 2). Redwood City: Stanford
University Press.
Fischhoff, B. (1982). Debiasing. In D. Kahneman, P. Slovic & A. Tversky (Hrsg.), Judg-
ment under uncertainty: Heuristics and biases (S. 422–444). Cambridge: Cambridge
University Press.
Flyfbjerg, B. (2011). Case Study. In N. K. Denzin & Y. S. Lincoln (Hrsg.), The Sage
Handbook of Qualitative Research (S. 301–316). Thousand Oaks: Sage Publications.
Flynn, F. J. & Wiltermuth, S. S. (2010). Who’s with me? False consensus, brokerage, and
ethical decision making in organizations. Academy of Management Journal, 53 (5),
1074–1089. https://doi.org/10.5465/amj.2010.54533202
Forsyth, D. R. (2008). Self-serving bias. In W. A. Darity (Hrsg.), International Encyclo-
pedia of the Social Sciences (2. Aufl., Bd. 7, S. 429). Detroit: Macmillan Reference
USA.
Frankland, P. W., Josselyn, S. A. & Köhler, S. (2019). The neurobiological foun-
dation of memory retrieval. Nature Neuroscience, 22 (10), 1576–1585. htt-
ps://doi.org/10.1038/s41593-019-0493-1
Fraser, C., Gouge, C. & Billig, M. (1971). Risky shifts, cautious shifts, and group polariza-
tion. Eur. J. Soc. Psychol., 1 (1), 7–30. https://doi.org/10.1002/ejsp.2420010103
Frazier, M. L., Fainshmidt, S., Klinger, R. L., Pezeshkan, A. & Vracheva, V. (2017).
Psychological safety: A meta-analytic review and extension. Personnel psychology,
70 (1), 113–165. https://doi.org/10.1111/peps.12183
Friedman, D., Pommerenke, K., Lukose, R., Milam, G. & Huberman, B. A. (2007). Sear-
ching for the sunk cost fallacy. Experimental Economics, 10 (1), 79–104. htt-
ps://doi.org/10.1007/s10683-006-9134-0
Frith, C. D. (2008). Social cognition. Philosophical Transactions of
the Royal Society B: Biological Sciences, 363 (1499), 2033–2039. htt-
ps://doi.org/10.1098/rstb.2008.0005
Literaturverzeichnis 206
Fromme, C. (2010). Loveparade: Experte zur Unglücksursache: Die Trep-
pe hätte man sprengen müssen. Süddeutsche Zeitung, 10. Zugriff am
2022-06-23 auf https://www.sueddeutsche.de/wissen/loveparade-experte-zur
-ungluecksursache-die-treppe-haette-man-sprengen-muessen-1.979428-0
Gates, D. (2019). Flawed analysis, failed oversight: How boeing, FAA certified
the suspect 737 MAX flight control system. The Seattle Times. Zugriff am
2022-04-20 auf https://www.seattletimes.com/business/boeing-aerospace/
failed-certification-faa-missed-safety-issues-in-the-737-max-system
-implicated-in-the-lion-air-crash/
Gates, D. & Baker, M. (2019). The inside story of MCAS: How Boeing’s 737 MAX
system gained power and lost safeguards. The Seattle Times. Zugriff am 2022-
04-29 auf https://www.seattletimes.com/seattle-news/times-watchdog/
the-inside-story-of-mcas-how-boeings-737-max-system-gained-power-and
-lost-safeguards/
Gerrig, R. J. & Zimbardo, P. G. (2018). Psychologie (21. Aufl.; T. Dörfler & J. Roos,
Hrsg. & A. Klatt, Übers.). Hallbergmoos: Pearson.
Gilovich, T. & Griffin, D. (2009). Introduction - Heuristics and biases: Then and now.
In T. Gilovich, D. W. Griffin & D. Kahneman (Hrsg.), Heuristics and biases: The
psychology of intuitive judgment (8. Aufl., S. 1–18). New York: Cambridge University
Press.
Gilovich, T., Griffin, D. W. & Kahneman, D. (Hrsg.). (2009). Heuristics and biases: The
psychology of intuitive judgment (8. Aufl.). New York: Cambridge University Press.
Gladwell, M. T. (2008). Outliers: The story of success. New York: Little, Brown and
Company.
Google Finance. (2022). Boeing Co. Zugriff am 2022-12-17 auf
https://www.google.com/finance/quote/BCO:ETR?sa=X&ved=2ahUKEwjl
_s2KpYD8AhXj7rsIHSrfACUQ3ecFegQIKhAj
Griffin, D. & Tversky, A. (2009). The weighing of evidence and the determinants of
confidence. In T. Gilovich, D. W. Griffin & D. Kahneman (Hrsg.), Heuristics and
biases - The psychology of intuitive judgment (8. Aufl., S. 229–249). New York:
Cambridge University Press.
Grünendahl, P. (2012). Der Brief von Thomas Mahlberg (CDU) an NRW-Innenminister
Ingo Wolf (FDP). Duisburg am Rhein - Betrachtungen. Zugriff am 2022-06-17
auf https://duisburgamrhein-betrachtungen.de/loveparade-2010/der-brief
-von-thomas-mahlberg-cdu-an-nrw-innenminister-ingo-wolf-fdp/
Guerrera, F. (2008). Wells Fargo cracks the whip. Financial Times. Zugriff am 2022-08-09
auf https://www.ft.com/content/83f02918-7069-11dd-b514-0000779fd18c
Hamilton, D. L., Dugan, P. M. & Trolier, T. K. (1985). The formation of stereotypic
Literaturverzeichnis 207
beliefs: Further evidence for distinctiveness-based illusory correlations. Journal of
Personality and Social Psychology, 48 (1), 5–17. https://doi.org/10.1037/0022-
3514.48.1.5
Hans, B. (2010). Imageprojekt Love Parade - Party um jeden Preis. Spiegel. Zu-
griff am 2022-06-17 auf https://www.spiegel.de/panorama/imageprojekt-love
-parade-party-um-jeden-preis-a-708573.html
Harkins, S. G. & Petty, R. E. (1982). Effects of task difficulty and task uniqueness on
social loafing. Journal of Personality and Social Psychology, 43 (6), 1214–1229.
https://doi.org/10.1037/0022-3514.43.6.1214
Harkins, S. G. & Szymanski, K. (1988). Social loafing and self-evaluation with an objec-
tive standard. Journal of Experimental Social Psychology, 24 (4), 354–365. htt-
ps://doi.org/10.1016/0022-1031(88)90025-X
Hastorf, A. H. & Cantril, H. (1954). They saw a game; a case study. The Journal of Ab-
normal and Social Psychology, 49 (1), 129–134. https://doi.org/10.1037/h0057880
Heath, C., Larrick, R. P. & Klayman, J. (1998). Cognitive repairs: How organizations
compensate for the shortcoming of individual learners. Research in Organizational
Behavior , 20 , 1–37. Zugriff am 2022-11-15 auf shorturl.at/mJMZ3
Heine, S. J. & Lehman, D. R. (1995). Cultural variation in unrealistic optimism: Does
the West feel more vulnerable than the East? Journal of Personality and Social
Psychology, 68 (4), 595–607. https://doi.org/10.1037/0022-3514.68.4.595
Heine, S. J., Takata, T. & Lehman, D. R. (2000). Beyond self-presentation: Evidence for
self-criticism among Japanese. Personality and Social Psychology Bulletin, 26 (1),
71–78. https://doi.org/10.1177/0146167200261007
Helbing, D. & Mukerji, P. (2012). Crowd disasters as systemic failures: Analysis of the Love
Parade disaster. EPJ Data Science, 1 (7), 1–40. https://doi.org/10.1140/epjds7
Heuer, R. J. (1999). Psychology of intelligence analysis. Washington DC: Center for the
Study of Intelligence.
Hoffrage, U. (2017). Overconfidence. In R. F. Pohl (Hrsg.), Cognitive illusions (2. Aufl.,
S. 291–314). New York: Routledge.
Hofstede, G. (1984). Culture’s consequences: International differences in work-related
values (Bd. 5). Thousand Oaks: Sage Publications Inc.
Hopkins, A. (2001). Was Three Mile Island a ‘normal accident’? Journal of Contingencies
and Crisis Management, 9 (2), 65–72. https://doi.org/10.1111/1468-5973.00155
Horney, K. C. T. (2013). New ways in psychoanalysis (Bd. 16). Abingdon-on-Thames:
Routledge.
Houghton, S. M., Simon, M., Aquino, K. & Goldberg, C. B. (2000). No safety in
numbers: Persistence of biases and their effects on team risk perception and team
Literaturverzeichnis 208
decision making. Group & Organization Management, 25 (4), 325–353. htt-
ps://doi.org/10.1177/1059601100254002
House, R. J., Hanges, P. J., Javidan, M., Dorfman, P. W. & Gupta, V. (2004). Culture,
leadership, and organizations: The GLOBE study of 62 societies. New York: Sage
Publications.
International Atomic Energy Agency. (1991). Safety culture: A report (Bericht). Vienna:
Autor.
Janis, I. L. (1971). Groupthink. Psychology Today, 5 (6), 43–46, 74–76. Zugriff auf
http://agcommtheory.pbworks.com/f/GroupThink.pdf
Janis, I. L. (1982). Groupthink: Psychological studies of policy decisions and fiascoes (2.
Aufl.). Boston: Houghton Mifflin.
Janis, I. L. (1991). Groupthink. In E. Griffin (Hrsg.), A first look at communication theory
(S. 235–246). New York: McGraw Hill.
Javidan, M. & Dastmalchian, A. (2009). Managerial implications of the GLOBE project:
A study of 62 societies. Asia Pacific Journal of Human Resources, 47 (1), 41–58.
https://doi.org/10.1177/1038411108099289
Jensen, A., Merz, S., Spence, C. & Frings, C. (2020). Perception it is: Processing le-
vel in multisensory selection. Atten Percept Psychophys, 82 (3), 1391–1406. htt-
ps://doi.org/10.3758/s13414-019-01830-4
Jonassen, D. H. (1997). Instructional design models for well-structured and iII-structured
problem-solving learning outcomes. Educational Technology Research and Develop-
ment, 45 (1), 65–94. https://doi.org/10.1007/BF02299613
Jonassen, D. H. (2000). Toward a design theory of problem solving. Educational Technology
Research and Development, 48 (4), 63–85. https://doi.org/10.1007/BF02300500
Jones, P. E. & Roelofsma, P. H. M. P. (2000). The potential for social contextual and group
biases in team decision-making: Biases, conditions and psychological mechanisms.
Ergonomics, 43 (8), 1129–1152. https://doi.org/10.1080/00140130050084914
Kahan, D. M., Braman, D., Gastil, J., Slovic, P. & Mertz, C. K. (2007). Culture and
identity-protective cognition: Explaining the white-male effect in risk perception.
Journal of Empirical Legal Studies, 4 (3), 465–505. https://doi.org/10.1111/j.1740-
1461.2007.00097.x
Kahan, D. M., Jenkins-Smith, H. & Braman, D. (2011). Cultural cognition
of scientific consensus. Journal of Risk Research, 14 (2), 147–174. htt-
ps://doi.org/10.1080/13669877.2010.511246
Kahneman, D. (1973). Attention and effort. Englewood Cliffs, NJ: Prentice-Hall Incorpo-
rated.
Kahneman, D. (2011). Thinking, fast and slow. New York: Macmillan Publishing Group,
LLC.
Literaturverzeichnis 209
Kahneman, D. & Frederick, S. (2009). Representativeness revisited: Attribute substitu-
tion in intuitive judgment. In T. Gilovich, D. W. Griffin & D. Kahneman (Hrsg.),
Heuristics and Biases: The Psychology of Intuitive Judgment (8. Aufl., S. 49–81).
New York: Cambridge University Press.
Kahneman, D. & Klein, G. (2009). Conditions for intuitive expertise: A failure to disagree.
American Psychologist, 64 (6), 515–526. https://doi.org/10.1037/a0016755
Kahneman, D. & Tversky, A. (1979). Prospect theory: An analysis of decision under risk.
Econometrica, 47 (2), 263–292. https://doi.org/10.2307/1914185
Katz, D., Allport, F. H. & Jenness, M. B. (1931). Students’ attitudes; a report of the
Syracuse University reaction study. Burlington, IA: Craftsman Press.
Kelly, J., Fisher, D. & Smith, M. (2005). Debate, division, and diversity: Political dis-
course networks in Usenet newsgroups. In Online Deliberation Conference. Stanford
University.
Kennedy, R. (2022). Downfall: The case against boeing. Netflix. Zugriff auf shorturl.at/
bvGV4
Kerr, N. L. (1983). Motivation losses in small groups: A social dilemma analysis. Journal
of Personality and Social Psychology, 45 (4), 819. https://doi.org/10.1037/0022-
3514.45.4.819
Kerr, N. L., MacCoun, R. J. & Kramer, G. P. (1996). Bias in judgment: Com-
paring individuals and groups. Psychological Review, 103 (4), 687–719. htt-
ps://doi.org/10.1037/0033-295X.103.4.687
Kerr, N. L. & Tindale, R. S. (2004). Group performance and decisi-
on making. Annual Review of Psychology, 55 (1), 623–655. htt-
ps://doi.org/10.1146/annurev.psych.55.090902.142009
Kitayama, S., Markus, H. R., Matsumoto, H. & Norasakkunkit, V. (1997). Individual and
collective processes in the construction of the self: Self-enhancement in the United
States and self-criticism in Japan. Journal of Personality and Social Psychology, 72
(6), 1245. https://doi.org/10.1037/0022-3514.72.6.1245
Klayman, J. (1993). Debias the environment instead of the judge: An alternative approach
to reducing error in diagnostic (and other) judgment. Cognition, 49 (1-2), 97–122.
https://doi.org/10.1016/0010-0277(93)90037-V
Klayman, J., Soll, J. B., Gonzalez-Vallejo, C. & Barlas, S. (1999). Overconfidence: It
depends on how, what, and whom you ask. Organizational Behavior and Human
Decision Processes, 79 (3), 216–247. https://doi.org/10.1006/obhd.1999.2847
Klehe, U.-C. & Anderson, N. (2007). The moderating influence of personality
and culture on social loafing in typical versus maximum performance situati-
ons. International Journal of Selection and Assessment, 15 (2), 250–262. htt-
ps://doi.org/10.1111/j.1468-2389.2007.00385.x
Literaturverzeichnis 210
Klein, G. (2007). Performing a project premortem. Harvard business review, 85 (9),
18–19.
Korn, C. W., Sharot, T., Walter, H., Heekeren, H. R. & Dolan, R. J. (2014).
Depression is related to an absence of optimistically biased belief updating
about future life events. Psychological Medicine, 44 (3), 579–592. htt-
ps://doi.org/10.1017/S0033291713001074
Kotter, J. P. (2008). Corporate culture and performance. New York: Simon and Schuster.
Krueger, J. I. & Funder, D. C. (2004, April). Towards a balanced social psycho-
logy: Causes, consequences, and cures for the problem-seeking approach to so-
cial behavior and cognition. Behavioral and Brain Sciences, 27 (03). htt-
ps://doi.org/10.1017/S0140525X04000081
Kruglanski, A. W. & Webster, D. M. (1996). Motivated closing of the mind: “Seizing” and
“Freezing”. Psychological Review, 103 (2), 263–283. https://doi.org/10.1037/0033-
295x.103.2.263
Kuhn, D. (1989). Children and adults as intuitive scientists. Psychological review, 96 (4),
674. https://doi.org/10.1037/0033-295X.96.4.674
Kunda, Z. (1990). The case for motivated reasoning. Psychological Bulletin, 108 (3), 480.
https://doi.org/10.1037/0033-2909.108.3.480
Kuzmanovic, B., Jefferson, A. & Vogeley, K. (2015). Self-specific optimism bias in belief
updating is associated with high trait optimism. Journal of Behavioral Decision
Making, 28 (3), 281–293. https://doi.org/10.1002/bdm.1849
Labib, A. & Read, M. (2013). Not just rearranging the deckchairs on the Titanic: Learning
from failures through Risk and Reliability Analysis. Safety Science, 51 (1), 397–413.
https://doi.org/10.1016/j.ssci.2012.08.014
Langewiesche, W. (2019). What really brought down the Boeing 737 Max? New
York Times. Zugriff am 2022-04-08 auf https://www.nytimes.com/2019/09/18/
magazine/boeing-737-max-crashes.html
Larrick, R. P. (2004). Debiasing. In D. J. Koehler & N. Harvey (Hrsg.), Blackwell handbook
of judgment and decision making (S. 316–337). Hoboken, NJ: Blackwell Publishing.
Larrick, R. P., Burson, K. A. & Soll, J. B. (2007). Social comparison and confidence:
When thinking you’re better than average predicts overconfidence (and when it
does not). Organizational Behavior and Human Decision Processes, 102 (1), 76–94.
https://doi.org/10.1016/j.obhdp.2006.10.002
Larson, J. R., Christensen, C., Abbott, A. S. & Franz, T. M. (1996). Diagnosing groups:
Charting the flow of information in medical decision-making teams. Journal of
Personality and Social Psychology, 71 (2), 315–330. https://doi.org/10.1037//0022-
3514.71.2.315
Larwood, L. & Whittaker, W. (1977). Managerial myopia: Self-serving biases in
Literaturverzeichnis 211
organizational planning. Journal of Applied Psychology, 62 (2), 194. htt-
ps://doi.org/10.1037/0021-9010.62.2.194
Latané, B., Williams, K. & Harkins, S. (1979). Many hands make light the work: The cau-
ses and consequences of social loafing. Journal of Personality and Social Psychology,
37 (6), 822. https://doi.org/10.1037/0022-3514.37.6.822
LeBoeuf, R. A. & Shafir, E. (2006). The long and short of it: Physical ancho-
ring effects. Journal of Behavioral Decision Making, 19 (4), 393–406. htt-
ps://doi.org/10.1002/bdm.535
LeBoeuf, R. A., Shafir, E. & Bayuk, J. B. (2010). The conflicting choices of alternating
selves. Organizational Behavior and Human Decision Processes, 111 (1), 48–61.
https://doi.org/10.1016/j.obhdp.2009.08.004
Lewis, M. (2004). Moneyball: The art of winning an unfair game. New York: W.W.
Norton & Company.
Li, A., Early, S. F., Mahrer, N. E., Klaristenfeld, J. L. & Gold, J. I. (2014). Group cohesion
and organizational commitment: Protective factors for nurse residents’ job satisfac-
tion, compassion fatigue, compassion satisfaction, and burnout. Journal of Profes-
sional Nursing, 30 (1), 89–99. https://doi.org/10.1016/j.profnurs.2013.04.004
Lichtenstein, S. & Fischhoff, B. (1980). Training for calibration. Organizational Be-
havior and Human Performance, 26 (2), 149–171. https://doi.org/10.1016/0030-
5073(80)90052-5
Lichtenstein, S., Slovic, P., Fischhoff, B., Layman, M. & Combs, B. (1978). Judged
frequency of lethal events. Journal of Experimental Psychology: Human Learning
and Memory, 4 (6), 551–578. https://doi.org/10.1037/0278-7393.4.6.551
Liden, R. C., Wayne, S. J., Jaworski, R. A. & Bennett, N. (2004). Social loa-
fing: A field investigation. Journal of Management, 30 (2), 285–304. htt-
ps://doi.org/10.1016/j.jm.2003.02.002
Lin, L. C., Qu, Y. & Telzer, E. H. (2018). Intergroup social influence on emotion processing
in the brain. Proceedings of the National Academy of Sciences, 115 (42), 10630–
10635. https://doi.org/10.1073/pnas.1802111115
List of cognitive biases. (2022). Wikipedia. Zugriff am 2022-11-27 auf https://
en.wikipedia.org/w/index.php?title=List_of_cognitive_biases&oldid=
1124220636
Logan, G. D. (2002). Parallel and serial processing. In H. Pashler (Hrsg.), Stevens’
handbook of experimental psychology: Methodology in experimental psychology (3.
Aufl., Bd. 4, S. 271–300). New York: John Wiley & Sons.
Longbine, D. F. (2008). Red teaming: Past and present (Bericht). Kansas: School of
Advanced Military Studies United States Army Command and General Staff College
Fort Leavenworth.
Literaturverzeichnis 212
Loschelder, D. D., Stuppi, J. & Trötschel, R. (2014). “14,875?!”: Precision boosts the
anchoring potency of first offers. Social Psychological and Personality Science, 5
(4), 491–499. https://doi.org/10.1177/194855061349994
Loveparade fällt 2009 in Bochum aus. (2009, Januar). Rheinische Post. Zugriff am 2022-06-
17 auf https://rp-online.de/panorama/deutschland/loveparade-faellt-2009
-in-bochum-aus_aid-12437931
LTO-Redaktion. (2020, April). Aus für Loveparade-Prozess rückt näher - Staats-
anwaltschaft stimmt Einstellung zu. Legal Tribune Online. Zugriff am
2022-05-06 auf https://www.lto.de/recht/nachrichten/n/loveparade-prozess
-einstellung-zustimmung-staatsanwaltschaft/
Luft, T., Schneider, S. & Wartzack, S. (2015). A methodical approach to model and
map interconnected decision making situations and their consequences. In C. We-
ber, S. Husung, G. Cascini, M. Cantamessa, D. Marjanovic & F. Rotini (Hrsg.),
Proceedings of the 20th International on Engineering Design (ICED 15) (Bd. 5, S.
329–340). Polytechnic University of Milan.
Maass, A., Karasawa, M., Politi, F. & Suga, S. (2006). Do verbs and adjectives play
different roles in different cultures? A cross-linguistic analysis of person represen-
tation. Journal of Personality and Social Psychology, 90 (5), 734–750. htt-
ps://doi.org/10.1037/0022-3514.90.5.734
Mannion, R. & Thompson, C. (2014, Dezember). Systematic biases in group decision-
making: Implications for patient safety. International Journal for Quality in Health
Care, 26 (6), 606–612. https://doi.org/10.1093/intqhc/mzu083
Marchiori, D., Papies, E. K. & Klein, O. (2014, Oktober). The portion size effect on
food intake. An anchoring and adjustment process? Appetite, 81 , 108–115. htt-
ps://doi.org/10.1016/j.appet.2014.06.018
Marks, G. & Miller, N. (1987). Ten years of research on the false-consensus effect:
An empirical and theoretical review. Psychological Bulletin, 102 (1), 72–90. htt-
ps://doi.org/10.1037/0033-2909.102.1.72
McAfee, R. P., Mialon, H. M. & Mialon, S. H. (2010). Do sunk costs matter? Economic
Inquiry, 48 (2), 323–336. https://doi.org/10.1111/j.1465-7295.2008.00184.x
Medin, D. L., Ross, B. H. & Markman, A. B. (2005). Cognitive psychology. New York:
Wiley.
Mercier, H. (2017). Confirmation bias–myside bias. In R. F. Pohl (Hrsg.), Cognitive
illusions (2. Aufl., S. 99–114). New York: Routledge.
Meub, L. & Proeger, T. (2018). Are groups ‘less behavioral’? The case of anchoring. Theory
and Decision, 85 (2), 117–150. https://doi.org/10.1007/s11238-017-9608-x
Milgram, S. (1963). Behavioral study of obedience. The Journal of Abnormal and Social
Psychology, 67 (4), 371–378. https://doi.org/10.1037/h0040525
Literaturverzeichnis 213
Milkman, K. L., Chugh, D. & Bazerman, M. H. (2009). How can decision ma-
king be improved? Perspectives on Psychological Science, 4 (4), 379–383. htt-
ps://doi.org/10.1111/j.1745-6924.2009.01142.x
Miller, G. (1956). The magical number seven, plus or minus two: Some limits on our
capacity for processing information. Psychological Review, 63 (2), 81–97. htt-
ps://doi.org/10.1037/h0043158
Miller, J. (1984). Culture and the development of everyday social explanation. Journal of
Personality and Social Psychology, 46 (5), 961–978. https://doi.org/10.1037/0022-
3514.46.5.961
Montibeller, G. & von Winterfeldt, D. (2015). Cognitive and motivational bia-
ses in decision and risk analysis. Risk Analysis, 35 (7), 1230–1251. htt-
ps://doi.org/10.1111/risa.12360
Montibeller, G. & von Winterfeldt, D. (2018). Individual and group biases in value and
uncertainty judgments. In L. C. Dias, A. Morton & J. Quigley (Hrsg.), Elicitation -
The science and art of structuring judgement (Bd. 261, S. 377–392). Cham: Springer
International Publishing.
Moore, D. A., Dev, A. S. & Goncharova, E. Y. (2018). Overconfidence across cultures.
Collabra: Psychology, 4 (1), 36. https://doi.org/10.1525/collabra.153
Moore, D. A. & Healy, P. J. (2008). The trouble with overconfidence. Psychological
Review, 115 (2), 502–517. https://doi.org/10.1037/0033-295X.115.2.502
Moore, D. A. & Swift, S. A. (2011). The three faces of overconfidence in organizations.
In D. De Cremer, R. van Dick & J. K. Murnighan (Hrsg.), Social Psychology and
Organizations (S. 179–216). New York: Routledge.
Morris, M. W. & Peng, K. (1994). Culture and cause: American and Chinese attributions
for social and physical events. Journal of Personality and Social psychology, 67 (6),
949.
Morris, W. (Hrsg.). (1971). Culture (7. Aufl.). New York: American Heritage Publishing.
Murata, A., Nakamura, T. & Karwowski, W. (2015). Influence of cognitive biases in
distorting decision making and leading to critical unfavorable incidents. Safety, 1
(1), 44–58. https://doi.org/10.3390/safety1010044
Muthukrishna, M., Henrich, J., Toyokawa, W., Hamamura, T., Kameda, T. & Hei-
ne, S. J. (2018). Overconfidence is universal? Elicitation of Genuine Overconfi-
dence (EGO) procedure reveals systematic differences across domain, task know-
ledge, and incentives in four populations. PLoS ONE , 13 (8), e0202288. htt-
ps://doi.org/10.1371/journal.pone.0202288
National Research Council. (2007). Analysis of global change assessments: Lessons learned.
Washington: National Academies Press.
Newby-Clark, I. R., Ross, M., Buehler, R., Koehler, D. J. & Griffin, D. (2000). People
Literaturverzeichnis 214
focus on optimistic scenarios and disregard pessimistic scenarios while predicting
task completion times. Journal of Experimental Psychology: Applied, 6 (3), 171–
182. https://doi.org/10.1037//1076-898x.6.3.171
Newell, A. & Simon, H. A. (1972). Human problem solving. Englewood Cliffs, NJ:
Prentice-Hall, Inc.
Nickerson, R. S. (1998). Confirmation bias: A ubiquitous phenomenon in many gui-
ses. Review of General Psychology, 2 (2), 175–220. https://doi.org/10.1037/1089-
2680.2.2.175
Niederle, M. & Vesterlund, L. (2007). Do women shy away from competition? Do men
compete too much? The Quarterly Journal of Economics, 122 (3), 1067–1101. htt-
ps://doi.org/10.1162/qjec.122.3.1067
Nisbett, R. E. & Ross, L. (1980). Human inference: Strategies and shortcomings of social
judgment. Englewood Cliffs, NJ: Prentice-Hall.
Nosek, B. A., Hawkins, C. B. & Frazier, R. S. (2011). Implicit social cognition: From
measures to mechanisms. Trends in Cognitive Sciences, 15 (4), 152–159. htt-
ps://doi.org/10.1016/j.tics.2011.01.005
NRW-Regierung schasst missliebigen Beamten. (2009). Frankfurter Rundschau. Zu-
griff am 2022-06-17 auf https://www.fr.de/politik/nrw-regierung-schasst
-missliebigen-beamten-11501928.html
Orwell, G. (1944). London Letter.
Osborne, J. W. & Costello, A. B. (2004). Sample size and subject to item ratio in
principal components analysis. Practical Assessment, Research, and Evaluation, 9
(1), 11. https://doi.org/10.7275/ktzq-jq66
Parayre, R. (1995). The strategic implications of sunk costs: A behavioral perspec-
tive. Journal of Economic Behavior & Organization, 28 (3), 417–442. htt-
ps://doi.org/10.1016/0167-2681(95)00045-3
Pennebaker, J. W. & Skelton, J. A. (1978). Psychological parameters of physical
symptoms. Personality and Social Psychology Bulletin, 4 (4), 524–530. htt-
ps://doi.org/10.1177/01461672780040040
Petty, R. E., Cacioppo, J. T., Strathman, A. J. & Priester, J. R. (2005). To think or
not to think: Exploring two routes to persuasion. In T. C. Brock & M. C. Green
(Hrsg.), Persuasion: Psychological insights and perspectives (S. 81–116). New York:
Sage Publications, Inc.
Plous, S. (1989). Thinking the unthinkable: The effects of anchoring on likelihood esti-
mates of nuclear war. Journal of Applied Social Psychology, 19 (1), 67–91. htt-
ps://doi.org/10.1111/j.1559-1816.1989.tb01221.x
Pohl, R. F. (Hrsg.). (2017a). Cognitive illusions: Intriguing phenomena in thinking,
judgment and memory (2. Aufl.). New York: Routledge.
Literaturverzeichnis 215
Pohl, R. F. (2017b). Introduction: Cognitive illusions. In R. F. Pohl (Hrsg.), Cognitive
illusions (S. 3–21). New York: Routledge.
Polizeipräsident schreibt Offenen Brief zur Loveparade. (2009). WAZ . Zugriff
am 2022-06-17 auf https://www.waz.de/waz-info/polizeipraesident-schreibt
-offenen-brief-zur-loveparade-id704676.html
Polizeipräsidium Duisburg. (2010). Maßnahmen der Polizei aus Anlass der
“Loveparade 2010” in Duisburg am 24. Juli 2010 (Bericht). Zugriff am
2022-10-10 auf https://loveparade2010doku.files.wordpress.com/2014/05/
massnahmen-polizei_110601_anlage_7_vorbereitungsstab.pdf
Pyszczynski, T. & Greenberg, J. (1987). Toward an integration of cognitive and mo-
tivational perspectives on social inference: A biased hypothesis-testing model. In
L. Berkowitz (Hrsg.), Advances in experimental social psychology (Bd. 20, S. 297–
340). Amsterdam: Elsevier.
Quattrone, G. A., Lawrence, C. P., Warren, D. L., Souza-Silva, K., Finkel, S. E. & Andrus,
D. E. (1984). Explorations in anchoring: The effects of prior range, anchor extremity
and suggestive hints. Unpublished manuscript, Stanford University.
Quillan, M. R. (1966). Semantic memory. Cambridge, MA: Bolt Beranek and Newman
Inc.
Reason, J. (1998). Achieving a safe culture: Theory and practice. Work & Stress, 12 (3),
293–306. https://doi.org/10.1080/02678379808256868
Reason, J. (2013). A life in error: From little slips to big disasters. London: CRC Press.
Reason, J. (2016). Managing the Risks of Organizational Accidents. London: Routledge.
Rehm, A. (2020). Die Loveparade-Katastrophe: Die Geschichte einer Tragödie. München.
Zugriff am 2022-05-06 auf https://www.youtube.com/watch?v=opg5Pt3rSzU
Ringelmann, M. (1913). Recherches sur les moteurs animés: Travail de l’homme. Annales
de l’Insitut National Agronomique, 12 , 1–40. Zugriff am 2020-04-25 auf https://
gallica.bnf.fr/ark:/12148/bpt6k54409695.image.f14.langEN
Roeingh, M., Lenz, M. & Jankuhn, K. (2010). 100 Tage Loveparade - Die Tragödie von
Duisburg. RTL2. Zugriff am 2022-06-26 auf https://www.youtube.com/watch?v=
104ckLsev84
Ronayne, D., Sgroi, D. & Tuckwell, A. (2021). Evaluating the sunk cost ef-
fect. Journal of Economic Behavior & Organization, 186 , 318–327. htt-
ps://doi.org/10.1016/j.jebo.2021.03.029
Rosenthal, U. & Hart, P. (2008). Experts and decision makers in crisis situations. In
A. Boin (Hrsg.), Crisis management (Bd. 2, S. 250–266). London: Sage Publications
Ltd.
Ross, L., Greene, D. & House, P. (1977). The “false consensus effect”: An egocentric
Literaturverzeichnis 216
bias in social perception and attribution processes. Journal of experimental social
psychology, 13 (3), 279–301.
Ross, M. & Sicoly, F. (1979). Egocentric biases in availability and attribution. Journal of
Personality and Social Psychology, 37 (3), 322–336. https://doi.org/10.1037/0022-
3514.37.3.322
Rubick, N. (2019). Boeing vs Boeing’s stakeholders. Zugriff am 2022-12-17
auf https://rubicksjourneys.wordpress.com/2019/11/17/boeing-vs-boeings
-stakeholders/
Sashkin, M. & Rosenbach, W. E. (2013). Organizational culture assessment questionnaire
[Manuscript].
Savani, K., Cho, J., Baik, S. & Morris, M. W. (2015). Culture and judgment and de-
cision making. In G. Keren & G. Wu (Hrsg.), The Wiley Blackwell handbook of
judgment and decision making (S. 456–477). Chichester, UK: John Wiley & Sons,
Ltd. https://doi.org/10.1002/9781118468333.ch16
Savani, K., Markus, H. R. & Conner, A. L. (2008). Let your preference be your gui-
de? Preferences and choices are more tightly linked for North Americans than for
Indians. Journal of Personality and Social Psychology, 95 (4), 861–876. htt-
ps://doi.org/10.1037/a0011618
Savani, K., Wadhwa, M., Uchida, Y., Ding, Y. & Naidu, N. (2015). When norms loom
larger than the self: Susceptibility of preference–choice consistency to normative
influence across cultures. Organizational Behavior and Human Decision Processes,
129 , 70–79. https://doi.org/10.1016/j.obhdp.2014.09.001
Schaefer, P. S., Williams, C. C., Goodie, A. S. & Campbell, W. K. (2004). Overconfi-
dence and the Big Five. Journal of research in Personality, 38 (5), 473–480. htt-
ps://doi.org/10.1016/j.jrp.2003.09.010
Schein, E. H. (1988). Organizational Culture. Cambridge, MA: Sloan School of Manage-
ment.
Schein, E. H. (2010). Organizational culture and leadership (4. Aufl.). San Francisco:
Jossey-Bass.
Schermelleh-Engel, K. & Werner, C. S. (2012). Methoden der Reliabilitätsbestimmung.
In H. Moosbrugger & A. Kelava (Hrsg.), Testtheorie und Fragebogenkonstruktion (S.
119–141). Berlin, Heidelberg: Springer. https://doi.org/10.1007/978-3-642-20072-
4_6
Schreckenberg, M. (2010, Juli). Entfluchtungsanalyse Loveparade. Zugriff am 2022-06-01
auf https://web.archive.org/web/20150509110758if_/https://www.duisburg
.de/ratsinformationssystem/bi/getfile.php?id=1458602&type=do
Schulz-Hardt, S., Frey, D., Lüthgens, C. & Moscovici, S. (2000). Biased information
Literaturverzeichnis 217
search in group decision making. Journal of Personality and Social Psychology, 78
(4), 655–669. https://doi.org/10.1037/0022-3514.78.4.655
Schwarz, N., Vaughn, L. A., Gilovich, T., Griffin, D. & Kahneman, D. (2009). The
Availability Heuristic revisited: Ease of recall and content of recall. In Heuristics
and Biases: The Psychology of Intuitive Judgment (8. Aufl., S. 103–119). New York:
Cambridge University Press.
Schweiger, D. M., Sandberg, W. R. & Ragan, J. W. (1986). Group approaches for impro-
ving strategic decision making: A comparative analysis of dialectical inquiry, devil’s
advocacy, and consensus. Academy of Management Journal, 29 (1), 51–71. htt-
ps://doi.org/10.5465/255859
Schwenk, C. R. (1984, April). Cognitive simplification processes in strate-
gic decision-making. Strategic Management Journal, 5 (2), 111–128. htt-
ps://doi.org/10.1002/smj.4250050203
Scott, T., Mannion, R., Davies, H. & Marshall, M. (2003). The quantitative measurement
of organizational culture in health care: A review of the available instruments. Health
Services Research, 38 (3), 923–945. https://doi.org/10.1111/1475-6773.00154
Seibel, W. (2017). Einleitung: Behördenversagen mit Todesfolge. In W. Seibel, K. Kla-
mann & H. Treis (Hrsg.), Verwaltungsdesaster: Von der Loveparade bis zu den NSU-
Ermittlungen (S. 9–21). Frankfurt: Campus Verlag.
Seibel, W. & Wenzel, T. (2017). Die Loveparade-Katastrophe vom 24. Juli 2010. In
W. Seibel, K. Klamann & H. Treis (Hrsg.), Verwaltungsdesaster: Von der Loveparade
bis zu den NSU-Ermittlungen (S. 23–108). Frankfurt: Campus Verlag.
Seidlitz, F. (2010, August). Duisburg - Die Chronologie des Versagens. Die Welt.
Zugriff am 2022-05-13 auf https://www.welt.de/welt_print/regionales/koeln/
article8755890/Duisburg-Die-Chronologie-des-Versagens.html
Seyer, K. & Londner, E. (2020). Case study of the Boeing 737 MAX 8 crashes using a
Systems Thinking Approach. In Proceedings of the 2020 Annual General Donald R.
Keith Memorial Capstone Conference (S. 93–100). West Point, NY.
Shaffer, M. (2014, September). The Boeing 787: Broken Dreams. Al Jazeera. Zugriff am
2022-04-21 auf https://www.youtube.com/watch?v=rvkEpstd9os&t=646s
Sharot, T. (2011). The optimism bias. Current Biology, 21 (23), R941-R945. htt-
ps://doi.org/10.1016/j.cub.2011.10.030
Shepperd, J., Malone, W. & Sweeny, K. (2008). Exploring causes of the self-
serving bias. Social and Personality Psychology Compass, 2 (2), 895–908. htt-
ps://doi.org/10.1111/j.1751-9004.2008.00078.x
Sherif, C. W. (1982). Social and psychological bases of social psychology. In A. G. Kraut
(Hrsg.), The G. Stanley Hall lecture series (Bd. 2). Washington: American Psycho-
logical Association.
Literaturverzeichnis 218
Simon, H. A. (1947). Administrative behavior - A study of decision-making processes in
administrative organization. New York: The Macmillan Company.
Simon, H. A. (1956). Rational choice and the structure of the environment. Psychological
Review, 63 (2), 129–138. https://doi.org/10.1037/h0042769
Simon, H. A. (1971). Designing organizations for an information-rich world. In M. Green-
berger (Hrsg.), Computers, communications, an the public interest (Bd. 72).
Baltimore, MD: The Johns Hopkins Press. Zugriff auf https://web.archive.org/
web/20201006235931/https://digitalcollections.library.cmu.edu/awweb/
awarchive?type=file&item=33748
Simon, H. A. (1973). The structure of ill structured problems. Artificial Intelligence, 4
(3-4), 181–201. https://doi.org/10.1016/0004-3702(73)90011-8
Simon, H. A. (1990). Bounded Rationality. In J. Eatwell, M. Milgate & P. Newman
(Hrsg.), Utility and probability (S. 15–18). London: Palgrave Macmillan. htt-
ps://doi.org/10.1007/978-1-349-20568-4_5
Simon, H. A. (1992). What is an “explanation” of behavior? Psychological Science, 3 (3),
150–161. https://doi.org/10.1111/j.1467-9280.1992.tb00017.
Simons, D. J. & Chabris, C. F. (1999). Gorillas in our midst: Sustained inat-
tentional blindness for dynamic events. Perception, 28 (9), 1059–1074. htt-
ps://doi.org/10.1068/p281059
Sloman, S. A. (1996). The empirical case for two systems of reasoning. Psychological
Bulletin, 119 (1), 3–22. https://doi.org/10.1037/0033-2909.119.1.3
Soll, J. B. & Klayman, J. (2004). Overconfidence in interval estimates. Journal of
Experimental Psychology: Learning, Memory, and Cognition, 30 (2), 299–314. htt-
ps://doi.org/10.1037/0278-7393.30.2.299
Sperling, G. (1960). The information available in brief visual presentati-
ons. Psychological Monographs: General and Applied, 74 (11), 1–29. htt-
ps://doi.org/10.1037/h0093759
Stafford, T., Holroyd, J. & Scaife, R. (2018). Confronting bias in judging: A framework
for addressing psychological biases in decision making [Unpublished Manuscript].
Sheffield. Zugriff am 2019-03-15 auf https://doi.org/10.31234/osf.io/nzskm
Stanovich, K. E., West, R. F. & Toplak, M. E. (2013). Myside Bias, rational thinking,
and intelligence. Current Directions in Psychological Science, 22 (4), 259–264. htt-
ps://doi.org/10.1177/0963721413480174
Stasser, G. & Titus, W. (1985). Pooling of unshared information in group decision making:
Biased information sampling during discussion. Journal of Personality and Social
Psychology, 48 (6), 1467–1478. https://doi.org/10.1037/0022-3514.48.6.1467
Staw, B. M. (1996). The escalation of commitment: An update and appraisal. In Z. Sha-
pira (Hrsg.), Organizational decision making (S. 191–215). Cambridge Universi-
Literaturverzeichnis 219
ty Press. Zugriff am 2020-07-15 auf https://www.cambridge.org/core/product/
identifier/CBO9780511584169A020/type/book_part
Stollowsky, C. (2010). Massenpanik: Tote bei Loveparade in Duisburg. Der Tagesspiegel
Online. Zugriff am 2022-12-27 auf https://www.tagesspiegel.de/gesellschaft/
panorama/tote-bei-loveparade-in-duisburg-4337176.html
Sträter, O. (2005). Cognition and safety: An integrated approach to systems design and
assessment. Aldershot: Ashgate.
Straus, S. G., Parker, A. M. & Bruce, J. B. (2011, Juni). The group matters: A review of
processes and outcomes in intelligence analysis. Group Dynamics: Theory, Research,
and Practice, 15 (2), 128–146. https://doi.org/10.1037/a0022734
Strunk, D. R., Lopez, H. & DeRubeis, R. J. (2006). Depressive symptoms are associated
with unrealistic negative predictions of future life events. Behaviour Research and
Therapy, 44 (6), 861–882. https://doi.org/10.1016/j.brat.2005.07.001
Sunstein, C. R. (2000). Deliberative trouble? Why groups go to extremes. The Yale Law
Journal, 110 (1), 71–119. https://doi.org/10.2307/797587
Sunstein, C. R. (2002). Why they hate us: The role of social dynamics. Harvard Journal
of Law and Public Policy, 25 , 429–440. Zugriff auf https://dash.harvard.edu/
handle/1/12921736
Synolakis, C. & Kânoğlu, U. (2015). The Fukushima accident was preventable.
Philosophical Transactions of the Royal Society A, 373 (2053), 1–23. htt-
ps://doi.org/10.1098/rsta.2014.0379
Szymaniak, P. (2009, Januar). Wittke will Loveparade auf die A 40 verlagern. WAZ . Zu-
griff am 2022-06-11 auf https://www.waz.de/waz-info/wittke-will-loveparade
-auf-die-a-40-verlagern-id1355290.html
Taber, K. S. (2018). The use of Cronbach’s alpha when developing and reporting research
instruments in science education. Research in science education, 48 , 1273–1296.
https://doi.org/10.1007/s11165-016-9602-2
Taleb, N. N. (2010). The black swan: The impact of the highly improbable (2. Aufl.).
London: Penguin Books.
Taleb, N. N. (2018). Skin in the game: Hidden asymmetries in daily life. Random House.
Tappin, B. M., van der Leer, L. & McKay, R. T. (2017). The heart trumps the head:
Desirability bias in political belief revision. Journal of Experimental Psychology:
General, 146 (8), 1143–1149. https://doi.org/10.1037/xge0000298
Taylor, K. (2006). Brainwashing: The science of thought control. New York: Oxford
University Press.
Tetlock, P. E. (1979). Identifying victims of groupthink from public statements of de-
cision makers. Journal of Personality and Social Psychology, 37 (8), 1314–1324.
https://doi.org/10.1037/0022-3514.37.8.1314
Literaturverzeichnis 220
Tetlock, P. E., Peterson, R. S., McGuire, C., Chang, S.-j. & Feld, P. (1992). Assessing
political group dynamics: A test of the groupthink model. Journal of Personality and
Social Psychology, 63 (3), 403–425. https://doi.org/10.1037/0022-3514.63.3.403
Thaler, R. H. (1999). Mental Accounting matters. Journal of Behavioral Decision Making,
12 (3), 183–206. https://doi.org/10.1002/(SICI)1099-0771(199909)12:3<183::AID-
BDM318>3.0.CO;2-F
Tolstoy, L. (1894). The Kingdom of God is Within You. London: Cassell Publishing
Company.
Turner, B. A., Pidgeon, N., Blockley, D. & Toft, B. (1989). Safety Culture: Its importance
in future risk management. In Position paper for the second World Bank workshop
on safety control and risk management (S. 1–11). Karlstad.
Tversky, A. & Kahneman, D. (1971). Belief in the law of small numbers. Psychological
Bulletin, 76 (2), 105–110. https://doi.org/10.1037/h0031322
Tversky, A. & Kahneman, D. (1973). Availability: A heuristic for judging frequency and
probability. Cognitive Psychology, 5 (2), 207–232. https://doi.org/10.1016/0010-
0285(73)90033-9
Tversky, A. & Kahneman, D. (1974). Judgment under uncertainty: Heuristics and biases.
Science, 185 (4157), 1124–1131. https://doi.org/10.1126/science.185.4157.11
Tversky, A. & Kahneman, D. (1981). The framing of decisions and the psychology of
choice. Science, 211 (4481), 453–458. https://doi.org/10.1126/science.7455683
Tversky, A. & Kahneman, D. (1983). Extensional versus intuitive reasoning: The con-
junction fallacy in probability judgment. Psychological Review, 90 (4), 293–315.
https://doi.org/10.1037/0033-295X.90.4.293
Ullman, M. T. (2004). Contributions of memory circuits to language:
The declarative/procedural model. Cognition, 92 (1-2), 231–270. htt-
ps://doi.org/10.1016/j.cognition.2003.10.008
U.S. Army Heritage and Education Center. (2021, November). Who first originated the
term VUCA (Volatility, Uncertainty, Complexity and Ambiguity)? Zugriff am 2022-
11-29 auf https://usawc.libanswers.com/faq/84869
Uttal, B. (1983). The corporate culture vultures. Fortune Magazine, 108 (8), 66–72.
Van Muijen, J. J. (1999). Organizational culture: The focus questionnaire. Eu-
ropean Journal of work and organizational psychology, 8 (4), 551–568. htt-
ps://doi.org/10.1080/135943299398168
Van Vugt, M. & Schaller, M. (2008). Evolutionary approaches to group dynamics: An
introduction. Group Dynamics: Theory, Research, and Practice, 12 (1), 1. htt-
ps://doi.org/10.1037/1089-2699.12.1.1
Wallace, P. (2015). The psychology of the Internet. New York: Cambridge University
Press.
Literaturverzeichnis 221
Warrick, D. D. (2015). Understanding, building, and changing organization cultures. In
D. D. Warrick & J. Mueller (Hrsg.), Lessons in changing cultures: Learning from
real world cases (S. 1–16). Oxford: RossiSmith Academic Publications Ltd.
Warrick, D. D. (2017). What leaders need to know about organizational culture. Business
Horizons, 60 (3), 395–404. https://doi.org/10.1016/j.bushor.2017.01.011
Wason, P. C. (1960). On the failure to eliminate hypotheses in a conceptual
task. Quarterly Journal of Experimental Psychology, 12 (3), 129–140. htt-
ps://doi.org/10.1080/17470216008416717
Weber, E. U. & Morris, M. W. (2010). Culture and judgment and decision making: The
constructivist turn. Perspectives on Psychological Science, 5 (4), 410–419. htt-
ps://doi.org/10.1177/1745691610375556
Wickens, C. D. (2008). Multiple resources and mental workload. Human Factors: The
Journal of the Human Factors and Ergonomics Society, 50 (3), 449–455. htt-
ps://doi.org/10.1518/001872008X288394
WikiLeaks. (2009a). Loveparade 2010 Anlage 03 Protokoll 25. September 2009. Zugriff am
2022-05-05 auf http://file.wikileaks.org/file/loveparade2010/loveparade
-2010-anlage-03-protokoll-25-09-09.pdf
WikiLeaks. (2009b). Loveparade 2010 Anlage 04 Protokoll 02. Oktober 2009. Zugriff am
2022-05-05 auf http://file.wikileaks.org/file/loveparade2010/loveparade
-2010-anlage-04-protokoll-02-10-09.pdf
WikiLeaks. (2009c). Loveparade 2010 Anlage 05 Protokoll AG Verkehr 20. Oktober 2009.
Zugriff am 2022-05-05 auf http://file.wikileaks.org/file/loveparade2010/
loveparade-2010-anlage-05-protokoll-ag-verkehr-20-10-09.pdf
WikiLeaks. (2009d). Loveparade 2010 Anlage 06 Praesentation Lopavent GmbH Planungs-
stand 29. Oktober 2009. Zugriff am 2022-05-05 auf http://file.wikileaks.org/
file/loveparade2010/loveparade-2010-anlage-06-praesentation-lopa
-planungsstand-29-10-09.pdf
WikiLeaks. (2010a). Lopavent Besucherprognose 08.07.10. Zugriff am 2022-
05-05 auf http://file.wikileaks.org/file/loveparade2010/loveparade-2010
-anlage-17-lopavent-besucherprognose-08-07-10.pdf
WikiLeaks. (2010b). Loveparade 2010 Anlage 10 Veranstaltungsbeschreibung
Lopavent GmbH 28. Mai 2010. Zugriff am 2022-05-05 auf http://
file.wikileaks.org/file/loveparade2010/loveparade-2010-anlage-10
-veranstaltungsbeschreibung-lopavent-28-05-10.pdf
WikiLeaks. (2010c). Loveparade 2010 Anlage 11 Interner Entwurf Sicherheitskon-
zept 20. Mai 2010. Zugriff am 2022-05-05 auf http://file.wikileaks.org/
file/loveparade2010/loveparade-2010-anlage-11-interner-entwurf
-sicherheitskonzept-20-05-10.pdf
Literaturverzeichnis 222
WikiLeaks. (2010d). Loveparade 2010 Anlage 16 Protokoll 15. Juli 2010. Zugriff am 2022-
05-05 auf http://file.wikileaks.org/file/loveparade2010/loveparade-2010
-anlage-16-protokoll-15-07-10.pdf
WikiLeaks. (2010e). Loveparade 2010 Anlage 20 Protokoll Stadtverwaltung 02.
Maerz 2010. Zugriff am 2022-05-05 auf http://file.wikileaks.org/file/
loveparade2010/loveparade-2010-anlage-20-protokoll-02-03-10.pdf
WikiLeaks. (2010f). Loveparade 2010 Anlage 21 Protokoll 08. Maerz 2010. Zugriff am
2022-05-05 auf http://file.wikileaks.org/file/loveparade2010/loveparade
-2010-anlage-21-protokoll-08-03-10.pdf
WikiLeaks. (2010g). Loveparade 2010 Anlage 24 Zwischenbewertung und
Nachforderung fehlender Unterlagen 14. Juni 2010. Zugriff am 2022-
05-05 auf http://file.wikileaks.org/file/loveparade2010/loveparade-2010
-anlage-24-nachforderung-fehlende-unterlagen-14-06-10.pdf
WikiLeaks. (2010h). Loveparade 2010 Anlage 25 Aktenvermerk mit hand-
schriftlicher Ablehnung Dressler 18. Juni 2010. Zugriff am 2022-05-
05 auf http://file.wikileaks.org/file/loveparade2010/loveparade-2010
-anlage-25-aktenvermerk-und-ablehnung-dressler-18-06-10.pdf
WikiLeaks. (2010i). Loveparade 2010 Anlage 26 Aktenvermerk Aktenver-
merk Abnahme Stadtverwaltung 25. Juni 2010. Zugriff am 2022-05-05 auf
http://file.wikileaks.org/file/loveparade2010/loveparade-2010-anlage
-26-aktenvermerk-abnahme-sv-25-06-10.pdf
WikiLeaks. (2010j). Loveparade 2010 Anlage 28 Zwischenbewertung und
Nachforderung fehlender Unterlagen 14. Juli 2010. Zugriff am 2022-
05-05 auf http://file.wikileaks.org/file/loveparade2010/loveparade-2010
-anlage-28-nachforderung-fehlende-unterlagen-14-07-10.pdf
WikiLeaks. (2010k). Loveparade 2010 Anlage 29 Veranstaltungsbeschreibung 16. Juli 2010.
Zugriff am 2022-05-05 auf http://file.wikileaks.org/file/loveparade2010/
loveparade-2010-anlage-29-veranstaltungsbeschreibung-16-07-10.pdf
WikiLeaks. (2010l). Loveparade 2010 Anlage 34 Genehmigung der Bauauf-
sicht mit Abweichungsgenehmigungen 21. Juli 2010. Zugriff am 2022-
05-05 auf http://file.wikileaks.org/file/loveparade2010/loveparade-2010
-anlage-34-genehmigung-bauaufsicht-21-07-10.pdf
WikiLeaks. (2010m). Loveparade 2010 Anlage 35 Praesentation Lopavent GmbH.
Zugriff am 2022-05-05 auf http://file.wikileaks.org/file/loveparade2010/
loveparade-2010-anlage-35-praesentation-lopavent.pdf
Williams, K. D. (1993). Social Loafing: A meta-analytic review and theoretical inte-
gration. Journal of Personality and Social Psychology, 65 (4), 681–706. htt-
ps://doi.org/10.1037/0022-3514.65.4.681
Literaturverzeichnis 223
Williams, K. D., Harkins, S. G. & Latané, B. (1981). Identifiability as a deterrant to Social
Loafing: Two cheering experiments. Journal of Personality and Social Psychology,
40 (2), 303–311. https://doi.org/10.1037/0022-3514.40.2.303
Williams, K. D. & Karau, S. J. (1991). Social Loafing and social compensation: The
effects of expectations of co-worker performance. Journal of Personality and Social
Psychology, 61 (4), 570–581. https://doi.org/10.1037/0022-3514.61.4.570
Wilson, T. D., Houston, C. E., Etling, K. M. & Brekke, N. (1996). A new look at anchoring
effects: Basic anchoring and its antecedents. Journal of Experimental Psychology:
General, 125 (4), 387–402. https://doi.org/10.1037/0096-3445.125.4.387
Wojcieszak, M. (2008). False consensus goes online: Impact of ideologically homoge-
neous groups on false consensus. Public Opinion Quarterly, 72 (4), 781–791. htt-
ps://doi.org/10.1093/poq/nfn056
Wojtek, K. H. K. L. (2010). Sachverhaltsbericht zum Verwaltungshandeln der
Stadt Duisburg anlässlich der Loveparade (Bericht). Düsseldorf: Kanzlei Heu-
king Kühn Lüer Wojtek. Zugriff am 2022-06-26 auf http://docplayer.org/
80568709-Sachverhaltsbericht-zum-verwaltungshandeln-der-stadt
-anlaesslich-der-loveparade.html
Woods, D. D., Johannesen, L. J., Cook, R. I. & Sarter, N. B. (1994). Behind human error:
Cognitive systems, computers and hindsight (Bericht). Dayton, OH: University of
Dayton Research Institute. Zugriff auf https://apps.dtic.mil/sti/citations/
ADA492127
Wright, P. C. & Geroy, G. D. (1991). Experience, judgement and intuition: Qualitative
data-gathering methods as aids to strategic planning. Leadership & Organization
Development Journal, 12 (3). https://doi.org/10.1108/01437739110001715
Xenikou, A. & Furnham, A. (1996). A correlational and factor analytic study of four
questionnaire measures of organizational culture. Human Relations, 49 (3), 349–
371. https://doi.org/10.1177/00187267960490030
Yates, J. F., Lee, J.-W. & Shinotsuka, H. (1996). Beliefs about overconfidence, including
its cross-national variation. Organizational Behavior and Human Decision Processes,
65 (2), 138–147. https://doi.org/10.1006/obhd.1996.0012
Zenger, T. R. (1992). Why do employers only reward extreme performance? Examining
the relationships among performance, pay, and turnover. Administrative Science
Quarterly, 37 (2), 198–219. https://doi.org/10.2307/2393221
Zhu, D. H. (2014). Group polarization in board decisions about CEO compensation.
Organization Science, 25 (2), 552–571. https://doi.org/10.1287/orsc.2013.0848
224
Anhang
A Itemübersicht
Bias Name Label
OC_G Mögliche Schwächen in der Planung werden proaktiv thematisiert und diskutiert.
OC_G2 Mitarbeiter*innen informieren sich gegenseitig über Schwierigkeiten und Probleme bei der Erreichung ihrer Ziele.
OC_G3
Informationen und Daten aus vergangenen Projekten, aus denen Erfolgs- sowie Misserfolgsfaktoren ("lessons
learned") hervorgehen, werden regelmäßig präsentiert und diskutiert.
OB_G
In Entscheidungsprozessen werden bei qualitativen und quantitativen Analysen auch externe Risiken, die außerhalb des
Einflusses der Organisation liegen, berücksichtigt.
OB_G2
Dem Einfluss unvorhersehbarer externer Ereignisse wird durch Schaffung von Redundanz (zusätzlichen Ressourcen)
Rechnung getragen.
AB_G
Bei Problemdiskussionen dienen in der Regel qualitative und/oder quantitative Analysen empirischer Daten als
Diskussionsgrundlage.
AB_R
Bei Problemdiskussionen werden häufig Ad-hoc-Argumente erfahrener Mitarbeiter*innen als Datenquelle verwendet.
[invertiert]
CB_G
In Entscheidungsprozessen wird eine selbstkritische und hinterfragende Herangehensweise bei der Urteilsfindung
bestärkt.
CB_G2
Mitarbeiter*innen und Führungskräfte sind lernwillig und offen für negatives Feedback bezüglich ihres Vorgehens bzw.
des Vorgehens ihrer Abteilung.
CB_R
In Entscheidungsprozessen werden primär den bestehenden Ansichten zustimmende Argumente aufgenommen und
ausgetauscht. [invertiert]
DB_G
Im Planungsprozess herrscht eine offene Diskussionskultur, in der auch die Nachteile eines Vorhabens diskutiert und
Alternativen ernsthaft betrachtet werden.
DB_G2
Es wird unabhängig vom erwünschten Ziel abgewogen bzw. kalkuliert, was realistisch und sicher erreichbar ist, ohne
dass Wunschdenken diese Abwägungen beeinflusst.
SB_G Es findet eine kritische Reflektion der eigenen Leistung sowohl bei Erfolgen als auch bei Misserfolgen statt.
SB_R
Konkurrenzdenken führt dazu, dass es besonders wichtig ist, die eigene, individuelle, Leistung hervorzuheben.
[invertiert]
SB_R2
Erfolge werden als verdiente Leistung bewertet und Probleme eher auf unglückliche Umstände zurückgeführt.
[invertiert]
ANB_G
Meinungen und Einschätzungen unterschiedlicher Mitarbeiter*innen werden zunächst individuell und unabhängig
voneinander entwickelt, bevor sie im Entscheidungsprozess aggregiert oder diskutiert werden.
ANB_G2
Im Planungsprozess wird hinreichend über unterschiedliche Alternativen diskutiert, bevor man sich für eine
Vorgehensweise entscheidet.
ANB_R Es entstehen spontane Diskussionen auf Basis anfänglicher Informationen. [invertiert]
SUCO_G
Wenn sich ein Projekt als teurer oder riskanter als erwartet herausstellt, wird stets auch ein Abbruch als gangbare
Alternative diskutiert.
SUCO_G2
Der Abbruch eines Projekts wird in der Organisation wertfrei und als unter Umständen angemessene Reaktion auf sich
ändernde Bedingungen oder Einschätzungen betrachtet.
SUCO_R
Es wird häufig versucht ein schlecht laufendes Projekt fortzuführen, obwohl der finanzielle Aufwand oder das Risiko
unverhältnismäßig hoch sind. [invertiert]
GR_IV_G
Erfolge steigen der Gruppe nicht zu Kopf und sie ist stets bemüht, die eigenen Pläne zu hinterfragen und
Verbesserungspotenziale abzuleiten.
GR_IV_R
Vergangene Erfolge führen in der Gruppe zu Selbstüberschätzung und in der Folge zu einem sorgloserem Umgang mit
Risiken. [invertiert]
O
ve
rc
on
fid
en
ce
O
pt
im
ism
Av
ai
la
bi
lit
y
Co
nf
irm
at
io
n
De
sir
ab
ili
ty
Se
lf-
Se
rv
in
g
An
ch
or
in
g
Su
nk
-C
os
t
GT
-
Ill
us
io
n
of
In
vu
ln
er
ab
ili
ty
GR_BM_R
Es kann vorkommen, dass ethische Konsequenzen im Einzelfall weniger genau betrachtet werden, weil sich die
Gruppe/Organisation insgesamt als moralische Instanz betrachtet. [invertiert]
GR_BM_R2 Die Gruppe reagiert irritiert oder ablehnend auf selbstkritische Anmerkungen einzelner Mitglieder. [invertiert]
GR_CR_G
Kritische Meinungen gegenüber dem von der Führungskraft oder der gesamten Gruppe favorisiertem Plan werden
offen aufgenommen und weiterdiskutiert.
GR_CR_R Kritische Hinweise und Warnungen bezüglich eines Plans werden häufig nicht ausreichend ernst genommen. [invertiert]
GR_OG_R
Innerhalb der Gruppe sind häufig die Unfähigkeit oder ähnliche negative Eigenschaften anderer Akteure ein Thema.
[invertiert]
GR_OG_R2
Es kommt vor, dass negative Einstellungen gegenüber externen Gruppen die Kommunikation und den
Informationsaustausch mit diesen beeinträchtigen. [invertiert]
GR_SC_G Im Planungsprozess wird sichergestellt, dass alle Gruppenmitglieder ihre Standpunkte äußern.
GR_SC_R
Manchmal hält man sich mit seiner Meinung zurück, um nicht bei der Führungskraft oder anderen Gruppenmitgliedern
anzuecken. [invertiert]
GR_IU_G
Bei scheinbarer Meinungshomogenität wird bewusst nachgehakt, ob es auch alternative Sichtweisen gibt, die von der
bisherigen Gruppenmeinung abweichen.
GR_IU_R Das Schweigen einzelner Gruppenmitglieder wird von der Gruppe als stille Zustimmung interpretiert. [invertiert]
GR_DP_R Es kommt vor, dass Druck auf Gruppenmitglieder mit abweichender Meinung ausgeübt wird. [invertiert]
GR_DP_R2 Es kommt vor, dass kritische Meinungsträger von Gruppenprozessen ausgeschlossen werden. [invertiert]
GR_DP_R3 Gruppenmitglieder nutzen ihre hierarchische Position, um ihre Meinung durchzusetzen. [invertiert]
GR_SM_R
Manche Gruppenmitglieder versuchen kritische Meinungen anderer Mitglieder aus Loyalität zur Führungskraft
abzuwehren. [invertiert]
GR_SM_R2
Es kommt vor, dass Minderheitsmeinungen vorschnell durch einzelne Gruppenmitglieder schlechtgeredet werden.
[invertiert]
GR_SL_G Zwischenziele werden konkret und mit festgelegtem Zeithorizont definiert.
GR_SL_G2 Arbeitspakete werden für einzelne Gruppenmitglieder konkret zugeordnet.
GR_SL_G3
Zwischenergebnisse aus den einzelnen Verantwortungsbereichen werden Führungskräften und anderen
Gruppenmitgliedern in regelmäßigen Abständen präsentiert.
GR_FC_G
Das Verhalten und die Pläne der Gruppe werden kritisch - auch im Austausch mit Personen außerhalb der Gruppe -
reflektiert.
GR_FC_G2 Führungskräfte beziehen auch Informationen von externen Quellen ausreichend mit ein.
KOM_I KOM_ [01]
KOM_G KOM_: [01]
Gl
ob
al
-
ur
te
il
GLOBA
Wie bewerten Sie insgesamt die Qualität der Planungs- und Entscheidungsprozesse in Ihrer Organisation oder
Abteilung?
GT
-
O
ut
-G
ro
up
S
te
re
or
yp
es
GT
-
Be
lie
f i
n
in
he
re
nt
M
or
al
ity
o
f t
he
Gr
ou
p
GT
- C
ol
le
ct
iv
e
Ra
tio
na
liz
at
io
n
Fr
ei
-
te
xt
GT
-
Se
lf-
Ce
ns
or
sh
ip
GT
-
Ill
us
io
n
of
U
na
ni
m
ity
GT
-
Di
re
ct
P
re
ss
ur
e
o
n
Di
ss
en
te
rs
GT
-
Se
lf-
Ap
po
in
te
d
M
in
dg
ua
rd
s
GT
-
So
ci
al
L
oa
fin
g
GT
-
Fa
lse
Co
ns
en
su
s
Literaturverzeichnis 227
B Fragebogen Paper-pencil
Fragebogen zur Diagnostik Organisationaler
Planungs- und Entscheidungsprozesse
Erhebung von Situationen und Verhaltensweisen, die im
Zusammenhang mit dem Auftreten kognitiver, motivationaler und
gruppendynamischer Biases stehen
Hinweise zum Ausfüllen des Fragebogens
Ich möchte Sie im Rahmen dieser Befragung um Ihre Meinung zu verschiedenen Themen bitten, die Pla-
nungs- und Entscheidungssituationen Ihrer Arbeit betreffen. Ziel dieser Befragung ist es zu beurteilen, inwie-
weit die Entscheidungsqualität in Ihrer Abteilung bzw. in Ihrer Organisation durch sogenannte kognitive, mo-
tivationale oder gruppendynamische Biases (Verzerrungen) beeinträchtigt ist.
Hierzu finden Sie in dem Fragebogen verschiedene Aussagen, die durch das Anklicken einer bestimmten
Stufe auf der Antwortskala beantwortet werden sollen. Durch das Ankreuzen einer Skalenstufe geben Sie
an, inwieweit die jeweilige Aussage Ihrer persönlichen Einschätzung entspricht.
Die Antwortskala enthält in der Regel sechs Kategorien, mit der Sie die jeweilige Aussage von ‚trifft überhaupt
nicht zu’ bis hin zu ‚trifft völlig zu’ bewerten können. Wenn Sie die beschriebene Situation oder Verhaltens-
weise nicht bewerten können, wählen Sie das Feld ‚Kann ich nicht beurteilen‘:
Beispiel:
trifft über-
haupt
nicht zu
trifft weit-
gehend
nicht zu
trifft eher
nicht
zu
trifft
eher
zu
trifft weit-
gehend
zu
trifft
völlig
zu
Kann ich
nicht be-
urteilen
(1) (2) (3) (4) (5) (6)
Mitarbeiter*innen informieren sich gegenseitig über
Schwierigkeiten und Probleme bei ihren Aufgaben
und Tätigkeiten
@ @ @ @ @ @ @
Bitte nehmen Sie sich ca. 15 Minuten Zeit, um die Fragen zu beantworten. Die Befragung verläuft anonym
und Ihre Daten werden gemäß DSGVO datenschutzkonform behandelt.
Bitte lesen Sie jede Aussage sorgfältig durch. Gehen Sie aber bei der Beantwortung zügig vor. Ihr erster
Eindruck ist normalerweise der beste. Es gibt keine richtigen oder falschen Antworten. Jede Antwort ist zu-
treffend, wenn sie Ihre Einschätzung wiedergibt.
Falls Ihnen für Planungs- und Entscheidungsprozesse kritische Situationen oder Verhaltensweisen einfallen,
die nicht abgefragt werden, wäre es hilfreich, wenn Sie diesbezüglich einen Kommentar hinterlassen. Dazu
befindet sich am Ende jeder Seite ein Feld für einen Freitext.
Angaben zur Person
Geschlecht
Bitte geben Sie Ihr Geschlecht an.
@ Weiblich
@ Männlich
@ Divers
Alter
Zu welcher der nachfolgenden Alterskategorien gehören Sie?
@ 20 oder jünger @ 40 – 49 Jahre
@ 20 – 24 Jahre @ 50 – 59 Jahre
@ 25 – 29 Jahre @ 60 Jahre oder älter
@ 30 – 34 Jahre
@ 35 – 39 Jahre
Bildung
Was ist Ihr höchster Schulabschluss?
@ Unterer Schulabschluss
@ Abitur oder gleichwertiger Abschluss
@ Studium ohne Abschluss
@ Bachelor-Abschluss
@ Master-Abschluss
@ Doktor-Grad
Position
Welcher Position würden Sie sich zuordnen?
@ Führungskraft
@ Mitarbeiter*in
Angaben zur Person
Branche
In welcher Branche sind Sie tätig?
_______________________________________________
Berufsbezeichnung
Wie lautet Ihre Berufsbezeichnung?
_______________________________________________
Berufserfahrung
Wie lange sind Sie in der angegebenen Branche tätig?
@ Weniger als 1 Jahr
@ 1-3 Jahre
@ 3-10 Jahre
@ 10-20 Jahre
@ Mehr als 20 Jahre
Entscheidungsprozesse
Wie hoch ist der Anteil von Routinetätigkeiten an Ihrer Ar-
beit und wie hoch der Anteil von Prozessen, die neuartige
Entscheidungen erfordern?
<10% 10-25% 25-50% 50-75% >75%
Routinetätigkeiten @ @ @ @ @
Neuartige Urteile und Entscheidungen @ @ @ @ @
Gruppenprozesse
Wie groß ist der Anteil von Gruppenprozessen an Ihrem
Arbeitsalltag? (Besprechungen oder Aufgaben, die sie mit
mindestens zwei weiteren Personen erledigen)
<10% 10-25% 25-50% 50-75% >75%
Anteil von Gruppenprozessen @ @ @ @ @
Bewertung der Planungs- und Entscheidungsprozesse
Bitte geben Sie an, inwieweit die folgenden Aussagen
die Situation bei Ihrer Arbeit beschreiben.
trifft über-
haupt
nicht zu
trifft weit-
gehend
nicht zu
trifft eher
nicht
zu
trifft
eher
zu
trifft weit-
gehend
zu
trifft
völlig
zu
Kann ich
nicht be-
urteilen
(1) (2) (3) (4) (5) (6)
Mögliche Schwächen in der eigenen Planung werden proak-
tiv thematisiert und diskutiert. @ @ @ @ @ @ @
Mitarbeiter*innen informieren sich gegenseitig über Schwie-
rigkeiten und Probleme bei der Erreichung ihrer Ziele. @ @ @ @ @ @ @
Informationen und Daten aus vergangenen Projekten, aus
denen Erfolgs- sowie Misserfolgsfaktoren („lessons
learned“) hervorgehen, werden regelmäßig präsentiert und
diskutiert.
@ @ @ @ @ @ @
In Entscheidungsprozessen werden bei qualitativen und
quantitativen Analysen auch externe Risiken, die außerhalb
des Einflusses der Organisation liegen, berücksichtigt.
@ @ @ @ @ @ @
Dem Einfluss unvorhersehbarer externer Ereignisse wird
durch Schaffung von Redundanz (zusätzlichen Ressourcen)
Rechnung getragen.
@ @ @ @ @ @ @
Bei Problemdiskussionen dienen in der Regel qualitative
und/oder quantitative Analysen empirischer Daten als Dis-
kussionsgrundlage.
@ @ @ @ @ @ @
In Entscheidungsprozessen wird eine selbstkritische und
hinterfragende Herangehensweise bei der Urteilsfindung be-
stärkt.
@ @ @ @ @ @ @
Mitarbeiter*innen und Führungskräfte sind lernwillig und of-
fen für negatives Feedback bezüglich ihres Vorgehens bzw.
des Vorgehens ihrer Abteilung.
@ @ @ @ @ @ @
Im Planungsprozess herrscht eine offene Diskussionskultur,
in der auch die Nachteile eines Vorhabens diskutiert und Al-
ternativen ernsthaft betrachtet werden.
@ @ @ @ @ @ @
Es wird unabhängig vom erwünschten Ziel abgewogen bzw.
kalkuliert, was realistisch und sicher erreichbar ist, ohne
dass Wunschdenken diese Abwägungen beeinflusst.
@ @ @ @ @ @ @
Es findet eine kritische Reflektion der eigenen Leistung so-
wohl bei Erfolgen als auch bei Misserfolgen statt. @ @ @ @ @ @ @
Meinungen und Einschätzungen unterschiedlicher Mitarbei-
ter*innen werden zunächst individuell und unabhängig von-
einander entwickelt, bevor sie im Entscheidungsprozess ag-
gregiert oder diskutiert werden.
@ @ @ @ @ @ @
Bewertung der Planungs- und Entscheidungsprozesse
Bitte geben Sie an, inwieweit die folgenden Aussagen
die Situation bei Ihrer Arbeit beschreiben.
trifft über-
haupt
nicht zu
trifft weit-
gehend
nicht zu
trifft eher
nicht
zu
trifft
eher
zu
trifft weit-
gehend
zu
trifft
völlig
zu
Kann ich
nicht be-
urteilen
(1) (2) (3) (4) (5) (6)
Im Planungsprozess wird hinreichend über unterschiedliche
Alternativen diskutiert, bevor man sich für eine Vorgehens-
weise entscheidet.
@ @ @ @ @ @ @
Wenn sich ein Projekt als teurer oder riskanter als erwartet
herausstellt, wird stets auch ein Abbruch als gangbare Alter-
native diskutiert.
@ @ @ @ @ @ @
Der Abbruch eines Projekts wird in der Organisation wertfrei
und als unter Umständen angemessene Reaktion auf sich
ändernde Bedingungen oder Einschätzungen betrachtet.
@ @ @ @ @ @ @
Bei Problemdiskussionen werden häufig Ad-hoc-Argumente
erfahrener Mitarbeiter*innen als Datenquelle verwendet. @ @ @ @ @ @ @
In Entscheidungsprozessen werden primär den bestehen-
den Ansichten zustimmende Argumente aufgenommen und
ausgetauscht.
@ @ @ @ @ @ @
Konkurrenzdenken führt dazu, dass es besonders wichtig
ist, die eigene, individuelle, Leistung hervorzuheben. @ @ @ @ @ @ @
Erfolge werden als verdiente Leistung bewertet und Prob-
leme eher auf unglückliche Umstände zurückgeführt. @ @ @ @ @ @ @
Es entstehen spontane Diskussionen auf Basis anfänglicher
Informationen. @ @ @ @ @ @ @
Es wird häufig versucht ein schlecht laufendes Projekt fort-
zuführen, obwohl der finanzielle Aufwand oder das Risiko
unverhältnismäßig hoch sind.
@ @ @ @ @ @ @
Bitte kommentieren Sie hier, wenn Sie Anmerkungen zu den bisher beschriebenen Aspekten haben:
_____________________________________________________________________________________
_____________________________________________________________________________________
_____________________________________________________________________________________
_____________________________________________________________________________________
_____________________________________________________________________________________
Bewertung der Planungs- und Entscheidungsprozesse
Bitte geben Sie an, inwieweit die folgenden Aussagen
die Situation bei Ihrer Arbeit beschreiben.
trifft über-
haupt
nicht zu
trifft weit-
gehend
nicht zu
trifft eher
nicht
zu
trifft
eher
zu
trifft weit-
gehend
zu
trifft
völlig
zu
Kann ich
nicht be-
urteilen
(1) (2) (3) (4) (5) (6)
Erfolge steigen der Gruppe nicht zu Kopf und sie ist stets
bemüht, die eigenen Pläne zu hinterfragen und Verbesse-
rungspotenziale abzuleiten.
@ @ @ @ @ @ @
Kritische Meinungen gegenüber dem von der Führungskraft
oder der gesamten Gruppe favorisiertem Plan werden offen
aufgenommen und weiterdiskutiert.
@ @ @ @ @ @ @
Im Planungsprozess wird sichergestellt, dass alle Gruppen-
mitglieder ihre Standpunkte äußern. @ @ @ @ @ @ @
Bei scheinbarer Meinungshomogenität wird bewusst nach-
gehakt, ob es auch alternative Sichtweisen gibt, die von der
bisherigen Gruppenmeinung abweichen.
@ @ @ @ @ @ @
Zwischenziele werden konkret und mit festgelegtem Zeitho-
rizont definiert. @ @ @ @ @ @ @
Arbeitspakete werden für einzelne Gruppenmitglieder konk-
ret zugeordnet. @ @ @ @ @ @ @
Zwischenergebnisse aus den einzelnen Verantwortungsbe-
reichen werden Führungskräften und anderen Gruppenmit-
gliedern in regelmäßigen Abständen präsentiert.
@ @ @ @ @ @ @
Das Verhalten und die Pläne der Gruppe werden kritisch –
auch im Austausch mit Personen außerhalb der Gruppe –
reflektiert.
@ @ @ @ @ @ @
Führungskräfte beziehen auch Informationen von externen
Quellen ausreichend mit ein. @ @ @ @ @ @ @
Vergangene Erfolge führen in der Gruppe zu Selbstüber-
schätzung und in der Folge zu einem sorgloseren Umgang
mit Risiken.
@ @ @ @ @ @ @
Es kann vorkommen, dass ethische Konsequenzen im Ein-
zelfall weniger genau betrachtet werden, weil sich die
Gruppe/Organisation insgesamt als moralische Instanz be-
trachtet.
@ @ @ @ @ @ @
Die Gruppe reagiert irritiert oder ablehnend auf selbstkriti-
sche Anmerkungen einzelner Mitglieder. @ @ @ @ @ @ @
Bewertung der Planungs- und Entscheidungsprozesse
Bitte geben Sie an, inwieweit die folgenden Aussagen
die Situation bei Ihrer Arbeit beschreiben.
trifft über-
haupt
nicht zu
trifft weit-
gehend
nicht zu
trifft eher
nicht
zu
trifft
eher
zu
trifft weit-
gehend
zu
trifft
völlig
zu
Kann ich
nicht be-
urteilen
(1) (2) (3) (4) (5) (6)
Kritische Hinweise und Warnungen bezüglich eines Plans
werden häufig nicht ausreichend ernst genommen. @ @ @ @ @ @ @
Innerhalb der Gruppe sind häufig die Unfähigkeit oder ähnli-
che negative Eigenschaften anderer Akteure ein Thema. @ @ @ @ @ @ @
Es kommt vor, dass negative Einstellungen gegenüber ex-
ternen Gruppen die Kommunikation und den Informations-
austausch mit diesen beeinträchtigen.
@ @ @ @ @ @ @
Manchmal hält man sich mit seiner Meinung zurück, um
nicht bei der Führungskraft oder anderen Gruppenmitglie-
dern anzuecken.
@ @ @ @ @ @ @
Das Schweigen einzelner Gruppenmitglieder wird von der
Gruppe als stille Zustimmung interpretiert. @ @ @ @ @ @ @
Es kommt vor, dass Druck auf Gruppenmitglieder mit abwei-
chender Meinung ausgeübt wird. @ @ @ @ @ @ @
Es kommt vor, dass kritische Meinungsträger von Gruppen-
prozessen ausgeschlossen werden. @ @ @ @ @ @ @
Gruppenmitglieder nutzen ihre hierarchische Position, um
ihre Meinung durchzusetzen. @ @ @ @ @ @ @
Manche Gruppenmitglieder versuchen kritische Meinungen
anderer Mitglieder aus Loyalität zur Führungskraft abzuweh-
ren.
@ @ @ @ @ @ @
Es kommt vor, dass Minderheitsmeinungen vorschnell durch
einzelne Gruppenmitglieder schlechtgeredet werden. @ @ @ @ @ @ @
Bitte kommentieren Sie hier, wenn Sie Anmerkungen zu den bisher beschriebenen Aspekten haben:
_____________________________________________________________________________________
_____________________________________________________________________________________
_____________________________________________________________________________________
_____________________________________________________________________________________
_____________________________________________________________________________________
Herzlichen Dank für Ihre Mitwirkung!
Impressum
Universität Kassel
Fachbereich Maschinenbau
Arbeits- und Organisationspsychologie
Heinrich-Plett-Str. 40
34132 Kassel
Literaturverzeichnis 237
C Fragebogen elektronisch
26.04.23, 13:40 Korrekturfahne ORG (biases2021) 26.04.2023, 13:40
https://www.soscisurvey.de/biases2021/?s2preview=4QmCIgXPeiFSo6M5c0Dy2UMB3chdtje3&questionnaire=ORG¬es=off&php=off&filters=off&csfr 1/9
26.04.2023, 13:40biases2021 → ORG
Seite 01
Cognitive Biases und Group Biases in Organisationen – Entwicklung eines Fragebogens zur biasbezogenen
Diagnose von Planungsprozessen
Liebe/r Teilnehmer/in,
ich möchte Sie im Rahmen dieser Befragung um Ihre Meinung zu verschiedenen Themen bitten, die Planungs- und
Entscheidungssituationen Ihrer Arbeit betreffen. Ziel dieser Befragung ist es zu beurteilen, inwieweit die
Entscheidungsqualität in Ihrer Abteilung bzw. in Ihrer Organisation durch sogenannte kognitive Verzerrungen (Cognitive
Biases) oder gruppendynamische Verzerrungen (Group Biases) möglicherweise beeinträchtigt ist.
Dabei handelt es sich um kognitive oder soziale Heuristiken (Faustregeln), die den Alltag in der Regel erleichtern, jedoch
insbesondere in neuartigen und komplexen Situationen - wie sie z. B. typisch für Planungsprozesse in Organisationen sind -
zu Fehlern führen, die häufig vermeidbar wären.
Hierzu finden Sie in dem Fragebogen verschiedene Aussagen, die durch das Anklicken einer bestimmten Stufe auf der
Antwortskala beantwortet werden sollen.
Durch das Ankreuzen einer Skalenstufe geben Sie an, inwieweit die jeweilige Aussage Ihrer persönlichen Einschätzung
entspricht.
Die Antwortskala enthält in der Regel sechs Kategorien, mit der Sie die jeweilige Aussage von ‚trifft überhaupt nicht zu’ bis
hin zu ‚trifft völlig zu’ bewerten können.
Beispiel:
Bitte nehmen Sie sich ca. 20 Minuten Zeit, um die Fragen zu beantworten. Die Befragung verläuft anonym und Ihre Daten
werden gemäß DSGVO datenschutzkonform behandelt.
Bitte lesen Sie jede Aussage sorgfältig durch. Gehen Sie aber bei der Beantwortung zügig vor. Ihr erster Eindruck ist
normalerweise der beste. Es gibt keine richtigen oder falschen Antworten. Jede Antwort ist zutreffend, wenn sie Ihre
Einschätzung wiedergibt.
Wenn Sie einzelne Aussagen bezüglich Ihres Arbeitsplatzes nicht bewerten können, können Sie das entsprechende Feld
unbeantwortet lassen.
Falls Sie einzelne Aussagen nicht nachvollziehbar finden, wäre es sehr hilfreich, wenn Sie diesbezüglich einen Kommentar
hinterlassen. Dazu befindet sich am Ende jeder Seite ein Feld für Freitext.
26.04.23, 13:40 Korrekturfahne ORG (biases2021) 26.04.2023, 13:40
https://www.soscisurvey.de/biases2021/?s2preview=4QmCIgXPeiFSo6M5c0Dy2UMB3chdtje3&questionnaire=ORG¬es=off&php=off&filters=off&csfr 2/9
Seite 02
Geschlecht
Bitte geben Sie Ihr Geschlecht an.
Weiblich
Männlich
Divers
Alter
Zu welcher der nachfolgenden Alterskategorien gehören Sie?
20 oder jünger
20-24
25-29
30-34
35-39
40-49
50-59
60 oder älter
Bildung
Was ist Ihr höchster Schul- oder Hochschulabschluss?
Unterer Schulabschluss
Abitur oder gleichwertiger Abschluss
Studium ohne Abschluss
Bachelor-Abschluss
Master-Abschluss/Diplom
Doktor-Grad
Branche
In welcher Branche sind Sie tätig?
Berufsbezeichnung
Wie lautet Ihre Berufsbezeichnung?
26.04.23, 13:40 Korrekturfahne ORG (biases2021) 26.04.2023, 13:40
https://www.soscisurvey.de/biases2021/?s2preview=4QmCIgXPeiFSo6M5c0Dy2UMB3chdtje3&questionnaire=ORG¬es=off&php=off&filters=off&csfr 3/9
Berufserfahrung
Wie lange sind Sie in der angegebenen Branche tätig?
Weniger als 1 Jahr
1-3 Jahre
3-10 Jahre
10-20 Jahre
Mehr als 20 Jahre
Entscheidungsprozesse
Wie hoch ist der Anteil von Routinetätigkeiten an Ihrer Arbeit und wie hoch der Anteil von Prozessen, die neuartigen
Entscheidungen erfordern.
1. Gruppenprozesse
Wie groß ist der Anteil von Gruppenprozessen an Ihrem Arbeitsalltag? (Besprechungen oder Aufgaben, die sie mit
mindestens zwei weiteren Personen erledigen)
<10% 10-25% 25-50% 50-75% >75%
Routinetätigkeiten <10% 10-25% 25-50% 50-75% >75%
Prozesse, die neuartige Entscheidungen erfordern <10% 10-25% 25-50% 50-75% >75%
26.04.23, 13:40 Korrekturfahne ORG (biases2021) 26.04.2023, 13:40
https://www.soscisurvey.de/biases2021/?s2preview=4QmCIgXPeiFSo6M5c0Dy2UMB3chdtje3&questionnaire=ORG¬es=off&php=off&filters=off&csfr 4/9
Seite 03
Bitte geben Sie an, inwieweit die folgenden Aussagen die Situation bei Ihrer Arbeit beschreiben.
Bitte nutzen Sie für Anmerkungen zu den Aussagen das Kommentarfeld am Ende der Seite.
26.04.23, 13:40 Korrekturfahne ORG (biases2021) 26.04.2023, 13:40
https://www.soscisurvey.de/biases2021/?s2preview=4QmCIgXPeiFSo6M5c0Dy2UMB3chdtje3&questionnaire=ORG¬es=off&php=off&filters=off&csfr 5/9
Mögliche Schwächen in der Planung werden
proaktiv thematisiert und diskutiert.
trifft
überhaupt
nicht zu
trifft
weitgehend
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft
weitgehend
zu
trifft völlig
zu
Kann ich
nicht
beurteilen
Mitarbeiter*innen informieren sich
gegenseitig über Schwierigkeiten und
Probleme bei der Erreichung ihrer Ziele.
trifft
überhaupt
nicht zu
trifft
weitgehend
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft
weitgehend
zu
trifft völlig
zu
Kann ich
nicht
beurteilen
Informationen und Daten aus vergangenen
Projekten, aus denen Erfolgs- sowie
Misserfolgsfaktoren („lessons learned“)
hervorgehen, werden regelmäßig präsentiert
und diskutiert.
trifft
überhaupt
nicht zu
trifft
weitgehend
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft
weitgehend
zu
trifft völlig
zu
Kann ich
nicht
beurteilen
In Entscheidungsprozessen werden bei
qualitativen und quantitativen Analysen auch
externe Risiken, die außerhalb des
Einflusses der Organisation liegen,
berücksichtigt.
trifft
überhaupt
nicht zu
trifft
weitgehend
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft
weitgehend
zu
trifft völlig
zu
Kann ich
nicht
beurteilen
Dem Einfluss unvorhersehbarer externer
Ereignisse wird durch Schaffung von
Redundanz (zusätzlichen Ressourcen)
Rechnung getragen.
trifft
überhaupt
nicht zu
trifft
weitgehend
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft
weitgehend
zu
trifft völlig
zu
Kann ich
nicht
beurteilen
Bei Problemdiskussionen dienen in der
Regel qualitative und/oder quantitative
Analysen empirischer Daten als
Diskussionsgrundlage.
trifft
überhaupt
nicht zu
trifft
weitgehend
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft
weitgehend
zu
trifft völlig
zu
Kann ich
nicht
beurteilen
In Entscheidungsprozessen wird eine
selbstkritische und hinterfragende
Herangehensweise bei der Urteilsfindung
bestärkt.
trifft
überhaupt
nicht zu
trifft
weitgehend
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft
weitgehend
zu
trifft völlig
zu
Kann ich
nicht
beurteilen
Mitarbeiter*innen und Führungskräfte sind
lernwillig und offen für negatives Feedback
bezüglich ihres Vorgehens bzw. des
Vorgehens ihrer Abteilung.
trifft
überhaupt
nicht zu
trifft
weitgehend
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft
weitgehend
zu
trifft völlig
zu
Kann ich
nicht
beurteilen
Im Planungsprozess herrscht eine offene
Diskussionskultur, in der auch die Nachteile
eines Vorhabens diskutiert und Alternativen
ernsthaft betrachtet werden.
trifft
überhaupt
nicht zu
trifft
weitgehend
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft
weitgehend
zu
trifft völlig
zu
Kann ich
nicht
beurteilen
Es wird unabhängig vom erwünschten Ziel
abgewogen bzw. kalkuliert, was realistisch
und sicher erreichbar ist, ohne dass
Wunschdenken diese Abwägungen
beeinflusst.
trifft
überhaupt
nicht zu
trifft
weitgehend
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft
weitgehend
zu
trifft völlig
zu
Kann ich
nicht
beurteilen
Es findet eine kritische Reflektion der
eigenen Leistung sowohl bei Erfolgen als
auch bei Misserfolgen statt.
trifft
überhaupt
nicht zu
trifft
weitgehend
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft
weitgehend
zu
trifft völlig
zu
Kann ich
nicht
beurteilen
Meinungen und Einschätzungen
unterschiedlicher Mitarbeiter*innen werden
zunächst individuell und unabhängig
voneinander entwickelt, bevor sie im
Entscheidungsprozess aggregiert oder
diskutiert werden.
trifft
überhaupt
nicht zu
trifft
weitgehend
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft
weitgehend
zu
trifft völlig
zu
Kann ich
nicht
beurteilen
26.04.23, 13:40 Korrekturfahne ORG (biases2021) 26.04.2023, 13:40
https://www.soscisurvey.de/biases2021/?s2preview=4QmCIgXPeiFSo6M5c0Dy2UMB3chdtje3&questionnaire=ORG¬es=off&php=off&filters=off&csfr 6/9
Bitte kommentieren Sie hier, wenn Sie Anmerkungen zu den auf dieser Seite beschriebenen Aspekten haben.
Im Planungsprozess wird hinreichend über
unterschiedliche Alternativen diskutiert,
bevor man sich für eine Vorgehensweise
entscheidet.
trifft
überhaupt
nicht zu
trifft
weitgehend
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft
weitgehend
zu
trifft völlig
zu
Kann ich
nicht
beurteilen
Wenn sich ein Projekt als teurer oder
riskanter als erwartet herausstellt, wird stets
auch ein Abbruch als gangbare Alternative
diskutiert.
trifft
überhaupt
nicht zu
trifft
weitgehend
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft
weitgehend
zu
trifft völlig
zu
Kann ich
nicht
beurteilen
Der Abbruch eines Projekts wird in der
Organisation wertfrei und als unter
Umständen angemessene Reaktion auf sich
ändernde Bedingungen oder
Einschätzungen betrachtet.
trifft
überhaupt
nicht zu
trifft
weitgehend
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft
weitgehend
zu
trifft völlig
zu
Kann ich
nicht
beurteilen
Bei Problemdiskussionen werden häufig Ad-
hoc-Argumente erfahrener Mitarbeiter*innen
als Datenquelle verwendet.
trifft
überhaupt
nicht zu
trifft
weitgehend
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft
weitgehend
zu
trifft völlig
zu
Kann ich
nicht
beurteilen
In Entscheidungsprozessen werden primär
den bestehenden Ansichten zustimmende
Argumente aufgenommen und
ausgetauscht.
trifft
überhaupt
nicht zu
trifft
weitgehend
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft
weitgehend
zu
trifft völlig
zu
Kann ich
nicht
beurteilen
Konkurrenzdenken führt dazu, dass es
besonders wichtig ist, die eigene,
individuelle, Leistung hervorzuheben.
trifft
überhaupt
nicht zu
trifft
weitgehend
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft
weitgehend
zu
trifft völlig
zu
Kann ich
nicht
beurteilen
Erfolge werden als verdiente Leistung
bewertet und Probleme eher auf
unglückliche Umstände zurückgeführt.
trifft
überhaupt
nicht zu
trifft
weitgehend
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft
weitgehend
zu
trifft völlig
zu
Kann ich
nicht
beurteilen
Es entstehen spontane Diskussionen auf
Basis anfänglicher Informationen.
trifft
überhaupt
nicht zu
trifft
weitgehend
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft
weitgehend
zu
trifft völlig
zu
Kann ich
nicht
beurteilen
Es wird häufig versucht ein schlecht
laufendes Projekt fortzuführen, obwohl der
finanzielle Aufwand oder das Risiko
unverhältnismäßig hoch sind.
trifft
überhaupt
nicht zu
trifft
weitgehend
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft
weitgehend
zu
trifft völlig
zu
Kann ich
nicht
beurteilen
26.04.23, 13:40 Korrekturfahne ORG (biases2021) 26.04.2023, 13:40
https://www.soscisurvey.de/biases2021/?s2preview=4QmCIgXPeiFSo6M5c0Dy2UMB3chdtje3&questionnaire=ORG¬es=off&php=off&filters=off&csfr 7/9
Seite 04
Bitte geben Sie an, inwieweit die folgenden Aussagen die Situation bei Ihrer Arbeit beschreiben.
Bitte nutzen Sie für Anmerkungen zu den Aussagen das Kommentarfeld am Ende der Seite.
Erfolge steigen der Gruppe nicht zu Kopf
und sie ist stets bemüht, die eigenen Pläne
zu hinterfragen und
Verbesserungspotenziale abzuleiten.
trifft
überhaupt
nicht zu
trifft
weitgehend
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft
weitgehend
zu
trifft völlig
zu
Kann ich
nicht
beurteilen
Kritische Meinungen gegenüber dem von
der Führungskraft oder der gesamten
Gruppe favorisiertem Plan werden offen
aufgenommen und weiterdiskutiert.
trifft
überhaupt
nicht zu
trifft
weitgehend
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft
weitgehend
zu
trifft völlig
zu
Kann ich
nicht
beurteilen
Im Planungsprozess wird sichergestellt,
dass alle Gruppenmitglieder ihre
Standpunkte äußern.
trifft
überhaupt
nicht zu
trifft
weitgehend
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft
weitgehend
zu
trifft völlig
zu
Kann ich
nicht
beurteilen
Bei scheinbarer Meinungshomogenität wird
bewusst nachgehakt, ob es auch alternative
Sichtweisen gibt, die von der bisherigen
Gruppenmeinung abweichen.
trifft
überhaupt
nicht zu
trifft
weitgehend
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft
weitgehend
zu
trifft völlig
zu
Kann ich
nicht
beurteilen
Zwischenziele werden konkret und mit
festgelegtem Zeithorizont definiert.
trifft
überhaupt
nicht zu
trifft
weitgehend
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft
weitgehend
zu
trifft völlig
zu
Kann ich
nicht
beurteilen
Arbeitspakete werden für einzelne
Gruppenmitglieder konkret zugeordnet.
trifft
überhaupt
nicht zu
trifft
weitgehend
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft
weitgehend
zu
trifft völlig
zu
Kann ich
nicht
beurteilen
Zwischenergebnisse aus den einzelnen
Verantwortungsbereichen werden
Führungskräften und anderen
Gruppenmitgliedern in regelmäßigen
Abständen präsentiert.
trifft
überhaupt
nicht zu
trifft
weitgehend
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft
weitgehend
zu
trifft völlig
zu
Kann ich
nicht
beurteilen
Das Verhalten und die Pläne der Gruppe
werden kritisch – auch im Austausch mit
Personen außerhalb der Gruppe –
reflektiert.
trifft
überhaupt
nicht zu
trifft
weitgehend
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft
weitgehend
zu
trifft völlig
zu
Kann ich
nicht
beurteilen
Führungskräfte beziehen auch
Informationen von externen Quellen
ausreichend mit ein.
trifft
überhaupt
nicht zu
trifft
weitgehend
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft
weitgehend
zu
trifft völlig
zu
Kann ich
nicht
beurteilen
26.04.23, 13:40 Korrekturfahne ORG (biases2021) 26.04.2023, 13:40
https://www.soscisurvey.de/biases2021/?s2preview=4QmCIgXPeiFSo6M5c0Dy2UMB3chdtje3&questionnaire=ORG¬es=off&php=off&filters=off&csfr 8/9
Vergangene Erfolge führen in der Gruppe zu
Selbstüberschätzung und in der Folge zu
einem sorgloserem Umgang mit Risiken.
trifft
überhaupt
nicht zu
trifft
weitgehend
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft
weitgehend
zu
trifft völlig
zu
Kann ich
nicht
beurteilen
Es kann vorkommen, dass ethische
Konsequenzen im Einzelfall weniger genau
betrachtet werden, weil sich die
Gruppe/Organisation insgesamt als
moralische Instanz betrachtet.
trifft
überhaupt
nicht zu
trifft
weitgehend
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft
weitgehend
zu
trifft völlig
zu
Kann ich
nicht
beurteilen
Die Gruppe reagiert irritiert oder ablehnend
auf selbstkritische Anmerkungen einzelner
Mitglieder.
trifft
überhaupt
nicht zu
trifft
weitgehend
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft
weitgehend
zu
trifft völlig
zu
Kann ich
nicht
beurteilen
Kritische Hinweise und Warnungen
bezüglich eines Plans werden häufig nicht
ausreichend ernst genommen.
trifft
überhaupt
nicht zu
trifft
weitgehend
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft
weitgehend
zu
trifft völlig
zu
Kann ich
nicht
beurteilen
Innerhalb der Gruppe sind häufig die
Unfähigkeit oder ähnliche negative
Eigenschaften anderer Akteure ein Thema.
trifft
überhaupt
nicht zu
trifft
weitgehend
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft
weitgehend
zu
trifft völlig
zu
Kann ich
nicht
beurteilen
Es kommt vor, dass negative Einstellungen
gegenüber externen Gruppen die
Kommunikation und den
Informationsaustausch mit diesen
beeinträchtigen.
trifft
überhaupt
nicht zu
trifft
weitgehend
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft
weitgehend
zu
trifft völlig
zu
Kann ich
nicht
beurteilen
Manchmal hält man sich mit seiner Meinung
zurück, um nicht bei der Führungskraft oder
anderen Gruppenmitgliedern anzuecken.
trifft
überhaupt
nicht zu
trifft
weitgehend
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft
weitgehend
zu
trifft völlig
zu
Kann ich
nicht
beurteilen
Das Schweigen einzelner Gruppenmitglieder
wird von der Gruppe als stille Zustimmung
interpretiert.
trifft
überhaupt
nicht zu
trifft
weitgehend
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft
weitgehend
zu
trifft völlig
zu
Kann ich
nicht
beurteilen
Es kommt vor, dass Druck auf
Gruppenmitglieder mit abweichender
Meinung ausgeübt wird.
trifft
überhaupt
nicht zu
trifft
weitgehend
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft
weitgehend
zu
trifft völlig
zu
Kann ich
nicht
beurteilen
Es kommt vor, dass kritische
Meinungsträger von Gruppenprozessen
ausgeschlossen werden.
trifft
überhaupt
nicht zu
trifft
weitgehend
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft
weitgehend
zu
trifft völlig
zu
Kann ich
nicht
beurteilen
Gruppenmitglieder nutzen ihre hierarchische
Position, um ihre Meinung durchzusetzen.
trifft
überhaupt
nicht zu
trifft
weitgehend
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft
weitgehend
zu
trifft völlig
zu
Kann ich
nicht
beurteilen
Manche Gruppenmitglieder versuchen
kritische Meinungen anderer Mitglieder aus
Loyalität zur Führungskraft abzuwehren.
trifft
überhaupt
nicht zu
trifft
weitgehend
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft
weitgehend
zu
trifft völlig
zu
Kann ich
nicht
beurteilen
Es kommt vor, dass Minderheitsmeinungen
vorschnell durch einzelne Gruppenmitglieder
schlechtgeredet werden.
trifft
überhaupt
nicht zu
trifft
weitgehend
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft
weitgehend
zu
trifft völlig
zu
Kann ich
nicht
beurteilen
26.04.23, 13:40 Korrekturfahne ORG (biases2021) 26.04.2023, 13:40
https://www.soscisurvey.de/biases2021/?s2preview=4QmCIgXPeiFSo6M5c0Dy2UMB3chdtje3&questionnaire=ORG¬es=off&php=off&filters=off&csfr 9/9
Bitte kommentieren Sie hier, wenn Sie Anmerkungen zu den auf dieser Seite beschriebenen Aspekten haben.
Seite 05
Wie bewerten Sie insgesamt die Qualität der Planungs- und Entscheidungsprozesse in Ihrer Organisation oder
Abteilung?
Letzte Seite
Vielen Dank für Ihre Teilnahme!
Ich möchte mich ganz herzlich für Ihre Mithilfe bedanken.
Bei Fragen zur Studie können Sie sich gerne per Mail an mich wenden: f.englisch@uni-kassel.de
Ihre Antworten wurden gespeichert, Sie können das Browser-Fenster nun schließen.
M.Sc. Friedrich Englisch, Universität Kassel – 2021
Sehr geringe
Qualität
Sehr hohe
Qualität
Literaturverzeichnis 247
D Expertenbefragung
26.04.23, 13:41 Korrekturfahne VAL (biases2021) 26.04.2023, 13:41
https://www.soscisurvey.de/biases2021/?s2preview=uXwweOv9ux5ldj0GAWiromgJ1YakY3cs&questionnaire=VAL¬es=off&php=off&csfr 1/23
26.04.2023, 13:41biases2021 → VAL
Seite 01
Cognitive Biases und Group Biases in Organisationen – Entwicklung eines Fragebogens zur biasbezogenen
Diagnose von Planungsprozessen
Liebe/r Teilnehmer/in,
Ziel dieser Studie ist es, einen Fragebogen zur Diagnose biasbezogener Verhaltensweisen in organisationalen
Entscheidungsprozessen mithilfe Ihres Expertenurteils zu validieren.
Cognitive Biases (kognitive Verzerrungen) und Group Biases (gruppendynamische Effekte) beeinflussen
nachgewiesenermaßen etliche menschliche Entscheidungsprozesse.
Insbesondere in neuartigen und komplexen Situationen - wie sie z. B. typisch für Planungsprozesse in Organisationen sind -
führen kognitive oder soziale Heuristiken (Faustregeln), die den Alltag in der Regel erleichtern, zu Fehlern, die häufig
vermeidbar wären.
Vor diesem Hintergrund hat der Autor einen Fragebogen entwickelt, indem er aus theoretischen Annahmen über
unterschiedliche Biases Verhaltensweisen abgeleitet hat, die potenziell im Zusammenhang mit dem Auftreten dieser Biases
stehen, damit dieser Fragebogen Gruppen und Organisationen als Methode zur Selbsteinschätzung dienen kann.
Im Rahmen dieser Befragung ist es Ihre Aufgabe diese Annahmen zu validieren, indem Sie beurteilen, ob die jeweiligen
Verhaltensweisen Ihrer Meinung nach tatsächlich im Zusammenhang mit den entsprechenden Biases stehen.
Dazu wird Ihnen auf jeder Seite zunächst eine kurze Beschreibung des betreffenden Bias präsentiert und anschließend die
assoziierten Verhaltensweisen, die Sie jeweils auf einer Skala von 1 - "Trifft gar nicht zu" bis 4 "Trifft voll zu" bezüglich Ihres
Zusammenhangs mit dem Bias bewerten.
Die Verhaltensweisen stehen entweder in einem positiven oder negativen Zusammenhang mit dem beschriebenen Bias.
Entsprechend steht in der Instruktion "Das Verhalten ist ein Hinweis für einen geringen..." oder "Das Verhalten eins ein
Hinweise für einen hohen...". Die Richtung des Effekts ist dabei immer entsprechend des vermuteten Zusammenhangs
formuliert. Es reicht also, wenn sie sich bei Ihrer Bewertung darauf konzentrieren, ob überhaupt ein Zusammenhang
zwischen Verhaltensweise und Bias besteht.
Bitte nehmen Sie sich ca. 25 Minuten Zeit, um die Fragen in Ruhe zu beantworten.
Die Befragung verläuft anonym und Ihre Daten werden gemäß DSGVO datenschutzkonform behandelt.
Bitte lesen Sie jede Frage sorgfältig durch. Gehen Sie aber bei der Beantwortung zügig vor. Ihr erster Eindruck ist
normalerweise der Beste. Es gibt keine richtigen oder falschen Antworten. Jede Antwort ist zutreffend, wenn sie Ihre
Einschätzung wiedergibt.
26.04.23, 13:41 Korrekturfahne VAL (biases2021) 26.04.2023, 13:41
https://www.soscisurvey.de/biases2021/?s2preview=uXwweOv9ux5ldj0GAWiromgJ1YakY3cs&questionnaire=VAL¬es=off&php=off&csfr 2/23
Seite 02
Geschlecht
Bitte geben Sie Ihr Geschlecht an.
Weiblich
Männlich
Divers
Alter
Zu welcher der nachfolgenden Alterskategorien gehören Sie?
20 oder jünger
20-24
25-29
30-34
35-39
40-49
50-59
60 oder älter
Bildung
Was ist Ihr höchster Schul- oder Hochschulabschluss?
Unterer Schulabschluss
Abitur oder gleichwertiger Abschluss
Studium ohne Abschluss
Bachelor-Abschluss
Master-Abschluss/Diplom
Doktor-Grad
Tätigkeit
Befinden Sie sich aktuell im Studium oder sind Sie vollzeit berufstätig?
Studium
Berufstätigkeit
3 aktive(r) Filter
Filter DE01/F1
Wenn eine der folgenden Antwortoption(en) ausgewählt wurde: 1
Dann Seite(n) STU des Fragebogens anzeigen (sonst ausblenden)
Filter DE01/F2
Wenn eine der folgenden Antwortoption(en) ausgewählt wurde: 2
Dann Seite(n) HauptT des Fragebogens anzeigen (sonst ausblenden)
Filter DE01/F3
Wenn eine der folgenden Antwortoption(en) ausgewählt wurde: 1
26.04.23, 13:41 Korrekturfahne VAL (biases2021) 26.04.2023, 13:41
https://www.soscisurvey.de/biases2021/?s2preview=uXwweOv9ux5ldj0GAWiromgJ1YakY3cs&questionnaire=VAL¬es=off&php=off&csfr 3/23
Dann Seite(n) NebenT des Fragebogens anzeigen (sonst ausblenden)
Seite 03
STU
Welches Fach studieren Sie?
Im wievielten Semester studieren Sie?
Üben Sie neben dem Studium eine Nebentätigkeit aus?
Ja
Nein
2 aktive(r) Filter
Filter DE19/F1
Wenn eine der folgenden Antwortoption(en) ausgewählt wurde: 1
Dann Frage/Text FI04 später im Fragebogen anzeigen (sonst ausblenden)
Filter DE19/F2
Wenn eine der folgenden Antwortoption(en) ausgewählt wurde: 1
Dann Frage/Text FI02 später im Fragebogen anzeigen (sonst ausblenden)
Seite 04
NebenT
Branche der Nebentätigkeit
In welcher Branche sind Sie tätig?
Berufserfahrung
Wie lange üben Sie eine Nebentätigkeit in der angegebenen Branche aus?
Weniger als 1 Jahr
1-3 Jahre
3-10 Jahre
Mehr als 10 Jahre
26.04.23, 13:41 Korrekturfahne VAL (biases2021) 26.04.2023, 13:41
https://www.soscisurvey.de/biases2021/?s2preview=uXwweOv9ux5ldj0GAWiromgJ1YakY3cs&questionnaire=VAL¬es=off&php=off&csfr 4/23
Seite 05
HauptT
Branche
In welcher Branche sind Sie tätig?
Berufserfahrung
Wie lange sind Sie in der angegebenen Branche tätig?
Weniger als 1 Jahr
1-3 Jahre
3-10 Jahre
10-20 Jahre
Mehr als 20 Jahre
26.04.23, 13:41 Korrekturfahne VAL (biases2021) 26.04.2023, 13:41
https://www.soscisurvey.de/biases2021/?s2preview=uXwweOv9ux5ldj0GAWiromgJ1YakY3cs&questionnaire=VAL¬es=off&php=off&csfr 5/23
Seite 06
BIAS
Kenntnisse im Bereich Cognitive Biases/kognitive Verzerrungen
Bitte geben Sie an, inwieweit Sie bereits Kenntnisse im Bereich Cognitive Biases/kognitive Verzerrungen haben.
[Bitte auswählen]
Kenntnisse im Bereich Cognitive Biases/kognitive Verzerrungen
Bitte geben Sie an wie viele der folgenden Arten von Cognitive Biases/kognitiven Verzerrungen Sie kennen.
Overconfidence Bias (Selbstüberschätzung)
Optimism Bias (Optimismusvoreingenommenheit)
Availability Bias (Verfügbarkeitsfehler)
Confirmation Bias (Bestätigungsfehler)
Desirability Bias (Wunschdenken)
Self-Serving Bias (Selbstwertdienliche Verzerrung)
Anchoring (Verankerung)
Sunk Cost Fallacy (Versunkene Kosten Fehlschluss)
[Bitte auswählen]
Kenntnisse im Bereich Group Biases/Gruppendynamische Verzerrungen
Bitte geben Sie an, inwieweit Sie bereits Kenntnisse im Bereich Group Biases/Gruppendynamische Verzerrungen haben.
[Bitte auswählen]
Kenntnisse im Bereich Group Biases/Gruppendynamische Verzerrungen
Bitte geben Sie an wie viele der folgenden Arten von Group Biases/gruppendynamischen Verzerrungen Sie kennen.
Groupthink (Gruppendenken)
Social Loafing (Soziales Faulenzen)
False Consensus Effect (Falscher Konsens Effekt)
[Bitte auswählen]
26.04.23, 13:41 Korrekturfahne VAL (biases2021) 26.04.2023, 13:41
https://www.soscisurvey.de/biases2021/?s2preview=uXwweOv9ux5ldj0GAWiromgJ1YakY3cs&questionnaire=VAL¬es=off&php=off&csfr 6/23
Seite 07
Overconfidence Bias
Der Overconfidence Bias (Selbstüberschätzung) äußert sich in der Neigung von Menschen ihre eigene Leistungsfähigkeit zu
überschätzen.
Dieser Effekt kann in den Planungsprozessen einer Organisation dazu führen, dass unrealistische Ziele postuliert und nicht
rechtzeitig korrigiert werden und damit zu Fehlentscheidungen führen.
Bitte kommentieren Sie hier, wenn Sie Anmerkungen zu den auf dieser Seite beschriebenen Aspekten haben.
Dieses Verhalten ist ein Hinweis für einen geringen Overconfidence Bias:
Mögliche Schwächen in der Planung werden proaktiv thematisiert und
diskutiert.
trifft gar
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft völlig
zu
Dieses Verhalten ist ein Hinweis für einen geringen Overconfidence Bias:
Mitarbeiter*innen informieren sich gegenseitig über Schwierigkeiten und
Probleme bei der Erreichung ihrer Ziele.
trifft gar
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft völlig
zu
Dieses Verhalten ist ein Hinweis für einen geringen Overconfidence Bias:
Informationen und Daten aus vergangenen Projekten, aus denen Erfolgs-
sowie Misserfolgsfaktoren („lessons learned“) hervorgehen, werden regelmäßig
präsentiert und diskutiert.
trifft gar
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft völlig
zu
26.04.23, 13:41 Korrekturfahne VAL (biases2021) 26.04.2023, 13:41
https://www.soscisurvey.de/biases2021/?s2preview=uXwweOv9ux5ldj0GAWiromgJ1YakY3cs&questionnaire=VAL¬es=off&php=off&csfr 7/23
Seite 08
Optimism Bias
Der Optimism Bias (Optimismusvoreingenommenheit) zeigt, dass Menschen nicht nur ihre eigene
Leistungsfähigkeithäufig überschätzen, sondern auch bei ihrer Einschätzung der Zukunft das Ausmaß externer
positiver Ereignisse überschätzen. Zum Beispiel überschätzen Unternehmer*innen die Chance auf unternehmerischen
Erfolg, trotz eines schweren Marktumfelds. Auf der anderen Seite unterschätzen Menschen negative Risken, z. B. das
persönlich Risiko eines Unfalls oder einer schweren Erkrankung.
Bitte kommentieren Sie hier, wenn Sie Anmerkungen zu den auf dieser Seite beschriebenen Aspekten haben.
Dieses Verhalten ist ein Hinweis für einen geringen Optimism Bias: In
Entscheidungsprozessen werden bei qualitativen und quantitativen Analysen
auch externe Risiken, die außerhalb des Einflusses der Organisation liegen,
berücksichtigt.
trifft gar
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft völlig
zu
Dieses Verhalten ist ein Hinweis für einen geringen Optimism Bias: Dem
Einfluss unvorhersehbarer externer Ereignisse wird durch Schaffung von
Redundanz (zusätzlichen Ressourcen) Rechnung getragen.
trifft gar
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft völlig
zu
26.04.23, 13:41 Korrekturfahne VAL (biases2021) 26.04.2023, 13:41
https://www.soscisurvey.de/biases2021/?s2preview=uXwweOv9ux5ldj0GAWiromgJ1YakY3cs&questionnaire=VAL¬es=off&php=off&csfr 8/23
Seite 09
Availability Bias
Der Availability Bias (Verfügbarkeitsfehler) zeigt sich darin, dass Menschen, wenn sie die Wahrscheinlichkeit bestimmter
Ereignisse einschätzen, oft ein intuitives Urteil treffen, das darauf beruht wie leicht ihnen Beispiele zu dieser Art von
Ereignissen einfallen und wie viele dieser Beispiele ihnen spontan einfallen. Das Ergebnis hängt dabei jedoch nicht allein von
der objektiven Datenlage ab, sondern es werden z. B. lebendige oder emotionale Ereignisse besonders leicht und häufig
erinnert und damit tendenziell überschätzt.
Bitte kommentieren Sie hier, wenn Sie Anmerkungen zu den auf dieser Seite beschriebenen Aspekten haben.
Dieses Verhalten ist ein Hinweis für einen geringen Availability Bias: Bei
Problemdiskussionen dienen in der Regel qualitative und/oder quantitative
Analysen empirischer Daten als Diskussionsgrundlage.
trifft gar
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft völlig
zu
Dieses Verhalten ist ein Hinweis für einen hohen Availability Bias: Bei
Problemdiskussionen werden häufig Ad-hoc-Argumente erfahrener
Mitarbeiter*innen als Datenquelle verwendet.
trifft gar
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft völlig
zu
26.04.23, 13:41 Korrekturfahne VAL (biases2021) 26.04.2023, 13:41
https://www.soscisurvey.de/biases2021/?s2preview=uXwweOv9ux5ldj0GAWiromgJ1YakY3cs&questionnaire=VAL¬es=off&php=off&csfr 9/23
Seite 10
Confirmation Bias
Der Confirmation Bias (Bestätigungsfehler) beschreibt die Tendenz, bei der Informationssuche, -erinnerung und -
interpretation unbewusst diejenigen Informationen zu bevorzugen, die dem bereits bestehenden Weltbild entsprechen. Diese
Tendenz zeigt sich z. B., wenn zur Entscheidungsfindung diejenigen Informationsquellen ausgewählt werden, die der
eigenen Meinung entsprechen, während abweichende Informationen ignoriert werden. Ein weiteres Beispiel zeigt sich, wenn
ambivalente Informationen entsprechend der bereits bestehenden Ansichten interpretiert werden.
Bitte kommentieren Sie hier, wenn Sie Anmerkungen zu den auf dieser Seite beschriebenen Aspekten haben.
Dieses Verhalten ist ein Hinweis für einen geringen Confirmation Bias: In
Entscheidungsprozessen wird eine selbstkritische und hinterfragende
Herangehensweise bei der Urteilsfindung bestärkt.
trifft gar
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft völlig
zu
Dieses Verhalten ist ein Hinweis für einen geringen Confirmation Bias:
Mitarbeiter*innen und Führungskräfte sind lernwillig und offen für negatives
Feedback bezüglich ihres Vorgehens bzw. des Vorgehens ihrer Abteilung.
trifft gar
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft völlig
zu
Dieses Verhalten ist ein Hinweis für einen hohen Confirmation Bias: In
Entscheidungsprozessen werden primär den bestehenden Ansichten
zustimmende Argumente aufgenommen und ausgetauscht.
trifft gar
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft völlig
zu
26.04.23, 13:41 Korrekturfahne VAL (biases2021) 26.04.2023, 13:41
https://www.soscisurvey.de/biases2021/?s2preview=uXwweOv9ux5ldj0GAWiromgJ1YakY3cs&questionnaire=VAL¬es=off&php=off&csfr 10/23
Seite 11
Desirability Bias
Der Desirability Bias (Wunschdenken) beschreibt die Tendenz, Informationen systematisch zugunsten erwünschter
Entscheidungsalternativen zu wählen oder zu interpretieren. Ähnlich wie dem Confirmation Bias beeinflusst dieses
"Wunschdenken" die Informationssuche, -verarbeitung und -speicherung.
Bitte kommentieren Sie hier, wenn Sie Anmerkungen zu den auf dieser Seite beschriebenen Aspekten haben.
Dieses Verhalten ist ein Hinweis für einen geringen Desirability Bias: Im
Planungsprozess herrscht eine offene Diskussionskultur, in der auch die
Nachteile eines Vorhabens diskutiert und Alternativen ernsthaft betrachtet
werden.
trifft gar
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft völlig
zu
Dieses Verhalten ist ein Hinweis für einen geringen Desirability Bias: Es
wird unabhängig vom erwünschten Ziel abgewogen bzw. kalkuliert, was
realistisch und sicher erreichbar ist, ohne dass Wunschdenken diese
Abwägungen beeinflusst.
trifft gar
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft völlig
zu
26.04.23, 13:41 Korrekturfahne VAL (biases2021) 26.04.2023, 13:41
https://www.soscisurvey.de/biases2021/?s2preview=uXwweOv9ux5ldj0GAWiromgJ1YakY3cs&questionnaire=VAL¬es=off&php=off&csfr 11/23
Seite 12
Self-Serving Bias
Der Self-Serving Bias (Selbstwertdienliche Verzerrung) beschreibt die Tendenz zur verzerrten Wahrnehmung und
Interpretation von Ereignissen zur Aufrechterhaltung eines positiven Selbstbilds. Dies zeigt sich z. B., wenn Personen eine
gute Leistung auf ihre Fähigkeiten zurückführen und eine schlechte Leistung auf externe Umstände oder auch daran, dass
sie ihren eigenen Anteil an einer Gruppenleistung überschätzen.
Bitte kommentieren Sie hier, wenn Sie Anmerkungen zu den auf dieser Seite beschriebenen Aspekten haben.
Dieses Verhalten ist ein Hinweis für einen geringen Self-Serving Bias: Es
findet eine kritische Reflektion der eigenen Leistung sowohl bei Erfolgen als
auch bei Misserfolgen statt.
trifft gar
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft völlig
zu
Dieses Verhalten ist ein Hinweis für einen hohen Self-Serving Bias:
Konkurrenzdenken führt dazu, dass es besonders wichtig ist, die eigene,
individuelle, Leistung hervorzuheben.
trifft gar
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft völlig
zu
Dieses Verhalten ist ein Hinweis für einen hohen Self-Serving Bias:
Erfolge werden als verdiente Leistung bewertet und Probleme eher auf
unglückliche Umstände zurückgeführt.
trifft gar
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft völlig
zu
26.04.23, 13:41 Korrekturfahne VAL (biases2021) 26.04.2023, 13:41
https://www.soscisurvey.de/biases2021/?s2preview=uXwweOv9ux5ldj0GAWiromgJ1YakY3cs&questionnaire=VAL¬es=off&php=off&csfr 12/23
Seite 13
Anchoring
Anchoring (Verankerung) zeigt sich in der systematischen Tendenz, sich in einer Urteils- oder Entscheidungssituation stark
von einer anfänglichen Information beeinflussen zu lassen. Nachfolgende abweichende Informationen führen zwar ggf. zu
einer Anpassung der ursprünglichen Meinung, jedoch in einem zu geringen Ausmaß.
Bitte kommentieren Sie hier, wenn Sie Anmerkungen zu den auf dieser Seite beschriebenen Aspekten haben.
Dieses Verhalten ist ein Hinweis für einen geringen Grad an Anchoring:
Meinungen und Einschätzungen unterschiedlicher Mitarbeiter*innen werden
zunächst individuell und unabhängig voneinander entwickelt, bevor sie im
Entscheidungsprozess aggregiert oder diskutiert werden.
trifft gar
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft völlig
zu
Dieses Verhalten ist ein Hinweis für einen geringen Grad an Anchoring:
Im Planungsprozess wird hinreichend über unterschiedliche Alternativen
diskutiert, bevor man sich für eine Vorgehensweise entscheidet.
trifft gar
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft völlig
zu
Dieses Verhalten ist ein Hinweis für einen hohen Grad an Anchoring: Es
entstehen spontane Diskussionen auf Basis anfänglicher Informationen.
trifft gar
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft völlig
zu
26.04.23, 13:41 Korrekturfahne VAL (biases2021) 26.04.2023, 13:41
https://www.soscisurvey.de/biases2021/?s2preview=uXwweOv9ux5ldj0GAWiromgJ1YakY3cs&questionnaire=VAL¬es=off&php=off&csfr 13/23
Seite 14
Sunk Cost Fallacy
Die Sunk Cost Fallacy (Versunkene Kosten Fehlschluss) ist ein häufiges Phänomen in Vorhaben, bei denen bereits eine
bedeutsame Menge an Ressourcen wie Arbeitszeit oder Geld investiert wurden, ohne dass geplante Ziele erreicht werden
konnten.
Bei der Wahl, ob das Vorhaben abgebrochen oder fortgeführt werden soll, besteht eine irrationale Tendenz zur Fortführung
trotz eines vom aktuellen Stand aus unverhältnismäßig hohen Ressourceneinsatzes.
Bitte kommentieren Sie hier, wenn Sie Anmerkungen zu den auf dieser Seite beschriebenen Aspekten haben.
Dieses Verhalten ist ein Hinweis für einen geringen Grad an Sunk Cost
Fallacy: Wenn sich ein Projekt als teurer oder riskanter als erwartet
herausstellt, wird stets auch ein Abbruch als gangbare Alternative diskutiert.
trifft gar
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft völlig
zu
Dieses Verhalten ist ein Hinweis für einen geringen Grad an Sunk Cost
Fallacy: Der Abbruch eines Projekts wird in der Organisation wertfrei und als
normale Reaktion auf sich ändernde Bedingungen oder Einschätzungen
betrachtet.
trifft gar
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft völlig
zu
Dieses Verhalten ist ein Hinweis für einen hohen Grad an Sunk Cost
Fallacy: Es wird häufig versucht ein schlecht laufendes Projekt fortzuführen,
obwohl der finanzielle Aufwand oder das Risiko unverhältnismäßig hoch sind.
trifft gar
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft völlig
zu
26.04.23, 13:41 Korrekturfahne VAL (biases2021) 26.04.2023, 13:41
https://www.soscisurvey.de/biases2021/?s2preview=uXwweOv9ux5ldj0GAWiromgJ1YakY3cs&questionnaire=VAL¬es=off&php=off&csfr 14/23
Seite 15
Groupthink - Illusion of Invulnerability
Illusion of Invulnerability (Illusion von Unverwundbarkeit) beschreibt die tendenzielle Überschätzung der eigenen Gruppe, die
scheinbar so stark sei, dass kaum etwas schief gehen könne.
Diese Denkweise wird insbesondere durch vergangene Erfolge bestärkt.
Bitte kommentieren Sie hier, wenn Sie Anmerkungen zu den auf dieser Seite beschriebenen Aspekten haben.
Dieses Verhalten ist ein Hinweis für einen geringen Grad an Illusion of
Invulnerability: Erfolge steigen der Gruppe nicht zu Kopf und sie ist stets
bemüht, die eigenen Pläne zu hinterfragen und Verbesserungspotenziale
abzuleiten.
trifft gar
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft völlig
zu
Dieses Verhalten ist ein Hinweis für einen hohen Grad an Illusion of
Invulnerability: Vergangene Erfolge führen in der Gruppe zu
Selbstüberschätzung und in der Folge zu einem sorgloserem Umgang mit
Risiken.
trifft gar
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft völlig
zu
26.04.23, 13:41 Korrekturfahne VAL (biases2021) 26.04.2023, 13:41
https://www.soscisurvey.de/biases2021/?s2preview=uXwweOv9ux5ldj0GAWiromgJ1YakY3cs&questionnaire=VAL¬es=off&php=off&csfr 15/23
Seite 16
Groupthink - Belief in Inherent Morality of the Group
Belief in inherent Morality of the Group (Überzeugung von der Moralität des eigenen Handelns):
Gruppen sehen sich häufig als grundsätzlich moralisch aufrichtige Instanz mit guten Beweggründen. Dies führt dazu, dass
ethische und morale Konsequenzen einer Entscheidung im Einzelfall weniger stark bedacht werden.
Bitte kommentieren Sie hier, wenn Sie Anmerkungen zu den auf dieser Seite beschriebenen Aspekten haben.
Dieses Verhalten ist ein Hinweis für einen hohen Grad an Belief in
Inherent Morality of the Group: Es kann vorkommen, dass ethische
Konsequenzen im Einzelfall weniger genau betrachtet werden, weil sich die
Gruppe/Organisation insgesamt als moralische Instanz betrachtet.
trifft gar
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft völlig
zu
Dieses Verhalten ist ein Hinweis für einen hohen Grad an Belief in
Inherent Morality of the Group: Die Gruppe reagiert irritiert oder ablehnend
auf selbstkritische Anmerkungen einzelner Mitglieder.
trifft gar
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft völlig
zu
26.04.23, 13:41 Korrekturfahne VAL (biases2021) 26.04.2023, 13:41
https://www.soscisurvey.de/biases2021/?s2preview=uXwweOv9ux5ldj0GAWiromgJ1YakY3cs&questionnaire=VAL¬es=off&php=off&csfr 16/23
Seite 17
Groupthink - Collective Rationalization
Collective Rationalization (Kollektive Rationalisierung) zeigt sich, wenn Warnungen und negatives Feedback, die eine
Entscheidung in Frage stellen, nicht ausreichend berücksichtigt werden.
Statt dessen wird vorschnell gegen die Warnung argumentiert, um den Plan aufrechtzuerhalten.
Bitte kommentieren Sie hier, wenn Sie Anmerkungen zu den auf dieser Seite beschriebenen Aspekten haben.
Dieses Verhalten ist ein Hinweis für einen geringen Grad an Collective
Rationalization: Kritische Meinungen gegenüber dem von der Führungskraft
oder der gesamten Gruppe favorisiertem Plan werden offen aufgenommen und
weiterdiskutiert.
trifft gar
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft völlig
zu
Dieses Verhalten ist ein Hinweis für einen hohen Grad an Collective
Rationalization: Kritische Hinweise und Warnungen bezüglich eines Plans
werden häufig nicht ausreichend ernst genommen.
trifft gar
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft völlig
zu
26.04.23, 13:41 Korrekturfahne VAL (biases2021) 26.04.2023, 13:41
https://www.soscisurvey.de/biases2021/?s2preview=uXwweOv9ux5ldj0GAWiromgJ1YakY3cs&questionnaire=VAL¬es=off&php=off&csfr 17/23
Seite 18
Groupthink - Out-Group Stereotypes
Out-group Stereotypes (Stereotypisierung von Außenstehenden) tritt auf, wenn Vorurteile gegenüber einer anderen Gruppe,
die eine abweichende Meinung vertritt, implizit und/oder explizit geäußert werden, zum Beispiel, dass diese unfähig seien
oder keine Ahnung hätten.
Bitte kommentieren Sie hier, wenn Sie Anmerkungen zu den auf dieser Seite beschriebenen Aspekten haben.
Dieses Verhalten ist ein Hinweis für einen hohen Grad an Out-Group
Stereotypes: Innerhalb der Gruppe sind häufig die Unfähigkeit oder ähnliche
negative Eigenschaften anderer Akteure ein Thema.
trifft gar
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft völlig
zu
Dieses Verhalten ist ein Hinweis für einen hohen Grad an Out-Group
Stereotypes: Es kommt vor, dass negative Einstellungen gegenüber externen
Gruppen die Kommunikation und den Informationsaustausch mit diesen
beeinträchtigen.
trifft gar
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft völlig
zu
26.04.23, 13:41 Korrekturfahne VAL (biases2021) 26.04.2023, 13:41
https://www.soscisurvey.de/biases2021/?s2preview=uXwweOv9ux5ldj0GAWiromgJ1YakY3cs&questionnaire=VAL¬es=off&php=off&csfr 18/23
Seite 19
Groupthink - Self-Censorship
Self-Censorship (Selbstzensur) beschreibt die Zurückhaltung oder Entschärfung der eigenen Meinung, in der Erwartung,
dass diese bei Kolleg*innen und Vorgesetzen negative Reaktionen hervorrufen würde.
Bitte kommentieren Sie hier, wenn Sie Anmerkungen zu den auf dieser Seite beschriebenen Aspekten haben.
Dieses Verhalten ist ein Hinweis für einen geringen Grad an Self-
Censorship: Im Planungsprozess wird sichergestellt, dass alle
Gruppenmitglieder ihre Standpunkte äußern.
trifft gar
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft völlig
zu
Dieses Verhalten ist ein Hinweis für einen hohen Grad an Self-
Censorship: Manchmal hält man sich mit seiner Meinung zurück, um nicht bei
der Führungskraft oder anderen Gruppenmitgliedern anzuecken.
trifft gar
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft völlig
zu
26.04.23, 13:41 Korrekturfahne VAL (biases2021) 26.04.2023, 13:41
https://www.soscisurvey.de/biases2021/?s2preview=uXwweOv9ux5ldj0GAWiromgJ1YakY3cs&questionnaire=VAL¬es=off&php=off&csfr 19/23
Seite 20
Groupthink - Illusion of Unanimity
Bei der Illusion of Unanimity (Illusion von Einstimmigkeit) entsteht der Schein von Einstimmigkeit, da fast alle geäußerten
Meinungen der Mehrheitsmeinung entsprechen und das Schweigen der Minderheit als stille Zustimmung interpretiert wird.
Wenn nur die Argumente der Mehrheitsmeinung geäußert werden, werden häufig auch kritische Gruppenmitglieder
überzeugt.
Bitte kommentieren Sie hier, wenn Sie Anmerkungen zu den auf dieser Seite beschriebenen Aspekten haben.
Dieses Verhalten ist ein Hinweis für einen geringen Grad an Illusion of
Unanimity: Bei scheinbarer Meinungshomogenität wird bewusst nachgehakt,
ob es auch alternative Sichtweisen gibt, die von der bisherigen
Gruppenmeinung abweichen.
trifft gar
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft völlig
zu
Dieses Verhalten ist ein Hinweis für einen hohen Grad an Illusion of
Unanimity: Das Schweigen einzelner Gruppenmitglieder wird von der Gruppe
als stille Zustimmung interpretiert.
trifft gar
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft völlig
zu
26.04.23, 13:41 Korrekturfahne VAL (biases2021) 26.04.2023, 13:41
https://www.soscisurvey.de/biases2021/?s2preview=uXwweOv9ux5ldj0GAWiromgJ1YakY3cs&questionnaire=VAL¬es=off&php=off&csfr 20/23
Seite 21
Groupthink - Direct pressure on Dissenters
Direct pressure on Dissenters (Druck auf Abweichler):
Es wird expliziter Druck auf bestimmte Personen ausgeübt, sich der erwünschten Meinung anzupassen. Diese Form des
Groupthink zeigt sich oft, wenn das gesamte Vorhaben unter Druck steht. Häufig wird in so einer Situation die Gefährdung
des Vorhabens als Druckmittel zur Meinungsanpassung genutzt.
Bitte kommentieren Sie hier, wenn Sie Anmerkungen zu den auf dieser Seite beschriebenen Aspekten haben.
Dieses Verhalten ist ein Hinweis für einen hohen Grad an Direct Pressure
on Dissenters: Es kommt vor, dass Druck auf Gruppenmitglieder mit
abweichender Meinung ausgeübt wird.
trifft gar
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft völlig
zu
Dieses Verhalten ist ein Hinweis für einen hohen Grad an Direct Pressure
on Dissenters: Es kommt vor, dass kritische Meinungsträger von
Gruppenprozessen ausgeschlossen werden.
trifft gar
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft völlig
zu
Dieses Verhalten ist ein Hinweis für einen hohen Grad an Direct Pressure
on Dissenters: Gruppenmitglieder nutzen ihre hierarchische Position, um ihre
Meinung durchzusetzen.
trifft gar
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft völlig
zu
26.04.23, 13:41 Korrekturfahne VAL (biases2021) 26.04.2023, 13:41
https://www.soscisurvey.de/biases2021/?s2preview=uXwweOv9ux5ldj0GAWiromgJ1YakY3cs&questionnaire=VAL¬es=off&php=off&csfr 21/23
Seite 22
Groupthink - Self-Appointed Mindguards
Self-Appointed Mindguards (Selbsternannte Meinungshüter):
Einzelne Gruppenmitglieder „beschützen“ die Führungskraft und Gruppe vor Informationen, die im Widerspruch zur
Gruppenmeinung oder -entscheidung stehen und somit die empfundene Einstimmigkeit gefährden, indem sie z. B.
abweichende Meinungen ablehnen.
Bitte kommentieren Sie hier, wenn Sie Anmerkungen zu den auf dieser Seite beschriebenen Aspekten haben.
Dieses Verhalten ist ein Hinweis für einen hohen Grad an Self-Appointed
Mindguards: Manche Gruppenmitglieder versuchen kritische Meinungen
anderer Mitglieder aus Loyalität zur Führungskraft abzuwehren.
trifft gar
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft völlig
zu
Dieses Verhalten ist ein Hinweis für einen hohen Grad an Self-Appointed
Mindguards: Es kommt vor, dass Minderheitsmeinungen vorschnell durch
einzelne Gruppenmitglieder schlechtgeredet werden.
trifft gar
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft völlig
zu
26.04.23, 13:41 Korrekturfahne VAL (biases2021) 26.04.2023, 13:41
https://www.soscisurvey.de/biases2021/?s2preview=uXwweOv9ux5ldj0GAWiromgJ1YakY3cs&questionnaire=VAL¬es=off&php=off&csfr 22/23
Seite 23
Social Loafing
Social Loafing (Soziales Faulenzen) beschreibt das Phänomen, dass Personen bei einer Aufgabe mehr Engagement zeigen,
wenn sie auf sich alleine gestellt sind, als wenn sie die Aufgabe als Angehörige einer Gruppe bearbeiten. Ein Hauptgrund für
das Auftreten von Social Loafing ist, dass einzelne Gruppenmitglieder den Eindruck haben, dass ihre persönliche Leistung
insgesamt nicht so wichtig ist bzw. weniger Anstrengung vom Rest der Gruppe kompensiert wird.
Bitte kommentieren Sie hier, wenn Sie Anmerkungen zu den auf dieser Seite beschriebenen Aspekten haben.
Dieses Verhalten ist ein Hinweis für einen geringen Grad an Social
Loafing: Zwischenziele werden konkret und mit festgelegtem Zeithorizont
definiert.
trifft gar
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft völlig
zu
Dieses Verhalten ist ein Hinweis für einen geringen Grad an Social
Loafing: Arbeitspakete werden für einzelne Gruppenmitglieder konkret
zugeordnet.
trifft gar
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft völlig
zu
Dieses Verhalten ist ein Hinweis für einen geringen Grad an Social
Loafing: Zwischenergebnisse aus den einzelnen Verantwortungsbereichen
werden Führungskräften und anderen Gruppenmitgliedern in regelmäßigen
Abständen präsentiert
trifft gar
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft völlig
zu
26.04.23, 13:41 Korrekturfahne VAL (biases2021) 26.04.2023, 13:41
https://www.soscisurvey.de/biases2021/?s2preview=uXwweOv9ux5ldj0GAWiromgJ1YakY3cs&questionnaire=VAL¬es=off&php=off&csfr 23/23
Seite 24
False Consensus Effect
Der False Consensus Effect (Falscher Konsens Effekt) bezeichnet die intuitive Fehleinschätzung, dass eigene Urteile und
Entscheidungen in der Population verbreitet und angemessen sind, während alternative Sichtweisen eher als ungewöhnlich
und unangemessen betrachtet werden. Eine Ursache hierfür ist der fundamentale Attributionsfehler, demnach die eigenen
Handlungen oder Meinungen tendenziell als situationsabhängig und somit „normal“ erarchtet werden, während das Verhalten
anderer Menschen eher auf deren Persönlichkeit zurückgeführt wird
Bitte kommentieren Sie hier, wenn Sie Anmerkungen zu den auf dieser Seite beschriebenen Aspekten haben.
Letzte Seite
Vielen Dank für Ihre Teilnahme!
Ich möchte mich ganz herzlich für Ihre Mithilfe bedanken.
Bei Fragen zur Studie können Sie sich gerne per Mail an mich wenden: f.englisch@uni-kassel.de
Für Nutzer von SurveyCircle (www.surveycircle.com): Der Survey Code lautet: P68D-EZ9U-EH8R-YQY1
Ihre Antworten wurden gespeichert, Sie können das Browser-Fenster nun schließen.
M.Sc. Friedrich Englisch, Universität Kassel – 2021
Dieses Verhalten ist ein Hinweis für einen geringen Grad an False
Consensus: Das Verhalten und die Pläne der Gruppe werden kritisch – auch
im Austausch mit Personen außerhalb der Gruppe – reflektiert.
trifft gar
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft völlig
zu
Dieses Verhalten ist ein Hinweis für einen geringen Grad an False
Consensus: Führungskräfte beziehen auch Informationen von externen
Quellen ausreichend mit ein.
trifft gar
nicht zu
trifft eher
nicht zu
trifft eher
zu
trifft völlig
zu
Literaturverzeichnis 271
E Kommentare aus den Freitextfeldern
Bias Label Kommentar 1 Kommentar 2 Kommentar 3
OC
Reale Misserfolge aus der Vergangenheit
und andere mögliche Misserfolgsfaktoren
werden mit kalkuliert, diskutiert und
thematisiert.
Hier werden Vorbereitungen
vorrauschhauend getroffen und man stürzt
sich nicht in vage Zielsetzungen.
OB
Durch Optimismus wird man denke ich
nicht ignorant gegenüber den externen
Einflüssen und kann trotzdem die Risiken
einkalkulieren.
Ob die externen Einflüsse beachtet werden,
liegt somit nicht unbedingt an einem
geringen Optimism Bias.
Man geht nicht von dem besten Fall aus
sondern kalkuliert Risiken.
Bzgl. der ersten Frage, bin ich der Ansicht,
dass natürlich bei einem geringem
Optimism Bias aüßere Tendenzen
miteinbezogen werden.
Allerdings denke ich, dass dies auch bei
einem hohen Optimism Bias der Fall ist,
dass in diesem Falls die äußeren Faktor als
weniger gewichtig bewertet
werden.
Bzgl. der zweiten Frage: Die
finde ich wirklich sehr schwer verständlich.
AB
Ich finde es allgemein schwierig zu sagen,
dass ein bestimmtes Verhalten in einer
bestimmten Situation eindeutig ein Hinweis
auf einen Bias ist oder nicht,
das Verhalten kann situationsbedingt viele
Ursachen haben und muss nicht unbedingt
stabil auftreten.
Empirische Daten basieren auf Forschungen
die einen gewissen Zeitraum einnahmen,
von denen man ausgehen kann, dass man
hier auf rele Ergbenisse setzten kann
. Ad-hoc Argumente basieren nicht auf
empirischen Ergebnissen und sind oft nicht
erforscht, es sei denn man zitiert aus einer
Studie.
CB
Mitarbeiter*innen UND
Führungskräfte.
Ist schwer zu
beurteilen, wenn für die einen "ja" gilt und
für die anderen "nein" gilt!
Das gilt
bei den meisten Items.
Sie sind auf Organisationsebene formuliert.
Wenn man aber an Mitarbeiter*innen und
die eigene Führungskraft gleichzeitig
denken soll, ist es manchmal schwer ein
Urteil zu abzugeben, wenn beide (Gruppen)
sehr stark differieren.
Bzgl. Frage 3: diese Phänomen könnte z.B.
auch auf Groupthinking zurückzuführen
sein
bzw. auf weitere Phänomene
DB
Ich versteh nicht ganz warum Frage 1 nicht
auch das Wunschdenken beschreiben soll
SB
Frage zwei finde ich nicht zur Beurteilung
des Self-Serving Biases geeignet
Wenn Konkurrenzdenken die Verzerrung
auslöst, dient dies nicht unbedingt dem
Selbstwert.
Es kann auch aus anderen Gründen
konkurriert werden (Neid/ Geld)
*Reflexion
ANB
Frage zwei finde ich nicht optimal zur
Beurteilung von Anchoring geeignet, da
trotz der Diskussion verschiedener
Alternativen ein Ankereffekt durch die
zuerst geäußerten Meinungen/Fakten etc.
entstehen kann.
die oberen beiden Fragen haben finde ich
eher nichts mit Anchoring zu tun weder mit
einer geringen,
noch mit einer hohe Ausprägung
Expertenbefragung
SUCO
Fallen beim Sunk Cost Fallacy nicht auch die
Zeit/Aufwand hinein?
Das
Menschen eigendlich Unglücklich mit zB.
dem Studium sind aber sie haben ja schon 4
Jahre studiert, deswegen drückt man den
Rest auch noch irgendwie durch
wertfrei würde ich eher auf die
Unternehmenskultur bezieh und nicht auf
finanziellen wert
GR_CR
Bei dem ersten Item besteht das selbe,
schon angesprochene, Problem. (bezieht
sich auf gleichzeitig
Mitarbeiter/Führungskräfte)
GR_SC
Frage 1 finde ich nicht zur Beurteilung des
Biases geeignet,
da auch im Falle des Sicherstellens einer
Äußerung aller Gruppenmitglieder diese
sich mit ihrer "wahren"
Meinung
zurückhalten können.
GR_IU
Bei dem ersten Aspekt könnte dieses
Vorgehen auch als
Einschüchterungsmaßnahme verwendet
werden,
z.B. durch Suggestivfragen und drohendem
Charakter, deshlab nicht ganz eindeutig.
GR_DP
Durch Nutzung der hierarchischen Position
wird
nicht unbedingt Druck ausgeübt.
GR_SM
Bei dem zweiten Aspekt ist nicht ganz klar
aus welcher Intention das Verhalten
geschieht, deshalb nicht ganz eindeutig.
GR_SL
Ich finde alle drei Fragen nicht geeignet zur
Bewertung bzw. als Hinweise auf einen
geringem oder hohen Grad an Social
Loafing,
da aus keiner Frage hervorgeht, wie sich
die Mitglieder dann tatsächlich VERHALTEN.
Zwischenziele können ja definiert werden,
aber das heißt ja nicht, dass ein Mitglied
trotzdem
Kein Social Loafing zeigen
kann. Genauso die Arbeitspakete:
Mitgleider müssen die Pakete ja nicht
erfüllen - dass sie existieren bzw. individuell
zugeordnet werden sagt ja noch nichts über
das letztliche tatsächliche Verhalten der
Gruppenmitglieder aus.
Bei der Beschreibung war mir nicht genau
ersichtlich, ob dies ein Phänomen
von Gruppen ist oder von Einzelpersonen
oder von Einzelpersonen, die getrennt eine
Gruppenarbeit absolvieren.
erkenne wenig Zusammenhang zwischen
der Beschreibung und den Aussagen.
Individuelle
Biases
In aller Regel lassen vertragliche
Vereinbarungen den Abbruch eines
Vorhabens nicht zu.
Entsprechend kann diese Alternative gar
nicht in Betracht gezogen werden.
Für mich ist es nicht immer einfach, die
Fragen zu beantworten, da ich mehrheitlich
nicht mit eigenen Mitarbeitenden
zusammenarbeite, sondern in Teams, die
aus Mitarbeitenden verschiedener
Organisationen zusammengesetzt sind.
Sonderfall bezüglich "Projektabbruch wird
nicht erwogen": Die Aufträge stammen in
der Regel von der öffentlichen Hand
(Staatsaufträge).
Validierungsstudie
Gruppen-
biases
Grund für die vielen "kann ich nicht
beurteilen"-Angaben ist die recht kurze
Verweildauer im Unternehrmen
Planungsprozesse finden außerhalb des
Teams statt.
Der Zusammenhalt im
Team ist sehr hoch und die gelebte Kultur
sehr positiv.
Items mit "häufig" und "manchmal"
vermeiden
Items mit
Verknüpfungen sind schwierig, z.B.
"Vergangene Erfolge führen in der Gruppe
zu Selbstüberschätzung und in der Folge zu
einem sorgloserem Umgang mit Risiken."
oder "Es kann vorkommen, dass ethische
Konsequenzen im Einzelfall weniger genau
betrachtet werden, weil sich die
Gruppe/Organisation insgesamt als
moralische Instanz betrachtet. "