Das Cynefin-Framework von Dave Snowden bietet einen systemtheoretischen Rahmen zur Einordnung von Situationen und das jeweils passende Vorgehen zur Entscheidungsfindung (vgl. Snowden & Boone, 2007). Grundlegend dafür ist ein fundiertes Verständnis der Kategorien des Frameworks. Dabei hilft insbesondere die genau Betrachtung der Unterschiede und Übergänge zwischen den drei im praktischen Alltag dominanten Kategorien: Was unterscheidet eine offensichtliche Situation von einer komplizierten? Und wann wird es komplex?
Unbewusste Inkompetenz
Der Übergang von offensichtlich zu kompliziert kann als der Horizont des eigenen Wissens gesehen werden. Ob jemand etwas als offensichtlich oder kompliziert ansieht, hängt immer von dessen Wissen ab. Ein Uhrwerk ist für mich kompliziert, für einen Uhrmacher nicht. Beim Computer ist es vielleicht genau umgekehrt: Für mich weniger kompliziert als für den Uhrmacher. Die Grenze zwischen diesen beiden Kategorien verläuft also zwischen den „known knowns“ und den „unknown knowns“ wie es Dave Snowden ausdrückt (vgl. Snowden & Boone, 2007). Die Situation lässt sich verstehen und es lassen sich Antworten finden, aber es sind vielleicht nicht immer die Standardantworten aus der Schublade, die „best-practices“, sondern es bedarf einer tieferen Analyse durch Experten, um sie zu finden.
Wenn mein Auto plötzlich nicht mehr ruhig fährt, würde ich zunächst die offensichtlichen Möglichkeiten eines Laien durchgehen: Hat es noch genug Treibstoff, haben alle Reifen genügend Luft, usw. Wenn das alles keine Lösung bringt, brauche ich einen KFZ-Meister. Wenn mein Computer langsam läuft, gehe ich die Liste der Prozesse durch, beende den einen oder anderen oder starte neu (die best-practice schlechthin bei Windows). Wenn das aber alles nicht hilft, brauche ich den Rat eines Experten (oder einen Mac).
Wie erkenne ich aber, dass ich mit meinem Latein am Ende bin und lieber einen Experten hinzuziehen sollte? Woher weiß ich, was ich wirklich weiß bzw. eben nicht weiß? Und schaffe ich es mir einzugestehen, dass eine Situation meine Fähigkeiten übersteigt? Heikle Fragen, auf die wir Menschen nicht gerne ehrliche Antworten geben. Die wenigstens sind so weise wie Sokrates, der feststellte: „Ich weiß, dass ich nicht weiß.“
Tatsächlich neigen wir dazu, uns aufgrund von erstem grundlegenden Verständnis dramatisch zu überschätzen. Unsere Inkompetenz ist grundsätzlich unbewusst, wie Dave Dunning in (Morris, 2010) erklärt: „when you’re incompetent, the skills you need to produce a right answer are exactly the skills you need to recognize what a right answer is.“ Dieser nach seinen beiden Entdeckern benannte Dunning-Kruger-Effekt (vgl. Kruger & Dunning, 1999) begünstigt das fruchtlose Herumprobieren mit Patentrezepten in Situationen, die längst eine tiefere Analyse durch echte Experten benötigt hätten.
Wenn das Ganze mehr ist als die Summe der Teile
Auch wenn es in der Alltagssprache gerne so genutzt wird, ist kompliziert nicht einfach die kleine Schwester von komplex (vgl. Habermann & Schmidt, 2021, S. 50). Der Unterschied zwischen kompliziert und komplex ist wie der Unterschied zwischen einem Ferrari und dem Regenwald (vgl. Snowden & Boone, 2007). Der Ferrari lässt sich als kompliziertes Gerät zerlegen und – das ist entscheidend – über die Funktion der Komponenten verstehen. Das heißt, das Verhalten eines Ferraris ist deterministisch. Wenn ich das Gaspedal drücke, greifen die entsprechenden Komponenten in geplanter Weise ineinander und das Auto beschleunigt. Wenn das nicht der Fall ist, ist es kaputt und muss repariert werden. Im Wesentlichen ist das Ganze aber die Summe der Teile. Das Verhalten eines komplizierten Systems ist vorhersagbar und wenig überraschend.
Auch der Regenwald besteht aus vielen einzelnen Elementen und Einflussgrößen, allerdings ist die Dynamik dieser Elemente zueinander und miteinander eine ganz andere als beim Ferrari und genau das macht den Unterschied. Komplex wird es immer dann, wenn die Menge, Anordnung und Beziehung von größtenteils autonom agierenden Systemelementen permanent im Fluss ist (vgl. Lambertz 2019, S. 40 – 41). Das Verhalten eines solchen komplexen Systems lässt sich dann genau nicht mehr über seine Komponenten erklären, sondern es entstehen Muster nicht-deterministisch aus den Interaktionen: „it’s performance is never equal to the sum of the actions of its parts taken separately; it is a function of their interactions“ (Ackoff, 1994, S. 180)
Das Cynefin-Framework beschreibt komplexe Situationen entsprechend als den Bereich der „unknown unknowns“ (Snowden & Boone, 2007). Ursache und Wirkung können hier immer erst rückblickend und makroskopisch bezogen auf Verhaltensmuster und Wirkzusammenhänge und eben nicht analytisch und mikroskopisch aus den einzelnen Elementen heraus verstanden werden. Neurowissenschaftler verstehen zwar Aufbau und Funktionsweise des Gehirns sehr gut, sind dadurch aber auch nicht besser als ich in der Lage Gedanken vorherzusagen. Durch psychologische Experimente lassen sich dennoch auf makroskopischer Ebene verschiedene Denkmuster nachweisen, wie beispielsweise den vorher erwähnten Dunning-Kruger-Effekt.
Die Grenze zwischen kompliziert und komplex verläuft also zwischen vorhersagbar und überraschend, zwischen statisch und dynamisch und letztlich zwischen tot und lebendig. Der erfolgreiche Umgang mit Komplexität bedingt einen Wechsel der Methode von Analytik zu Empirie. Verhalten und Kausalitäten lassen sich nicht mehr rein analytisch durch Zerlegen in Komponenten bestimmen, sondern können nur über geeignete Hypothesen und Experimente zu ihrer Verifikation oder Falsifikation, verstanden und beschrieben.
Da Unternehmen in der Regel aus vielen Menschen und funktionalen Einheiten bestehen und Produkte für globale Märkte machen, die wiederum aus vielen Akteuren bestehen und vielen Einflussgrößen unterliegen, werden die weitaus meisten Situationen eher komplexer Natur sein. Umfassende Analysen helfen hier und heute nur noch bedingt. Gefragt ist vielmehr ein empirisches agiles Vorgehen, mit dem in möglichst kurzen Iterationen Ideen in realem Umfeld validiert oder falsifiziert werden.
Die Liebe zur Analyse (gerade bei Ingenieuren) einerseits und andererseits der Hang in Unternehmen zum plangetriebenen Vorgehen, das in den statischeren Märkten der Vergangenheit noch funktioniert hat, verleitet dazu, eine Situation weitestgehend analytisch verstehen zu wollen bevor eine Entscheidung getroffen werden kann. Das führt zu Überanalyse der Details, die aber keine neuen Erkenntnisse in Bezug auf mögliche Wirkzusammenhänge und Verhaltensmuster mehr bringt. Ein wesentliches Hindernis für die dringend benötigte Agilität in Unternehmen liegt darin, dass diese Grenze zwischen kompliziert und komplex nicht erkannt oder eingestanden wird.
Literatur
Ackoff, R. L. (1994). Systems thinking and thinking systems. System Dynamics Review, 10(2 – 3), 175 – 188. https://doi.org/10.1002/sdr.4260100206
Habermann, F., & Schmidt, K. (2021). Hey, nicht so schnell! Wie du durch langsames Denken in komplexen Zeiten zu guten Entscheidungen gelangst. Gabal Verlag GmbH.
Kruger, J., & Dunning, D. (1999). Unskilled and unaware of it: How difficulties in recognizing one’s own incompetence lead to inflated self-assessments. Journal of Personality and Social Psychology, 77(6), 1121 – 1134. https://doi.org/10.1037/0022 – 3514.77.6.1121
Lambertz, Mark. 2019. Die intelligente Organisation: das Playbook für organisatorische Komplexität. 2. Auflage. Göttingen: BusinessVillage.
Morris, E. (2010, Juni 20). The Anosognosic’s Dilemma: Something’s Wrong but You’ll Never Know What It Is (Part 1). Opinionator. https://opinionator.blogs.nytimes.com/2010/06/20/the-anosognosics-dilemma‑1/
Snowden, D. J., & Boone, M. E. (2007). A Leader’s Framework for Decision Making. Harvard Business Review. https://hbr.org/2007/11/a‑leaders-framework-for-decision-making