Chemik alien

Stoffe

Arbeit

Mensch en

Anlag en

Technik

Organis ation

Strategi en

Ziele

ExpertenNetzwerk  Chemikalien-Anlagen-Arbeit  Sicherheit

Stoffe  -  Technik  -  Organisation

Prof. Ursula Stephan  -  Prof. Ulrich Hauptmanns  -  Dr. Jürgen Herrmann

Wissen / Informationen

Arbeit (-sschutz) und Menschen


Menschliche Denk- und Verhaltensmuster
- Warum führt Menschliches Verhalten manchmal zu Fehlern,  falschen Entscheidungen und Unfällen?

Verschiedene Verhaltensforscher und andere haben in den letzten Jahrzehnten Studien und Ergebnisse veröffentlicht, die Menschliches Verhalten allgemein, aber auch gerade in ambivalenten Situationen, oder bei schwierigen Entscheidungen durch bestimmte Denk- und Verhaltensmuster erklären.

Diese Denk- und Verhaltensmuster haben sich in der Evolutionsgeschichte des Menschen als Überlebensstrategien entwickelt bzw. als vorteilhaft erwiesen.  
Sie haben sich im Laufe unserer Entwicklung als Jäger  und Sammler, über tausende von Jahren als Wettbewerbsvorteile und Überlebensstrategien etabliert.

In unserer heutigen, vielfach komplexen Welt und in kritischen Situationen können sich die erlernten Denk- und Verhaltensmuster aber manchmal gegen uns kehren und zu Problemen, fehlerhaften Entscheidungen und Handlungen, führen.

Die neuen Erkenntnisse über unsere Denk- und Verhaltensmuster können erklären, warum es manchmal zu diesen Fehlverhalten, falschen Entschei-dungen und in Konsequenz zu Unfällen und Desastern kommen kann.

Die neuen Erkenntnisse stellen Möglichkeiten und Fallbeispiel zur Verfügung, die nach Meinung von ExpertenNetzwerk Chemikalien-Anlagen-Arbeit Sicherheit (ENS) bei den Bemühungen zur Vermeidung von Unfällen berücksichtigt werden sollten, um so weitere Verbesserungen bei Chemikalien-, Anlagen- und Arbeitssicherheit zu ermöglichen.

Als Quellen für die unten zusammengestellten Denk- und Verhaltensmuster sollen hier nur einige wenige genannt werden. Für eine erste Information zu den hier angesprochenen Themen siehe:

1. J. Reason, Human Error, Cambridge University Press, Cambridge 1990

2. D. Kahneman, Thinking, Fast and Slow, Penguin Books, 2011

3. N. N Taleb., The Black Swan, Random House, 2007

4. R. Dobelli, Die Kunst des klaren Denkens, Hanser, 2011

5. D. Dörner, Die Logik des Misslingens. Strategisches Denken in komplexen Situationen, Rowohlt, 2003


Für weitergehende Informationen weist ENS ausdrücklich auf die zahlreichen Literatur- und Quellenangaben in den hier genannten Arbeiten hin.

Außerdem finden sich viele weitere Informationen von hier nicht genannten Forschern, Wissenschaftlern und Autoren in zahlreichen Büchern zum Thema und im Internet.

Die folgende Zusammenstellung von Denk- und Verhaltensmustern erhebt keinen Anspruch auf Vollständigkeit oder absolute Korrektheit in der Darstellung derselben, soll aber einige der möglichen menschlichen Denk- und Verhaltensmuster deutlich machen, und helfen, potentielle, damit verbundene Probleme zu erkennen.


Ziel von ENS ist, dass damit verbundenen Kenntnisse bei der Weiterentwicklung und Verbesserung von Organisationen und menschlichen Handlungsweisen in Organisationen und bei weiteren Diskussionen um Unfallursachen genutzt werden und letztendlich zu Vermeidung von Unfällen beitragen.

      Menschliche Denk- und Verhaltensmuster


1. Kahneman /2/ „Slow and Fast Thinking“

In seinem Buch „Slow and Fast Thinking“ beschreibt Kahneman /2/ wie unser Gehirn arbeitet.
Kahneman liegt dar, dass  es in unserem Gehirn 2 Denksysteme gibt:

System 1: ist das automatische, unmittelbare und intuitive Denken, das ständig arbeitet, Bilder, Erklärung und Geschichten (letzendlich für jeden von uns eine eigene Wahrheit der Welt) kreiert und diese auch ständig durch bestätigende Wahrnehmungen verfestigt (nicht bestätigenden werden meist ignoriert), bis sie wirklich plausibel erscheinen, auch wenn sie nicht stimmen.

System 2: ist das rationale, bewusste, logische, langsame und mühsame Denken, das oft einer bewussten Anstrengung bedarf, um aktiv zu werden.


Systems 1 ist eigentlich immer schneller als System 2 und hat schon Schlüsse und Lösungen parat, selbst wenn System 2 diese noch nicht durchdacht hat.

In Konsequenz bedarf es  einer echten Anstrengung (neurologisch nachweisbar und mit erhöhtem Kalorienverbrauch verbunden) durch System 2, um die, vielleicht falschen, Schlüsse und Lösungen von System 1 zu korrigieren. Da dies aber sehr anstrengend ist, ist System 2 oft „zu faul“ dies zu tun.

Im täglichen Leben werden wir also meistens (erfolgreich) von System 1 gemanagt und es bedarf einer Anstrengung oder ständigen Aufmerksamkeit, Wachsamkeit und einem ständigen Hinterfragen des Selbstverständlichen, um etwaige Probleme (die von System 1 falsch eingeschätzt wurden) möglichst bereits im Ansatz zu erkennen und z.B. eventuellen Unfällen vorzubeugen (Der Anspruch, „Schalt doch erst einmal dein Gehirn ein“, gewinnt unter den genannten Rahmenbedingungen eine ganz wesentliche Bedeutung!).

Die im Folgenden beispielhaft dargestellten Denk- und Verhaltensmustern können nach Meinung von ENS gerade in kritischen Situationen zu Fehlern führen und „gute“ Organisationen sollten versuchen, die möglichen damit verbundenen Fehler zu vermeiden.

Die folgende Aufstellung stellt keine Priorisierung dar, sie ist nicht vollständig und für eine intensivere Beschäftigung wird nochmals auf die hier angeführte Literatur, aber auch hier nicht erwähnte Autoren und Veröffentlichungen sollten berücksichtigt werden.


2. Eigene Vorstellungen, Modelle, Theorien werden bestätigt, Gegenbeweise werden nicht wahrgenommen oder nicht beachtet

Oft charakterisiert durch folgende Aussagen/folgendes Verhalten:

Wie unter Punkt 1 ausgeführt, ist es wesentlich einfacher (weil weniger energieaufwendig) sich seine bereits vorhandene Meinung bestätigen zu lassen, als sich etwas Neues (vielleicht sogar Anderes) zu überlegen.

Menschen beharren, lehnen ab, werden laut, werden aggressiv, wenn ihre Meinungen, ihre Thesen, ihre Wahrheiten usw. in Frage gestellt werden.

Dörner /5/ nennt das auch „hypothesengerechte Informationsauswahl“, d.h. es werden nur die Informationen wahrgenommen, die die eigenen Hypothesen unterstützen, andere werden verworfen, denn „neue Informationen stören das (bereits bestehende) Bild“.

Mögliche Probleme können sein:

Es ist schwer, seine einmal gefasste Meinung, Theorie, Lösungsansätze usw. zu überdenken und zu ändern.

Dies selbst dann, wenn objektive Informationen oder Fakten dagegen sprechen. Solche Fakten oder Gegenbeweise werden oft nicht wahrgenommen bzw. ausgeblendet, oder werden sogar aggressive zurück-gewiesen.

In kritischen Situationen kann das dazu führen, dass (objektiv) falsche Ideen, Modelle und Lösungen oder Vorgehensweisen solange verfolgt werden, bis sie zu negativen Konsequenzen, z.B. zum Unfall, führen.

Auch ideologische Auseinandersetzungen (z.B. um die „Wahrheit“) lassen sich oft so erklären.

Mögliche Lösungsansätze:

Selbstkritisch bleiben, Lösungen hinterfragen, Alternativen suchen und anbieten.

Advocatus Diaboli bewusst installieren.

Fragen: Gibt es Alternativen? Was kann schiefgehen? Welche Risiken gehen wir ein?


3. Eine gute Story wird geglaubt, egal ob sie wahr oder richtig oder falsch ist

Oft charakterisiert durch folgende Aussagen/folgendes Verhalten:

Eine Story muss nur gut genug sein (plausibel sein -für mich selbst!) dann glaube ich sie auch.

In Folge werden, für diese Story, Beweise gesammelt. Widersprüche oder Beweise für das Gegenteil (etwas Anderes) werden ignoriert … (siehe Punkt 2)

Mögliche Probleme können sein:

Wie Punkt 2.

Es ist schwer seine Meinung, Theorie, Lösungsansätze usw. zu überdenken und zu ändern, da Fakten, die dagegen sprechen, oder Gegenbeweise nicht wahrgenommen oder ausgeblendet werden.

In kritischen Situationen kann das dazu führen, dass (objektiv) falsche Ideen, Modelle und Lösungen oder Vorgehensweisen solange verfolgt werden, bis sie zu negativen Konsequenzen, z.B. zum Unfall, führen.

Mögliche Lösungsansätze:

Selbstkritisch bleiben, Lösungen hinterfragen, Alternativen suchen und anbieten.

Advocatus Diaboli bewusst installieren.

Fragen:

Was kann schiefgehen?


4. Eigenes Interesse (Vorteil) wird priorisiert

Oft charakterisiert durch folgende Aussagen/folgendes Verhalten:

Menschen handeln oft zum eigenen (auch kurzfristigen) Vorteil, auch wenn es längerfristigen oder objektiven (auch eigenen) Interessen entgegen läuft.

Mögliche Probleme können sein:

Kurzfristig kann es leichter sein, eine notwenige Arbeit nicht zu tun, kritische Fragen nicht zuzulassen, usw.

Mögliche Lösungsansätze:

Fragen: Wo ist das Risiko, wenn ich so weiter mache, wenn ich Nichts tue, wenn ich die Frage ignoriere, usw.? Gibt es Alternativen?


5. Mehrheitsmeinungen wird (kritiklos) gefolgt,
Querdenker sind (meist) unerwünscht

Oft charakterisiert durch folgenden Aussagen/folgendes Verhalten:

Das machen ALLE so.

Nur weil einer das anders sieht, können wir nicht alles ändern.

Du bist nur aus Prinzip dagegen.

Ein Konsens muss her.

Mögliche Probleme können sein:

Meinungen und Standpunkte, die nicht dem Trend (oder auch der Political Correctness) entsprechen, werden ignoriert oder abgelehnt.

Auch die Mehrheit kann irren, Einzelmeinungen sind nicht automatisch falsch.

Mögliche Lösungsansätze:

Versuchen offen zu bleiben für Alternativen, andere Meinungen usw..

Faktenorientiert bleiben: Meinungen als Meinungen ansehen, nicht als Fakten.

Fragen: Wo ist das Risiko, wenn ich so weiter mache, wenn ich Nichts tue, wenn ich die Frage ignoriere, usw.? Gibt es Alternativen?


6. Teamleistungen und Teamentscheidungen werden als besser angesehen

Oft charakterisiert durch folgenden Aussagen/folgendes Verhalten:

Im Team kann es zu einer Art „Wohlfühlklima“ kommen. (Bessere?) Entscheidungen werden in einer Art Konsens getroffen.

Mögliche Probleme können sein:

Einzelne können sich im Team verstecken und die anderen Teammitglieder für sich arbeiten lassen.

Wenn viele entscheiden, wird manchmal der kleinste, gemeinsame Nenner als Kompromiss entschieden.

Wenn viele entscheiden, trägt zuletzt keiner die Verantwortung, und es können risikoreiche Entscheidungen gefällt werden, weil ja die anderen verantwortlich sind, oder die Verantwortung aufgeteilt und damit für jeden Einzelnen kleiner wird.

Mögliche Lösungsansätze:

Verantwortungen, Aufgaben und Ressourcen klar und eindeutig zuweisen.

Delegation von Verantwortungen und Aufgaben nur mit gleichzeitiger, äquivalenter Entscheidungsbefugnis.


7. Eigene Fähigkeiten werden überschätzt,
die Fähigkeiten Anderer werden unterschätzt

Oft charakterisiert durch folgenden Aussagen/folgendes Verhalten:

Das habe ich/haben wir schon immer so gemacht.

Mir/uns wird schon nichts passieren.

Das wird schon klappen.

Das weiß ich besser (als du).

Mögliche Probleme können sein:

Eine bisher gute Antwort kann auf einmal, z.B. bei neuen Fragestellungen, nicht mehr gut genug sein.

Mögliche Probleme oder die Möglichkeit des Scheiterns werden ausgeblendet.

Schwierigkeiten werden unterschätzt.

„Tarzan“ Symptom oder Verhalten.

Mögliche Lösungsansätze:

Selbstkritisch bleiben, neue Lösungen zulassen, Alternativen suchen und anbieten.

Andere Meinungen einfordern.

Fragen: Was kann schiefgehen? Welche Risiken sind möglicherweise vorhanden? Welche Chancen/Risiken ergeben sich möglicherweise, wenn wir etwas anders machen? Was hälst Du davon?


8. Eigene Kontrollmöglichkeiten, eigene Einflussmöglichkeiten werden überschätzt, Schwierigkeiten unterschätzt

Oft charakterisiert durch folgenden Aussagen/folgendes Verhalten:

Das hat schon immer funktioniert.

Das muss einfach klappen. Das wird schon klappen.

Wir haben alles getan, damit das klappt.

Was soll da schief gehen?

Das habe ich/haben wir im Griff.

Mir/uns wird schon etwas einfallen.

Mögliche Probleme können sein:

Schwierigkeiten werden oft unterschätzt, Versagen oder Scheitern oder Misslingen wird praktisch ausgeschlossen.

Projekte dauern länger und werden immer teurer.

Prognosen sind zu positiv. Erfolgswahrscheinlichkeiten werden überschätzt. Die Möglichkeit eines Misserfolges wird ausgeblendet.

Mögliche Lösungsansätze:

Selbstkritisch bleiben, neue Lösungen zulassen, Alternativen suchen und anbieten.

Vorher (vor Start des Projektes) dezidiert mögliche Alternativen Risiken zusammenstellen und Risikomanagement installieren. Alternativlosigkeit nicht akzeptieren!

Proaktiv zu Kritik auffordern.

Fragen:

Was kann schiefgehen? Welche Risiken sind möglicherweise vorhanden? Welche Chancen/Risiken ergeben sich möglicherweise, wenn wir etwas anders machen?


9. Verluste werden nicht realisiert

Oft charakterisiert durch folgenden Aussagen/folgendes Verhalten:

Es muss erst schlimmer werden, bevor es besser werden kann.

Wir müssen erst einmal durch die „Verlustzone“, dann wird es schon wieder besser.

Das folgt nur der „Lernkurve“.

Wir haben jetzt schon so viel investiert, aufhören geht jetzt nicht.

Mögliche Probleme können sein:

Negative Entwicklungen werden nicht unterbrochen.

Gegenmaßnahmen nicht mit aller Entschiedenheit eingeleitet.

Fatalismus

Mögliche Lösungsansätze:

Selbstkritisch bleiben.

Risiken des „Weiter so“ ermitteln und bewerten.

Neue Lösungen und Alternativen suchen und planen.


10. Es ist besser etwas zu tun, als nur abzuwarten

Oft charakterisiert durch folgenden Aussagen/folgendes Verhalten:

In unklaren Situationen wird oft einfach gehandelt, ohne dass die Handlung zielgerichtet ist.

Handlungen werden ohne Sinn und Zweck (oft) wiederholt.

Mögliche Probleme können sein:

Es wird lieber etwas Falsches getan, als erst einmal Nachzudenken.

In kritischen Situationen kann das dazu führen, dass falsche Handlungen zu Unfällen führen.

Mögliche Lösungsansätze:

Erst Nachdenken(wenn dafür genug Zeit ist), dann Handeln.

Risikoorientiert vorgehen (no-regret Strategien befolgen).


11. Aus Fehlern (von Anderen) wird nicht gelernt,
eigene Erfahrungen werden als wichtiger angesehen (bevorzugt)

Oft charakterisiert durch folgenden Aussagen/folgendes Verhalten:

Das ist hier noch nie passiert. Das kann hier nicht passieren.

Die Situation ist bei uns ganz anders.

Die (Anderen) haben da nicht aufgepasst.

Mögliche Probleme können sein:

Die eigene Lage, die eigenen Fähigkeiten werde falsch eingeschätzt (überschätzt).

Risiken werden nicht erkannt.

Fehler (von Anderen) werden (oft) wiederholt.
ACHTUNG:
Es ist eine Tatsache, dass viele schwere Unfälle hätten verhindert werden können, wenn aus den Fehler von vorausgegangenen Ereignissen gelernt hätte.

Mögliche Lösungsansätze:

Ständig mit Fehler rechnen. Darauf vorbereitet sein, das etwas schief geht/ etwas schiefgehen kann.

Fehler einkalkulieren (fail safe Prinzip anwenden). Sicherheitsmargen berücksichtigen.

Selbstkritisch bleiben. Risiken abwägen. Alternativen prüfen.

Fragen: Was haben wir bisher nicht getan, bisher nicht berücksichtig, bisher nicht erkannt?

Welche Risiken gehen wir ein? Gibt es Alternativen?


12. Weitere Denk- und Verhaltensmuster

die zu Problemen führen können, können z.B. sein:


Wie bereits oben ausgeführt, soll diese Aufzählung Hinweise darauf geben, mit welchen Fehlern von Einzelnen, oder Gruppen (Teams), oder auch von ganzen Organisationen man in komplexen Situationen und  Systemen rechnen muss.


13. Wie sollen  sich  Organisationen auf die beschriebenen Denk- und Verhaltensmuster  und einstellen?

Aus  Sicht von ENS ergeben sich verschiedene,  allgemeine organisatorische Handlungsoptionen und –Möglichkeiten.  


Die Stichworte (offene Fehlerkultur, LeO, HRO, Resilienz, usw.) stehen hier als Synonyme für entsprechende Beschreibungen in der Literatur und entsprechende operative Umsetzungen in Unternehmen (natürlich können und werden auch andere Begriffe oder Namen mit gleichen oder ähnlichen Inhalten verwendet).

Letztendlich geht es bei der konkreten Realisierung solcher Modelle in Unternehmen um konkrete organisatorische Maßnahmen, die auf der Website von ENS unter den Stichworten Managementsysteme, holistische Managementsysteme, Lernende Organisation  (LeO) oder High Reliability Organisationen (HRO) usw. exemplarisch beschrieben werden sollen.



Zu den Themen verhaltensorientierte Programme zur Senkung von Unfallzahlen, Lernende Organisation u. a. bietet Ihnen ExpertenNetzwerk Chemikalien-Anlagen-Arbeit Sicherheit individuelle Beratung durch Experten vor Ort an.

mehr erfahren?

Literaturhinweise (nur Beispiele)
1.
J. Reason, Human Error, Cambridge University Press, Cambridge 1990
2.
D. Kahneman, Thinking Fast and Slow, Penguin Books, 2011
3.
N. N Taleb., The Black Swan, Random House, 2007
4.
R. Dobelli, Die Kunst des klaren Denkens, Hanser, 2011
5.
D. Dörner, Die Logik des Misslingens. Strategisches Denken in komplexen Situationen, Rowohlt, 2003


Kontakt zu
ExpertenNetzwerk Chemikalien-Anlagen-Arbeit Sicherheit:

hjH CONSULTING GmbH

Dr. Jürgen Herrmann, Telefon  +49 171 425 642 8

Mail to:  hjH@ExpertenNetzwerk-Sicherheit.de


Bitte mailen Sie uns, wenn Sie Fragen, Anregungen oder ein anderes Anliegen haben!