Die 10 häufigsten Denkfehler

Die 10 häufigsten Denkfehler

Denkfehler gehören zur Standardausstattung unseres Gehirns: Sie helfen, schnell Entscheidungen zu treffen – aber sie können Urteile systematisch verzerren. Oft merken wir gar nicht, dass wir uns auf Abkürzungen verlassen, statt nüchtern zu analysieren. In dieser Übersicht finden Sie die 10 häufigsten Denkfehler, sortiert nach ihrer praktischen Relevanz im Alltag. Zu jedem Bias erhalten Sie eine Erklärung, typische Beispiele und Hinweise, worauf Sie achten können, wenn Sie bessere Entscheidungen treffen wollen.

Wichtig: Denkfehler sind kein Zeichen von Dummheit. Sie treten bei allen Menschen auf – auch bei Expertinnen und Experten. Entscheidend ist, sie zu erkennen, bewusst zu hinterfragen und mit einfachen Gegenstrategien abzumildern. Die folgende Liste ist deshalb keine bloße Sammlung von Fachbegriffen, sondern ein praktischer Spickzettel für Beruf, Alltag und private Entscheidungen – vom Projektplan bis zur Wahlentscheidung.

Übersicht

  1. Bestätigungsfehler (Confirmation Bias)
  2. Planungsfehlschluss (Planning Fallacy)
  3. Verfügbarkeitsheuristik (Availability Heuristic)
  4. Verankerungseffekt (Anchoring Bias)
  5. Übervertrauen (Overconfidence Bias)
  6. Rückschaufehler (Hindsight Bias)
  7. Basisratenvernachlässigung (Base-rate Fallacy)
  8. Sunk-Cost-Fehlschluss (Sunk Cost Fallacy)
  9. Status-Quo-Bias (Status Quo Bias)
  10. Gruppen-Denkfehler / False Consensus (False Consensus Effect)
Vergleich: Häufige Denkfehler im Überblick
Rang Denkfehler Kurzbeschreibung Typische Folge im Alltag
1 Bestätigungsfehler Wir suchen und gewichten vor allem Informationen, die unsere Meinung bestätigen. Einseitige Sicht, Polarisierung, verfestigte Vorurteile.
2 Planungsfehlschluss Wir unterschätzen systematisch Aufwand, Dauer und Risiken von Vorhaben. Zu knappe Deadlines, Budgetexplosionen, Stress.
3 Verfügbarkeitsheuristik Leicht erinnerbare Beispiele wirken wahrscheinlicher als sie sind. Falsche Risikoeinschätzung, verzerrte Sorgen.
4 Verankerungseffekt Die erste Zahl/Info dient als Anker für alle späteren Urteile. Unfaire Preise, schlechte Verhandlungsergebnisse.
5 Übervertrauen Wir überschätzen unsere eigene Treffsicherheit und Kompetenz. Risikoreiche Entscheidungen, zu wenig Sicherheitsreserven.
6 Rückschaufehler Im Nachhinein wirkt ein Ergebnis „immer schon absehbar“. Weniger Lernbereitschaft, verzerrte Fehleranalyse.
7 Basisratenvernachlässigung Statistische Grundraten werden gegenüber Einzelfällen ignoriert. Fehldiagnosen, Fehlurteile, ineffiziente Ressourcenverteilung.
8 Sunk-Cost-Fehlschluss Vergangene Investitionen halten uns von einem sinnvollen Abbruch ab. Festhalten an Verlustprojekten, verpasste Kurswechsel.
9 Status-Quo-Bias Der aktuelle Zustand wird bevorzugt, Alternativen wirken riskanter. Trägheit, verpasste Chancen, Innovationshemmung.
10 False Consensus Wir überschätzen, wie viele andere unsere Meinung teilen. Gruppendenken, Echokammern, Polarisierung.

Bestätigungsfehler (Confirmation Bias)

Rang: 1

Der Bestätigungsfehler gilt als der klassische und wohl einflussreichste Denkfehler. Gemeint ist die Tendenz, vor allem solche Informationen wahrzunehmen und zu erinnern, die zu dem passen, was wir ohnehin glauben. Widersprechende Daten blenden wir aus, werten sie ab oder suchen nach Ausreden, warum sie „im konkreten Fall“ nicht zählen. Das geschieht meist unbewusst – unser Gehirn mag Konsistenz mehr als Korrektheit. Im Alltag zeigt sich das etwa, wenn wir nur Nachrichtenquellen wählen, die unsere politische Meinung verstärken, oder in Diskussionen nur Argumente wiederholen, die auf unserer Seite liegen. Auch im Berufsleben ist der Bestätigungsfehler gefährlich: Führungskräfte sehen bevorzugt Belege, dass ihre Strategie funktioniert, Investorinnen übersehen Warnsignale, Ärztinnen klammern sich an die erste Verdachtsdiagnose. Der Denkfehler wirkt besonders stark, wenn Emotionen im Spiel sind oder wir bereits viel Zeit, Geld oder Prestige in eine Position investiert haben. Im digitalen Umfeld verstärken Algorithmen den Effekt, indem sie uns Inhalte liefern, mit denen wir schon interagiert haben – die berühmte „Filterblase“. Ein hilfreicher Gegenimpuls: bewusst nach Gegenbeispielen und Gegengründen suchen, „Devil’s Advocate“ einplanen und sich fragen: „Was müsste stimmen, damit ich falsch liege?“

  • Typisches Muster: wir googeln eher nach Bestätigung („Warum X richtig ist“) als nach Falsifikation.
  • Verstärkt sich in sozialen Medien durch personalisierte Feeds und homogene Freundeskreise.
  • Gegenmaßnahme: aktiv Gegenargumente sammeln, kritische Personen einbeziehen, Quellenvielfalt erhöhen.
Kernmechanismus
Bevorzugung bestätigender Informationen
Typische Auswirkung
Fehlurteile, Risikounterschätzung, Polarisierung
Quelle
Verywell Mind – Cognitive Biases

Zurück zur Übersicht


Planungsfehlschluss (Planning Fallacy)

Rang: 2

Der Planungsfehlschluss beschreibt unsere Neigung, Aufwand, Dauer und Risiken systematisch zu unterschätzen – und zwar selbst dann, wenn wir es eigentlich besser wissen müssten. Typische Sätze sind „Das schaffen wir locker bis Freitag“ oder „Dieses Mal wird alles schneller gehen“. Statt auf Erfahrungswerte zu schauen („Wie lange haben ähnliche Projekte gedauert?“), verlassen wir uns auf Wunschdenken und optimistische Szenarien. Im Alltag führt das zu zu engen Zeitplänen, chaotischen Umzügen oder nächtlichen Lernorgien vor Prüfungen. In Unternehmen sorgt der Planungsfehlschluss für verspätete IT-Projekte, Baukostenexplosionen und überforderte Teams. Besonders tückisch: Wir passen unsere Erinnerung im Nachhinein an und reden uns ein, dass Verzögerungen nur an „außergewöhnlichen Umständen“ lagen, statt an unserer Schätzung. So lernen wir wenig dazu. Ein weiterer Faktor ist sozialer Druck: Niemand möchte im Meeting der oder die „Pessimistische“ sein, also werden Risiken klein geredet. Gegensteuern lässt sich, indem wir Referenzklassen nutzen (Vergleich mit früheren Projekten), bewusst Puffer einplanen und externe Einschätzungen einholen. Eine einfache Praxisfrage lautet: „Wenn ein anderes Team genau dieses Projekt starten würde – welche realistische Dauer würden wir denen empfehlen?“

  • Typisches Muster: zu optimistische Deadlines und Budgets trotz gegenteiliger Erfahrung.
  • Begünstigt durch Erfolgsdruck, Wunschdenken und das Ignorieren historischer Daten.
  • Gegenmaßnahme: Referenzklassen-Schätzungen, Zeitpuffer, unabhängige Projekt-Reviews mit „Worst-Case“-Szenarien.
Kernmechanismus
Unterschätzung von Zeit-, Kosten- und Risikoaufwand
Typische Auswirkung
Projektverzögerungen, Budgetüberschreitungen, Stress und Überstunden
Quelle
Wikipedia – Planning Fallacy

Zurück zur Übersicht


Verfügbarkeitsheuristik (Availability Heuristic)

Rang: 3

Die Verfügbarkeitsheuristik ist eine mentale Abkürzung: Wir schätzen die Wahrscheinlichkeit eines Ereignisses danach ein, wie leicht uns passende Beispiele in den Sinn kommen. Was emotional, dramatisch oder medial stark präsent ist, erscheint uns häufiger, als es statistisch tatsächlich vorkommt. So überschätzen viele Menschen das Risiko von Flugzeugabstürzen oder Haiangriffen, unterschätzen dafür alltägliche Gefahren wie Autounfälle, Infektionen oder Herz-Kreislauf-Erkrankungen. Politikerinnen können durch medienwirksame Einzelereignisse unter Druck geraten, obwohl sich die Gesamtlage kaum verändert hat. Auch im privaten Bereich wirkt die Heuristik ständig: Wenn im Freundeskreis gerade viele Trennungen passieren, halten wir Beziehungen allgemein für instabiler; nach mehreren Erfolgserlebnissen überschätzen wir die Chance, dass „es schon wieder klappen wird“. Nachrichten und soziale Medien verstärken dieses Muster zusätzlich, weil sie Ausnahmen und Extremfälle überproportional zeigen. Wir erleben dann seltene Ereignisse als „ständig“, weil sie ständig im Feed auftauchen. Um der Verfügbarkeitsheuristik etwas entgegenzusetzen, lohnt sich der Griff zu nüchternen Statistiken – oder bei wichtigen Entscheidungen die Frage: „Welche Zahlen würde eine Person sehen, die dieses Thema gar nicht emotional betrifft?“

  • Typisches Muster: medienpräsente Risiken (Terror, Abstürze) werden überschätzt, stille Risiken unterschätzt.
  • Begünstigt durch Nachrichtenlogik („If it bleeds, it leads“), Social Media und Anekdoten aus dem Umfeld.
  • Gegenmaßnahme: bewusst nach Basisraten und unabhängigen Statistiken suchen, nicht nur nach spektakulären Beispielen.
Kernmechanismus
Leichtigkeit des Erinnerns beeinflusst Wahrscheinlichkeitsurteil
Typische Auswirkung
Fehleinschätzung von Risiken und Häufigkeiten
Quelle
Wikipedia – Availability Heuristic

Zurück zur Übersicht


Verankerungseffekt (Anchoring Bias)

Rang: 4

Beim Verankerungseffekt lassen wir uns von der ersten Zahl oder Einschätzung, die wir sehen, stärker beeinflussen, als uns bewusst ist. Diese erste Information fungiert als „Anker“, um den herum wir unsere späteren Urteile drehen – selbst wenn der Anker zufällig, unvollständig oder sogar irrelevant ist. In Verhandlungen ist das offensichtlich: Wer zuerst einen Preis nennt, verschiebt den Spielraum. Aber der Effekt wirkt auch subtiler, etwa bei Schätzfragen („Wie viele Länder hat Afrika?“), bei Gehaltswünschen oder bei der Bewertung von Immobilien. Sogar völlig willkürliche Zahlen (zum Beispiel aus einem Glücksrad) können nachweislich das Endurteil verzerren. Problematisch wird das, wenn wir Anker unkritisch übernehmen – etwa Listenpreise, unverhandelte Angebote, Vorjahresbudgets oder die erste Einschätzung einer Vorgesetzten. Insbesondere unter Zeitdruck oder Informationsmangel übernehmen wir Anker, ohne sie ernsthaft zu prüfen. Wer sich schützen will, sollte vor dem ersten externen Input eine eigene Bandbreite schätzen und sich notieren. So fällt später auf, wie stark die Fremdzahl das Urteil verschoben hat. Auch hilfreich: gezielt mehrere Vergleichswerte einholen, statt sich an einem einzigen Anker festzubeißen.

  • Typisches Muster: der Startpreis bestimmt, was „günstig“ oder „teuer“ wirkt.
  • Besonders stark in Verhandlungen, Schätzfragen, Budget- und Zielrunden.
  • Gegenmaßnahme: eigene Referenzwerte vorab festlegen, mehrere Angebote einholen, Anker bewusst hinterfragen.
Kernmechanismus
Erstinformation setzt unbewussten Referenzrahmen
Typische Auswirkung
Preisverzerrungen, ungeeignete Kompromisse, Fehleinschätzungen
Quelle
Hunimed – Common Cognitive Biases

Zurück zur Übersicht


Übervertrauen (Overconfidence Bias)

Rang: 5

Übervertrauen bedeutet, dass wir unsere Treffsicherheit, Kontrolle oder Kompetenz systematisch überschätzen. Wir glauben, Dinge besser einschätzen zu können, als es unsere tatsächliche Trefferquote hergibt. Typische Formulierungen sind „Ich hab da ein gutes Gefühl“ oder „Ich weiß genau, wie der Markt reagieren wird“. Studien finden diesen Effekt bei Laien ebenso wie bei erfahrenen Profis – etwa bei Finanzentscheidern, Ärztinnen oder Richterinnen. Übervertrauen zeigt sich in zu großen Wetten, zu geringen Sicherheitsabständen oder im Ignorieren von Warnsignalen. In Unternehmen führt es dazu, dass Risiken kleingeredet, Stresssignale von Teams überhört und Zweitmeinungen nicht eingeholt werden. Besonders tückisch: Je erfolgreicher jemand bisher war, desto stärker kann der Bias werden; vergangene Erfolge erscheinen als Beweis, dass die eigene Intuition „immer richtig liegt“. Im Straßenverkehr zeigt er sich, wenn sich Fahrer für deutlich besser als den Durchschnitt halten. Gegensteuern lässt sich, indem man Prognosen systematisch mit Realität abgleicht (Trefferquote tracken), bewusst „rote Teams“ einbindet und Szenarien durchspielt, in denen man falsch liegt. Eine hilfreiche Frage: „Wie überrascht wäre ich auf einer Skala von 1 bis 10, wenn das Gegenteil eintritt?“

  • Typisches Muster: sehr enge Prognose-Spannen („Es wird sicher zwischen X und Y liegen“).
  • Begünstigt durch vergangene Erfolge, Status, fehlende Rückmeldeschleifen und starke Egos.
  • Gegenmaßnahme: kalibrierte Prognosen, Zweitmeinungen, Fehler-Reviews und eine Kultur, in der Irrtümer offen besprochen werden.
Kernmechanismus
Überschätzung eigener Fähigkeiten und Wissensgrenzen
Typische Auswirkung
Risikoreiches Verhalten, Fehleinschätzungen, Projektfehlschläge
Quelle
Wikipedia – Overconfidence Effect

Zurück zur Übersicht


Rückschaufehler (Hindsight Bias)

Rang: 6

Der Rückschaufehler tritt auf, wenn wir nach einem Ereignis denken: „Das war doch klar“ – obwohl wir es vorher keineswegs sicher wussten. Unser Gehirn rekonstruiert die Vergangenheit so, dass sie stimmig und vorhersehbar erscheint. Prognosen, die wir gemacht haben, erinnern wir im Nachhinein verzerrt: Sie wirken richtiger und treffsicherer, als sie tatsächlich waren. Das fühlt sich angenehm an, weil es unser Selbstbild als kompetente Entscheider bestätigt. Gleichzeitig ist es fatal für Lernen und Risikomanagement. Wenn ein Projekt scheitert, erklären wir uns im Rückblick, warum es „eigentlich nicht anders kommen konnte“, statt nüchtern zu prüfen, welche anderen Verläufe ebenfalls plausibel gewesen wären. In der Medizin, im Recht oder in der Politik kann der Rückschaufehler dazu führen, dass Verantwortung unfair verteilt und komplexe Ursachenketten übersehen werden. Auch im persönlichen Leben liefert er Stoff für Selbstvorwürfe („Ich hätte das sehen müssen“) oder Selbstüberschätzung („Ich wusste es schon immer“). Um ihn zu verringern, lohnt es sich, Prognosen schriftlich festzuhalten, vorab verschiedene Szenarien zu formulieren und bei der Auswertung bewusst zu fragen: „Was wussten wir damals wirklich – und was wissen wir erst heute?“

  • Typisches Muster: „Das habe ich schon immer geahnt“ – trotz fehlender Belege im damaligen Protokoll.
  • Erschwert ehrliche Fehlerkultur, systematisches Lernen und faire Verantwortungsverteilung.
  • Gegenmaßnahme: Prognosetagebücher, strukturierte Nachbesprechungen, Trennung von damaligem und heutigem Wissensstand.
Kernmechanismus
Neukonstruktion der Vergangenheit als „vorhersehbar“
Typische Auswirkung
Selbsttäuschung, verzerrte Verantwortungszuschreibung, Lernblockaden
Quelle
Verywell Mind – Cognitive Biases

Zurück zur Übersicht


Basisratenvernachlässigung (Base-rate Fallacy)

Rang: 7

Die Basisratenvernachlässigung beschreibt unseren Hang, anschaulichen Einzelfällen mehr Gewicht zu geben als nüchternen Statistiken. Statt die Grundwahrscheinlichkeit („Wie häufig kommt X in der Gesamtpopulation vor?“) einzubeziehen, lassen wir uns von eindrucksvollen Geschichten oder Testergebnissen leiten. Ein klassisches Beispiel sind medizinische Tests: Ein positives Ergebnis wird spontan als „wahrscheinlich krank“ interpretiert, auch wenn die Krankheit insgesamt extrem selten ist und der Test Fehlalarme produziert. Ähnliches passiert bei Bewerbungen („passt perfekt ins Team“), bei Investment-Entscheidungen („dieses Start-up erinnert mich an…“) oder bei der Einschätzung von Kriminalität. Wir überschätzen die Aussagekraft einzelner Hinweise und unterschätzen, wie stark die Grundrate das Ergebnis prägt. In der Praxis führt das zu falschen Diagnosen, übertriebenen Reaktionen auf Einzelfälle oder zur Vernachlässigung großer, aber weniger sichtbarer Risiken. Um diesen Denkfehler zu vermeiden, hilft es, explizit nach Basisraten zu fragen: „Wie oft kommt das Phänomen grundsätzlich vor?“ und „Wie viele Falsch-Positiv- bzw. Falsch-Negativ-Fälle sind typisch?“ Erst wenn beides zusammen betrachtet wird, ergibt sich ein realistisches Bild.

  • Typisches Muster: Test- oder Einzelfallinfos verdrängen statistische Grundwahrscheinlichkeiten.
  • Kritisch in Medizin, Rechtsprechung, Personal- und Risikoentscheidungen.
  • Gegenmaßnahme: Grundraten explizit berechnen oder visualisieren (z. B. mit Häufigkeitsbäumen oder 1000er-Diagrammen).
Kernmechanismus
Ignorieren oder Unterschätzen statistischer Basisraten
Typische Auswirkung
Fehldiagnosen, falsche Risikoeinschätzung, Fehlallokation von Ressourcen
Quelle
Wikipedia – Base-rate Fallacy

Zurück zur Übersicht


Sunk-Cost-Fehlschluss (Sunk Cost Fallacy)

Rang: 8

Der Sunk-Cost-Fehlschluss (Versunkene-Kosten-Fehler) zeigt sich, wenn wir an Projekten, Abos oder Beziehungen festhalten, weil bereits viel investiert wurde – nicht, weil sich eine Fortsetzung objektiv lohnt. Rational betrachtet sollten vergangene, nicht mehr rückholbare Kosten für die Entscheidung irrelevant sein: Entscheidend ist nur, ob zukünftiger Aufwand im Verhältnis zu künftigem Nutzen steht. Emotional fühlt sich ein Abbruch jedoch wie „Verschwendung“ oder persönliches Scheitern an. Daher bleiben Menschen in ungeliebten Jobs, schauen schlechte Filme bis zum Ende oder pumpen weiteres Geld in riskante Vorhaben. Unternehmen stecken so immer mehr Ressourcen in Projekte, die sie aus nüchterner Sicht lieber stoppen sollten. Hinzu kommt sozialer Druck: Wer auf einen Kurs gesetzt hat, möchte ungern zugeben, dass die Entscheidung falsch war. Ein hilfreicher Gegencheck lautet: „Würde ich dieses Projekt heute mit heutigem Wissen noch einmal starten – ja oder nein?“ Wenn die Antwort nein lautet, ist der Sunk-Cost-Bias wahrscheinlich aktiv. Externe Perspektiven, klare Stop-Kriterien und regelmäßige Projekt-Reviews helfen, aus der Kostenfalle auszusteigen.

  • Typisches Muster: „Jetzt können wir nicht mehr aussteigen, wir haben schon so viel investiert.“
  • Verstärkt durch Stolz, Status, Angst vor Gesichtsverlust und Gruppendruck.
  • Gegenmaßnahme: Entscheidungen auf zukünftigen Nutzen statt auf vergangene Kosten stützen, Exit-Optionen von Anfang an definieren.
Kernmechanismus
Fixierung auf bereits getätigte, nicht rückholbare Investitionen
Typische Auswirkung
Fortführung verlustreicher Projekte, verpasste Kurskorrekturen
Quelle
ClearerThinking – Cognitive Biases

Zurück zur Übersicht


Status-Quo-Bias (Status Quo Bias)

Rang: 9

Der Status-Quo-Bias beschreibt unsere Tendenz, den aktuellen Zustand zu bevorzugen – selbst wenn Alternativen objektiv besser wären. Veränderungen fühlen sich riskanter an als ein „Weiter so“, weil mögliche Verluste emotional stärker wiegen als potenzielle Gewinne. In Experimenten bleiben Menschen bei voreingestellten Standardoptionen, obwohl andere Varianten mehr Nutzen versprechen würden. Im Alltag zeigt sich das etwa bei Versicherungen, Stromtarifen oder Bankkonten: Viele bleiben jahrelang bei einem Anbieter, obwohl sie durch einen Wechsel Geld sparen oder bessere Leistungen erhalten könnten. In Unternehmen äußert sich der Bias in Sätzen wie „Das haben wir schon immer so gemacht“ oder „Jetzt ist nicht der richtige Zeitpunkt für Experimente“. Der Status-Quo-Bias ist nicht immer schlecht – manchmal schützt er vor aktionistischem Hin-und-her. Problematisch wird er, wenn er Innovation, Lernen und notwendige Anpassungen blockiert. Gerade in dynamischen Märkten kann die Vorliebe für das Bekannte dazu führen, dass Chancen verpasst und Wettbewerber überholt werden. Gegensteuern lässt sich, indem man bewusst auch den Status quo als „Option unter vielen“ behandelt und ihm die gleichen kritischen Fragen stellt wie jedem neuen Vorschlag.

  • Typisches Muster: Voreinstellungen bleiben unangetastet, obwohl Alternativen klare Vorteile bieten.
  • Begünstigt durch Verlustaversion, Bequemlichkeit und unklare Informationslage.
  • Gegenmaßnahme: regelmäßige „Default-Checks“, aktiver Vergleich von Optionen, Testphasen statt sofortiger Dauerentscheidungen.
Kernmechanismus
Bevorzugung des Bestehenden gegenüber Veränderungen
Typische Auswirkung
Verpasste Chancen, Innovationshemmung, langsame Anpassung an neue Rahmenbedingungen
Quelle
Irrational Labs – Cognitive Biases

Zurück zur Übersicht


Gruppen-Denkfehler / False Consensus Effect

Rang: 10

Beim False-Consensus-Effekt überschätzen wir, wie viele andere unsere Meinung, Werte oder Gewohnheiten teilen. Wir halten die eigene Sicht intuitiv für „normal“ und projizieren sie auf die Mehrheit. Das ist menschlich – wir bewegen uns meist in sozialen Kreisen, die uns ähneln, und erleben Widerspruch eher selten. Gleichzeitig kann dieser Bias Polarisierung verstärken: Wer glaubt, „eigentlich denken doch alle wie ich“, interpretiert abweichende Ansichten schnell als Randposition oder als Angriff. In Teams führt das dazu, dass kritische Stimmen verstummen, weil sie sich in der Minderheit wähnen, obwohl viele eigentlich Zweifel haben. Auf gesellschaftlicher Ebene entstehen Echokammern und das Gefühl, die „anderen“ seien unvernünftig oder böswillig. Besonders gefährdet sind Online-Diskussionen, in denen Algorithmen ähnliche Meinungen clustern und Gegenpositionen ausblenden. Der Effekt kann auch dazu führen, dass wir die Wirkung des eigenen Verhaltens unterschätzen („Alle machen das so“). Gegenwirken lässt sich, indem man aktiv nach abweichenden Perspektiven sucht, regelmäßig Umfragen oder Abstimmungen nutzt und sich daran erinnert: Mein persönliches Umfeld ist kein zuverlässiger Querschnitt der Gesamtbevölkerung.

  • Typisches Muster: „Alle sehen das doch so“ – ohne belastbare Daten oder repräsentative Umfragen.
  • Begünstigt durch homogene Freundeskreise, Social-Media-Bubbles und Gruppendruck in Organisationen.
  • Gegenmaßnahme: strukturierte Meinungsabfragen, anonyme Feedbackkanäle, Kontakt mit andersdenkenden Gruppen und Bewusstsein für Stichprobenverzerrung.
Kernmechanismus
Überschätzung der Zustimmung zur eigenen Position
Typische Auswirkung
Gruppendenken, Polarisierung, unterschätzte Minderheitsmeinungen
Quelle
Hunimed – Common Cognitive Biases

Zurück zur Übersicht


Blogverzeichnis Bloggerei.de - Funnyblogs
Top-10-Listen
Datenschutz-Übersicht

Diese Website verwendet Cookies, damit wir dir die bestmögliche Benutzererfahrung bieten können. Cookie-Informationen werden in deinem Browser gespeichert und führen Funktionen aus, wie das Wiedererkennen von dir, wenn du auf unsere Website zurückkehrst, und hilft unserem Team zu verstehen, welche Abschnitte der Website für dich am interessantesten und nützlichsten sind.