Für Entscheider gemacht

Praxisnahe Lösungen

Modular & skalierbar

Zeitsparende Umsetzung

Persönliche Beratung

Zukunft denken – mit einem Klick.

    Causal AI: Wenn Maschinen endlich das „Warum“ verstehen

    by Thomas Schwittlich | 10. März 2026 | KI-Strategie

    Warum die nächste KI-Revolution nicht mehr Daten braucht – sondern tieferes Denken.

    Die seltsame Geschichte vom Eis und dem Ertränken

    Stellen Sie sich vor, Sie sind Stadtrat einer mittelgroßen Küstenstadt. Ihr Datenanalyst präsentiert Ihnen ein ermutigendes Ergebnis: An Tagen mit hohem Eisverkauf steigt die Zahl der Ertrinkungsopfer dramatisch an. Die Korrelation ist makellos – r = 0,97, statistisch hoch signifikant. Sein Vorschlag: Eis verbieten.

    Sie lachen – zu Recht. Denn natürlich ist heißes Wetter die eigentliche Ursache: Es treibt Menschen ins Meer und lässt sie Eis kaufen. Das Eis ertänkt niemanden.

    Genau diese Konfusion – zwischen Korrelation und Kausalität – ist das fundamentale Problem moderner KI-Systeme. Und es ist ein Problem, das Unternehmen Milliarden kostet.

    Das „Was“ ohne das „Warum“: Die Achillesferse heutiger KI

    Moderne KI-Systeme – ob GPT-Modelle, Bilderkennungs-Netzwerke oder Empfehlungsalgorithmen – sind im Wesentlichen hochkomplexe Mustererkenner. Sie lernen aus historischen Daten: „Immer wenn X passiert, folgt Y.“ Das klingt mächtig. Und für viele Anwendungen reicht es auch.

    Doch spätestens wenn Entscheidungen auf dem Spiel stehen – eine Preisanpassung, ein medizinisches Präparat, ein Übernahme-Angebot – wird die Grenzen dieser Logik brutal sichtbar. Denn ein Muster-Erkenner kann Ihnen sagen:

    • „Kunden, die Produkt A kaufen, kaufen häufig auch Produkt B.“
    • „Patientinnen mit Merkmal X haben höhere Überlebensraten.“
    • „Mitarbeitende mit Eigenschaft Z kündigen seltener.“

    Was er nicht sagen kann: ob eine Intervention – ein gezielter Eingriff – tatsächlich das gewünschte Ergebnis bewirkt. Ob das Anbieten von Produkt B den Kauf auslöst. Ob das Behandeln von Merkmal X die Überlebensrate verbessert. Ob das Fördern von Eigenschaft Z die Kündigung verhindert.

    Kausalität – die Frage nach Ursache und Wirkung – ist das fehlende Fundament.

    Causal AI: Die nächste Stufe maschinellen Denkens

    Judea Pearl, Turing-Preisgewinner und einer der Begründer dieses Feldes, spricht von einer „Kausalitätsleiter“ – drei Stufen, auf denen Intelligenz operieren kann:

    Stufe 1 – Beobachten: „Was ist?“ Korrelationen in Daten sehen. Das können aktuelle KI-Systeme brillant.

    Stufe 2 – Intervenieren: „Was passiert, wenn ich X verändere?“ Vorhersagen über die Auswirkungen aktiver Eingriffe treffen.

    Stufe 3 – Kontrafaktisch denken: „Was wäre gewesen, wenn?“ – Szenarien simulieren, die nie stattgefunden haben.

    Heutige KI lebt fast ausschließlich auf Stufe 1. Causal AI zielt darauf ab, Maschinen auf Stufe 2 und 3 zu heben. Das bedeutet: Systeme zu bauen, die nicht nur Muster erkennen, sondern kausale Modelle der Welt konstruieren, Eingriffe simulieren und „Wenn-Dann“-Szenarien durchdenken.

    Warum ist das so schwer? Die große Forschungsherausforderung

    Menschen lernen Kausalität von Kindheit an – durch Experimentieren, Spielen, Fragen. „Wenn ich den Turm stoße, fällt er.“ Wir bauen intuitiv kausale Landkarten unserer Umwelt.

    Maschinen lernen aus Daten – aber Daten sind passive Beobachtungen. Sie zeigen, was gemeinsam auftritt, nicht was was verursacht. Drei fundamentale Hürden machen Causal AI zum schwierigsten offenen Problem der KI-Forschung:

    1. Das Interventionsproblem

    Um echte Kausalität zu beweisen, bräuchte man Experimente – randomisierte Kontrollstudien (RCTs), den Goldstandard der Wissenschaft. In der Praxis ist das meist unmöglich, unethisch oder zu teuer: Man kann nicht zufällig entscheiden, wer ein Medikament erhält, wer gekündigt wird oder welche Firma übernommen wird. Causal AI muss lernen, kausale Schlüsse aus beobachtenden Daten zu ziehen – ein äußerst heikles Unterfangen.

    2. Das verborgene-Variablen-Problem

    Kausale Zusammenhänge werden oft durch unsichtbare Größen verzerrt. Im Eisbeispiel war es die Temperatur. In der Medizin könnte es Genetik sein. Im Marketing das Kaufverhalten vor drei Jahren. Causal AI muss lernen, solche „Confounders“ zu identifizieren – auch wenn sie nicht im Datensatz sichtbar sind.

    3. Das Repräsentationsproblem

    Kausalwissen muss irgendwie repräsentiert werden – als Modell, als Graph, als Formel. Aber wie überträgt man das in die Sprachlogik neuronaler Netze? Wie verbindet man symbolisches Denken mit datengetriebenem Lernen? Hier treffen zwei Welten aufeinander, die jahrzehntelang getrennt waren.

    Was bedeutet das für Ihr Unternehmen?

    Die Frage, die Sie als Führungskraft stellen sollten, lautet nicht: „Was sagt die KI?“, sondern: „Versteht die KI, warum das so ist?“

    Drei Bereiche, in denen Causal AI die Spielregeln ändern wird:

    • Strategische Entscheidungen: Statt „Kunden in Segment X kaufen mehr“ könnte eine Causal AI sagen: „Eine Preissenkung um 10% in Segment X würde den Umsatz um 7% steigern, aber die Marge um 4% reduzieren.“ – Handlungsoptionen mit messbaren Konsequenzen.
    • Risikomanagement: Kausal denkende Systeme können Dominoeffekte simulieren: „Was passiert mit unserer Lieferkette, wenn Lieferant A ausfällt und gleichzeitig die Nachfrage steigt?“ – nicht nur Statistik, sondern Mechanismusverständnis.
    • Compliance & Erklärbarkeit: Regulatoren und Stakeholder verlangen zunehmend begründbare Entscheidungen. „Das Modell hat es so vorhergesagt“ ist keine Antwort. Causal AI kann erklären: „Weil Variable Y Ursache von Z ist, empfehlen wir Maßnahme X.“

    Wo steht die Forschung heute?

    Causal AI ist kein Zukunftstraum – die Grundlagen existieren. Statistiker wie Donald Rubin und Informatiker wie Judea Pearl haben das theoretische Fundament in den 1980er und 90er Jahren gelegt. Mit kausalen Graphen, „do-Kalkül“ und Structural Causal Models (SCMs) gibt es formale Werkzeuge.

    Die heiße Forschungsfront liegt heute an der Schnittstelle von Deep Learning und Kausalinferenz. Labore von DeepMind, Microsoft Research, MIT und ETH Zürich arbeiten an Systemen, die neuronale Netze mit kausalen Strukturen verbinden. Es entstehen erste Anwendungen:

    • In der Pharmaindustrie, um aus klinischen Daten Behandlungseffekte zu isolieren, ohne teure RCTs
    • In der Wirtschaftspolitik, um den Effekt von Maßnahmen zu schätzen – etwa Mindestlohn auf Beschäftigung
    • Im autonomen Fahren, damit Fahrzeuge nicht nur „Stopp-Schilder“ erkennen, sondern verstehen, warum sie halten müssen

    Doch der Weg zu robusten, skalierbaren Causal-AI-Systemen ist weit. Aktuelle Modelle funktionieren in eng definierten Domänen. Generalisierung – das Übertragen kausaler Schlussfolgerungen auf neue Situationen – bleibt eine offene Herausforderung.

    Das Warum ist der Wettbewerbsvorteil von morgen

    Zurück zur Küstenstadt. Ein kluger Stadtrat braucht kein Eisverbot. Er braucht ein System, das sagt: „Die Temperatur ist die Ursache – mehr Aufsicht am Strand wäre die wirksame Maßnahme.“ Das ist Causal AI in Kurzform: nicht mehr Daten, sondern tieferes Denken.

    Für Unternehmen bedeutet das: Wer heute in kausales KI-Denken investiert – in Forschungspartnerschaften, in den Aufbau kausaler Datensätze, in das Training von Teams – wird morgen Entscheidungen treffen, die Konkurrenten, die nur auf Korrelationen schauen, schlicht nicht möglich sind.

    Die großen KI-Sprünge der Vergangenheit – von Schachcomputern bis zu Sprachmodellen – kamen, als Maschinen gelernt haben, „was“ in den Daten steckt.

    Der nächste große Sprung kommt, wenn sie lernen, das „warum“ zu verstehen.

     

    Weiterführende Lektüre:

    • Judea Pearl & Dana Mackenzie: „The Book of Why“ (2018)
    • Bernhard Schölkopf et al.: „Causality for Machine Learning“ (arXiv, 2019)
    • Microsoft Research: DoWhy Library (Open-Source-Framework für kausale Inferenz)