Künstliche Intelligenz erzeugt heute Ergebnisse, die manchmal verblüffend real wirken – aber auch oft fatal danebenliegen. Deshalb ist gesunder Menschenverstand und Fachkenntnis bei KI-Anwendungen unverzichtbar; insbesondere in kritischen Bereichen.
Täuschend echt – oder doch oftmals enttäuschend?
KI-Ergebnisse in Videos und Bildern können seit 2024 so täuschend echt aussehen, dass sie mitunter kaum von echten Personen oder Szenen zu unterscheiden sind, insbesondere wenn diese Personen mit der eigenen Stimme zu uns sprechen. Umso schwieriger echt von unecht unterscheidbar ist, desto mehr ist der gesunde Menschenverstand das Maß der Dinge.
Warum wir KI nicht blind vertrauen dürfen
In den letzten Jahren hat sich die Qualität von KI-generierten Inhalten rasant verbessert. Seit 2024 sehen wir Bilder und Videos, die so realistisch wirken, dass sie kaum noch von echten Aufnahmen zu unterscheiden sind – vor allem, wenn dabei auch noch vertraute Stimmen zum Einsatz kommen. Doch genau diese täuschende Echtheit birgt Risiken. Denn der erste Eindruck trügt oft – und gesunder Menschenverstand wird wichtiger denn je.
Wir – Daniel und Petra – sprechen in unserem Podcast „Vom Hype zum Handeln“ über Chancen und Herausforderungen der digitalen Transformation und wie Wandel in Organisationen gelingen kann. In dieser Folge werfen wir einen kritischen Blick auf die Fehlerquellen, Täuschungen und Irrtümer, die KI mit sich bringt.
Ein gutes Beispiel sind KI-generierte Bilder. Zwar hat sich die Darstellung von Händen seit 2023 stark verbessert – etwa bei Modellen wie DALL·E 3 von OpenAI – doch auch aktuelle Tools wie Midjourney oder die chinesische KI „Deep Seek“ zeigen noch deutliche Schwächen. Finger, Hände oder Details werden häufig falsch dargestellt. Die Ursache: Die KI halluziniert. Sie macht einfach das, was sie gelernt hat – nicht das, was logisch oder richtig wäre.
Und genau das wird deutlich, wenn man etwa ein Bild vom Papst erzeugen lässt: Die KI zeigt dann eine fantasievolle Mischung aus Mensch, Kostüm und Symbolik – auf Wunsch auch einen Hund als Papst. Denn sie versteht nicht den Inhalt, sondern folgt der reinen Anweisung.
Das zeigt: Die KI hat keine eigene Logik, kein Urteilsvermögen. Deshalb ist es so wichtig, dass wir Menschen die Inhalte hinterfragen – besonders, wenn es um Videos, Stimmen oder Aussagen geht, die vermeintlich authentisch erscheinen. Deepfakes machen es zunehmend schwieriger, zwischen Realität und Fiktion zu unterscheiden.
Ein historisches Beispiel ist der Microsoft-Chatbot „Tay“, der 2016 online ging und innerhalb von 16 Stunden wieder abgeschaltet wurde. Warum? Er hatte aus Nutzerinteraktionen rassistische und verschwörungstheoretische Aussagen übernommen – ungefiltert und ohne moralisches Korrektiv.
Heute sind Chatbots wesentlich weiter. Doch auch sie erzeugen Inhalte, die sich überzeugend anhören – aber faktisch falsch sein können. So geschehen in einem Fall in den USA: Ein Anwalt reichte eine Klage ein und berief sich auf Urteile, die ihm ChatGPT geliefert hatte – inklusive Aktenzeichen. Das Problem: Die Fälle waren komplett erfunden.
Diese Halluzinationen passieren, weil KI nicht „weiß“, ob eine Information existiert – sie generiert plausible Antworten aus Mustern. Das mag bei lustigen Katzenbildern harmlos sein. Aber in Recht, Medizin oder Beratung kann es fatale Folgen haben.
Deshalb braucht es Kontrollinstanzen. In Unternehmen bedeutet das: Mitarbeitende müssen nicht nur KI nutzen, sondern auch verstehen, wie sie funktioniert. Der AI Act in der EU fordert genau das – Schulungen, Nachweise, Kompetenzaufbau.
Ein weiteres Beispiel zeigt, wie fehleranfällig KI auch im Business-Alltag sein kann: Amazon Echo hat versehentlich Puppenhäuser bestellt – einfach, weil die Spracherkennung unreflektiert aufgeschnappt hat, was im Raum gesagt wurde. Auch hier zeigt sich: KI braucht Freigaben, Kontrollpunkte, menschliche Entscheidungen.
Und das gilt nicht nur für den Einkauf. Auch in der medizinischen Diagnostik stößt KI an ihre Grenzen. Eine Radiologin berichtet, dass sie eine KI zwar testeten, diese aber zwei Kontrollinstanzen braucht – weil sie zwar Lungenembolien erkennt, aber andere Symptome übersieht.
Die Scheuklappen der KI führen dazu, dass sie nur das erkennt, was sie gelernt hat – und das kann gefährlich sein.
Denn: Die KI wird antworten – auch wenn sie es sich nur ausdenkt..
Ob in der Steuerberatung, der Bildanalyse oder der Organisation selbst: Die Technik kann unterstützen, aber nicht ersetzen. Vertrauen ist gut – Kontrolle ist besser. Genau umgekehrt, wie man es beim Menschen sagen würde.
Am Ende gilt: KI ist ein mächtiges Werkzeug. Aber wir müssen lernen, es verantwortungsvoll zu nutzen. Nicht blind glauben, sondern klug prüfen. Und im Zweifel lieber einmal mehr bei „echten“ Experten nachfragen und Quellen prüfen.
ÜBER DEN PODCAST
Daniel und Petra – deine Hosts sind Experten für digitales Marketing, Organisationsentwicklung / IT
„Wir wollen den Blick weg von Technik, hin zum zentralen Erfolgsfaktor für digitale Transformation lenken: Dem aktiven Gestalten von und für Menschen in Organisationen.“
Im Podcast Vom Hype zum Handeln“ tauchen wir in weiteren Folgen noch tiefer in einzelne Aspekte ein, lassen Experten zu Wort kommen und stellen praktische Beispiele aus der Unternehmenspraxis vor. Dabei werden sowohl erfolgreiche Implementierungen als auch Lernerfahrungen aus weniger erfolgreichen Versuchen geteilt, um Unternehmen den Weg in die KI-gestützte Zukunft zu erleichtern.
In „Vom Hype zum Handeln“ …
- beleuchten wir verschiedene Anwendungsfelder
- teilen wir eigene Erfahrungen und Insights
- bieten wir Experteninterviews mit Praktikern
- stellen wir konkrete Implementierungsbeispiele vor
- besprechen wir KI-Entwicklungen

Unser Transformationspodcast „Vom Hype zum Handeln“
- erscheint 2-wöchentlich und wird um
- Audio-Bausteine aus dem „KI Kaffee“ und Beiträge zum Themenkreis Wandel und KI ergänzt.
Deine Gastgeber
- Petra Liebl – Marketing-Beratung und Digitalisierungsexpertin
- Daniel Knabl – Systemische Beratung und IT-Experte
