Generative KI-Systeme wie ChatGPT, Gemini, Copilot, Midjourney oder HeyGen sind längst millionenfach im Einsatz.
Während die Nutzung im privaten Bereich meist der persönlichen Entscheidung überlassen bleibt, beginnen im Unternehmenskontext die Unsicherheiten.
KI im Unternehmen: Spielregeln, Kompetenzaufbau und klare Grenzen
Was ist mit KI erlaubt – und was verboten?
Zwar setzen DSGVO, Telekommunikationsgesetz und der EU AI Act verbindliche Leitplanken, doch die Technologie ist neu und die Regelungen hinken teilweise hinterher.
Diese Podcastfolge richtet den Blick auf einen zentralen Erfolgsfaktor für die digitale Transformation: Menschen in Organisationen aktiv zu befähigen, KI verantwortungsvoll einzusetzen.
1. Klare Spielregeln: Die Hausordnung für KI
Ein grosses Thema des Sommers waren die Datenlecks, insbesondere bei ChatGPT. Tausende private KonverUm den Anforderungen des EU AI Acts gerecht zu werden, brauchen Unternehmen eine klare Hausordnung oder Nutzungsrichtlinie für KI.
Denn Entscheidungen über Tools und Daten dürfen nicht „nach Bauchgefühl“ getroffen werden.
Häufig reagieren Unternehmen mit Verboten – dabei ist es wichtiger, Kompetenzen aufzubauen.
Die Angst vor KI entsteht oft aus Unwissenheit. Schulung statt Verbot ist der effektivere Weg.
🧩 Themen:
🔹 Warum Unternehmen keine Angst, sondern klare Regeln und Schulungen brauchen
🔹 Wie eine „Hausordnung für KI“ Sicherheit und Transparenz schafft
Gestattete Tools – Festlegen, welche KI-Anwendungen genutzt werden dürfen.
🔹 Was das Ampelsystem für KI-Nutzung bedeutet (erlaubt, sensibel, verboten)
Datenmanagement – Regeln, welche Inhalte hochgeladen werden dürfen (keine Patente, kein eigener Code,
🔹 Wann nach dem EU AI Act Kennzeichnungspflichten greifen
🔹 Warum „Human in the Loop“ mehr als ein Schlagwort ist
Ein zentraler Gedanke der Folge: „Schulen statt verbieten“ – fehlendes Wissen ist das größte Risiko.
Eine Orientierung können vier Kernpunkte bieten:
- keine vertraulichen Dokumente).
- Human in the Loop – Sicherstellen, dass menschliche Überprüfung Teil jedes Prozesses bleibt.
- Kompetenzaufbau – Mitarbeitende schulen. Seit Februar 2025 ist diese Schulung durch den EU AI Act verpflichtend.
2. Praktische Orientierung: Das Ampelsystem
Zur täglichen Orientierung hat sich das Ampelsystem bewährt – ein einfaches Modell, um KI-Aktivitäten einzuordnen:
| Farbe | Status | Beschreibung |
|---|---|---|
| 🟢 Grün – erlaubt | Nutzung ohne Einschränkungen | Texte umformulieren, E-Mails aus Stichpunkten erstellen, Rechtschreibkorrekturen, interne Brainstormings, Übersetzungen oder Code-Vorschläge ohne sensible Daten |
| 🟡 Gelb – erlaubt mit Einschränkungen | Nutzung nur mit Vorsicht | Zusammenfassungen interner Dokumente ohne vertrauliche Daten, Entwürfe für Kundenkommunikation, Wettbewerbsrecherche (unter Beachtung der Regeln) |
| 🔴 Rot – verboten | Nutzung untersagt | Verarbeitung personenbezogener Daten, Uploads vertraulicher Informationen, Patente, Geheimnisse oder Daten zur Produktentwicklung |
Wichtig: Bei gelben Anwendungen muss allen klar sein, dass Cloud-Modelle auf externen Servern laufen – „der Rechner eines anderen“.
3. Transparenz, Kultur und Eigenverantwortung
Marco Esposito“: „Die Nutzung von KI ist kein Verbotsthema, sondern ein Schulungsthema.“
🧭 Eigenverantwortung
Viele Fehler entstehen durch unbedachte Handlungen – etwa, wenn Nutzende Konversationen versehentlich öffentlich teilen.
Digitale Kompetenz ist daher entscheidend:
Man muss wissen, dass „kostenlose“ Tools oft mit den eigenen Daten bezahlt werden.
🤖 Schatten-KI und „Secret Cyborgs“
Fehlt eine offene Kultur, nutzen Mitarbeitende KI-Tools heimlich, was zu verschiedenen Problemen führen kann.
Diese sogenannten „Secret Cyborgs“ arbeiten u.U. sehr produktiv, teilen ihr Wissen aber nicht – aus Angst, ihren Job zu gefährden oder zusätzliche Aufgaben zu bekommen.
Offene Kooperation, gemeinsame Prompt-Bibliotheken oder regelmäßige Meetings zum Thema KI-Nutzung können dieses Silo-Denken auflösen.
🪞 Transparenzpflicht
Laut EU AI Act müssen KI-generierte Inhalte gekennzeichnet werden. Es heißt aber auch Die Transparenzpflicht gelte nur dann, wenn das Output nicht von einem Mensch überprüft wurde. Was genau überprüfen, ansehen etc. bedeutet, ist noch nicht dezidiert geklärt. Die Definition von „menschlicher Revision“ bleibt derzeit ungenau.
Achtung – Graubereich: Bitte rechtliche Auskunft einholen – wir können als Nicht-Juristen natürlich keinerlei verbindliche Aussage treffen!
Bei Bildern, die reale Situationen darstellen (zB ein Immobilienprojekt in geschönter Umgebung) bis zu Deepfakes), gilt hingegen eine eindeutige Kennzeichnungspflicht.
⚖️ Urheberrecht
KI-generierte Texte und Bilder dürfen genutzt werden, urheberrechlich bewegt man sich aber auch hier in einer Grauzone. KIErgebnisse sind an sich nicht urheberrechtlich geschützt, aber sind auch nicht copyright-fähig; dh. dasselbe Ergebnis (ob Bild, Text oder Logo) kann auch jeder andere verwenden.
4. Fünf Schritte für den sicheren KI-Einsatz
Zum Abschluss des Podcasts wurden die wichtigsten Handlungsempfehlungen zusammengefasst:
Zum Abschluss gibt’s eine kompakte Checkliste für den KI-Praxischeck im Unternehmen:
- Interne Regeln festlegen – Hausordnung oder Spielregeln erarbeiten und dokumentieren.
- Mitarbeitende schulen – Kompetenzerwerb fördern
- Tools und Daten definieren – klären, welche Anwendungen erlaubt und welche Daten tabu sind.
- Vor jeder Nutzung prüfen – reflektieren, ob die Aktivität den Regeln entspricht.
- Output überprüfen & Transparenz sichern – „Human in the Loop“ gewährleisten und Kennzeichnungspflichten beachten.
Fazit
Der sichere Umgang mit KI im Unternehmen beginnt nicht mit Technologie – sondern mit Verantwortung, Wissen und klaren Regeln.
Fehlende Schulung ist das größte Risiko.
„Die Nutzung von KI ist kein Verbotsthema, sondern ein Schulungsthema.“
Gen AI-Trainer Marco Esposito
Marco Esposito ist Trainer für generative KI aus Vorarlberg und setzt sich dafür ein, dass Menschen das notwendige Know-how für den Umgang mit KI aufbauen. In über 100 Workshops teilte er bereits seine praktischen Erfahrungen mit Unternehmen und Einzelpersonen.
Mit seinem kürzlich abgeschlossenen Master in Wirtschaftsinformatik verbindet er akademisches Wissen mit praxisnaher Anwendung.
ÜBER DEN PODCAST
Host in Folge 16 ist Petra. Expertin für digitales Marketing mit KI
Mit ihrem digitalen und Marketing-Background geht es für Petra darum, den Blick weg von Tools, hin zum zentralen Erfolgsfaktor für digitale Transformation zu lenken: Dem aktiven Gestalten von und für Menschen in Organisationen – und dabei den Blick für Chancen aber auch kritisches Denken und Handeln im Umgang mit KI-Tools zu schärfen.
Petra LIEBL – Content Bakery
Als erfahrene Onlineexpertin und zertifizierte Digitalberaterin verbindet Petra Strategie, digitales Marketing und KI zu wirkungsvollen Online-Lösungen für Unternehmer:innen.
„Wir wollen den Blick weg von Technik, hin zum zentralen Erfolgsfaktor für digitale Transformation lenken: Dem aktiven Gestalten von und für Menschen in Organisationen.“
Im Podcast Vom Hype zum Handeln“ tauchen in einzelne Aspekte ein, lassen Experten zu Wort kommen und stellen praktische Beispiele aus der Unternehmenspraxis vor. Dabei werden sowohl erfolgreiche Implementierungen als auch Lernerfahrungen aus weniger erfolgreichen Versuchen geteilt, um Unternehmen den Weg in die KI-gestützte Zukunft zu erleichtern.
In „Vom Hype zum Handeln“ …
- beleuchten wir verschiedene Anwendungsfelder
- teilen wir eigene Erfahrungen und Insights
- bieten wir Experteninterviews mit Praktikern
- stellen wir konkrete Implementierungsbeispiele vor
- besprechen wir KI-Entwicklungen

Unser Transformationspodcast „Vom Hype zum Handeln“
- erscheint 2-wöchentlich und wird um
- Audio-Bausteine aus dem „KI Kaffee“ und Beiträge zum Themenkreis Wandel und KI ergänzt.
Deine Gastgeber
- Petra Liebl – Marketing-Beratung und Digitalisierungsexpertin
- Daniel Knabl – Systemische Beratung und IT-Experte
