Blog » IT-Updates mit netgo

Wie IT-Leitende Kultur, Skills und Governance so aufbauen, dass AI nicht scheitert

Geschrieben von Lisa Placa | 28.4.26

Das Wichtigste in Kürze:

  • KI scheitert in der Praxis selten an der Technologie, sondern an fehlender organisatorischer Verankerung – ohne klare Zielbilder, Verantwortlichkeiten und messbare Erfolgskriterien bleiben Initiativen im Pilotstatus und liefern keine belastbare Wirkung im Betrieb.
  • Skalierung entsteht über befähigte Teams und klare Rollen – rollenbasierte Skills sowie kurze, arbeitsnahe Lernpfade sorgen dafür, dass KI-Anwendungsfälle nicht nur gebaut, sondern auch stabil betrieben werden können.
  • Governance sollte beschleunigen statt bremsen, durch schlanke Standards, technische Leitplanken und ein pragmatisches Betriebs-Minimum

Inhaltsverzeichnis: 

  1. Kultur: Von KI-Hype zu Produktivitätskultur
  2. Skills: Rollen, Lernpfade und KI-Kompetenz für alle
  3. Governance: Schnell bleiben bei maximaler Kontrolle  
  4. AI in 100 Tagen: Wie Sie KI im Unternehmen umsetzen  
  5. Fazit: KI wird belastbar, wenn sie organisatorisch verankert ist


1. Kultur: Von KI-Hype zu Produktivitätskultur

KI wirkt nach außen wie eine Tool-Frage. Doch in der Praxis entscheidet die Arbeitskultur, ob aus Experimenten belastbare Wertbeiträge werden.

Wo KI als bunte Spielwiese verstanden wird, bleiben Ergebnisse zufällig und schwer zu festigen. Wo hingegen Klarheit über Ziele, Verantwortlichkeiten und Grenzen besteht, kann ein Umfeld geschaffen werden, in dem Teams schnell lernen, das neue Wissen anwenden und verlässlich liefern können.

KI braucht psychologische Sicherheit – aber klare Grenzen  

Damit Teams KI sinnvoll nutzen, müssen Experimente möglich sein, ohne dass Fehler automatisch sanktioniert werden. Gleichzeitig sind Grenzen wichtig, damit aus „schnell testen“ keine Schatten-IT und kein Datenrisiko wird.

Diese Balance entsteht, wenn Erlaubnis und Regeln gleichzeitig sichtbar sind:

  • Explizite Erlaubnis: KI-Nutzung ist erwünscht; Lernkurven sind einkalkuliert.
  • Explizite Regeln: Definierte Datenklassen und freigegebene Tools – alles andere ist tabu.
  • Konsequenz: Je konkreter die Leitplanken, desto weniger Vermeidungsverhalten und desto mehr produktive Routine.

Erfolgskriterien: Outcome statt Demo  

Viele KI-Vorhaben scheitern, weil Erfolg über Showcases statt über messbare Wirkung bewertet wird. Klare Erfolgskriterien und KPIs schaffen Fokus – und sie machen Priorisierung sowie Budgetentscheidungen nachvollziehbar.

Gleichzeitig sinkt die Wahrscheinlichkeit, dass sich die Organisation in einer Abfolge von PoCs ohne nachhaltigen Transfer verliert.

Change-Mechanik: Kommunizieren, befähigen, verstetigen  

Kultur entsteht nicht durch ein Kick-off-Meeting, sondern über wiederholbare Routinen und Standards. Ein klarer Takt erleichtert die Orientierung: Was wird priorisiert, wie wird gelernt, wie wird skaliert? Besonders wirksam ist ein Golden Path, der Teams einen sicheren Standardweg in Richtung Produktion vorgibt.  

 

2. Skills: Rollen, Lernpfade und KI-Kompetenz für alle

Selbst mit guter Toolauswahl scheitert KI, wenn Teams nicht wissen, wie Anforderungen sauber formuliert, Ergebnisse verlässlich geprüft und Lösungen stabil betrieben werden. Der Aufbau von Skills ist damit weniger „Training“ als ein zentraler Bestandteil der Arbeitsweise.

Hierbei kann ein rollenbasiertes Kompetenzmodell helfen, das Verantwortlichkeit und Befähigung zusammenbringt – ohne den Anspruch, dass alle alles können müssen. 

Die häufigste Skill-Lücke: Übersetzung zwischen Fachbereich und IT  

Der Engpass liegt oft nicht beim Modell, sondern in der Übersetzung: Was ist das Ziel, welche Daten dürfen genutzt werden, wie wird Qualität gemessen und wie wird Risiko reduziert?

Ohne diese Klärung entstehen fragile Lösungen, die im Alltag nicht tragen. Rollen helfen, diese Fragen verbindlich zu beantworten.

  • Business Owner / Process Owner: priorisiert Nutzen, verantwortet Outcome
  • Product Owner (KI/Automation): übersetzt Bedarf in Backlog, orchestriert Stakeholder
  • Data/Platform Engineer: Datenflüsse, Integrationen, Observability
  • Security & Compliance: Risiken, Kontrollpunkte, Nachweisfähigkeit
  • Model/AI Engineer (falls relevant): Evaluation, Robustheit, Implementierung
  • Service Owner / Operations: Betrieb, Monitoring, Incident- und Change-Prozesse

Lernpfade für die Mitarbeitenden  

Enablement-Programme verpuffen häufig, wenn sie nicht an konkrete Aufgaben gekoppelt sind. Darüber hinaus verlangt der EU AI Act (Art. 4), dass Unternehmen eine ausreichende KI‑Kompetenz ihrer Mitarbeitenden sicherstellen – ein klarer Auftrag für strukturierte, wiederkehrende Lernpfade.

Hierbei bieten sich kurze Pflichtmodule für alle Mitarbeitenden an, plus Vertiefungen für Teams, die Use Cases tatsächlich in die Produktion überführen. So entsteht schnelle Adoption, ohne dass Qualitäts- oder Sicherheitsstandards erodieren.

Mögliche Lernpfade können wie folgt aussehen:

  • Pflicht (alle Mitarbeitenden, 60–90 Minuten, wiederkehrend)
    • Welche Daten gehören nicht in KI-Tools?
    • Wie werden KI-Ausgaben geprüft (Plausibilität, typische Fehlerbilder)?
    • Welche Aufgaben sind geeignet (Entwürfe, Zusammenfassungen, Variantenbildung)?
    • Was muss dokumentiert werden (Nutzung, Quellenhinweise, Freigaben)?
  • Vertiefung (Teams, die produktiv gehen)
    • Prompting als Arbeitsmethode (Vorlagen, Review, Standards)
    • Evaluation: Wie wird Qualität vor Rollout gemessen?
    • Prozessdesign: Human-in-the-Loop vs. Straight-Through
    • Logging & Nachvollziehbarkeit für Betrieb und Audit


Praxis-Tipp:
Skillaufbau an echte Arbeit koppeln  

Trainings entfalten die größte Wirkung, wenn sie unmittelbar an echte Use Cases gekoppelt sind. Ein kleines „Enablement-Paket“ pro Use Case sorgt dafür, dass Lernen und Umsetzung zusammenlaufen – und dass wiederverwendbare Standards entstehen. Damit wächst nicht nur Kompetenz, sondern gleichzeitig auch die organisatorische Reife.

Beispiel:

  • 2 Stunden Kickstart (Zielbild, Daten, Risiken)
  • 1 Woche begleitetes Arbeiten mit Templates (Prompts, Checklisten)
  • Review nach 2–4 Wochen (Metriken, Anpassungen, Verstetigung)

 

3. Governance: Schnell bleiben bei maximaler Kontrolle

Governance ist keine KI-Bremse, sondern das System, das Skalierung erst ermöglicht. Ohne klare Regeln, Standards und Nachweise wird KI entweder zu riskant (und wird gestoppt) oder zu chaotisch (und liefert keine verlässliche Qualität).

Gut gestaltete Governance reduziert Reibung, weil Teams wissen, was erlaubt ist, wie Entscheidungen getroffen werden und wie der Weg in Richtung Produktion aussieht.

Die 3 Ebenen der Governance  

Organisationen verlieren Tempo, wenn Freigaben, Risikoentscheidungen und technische Standards vermischt werden. Eine klare Trennung schafft Zuständigkeiten und verkürzt Entscheidungswege.

Gleichzeitig sinkt das Risiko, dass operative Detailfragen in Strategiegremien landen – oder strategische Zielkonflikte im Tagesgeschäft „verdeckt“ werden.

  1. Strategische Governance: Warum KI, Prioritäten, Budgetlogik
  2. Risiko-Governance: Datenschutz, Informationssicherheit, Compliance, Vendor-Risiken
  3. Operative Governance: Standards für Umsetzung, Betrieb, Monitoring, Change

Praxis-Regelwerk statt Handbuch  

Governance muss nicht aus dicken Handbüchern bestehen. Ein schlankes, praxistaugliches Regelwerk reicht häufig aus, um Klarheit, Nachweisfähigkeit und Wiederholbarkeit herzustellen. Entscheidend ist, dass es Teil des Delivery-Prozesses ist, und nicht ein zusätzlicher Prozess.

Regelwerk-Beispiel:

  • KI-Richtlinie: Do‘s/Don’ts, Datenklassen, erlaubte Tools
  • Use-Case-Briefing: Nutzer:innen, Daten, Risiken, Owner, Metriken
  • Risikoklassifizierung: z. B. niedrig/mittel/hoch) mit passenden Kontrollen
  • Evaluations-Checkliste: Qualität, Robustheit, Sicherheit
  • Betriebs-Checkliste für Monitoring, Logging, Incident, Rollback

Leitplanken statt Freigabeschleifen  

Wenn Governance primär über manuelle Freigaben läuft, skaliert sie nicht. Besser sind technische Leitplanken, die Teams automatisch in sichere Bahnen führen und Standardisierung erzwingen. So wird Governance zu Plattformfähigkeit, d. h. schnell für Teams und kontrolliert für die Organisation.

Dabei können diese Elemente zum Einsatz kommen:

  • Zugriffskontrollen und rollenbasierte Berechtigungen
  • DLP-/Policy-Regeln für Datenklassen (wo vorhanden)
  • Protokollierung/Logging-Standards für Nachvollziehbarkeit
  • Genehmigte Tools/Connectoren und Standard-Integrationsmuster

Qualitätssicherung im Prozess  

Viele KI-Lösungen scheitern operativ, weil die Reviews für die Qualitätssicherung nicht ausreichend durchdacht sind. Verlässliche Qualität entsteht erst, wenn Verantwortlichkeiten, Prüfumfang und Schwellenwerte klar sind. Damit wird verhindert, dass entweder zu viel blockiert wird oder zu viel ungeprüft veröffentlicht wird.

Dabei sollte beachtet werden:

  • Wer prüft?
  • Was wird geprüft (Fakten, Tonalität, Datenbezug, Rechtsrisiken)?
  • Wann ist eine Freigabe nötig (Schwellenwerte, Risikoklasse)?
  • Wie wird dokumentiert (Audit Trail, Ticket/Kommentar, Versionsstand)?

 

4. AI in 100 Tagen: Wie Sie KI im Unternehmen umsetzen

Ein „Big Bang“ ist selten nötig, ein klarer Takt hingegen schon. In 100 Tagen lässt sich ein solides Fundament etablieren, das schnelle Ergebnisse ermöglicht und gleichzeitig Betriebssicherheit schafft.

AI-Expert:innen von netgo sind sich einig: In 100 Tagen lässt sich AI aktiv im Unternehmen verankern. Dabei können erste Use Cases umgesetzt und Themen wie Governance oder Security angegangen werden.

Wir zeigen, wie die 100 Tage (exemplarisch) aussehen können:

Tage 1–12: Fundament für den Erfolg legen

  • Phase 0 – Projektstart: Das Projektteam wird zusammengestellt und gebrieft
  • Phase 1 – AI Bootcamp: Die Potenziale der AI-Nutzung werden eruiert
  • Phase 2 – AI Governance: Ziele, Leitplanken, KPIs und Entscheidungslogiken für die AI-Nutzung werden festgelegt

Tage 12–30: Befähigen und schulen

  • Phase 3 – Rollen & Organisation: Steuerung, Dokumentation und Erweiterung des AI-Einsatzes
  • Phase 4 – Technischer Start: Eine sichere AI-Nutzung ist technisch möglich
  • Phase 5 – Enablement: Durch Schulungen können die Mitarbeitenden AI verantwortungsvoll und sicher einsetzen

Tage 31–100: Skalieren und Use Cases umsetzen

  • Phase 6 – KI-Assistenten: Durch die Nutzung von KI-Assistenten profitieren alle Mitarbeitenden im Arbeitsalltag
  • Phase 7 – Wissensnutzung: Das Unternehmenswissen ist strukturiert und teilweise nutzbar für AI
  • Phase 8 – Prozesse: Use Cases werden strukturiert erfasst und erste Prozesse automatisiert

5. Fazit: KI wird belastbar, wenn sie organisatorisch verankert ist

KI entfaltet ihren Nutzen dort, wo Kultur konsequent auf messbare Wirkung ausgerichtet ist, wo Skills sowohl Umsetzung als auch stabilen Betrieb ermöglichen und wo Governance über Standards für Klarheit sorgt.

Damit wird KI vom Experiment zur Organisationsfähigkeit: skalierbar, sicher und messbar wirksam.

Neugierig auf weitere Best Practices und Einblicke von KI-Expert:innen? Die netgo Roadshow AI Unlocked macht im Mai nochmal Halt in Heilbronn – sichern Sie sich direkt Ihren Platz!