KI ist in den Unternehmen angekommen. Laut Bitkom wird sie bereits von 41 Prozent der Unternehmen in Deutschland genutzt, weitere 48 Prozent planen den Einsatz oder diskutieren ihn. 77 Prozent der Unternehmen, die KI schon einsetzen, sagen zudem, dass sich dadurch ihre Wettbewerbsposition verbessert hat. Die Richtung ist also klar. Offen bleibt, wie sich diese Leuchtturmerfolge in eine belastbare Produktionsstrategie übersetzen lassen.
Denn inzwischen verläuft genau hier die eigentliche Trennlinie: zwischen Organisationen, die KI punktuell verwenden, und solchen, die sie in ein wiederholbares Betriebsmodell überführen. Nicht zwischen Unternehmen, die KI einsetzen, und solchen, die noch zögern.
Vom Werkzeug zur Wertschöpfung
AI Factory ist grundsätzlich keine neue Bezeichnung für den nächsten Chatbot oder Copilot. Sie beschreibt vielmehr den Übergang von isolierten KI-Projekten zu einer Struktur, in der KI systematisch in Prozesse, Rollen, Datenflüsse und Betriebsabläufe eingebettet wird. Der Unterschied ist fundamental: Aus einem Werkzeug wird eine Produktionslogik.
Das ist für IT-Entscheider und Systemarchitekten entscheidend. Denn produktive KI scheitert heute nur selten daran, dass Modelle grundsätzlich nicht funktionieren. Sie krankt deutlich häufiger daran, dass Daten unstrukturiert vorliegen, Abläufe nicht standardisiert sind, Zuständigkeiten fehlen und aus einem Pilotprojekt kein skalierbarer Betrieb wird.
Vom Problem zum AI Native
Bei synaigy, Teil der TIMETOACT GROUP, stand am Anfang wirtschaftlicher Druck: Ein Projekt drohte verloren zu gehen, weil das eigene Angebot rund 40 Prozent über dem des Wettbewerbs lag. Nicht die Qualität war das Problem, sondern die Wirtschaftlichkeit. Genau daraus entstand eine grundsätzliche Frage, die für viele Unternehmen relevant ist: An welchen Stellen im Delivery-Modell entstehen die größten Aufwände – und setzen wir KI dort überhaupt mit dem größten Hebel ein? Denn AI Native wird man nicht, indem man einem allgemeinen Standardweg folgt, sondern indem man KI gezielt in den Bereichen verankert, die für das eigene Geschäftsmodell den größten Unterschied machen.
Die Organisation wird Teil der Architektur
TIMETOACT GROUP hat sich daher die Fragen gestellt, wie Erkenntnisse von einem in andere Projekte ausgerollt werden können und welchen Stellenwert dabei Changemanagement einnimmt. In ihrem AI Factory-Modell beschreibt sie zwei Rollen: die der „Verstärker“ und „Maker“. Damit verbunden Funktionen, die in vielen Unternehmen bislang fehlen: diejenigen, die KI-Kompetenz, Best Practices und Veränderung in die Projekte tragen, und diejenigen, die Agents, Workflows und Integrationen bauen. Ergänzt wird das durch einen KI-Vitalitätscheck pro Projekt als wiederholbares Format.
Der Engpass liegt oft nicht im Coding
In vielen KI-Initiativen richtet sich der erste Blick auf die Entwicklung. Dort ist der Effekt am sichtbarsten, dort lassen sich Erfolge schnell in einem Business Case demonstrieren. Der größte Hebel liegt aber häufig nicht im Coding selbst, sondern im Zusammenwirken von Coding und den umgebenden Bereichen.
Nach eigenen, projektbezogenen Statistiken entfallen nur 35 Prozent des Aufwands auf Entwicklung, aber 25 Prozent auf Projektmanagement, 20 Prozent auf Requirements Engineering, 12 Prozent auf Qualitätsmanagement und Testing sowie 8 Prozent auf Abstimmungen. Wer also nur die Entwicklung beschleunigt, optimiert vor allem den sichtbarsten Teil des Problems, vernachlässigt aber die übrigen 65 Prozent.
Damit verschiebt sich die wirtschaftliche Logik von KI. Der größte Nutzen entsteht nicht allein dort, wo Code schneller geschrieben wird. Er entsteht im Alltag: Bei der Erstellung von Excel- und Powerpoint-Dokumenten sowie von Protokollen oder beim Extrahieren von Tasks. Kurzum: Dort, wo teure, kleinteilige und wiederkehrende Routinen aus Projektsteuerung, Analyse, Abstimmung und Qualitätssicherung systematisch entlastet werden können.
Zur Realität gehören aber auch Halluzinationen, fehlerhafte Tool-Calls und verlorener Kontext, obwohl die Informationen vorhanden sind. Fortschritt bringt daher nicht ein anderes Modell, sondern eine bessere Struktur der Informationen und die richtige Datenablage.
Das „Bottleneck“ ist die Informationsarchitektur
Das „Bottleneck“ produktiver KI ist die Informationsarchitektur: Wenn Informationen in Silos liegen, bleibt der KI-Einsatz fragmentiert. Erst wenn Anforderungen, technische Dokumentationen und Projektwissen kollaborativ, konsistent und maschinenlesbar bereitstehen, entsteht der Kontext, den produktive KI zwingend braucht. In diesem Sinne ist Infrastruktur breiter zu verstehen als reine Hardware.
Die Datenqualität und -ablage wird für Unternehmen somit zunehmend relevant. Hinterlegt beispielsweise ein Entwickler in JIRA nicht seine aufgebrachten Aufwände in einem Ticket, kann der AI Agent auch keine realistische Aufwandsberechnung erstellen.
KI skaliert dort, wo Routinen maschinenfähig werden
Gerade für einen Technologie-Dienstleister wie TIMETOACT GROUP liegt viel Aufwand in der Abschätzung von Arbeitstasks und neuen Projekten. Ziel ist es, dies über KI zu steuern. Das spart viel unbezahlten Aufwand und bringt im besten Fall noch Qualität. Besonders aufschlussreich ist daher ein entwickeltes Schätztool, das historische Projektdaten nutzt, um Aufwände präziser abzuleiten. Aus einer pauschalen Acht-Tage-Schätzung wird eine datengestützte Prognose von etwa 7,3 Tagen. In solchen Mikroentscheidungen zeigt sich die Logik der AI Factory: weniger Bauchgefühl, mehr Muster, weniger Reibung, mehr Reproduzierbarkeit.
Für weitere kleine und teure Routinen hat TIMETOACT einen Controlling Agent gebaut, bei dem GitHub, JIRA, Confluence und Claude miteinander verbunden sind. Vorausgesetzt, alle Informationen sind gepflegt, ist es dem Projektmanager auf Knopfdruck möglich, den aktuellen Status entsprechend dem Projektfortschritt und Budgetverbrauch auszulesen. Was bisher einen großen manuellen Aufwand erforderte, ist nun schnell machbar.
Ein Change-Request-Agent, der Vertrags- und Pflichtenheftlogik in Sekunden prüft, sowie eine Risikoanalyse mit Copilot, die fehlende Deadlines oder schwache Beschlüsse sichtbar macht, sind ebenfalls möglich.
Hybridität und Governance gehören in den Kern
Für viele Unternehmen wird diese Produktionsfähigkeit durch Tools in hybriden Architekturen entstehen. Cloud beschleunigt, kontrollierte Umgebungen schützen. Vieles lässt sich on-premises abbilden, cloudbasiert aber oft schneller; zugleich gibt es bei Kundendaten, Datenschutz und Compliance gute Gründe, in kontrollierten Umgebungen zu bleiben. Damit wird die AI Factory auch zur Betriebsfrage moderner Hybrid-IT: Welche Daten dürfen wo verarbeitet werden, wie werden Integrationen kontrolliert und wie funktioniert Governance über Systemgrenzen hinweg?
Am Ende steht deshalb kein Appell, mehr KI-Tools einzuführen. Der eigentliche Sprung heißt, Prozesse nicht nur zu beschleunigen, sondern teilweise zu ersetzen. Genau das ist die AI Factory: kein weiterer Use Case, sondern ein neues Betriebsmodell für Unternehmen, die aus KI produktive Skalierung machen wollen.