Die Begeisterung für Künstliche Intelligenz ist in Europas Unternehmen ungebrochen – und zunehmend gut begründet. Laut einer aktuellen Lenovo-Studie sollen die KI-Ausgaben in der EMEA-Region in diesem Jahr um mehr als 100 Prozent steigen. In Deutschland sind es sogar 141 Prozent. Auch die Zufriedenheit ist hoch: 94 Prozent der befragten Unternehmen gaben an, dass ihre KI-Projekte die Erwartungen erfüllt oder sogar übertroffen haben.
Eine effiziente IT-Infrastruktur ist für den Erfolg von KI-Projekten entscheidend. Probleme beim Skalieren und fehlende Integration in bestehende Systeme gefährden oft die Implementierung.
(Bild: Midjourney / KI-generiert)
Doch so eindrucksvoll diese Zahlen auch sind – der Blick in die Praxis zeigt ein anderes Bild. Noch immer scheitert fast jedes dritte Projekt an der Skalierung. Unternehmen stoßen an Grenzen, wenn es darum geht, Pilotprojekte in den Regelbetrieb zu überführen. Die Herausforderungen sind technischer Natur: unzureichende Datenqualität, fehlende Governance-Strukturen – und vor allem eine IT-Infrastruktur, die mit dem Tempo der KI-Entwicklung nicht mithalten kann.
Denn auch wenn sich viele Firmen inzwischen sicherer im Umgang mit KI fühlen: Die operative Umsetzung bleibt komplex. Erfolgreiche PoCs sind nur der Anfang. Was zählt, ist der Transfer in belastbare Betriebsmodelle – und hier entscheidet die technologische Grundlage über den langfristigen Erfolg. Wer KI skalieren will, muss Infrastruktur strategisch mitdenken. Andernfalls bleibt das Potenzial der Technologie ungenutzt.
Von der Idee zum Mehrwert
Der typische Lebenszyklus eines KI-Projekts beginnt vielversprechend. Ein Team identifiziert einen geeigneten Use-Case – zum Beispiel die Automatisierung interner Prozesse, die Analyse von Kundenfeedback oder den Einsatz eines generativen Modells im Servicebereich. Erste Ergebnisse sind oft beeindruckend: Die Modelle funktionieren, liefern relevante Antworten oder machen Vorschläge, die bisher manuell erarbeitet wurden.
Doch viele Projekte scheitern an der nächsten Hürde: der Überführung in den produktiven Betrieb. Hier reicht es nicht mehr aus, ein Modell weiter zu optimieren. Es braucht eine belastbare Infrastruktur – skalierbare Rechenleistung, robuste Datenpipelines und klar definierte Governance-Strukturen.
Viele Unternehmen unterschätzen genau diesen Schritt. Sie fokussieren sich auf das Modell – aber nicht auf das System, das es dauerhaft trägt. So bleibt der PoC oft isoliert, getrennt von den Produktionssystemen und ohne Rückbindung an zentrale Datenquellen. Technisch gesehen ist das Projekt erfolgreich. Wirtschaftlich gesehen ist es wertlos.
Dazu kommt: Je reifer die Organisation, desto mehr Use-Cases werden parallel entwickelt. Ohne standardisierte Infrastruktur und klare Skalierungsstrategie entsteht schnell ein Flickenteppich aus Insellösungen – mit hohem Pflegeaufwand und wenig strategischer Wirkung.
Wer den Wert seiner KI-Initiativen realisieren will, muss frühzeitig investieren: in eine Infrastruktur, die nicht nur PoCs ermöglicht, sondern den dauerhaften, skalierbaren Einsatz von KI unterstützt.
Ohne saubere, aktuelle und zugängliche Daten scheitert jedes KI-Projekt – egal, wie leistungsfähig das Modell ist. Viele Unternehmen haben ihre Datenarchitekturen über Jahre hinweg auf operative Effizienz optimiert – nicht auf semantische Kohärenz oder KI-Trainingsfähigkeit. Im Proof-of-Concept bleibt dieser Mangel oft verborgen: Hier arbeiten die Modelle mit sorgfältig ausgewählten, vorbereiteten Testdaten. Doch im produktiven Betrieb treffen sie auf die Realität – fragmentierte, veraltete, uneinheitliche Datensätze. Sobald ein Modell auf diese „echten“ Daten angewiesen ist, leidet die Qualität der Ergebnisse. Vertrauen geht verloren – und das Projekt steht zur Disposition.
Mindestens ebenso kritisch ist die fehlende Integration in bestehende Geschäftsprozesse. Proof-of-Concepts laufen oft in isolierten Testumgebungen. Doch produktive KI muss nahtlos in ERP-, CRM- oder Produktionssysteme eingebettet werden. Ohne vollständige Datenflüsse, standardisierte APIs und automatisierte Anbindung entsteht kein echter Mehrwert – unabhängig davon, wie gut das Modell funktioniert.
Mit der Skalierung steigen auch die technischen Anforderungen rasant an. Modelle, die unter Laborbedingungen funktionieren, benötigen im Betrieb spezialisierte Infrastrukturen: GPU-optimierte Server, hochperformante Storage-Systeme und stabile Netzwerke mit niedriger Latenz. Wer diese Faktoren nicht frühzeitig einplant, riskiert Leistungseinbußen, Systemausfälle und hohe Betriebskosten.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Fragmentierte IT-Landschaft
Ein weiterer, oft unterschätzter Stolperstein ist die fehlende Standardisierung. In vielen Organisationen entwickeln verschiedene Teams parallel KI-Lösungen, oft mit eigenen Tools, Frameworks und Sicherheitsrichtlinien. Das Ergebnis ist eine fragmentierte Landschaft ohne gemeinsamen Nenner – technisch wie organisatorisch. Skalierung aber erfordert Wiederverwendbarkeit. Es braucht klare APIs, einheitliche Datenstandards, konsistente Rollen- und Rechtemodelle. Fehlt diese Struktur, vervielfacht sich der Pflege- und Wartungsaufwand – und jede neue Anwendung wird zur Einzelfalllösung.
Nicht zuletzt bleibt der Betrieb oft eine Leerstelle. Viele KI-Modelle werden zwar entwickelt und validiert, aber ohne Begleitprozesse in die Produktion gegeben. Dabei ist gerade der laufende Betrieb entscheidend: Modelle müssen überwacht, aktualisiert, angepasst werden. Es braucht Monitoring-Mechanismen, die Daten-Drift erkennen, Verfahren für Re-Training, Backups, Skalierungsreserven und ein verlässliches Incident-Management. Ohne diese „unsichtbare“ Infrastruktur kann keine KI-Anwendung nachhaltig funktionieren – selbst wenn sie technisch ausgereift ist.
Technologische Bausteine für den produktiven KI-Betrieb
Wer KI im Unternehmen erfolgreich nutzen will, muss sich frühzeitig mit einer zentralen Frage auseinandersetzen: Welche Infrastruktur trägt das Ganze dauerhaft? Denn so leistungsfähig ein Modell auch sein mag – ohne skalierbares Fundament bleibt es wirkungslos. Die technologische Basis entscheidet darüber, ob ein Projekt verlässlich läuft, mit neuen Anforderungen wachsen kann und wie viel Aufwand im laufenden Betrieb erforderlich ist.
Im Zentrum steht zunächst die Rechenleistung. Generative Modelle, insbesondere Large-Language-Models (LLMs), verlangen spezialisierte Prozessoren, die für parallele Berechnungen ausgelegt sind – allen voran GPUs. Während in der Pilotphase oft einzelne Systeme oder Cloud-Kapazitäten genutzt werden, steigen die Anforderungen im produktiven Betrieb schnell. Echtzeitfähigkeit, hohe Verfügbarkeit und eine intelligente Lastverteilung werden dann zur Pflicht. Unternehmen müssen frühzeitig entscheiden, ob sie ihre Workloads in der Cloud betreiben, On-Premises hosten oder auf hybride Modelle setzen. Gerade in Deutschland bevorzugen viele Unternehmen aus regulatorischen und datenschutzrechtlichen Gründen weiterhin lokale oder hybride Architekturen – laut Lenovo-Studie setzen hierzulande 68 Prozent auf On-Premises-Systeme.
Doch leistungsfähige Prozessoren allein sichern keinen stabilen Betrieb. Ebenso entscheidend ist die Speicherinfrastruktur. KI-Modelle arbeiten mit enormen Datenmengen, oft unstrukturiert, verteilt und in Bewegung. Die Anforderungen an Latenz, I/O-Durchsatz und Skalierbarkeit wachsen mit jedem zusätzlichen Anwendungsfall. Klassische Speichersysteme stoßen hier schnell an ihre Grenzen. Gefragt sind flexible, Software-definierte Speicherlösungen, die datenintensive Anwendungen performant unterstützen – etwa Edge-Storage, hochverfügbare NVMe-Systeme oder intelligente Tiering-Konzepte.
Auch das Netzwerkdesign darf nicht unterschätzt werden. Gerade bei verteilten Architekturen – etwa zwischen Edge-Geräten, Rechenzentrum und Cloud – bestimmt die Netzwerkinfrastruktur maßgeblich die Performance der gesamten KI-Anwendung. Engpässe entstehen häufig an unscheinbaren Stellen: überlastete Switches, veraltete Protokolle oder fehlende Segmentierungen. Ein stabiles, sicheres und breitbandiges Netzwerk wird damit zur tragenden Voraussetzung für produktionsreife KI.
Mindestens ebenso wichtig ist ein durchdachtes Datenmanagement. Unternehmen benötigen Systeme, die den gesamten Lebenszyklus von Daten abbilden – von der Erfassung über die Klassifizierung bis hin zur Versionierung. Metadaten spielen dabei eine zentrale Rolle: Sie sorgen dafür, dass Trainingsdaten nachvollziehbar sind und regulatorische Anforderungen, etwa im Hinblick auf Erklärbarkeit oder Auditierbarkeit, erfüllt werden können. Ohne saubere Datenpipelines, strukturierte Kataloge und konsistente Zugriffskontrollen ist ein nachhaltiger KI-Betrieb nicht möglich.
Und schließlich: Der Betrieb selbst muss von Beginn an mitgeplant werden. Monitoring, Logging, Modellpflege und Incident-Response sind keine nachgelagerten Aufgaben, sondern integrale Bestandteile produktiver KI-Architekturen. Moderne MLOps-Plattformen helfen dabei, diese Prozesse zu automatisieren und nahtlos mit bestehenden DevOps-Strukturen zu verzahnen. Sie machen Modelländerungen nachvollziehbar, erleichtern Updates und ermöglichen eine stabile Integration in bestehende Betriebsabläufe. Unternehmen, die früh auf solche Plattformen setzen, reduzieren nicht nur ihren Aufwand – sie sichern zugleich die Verlässlichkeit ihrer KI-Anwendungen im Alltag.
Infrastruktur als Werttreiber
In vielen Unternehmen wird Infrastruktur noch als technisches Betriebsmittel betrachtet. Doch mit produktiven KI-Anwendungen wird sie zum strategischen enabler: Sie entscheidet, ob aus Pilotprojekten echte Geschäftserfolge werden. Der Erfolg von KI bemisst sich nicht an Modellen im Testbetrieb, sondern daran, ob sie Prozesse verbessern, Kosten senken und neue Geschäftsfelder erschließen. Wer skalierbare Infrastrukturen aufbaut, verkürzt Time-to-Market-Zeiten, senkt Betriebskosten und erhöht die Nutzerakzeptanz.
Florian Richter, Market Leader Solutions & Services Group DACH, Lenovo.
(Bild: Lenovo)
Besonders deutlich wird das an der Schnittstelle zwischen Fachbereich und IT. Während Fachabteilungen Use-Cases vorantreiben, braucht es für die Skalierung IT-Kompetenz: Plattformwahl, Systemintegration, Sicherheit. Infrastruktur wird damit zum Bindeglied – zwischen Geschäftsanforderung und Umsetzung.
Voraussetzung dafür ist klare Governance. Ohne verbindliche Zuständigkeiten entstehen Insellösungen oder Systeme ohne Business-Relevanz. Nur eine gemeinsam entwickelte Infrastrukturstrategie schafft ein tragfähiges Fundament für den KI-Betrieb.
Flexibel skalierbare Infrastruktur ist kein Kostenfaktor, sondern die Voraussetzung dafür, dass Unternehmen auf Veränderungen schnell reagieren – und Innovation dauerhaft tragen können.
* Der Autor: Florian Richter, Market Leader Solutions & Services Group DACH, Lenovo