Produktion neu gedacht: Manufacturing‑X, 8ra und die Rolle von KI, Edge und Cloud für die Industrie 5.0

Künstliche Intelligenz ist in vielen Fertigungsunternehmen angekommen - aber oft nur im Pilotmodus. Was fehlt, sind skalierbare Architekturen, souveräne Datenräume und ein klarer Pfad vom Use Case in den Regelbetrieb. Der Beitrag zeigt, wie Manufacturing-X und ein europäisches Cloud Edge Kontinuum (z. B. im Rahmen von IPCEI-CIS/8ra) genau diesen Brückenschlag ermöglichen – und welche Rolle KI-Lösungen am Edge und in der Cloud in der Praxis spielen.
Warum KI in der Produktion jetzt skalieren muss
Globale Lieferkettenrisiken, volatile Energiepreise und Fachkräftemangel setzen die Fertigung unter Druck. Gleichzeitig steigen Anforderungen an Qualität, Transparenz und Nachhaltigkeit entlang der Wertschöpfungsketten. KI bietet hier einen wirkungsvollen Hebel: Sie hilft, Prozesse robuster, effizienter und flexibler zu gestalten – von der Maschine bis zur vernetzten Lieferkette.
In der Realität bleibt der Nutzen aber häufig hinter den Erwartungen zurück. Viele Unternehmen haben einzelne KI-Prototypen aufgebaut, es fehlt jedoch an integriertem Datenmanagement, verbindlichen Standards und einem Infrastrukturkonzept, das Echtzeit am Shopfloor mit zentralem Modelltraining verbindet. Genau diese Lücke adressieren Initiativen wie Manufacturing-X und europäische Cloud Edge Programme wie 8ra.
Status quo: Viele KI-Piloten, wenig Regelbetrieb
In der industriellen Fertigung in Deutschland befindet sich KI insgesamt noch überwiegend im Erprobungsstadium. Viele Betriebe fahren Pilotprojekte – etwa zur visuellen Prüfung oder zur Zustandsüberwachung –, aber der Übergang in den belastbaren 24/7 Betrieb gelingt nur selten. Gründe sind unter anderem Souveränität, fragmentierte Datenlandschaften, proprietäre Maschinensysteme und die schwierige Integration in bestehende IT- und OT-Umgebungen.
Hinzu kommen hohe Anforderungen an Latenz, Verfügbarkeit und Sicherheit. KI-Anwendungen müssen in rauen Produktionsumgebungen zuverlässig funktionieren, mit limitierten Ressourcen am Rand (Edge) auskommen und gleichzeitig die Vorgaben von Informationssicherheit und Compliance einhalten. Zudem agieren viele Unternehmen zurückhaltend, wenn es um die Nutzung von Cloud Ressourcen außerhalb Europas geht – Datensouveränität und regulatorische Sicherheit haben hohe Priorität.
Manufacturing-X: Datenökosystem für KI-Mehrwert
Manufacturing-X wird als offenes, sicheres Datenökosystem für die Industrie aufgebaut. Ziel ist es, entlang der gesamten Wertschöpfungskette – vom Zulieferer bis zum OEM – einen vertrauenswürdigen, standardisierten Datenaustausch zu etablieren. Dadurch sollen Unternehmen ihre Produktions-, Produkt- und Betriebsdaten besser verknüpfen und für neue Anwendungen nutzbar machen, ohne die Kontrolle darüber zu verlieren.
Für KI bedeutet das: Anstatt isolierter Dateninseln entstehen vernetzte Datenräume, in denen Modelle mit konsistenten, qualitativ hochwertigen Daten trainiert werden können. Standardisierte Schnittstellen und Governance Mechanismen erleichtern es, KI Use Cases über Unternehmens- und Standortgrenzen hinweg zu skalieren – etwa für durchgängige Qualitätssicherung, Traceability oder emissionsbezogene Auswertungen entlang der Lieferkette.
8ra / IPCEI-CIS: Cloud Edge Kontinuum als technisches Rückgrat
Parallel dazu schafft die europäische 8ra-Initiative im Rahmen von IPCEI-CIS ein interoperables Cloud Edge Kontinuum. Dieses soll verschiedene europäische Provider, Edge Ressourcen und spezialisierte Plattformen so verbinden, dass Unternehmen Workloads je nach Latenz, Sicherheits- und Rechenanforderung flexibel über Landesgrenzen hinweg oder auch innerhalb eines Landes verteilen können.
Für Fertigungsunternehmen eröffnet das einen souveränen Gegenentwurf zu rein hyperscaler-zentrierten Modellen: Zeitkritische Inferenz läuft dort, wo sie entstehen muss – am Rand bzw. Edge, nahe an Maschine und Linie –, während rechenintensive Aufgaben wie das Training komplexer Modelle, Simulationen oder standortübergreifende Analysen in souveränen Cloud Instanzen stattfinden. So entsteht ein lernfähiges Gesamtsystem, das lokale Produktionsanforderungen mit europäischer Infrastrukturstrategie verbindet.
Als strategischer Projektpartner in der 8ra-Initiative bringt die Telekom ihre Erfahrung mit vernetzten Infrastrukturen, Edge Plattformen und industriellen Cloud Lösungen in die Gestaltung dieses europäischen Cloud Edge Kontinuums ein. Für Fertigungsunternehmen bedeutet das, dass KI-Szenarien – von Computer Vision bis Predictive Maintenance – nicht nur technisch, sondern auch unter Gesichtspunkten von Sicherheit, Souveränität und Integrationsfähigkeit in bestehende Fabrik-IT gedacht und umgesetzt werden.
KI in der Fertigung entfaltet ihren vollen Wert erst dann, wenn Datenräume wie Manufacturing-X und souveräne Cloud Edge Infrastrukturen zusammenspielen – genau an dieser Schnittstelle unterstützt die Telekom den Mittelstand dabei, aus Piloten produktive Standards zu machen.
"Im Rahmen von IPCEI-CIS wurden bisher zahlreiche Projekte genehmigt, die von der Grundlagenforschung bis zur konkreten Industrieanwendung reichen. Die enge Vernetzung von Kompetenzen von der Forschungseinrichtung über den Mittelstand bis zum Konzern sowie über Ländergrenzen hinweg sorgt dabei für ein hohes Entwicklungstempo und starkes Innovationsmoment. In spätestens einem Jahr dürften hier erste konkrete Erfolge zu verzeichnen sein. Jetzt heißt es, weitere Projekte im IPCEI-Kontext wie IPCEI-CIC und IPCEI-AI voranzubringen", erklärt Ralf Pechmann, CEO bei Telekom MMS (Zitat aus produktion.de).
Wo KI heute Prozesse in der Fertigung stärkt
- Qualitätssicherung
In der visuellen Qualitätssicherung erkennen KI-Modelle kleinste Abweichungen an Bauteilen oder Oberflächen – konsistent über Schichten, Werke und Standorte hinweg. Kamerasysteme liefern Bilddaten direkt an Edge-Geräte, auf denen die Modelle in Millisekunden entscheiden, ob ein Teil in Ordnung ist oder nicht.
Wie das in der Praxis aussieht, zeigt etwa das Projekt mit Optiplan: Für glasfaserverstärkte Kunststoffe wurde dort eine KI-gestützte optische Qualitätskontrolle mit KI-Videoanalyse an der Linie umgesetzt, die Fehlerklassen automatisiert erkennt und den manuellen Prüfaufwand deutlich reduziert.
In der Cloud können diese Modelle regelmäßig mit neuen Daten aus mehreren Linien oder Werken nachtrainiert werden. Dadurch verbessern sie sich kontinuierlich und lernen, mit neuen Varianten, Materialien oder Störmustern umzugehen, ohne dass dafür jeder Standort eine eigene, isolierte Lösung pflegen muss. - Logistik und Materialfluss
In der Intralogistik und im Wareneingang lassen sich mit KI wiederkehrende, fehleranfällige Aufgaben automatisieren. Lieferscheine, Etiketten oder Barcodes können erfasst, interpretiert und mit ERP- und MES-Systemen abgeglichen werden, ohne dass jeder Schritt manuell kontrolliert werden muss. So sinken Erfassungsfehler und Durchlaufzeiten, während Transparenz über Bestände und Materialflüsse steigt.
Praxisbeispiele für den Einsatz von Computer Vision Technologie in der Logistik reichen vom scannerlosen Paletten-Tracking im Kühlhaus – wie bei Frutania, wo ein KI Sensor Ordnung ins Lager bringt und Bestände in Echtzeit sichtbar macht – bis hin zu FIEGE Cargo Logistics, wo ein KI-gestütztes System mit 3D-Sensorik den Aufbau von Luftfrachtpaletten überwacht und so Auslastung, Effizienz und Qualität in der Luftfrachtlogistik erhöht. Aggregierte Prozessdaten werden anschließend zentral analysiert, um Engpässe, Schwachstellen oder Optimierungspotenziale zu identifizieren.
Auch hier spielt perspektivisch die Kombination aus Edge und Cloud eine Rolle: Edge-Komponenten sorgen dafür, dass Scan- und Erkennprozesse lokal und robust funktionieren, etwa in Hallen mit begrenzter Konnektivität. Aggregierte Prozessdaten werden anschließend zentral analysiert, um Engpässe, Schwachstellen oder Optimierungspotenziale zu identifizieren. - Instandhaltung und Prozessstabilität
In der Instandhaltung hilft KI dabei, von reaktiver zu vorausschauender Wartung zu wechseln. Sensoren an Maschinen – etwa für Vibration, Temperatur oder Stromaufnahme – liefern kontinuierlich Daten, aus denen Modelle Muster für bevorstehende Störungen oder Qualitätsabweichungen ableiten. Kritische Trends werden früh erkannt, sodass Wartungen geplant und ungeplante Stillstände vermieden werden können.
Ein Beispiel dafür ist die Überwachung von Reinstwasserventilen bei GlobalFoundries in Dresden: Akustische Sensoren, Edge Hardware und Machine-Learning-Algorithmen wurden mit einer Cloud-Plattform verknüpft, um den Zustand produktionskritischer Ventile permanent zu überwachen und beginnende Defekte frühzeitig zu erkennen. So entsteht ein skalierbares Predictive-Maintenance-Szenario, das sich auf weitere Anlagen und Standorte ausrollen lässt – ein typischer Baustein für ein Cloud Edge Kontinuum in der Halbleiterfertigung.
Denn gerade in komplexen Anlagen ergeben sich dabei Mehrwerte über den einzelnen Standort hinaus: Werden Daten aus mehreren Linien oder Werken (aggregiert und pseudonymisiert) in einer souveränen Cloud zusammengeführt, lassen sich häufige Fehlerbilder, Ersatzteilbedarfe oder Parametereinstellungen vergleichen. So entsteht ein lernendes Netzwerk von Anlagen, das Betriebserfahrungen teilt, ohne Unternehmensgeheimnisse offenzulegen.
AI Vision Suite: Bild- & Videoanalyse mit KI
AI Vision Suite: Bild- & Videoanalyse mit KI
Erfahren Sie, wie KI Ihre Produktionsprozesse optimiert – von der Fehlererkennung bis zur vorausschauenden Wartung. Lassen Sie sich individuell beraten.
Mehr Informationen zu AI Vision SuiteGrenzen klassischer KI-Modelle in der Industrie
In hochspezialisierten Abläufen stoßen viele KI-Modelle an praktische Grenzen. Standardmodelle berücksichtigen häufig nicht das tief verankerte Domänen und Prozesswissen, das etwa in hochpräzisen Montage oder Bearbeitungsprozessen steckt. Ohne dieses Expertenwissen bleiben Modelle entweder zu ungenau oder nur in engen Szenarien einsetzbar.
Auch die technische Umsetzbarkeit ist ein Thema: Große Modelle benötigen viel Rechenleistung und Speicher, was nicht zu jeder Edge-Hardware und nicht zu jedem Echtzeitszenario passt. Hinzu kommen typische Datenprobleme in der Produktion – etwa unvollständige, inkonsistente oder schwer zugängliche Maschinendaten –, die die Entwicklung robuster Modelle aufwendig machen. Der Schlüssel liegt daher in hybriden Ansätzen, die KI mit Domänenwissen, Regeln und robustem Engineering verbinden.
Anforderungen an die IT-Architektur in der Fertigung
Für den produktiven KI-Einsatz braucht es eine durchgängig verfügbare, robuste Dateninfrastruktur von der Maschine bis in die Cloud. Anwendungen wie visuelle Qualitätskontrolle oder Echtzeit-Prozessüberwachung benötigen stabilen Zugriff auf Sensordaten, Maschinensignale und Bildströme; Unterbrechungen oder Latenzspitzen wirken sich direkt auf Ausschuss oder Taktzeiten aus. Daher sind standardisierte Protokolle, definierte Data Pipelines und Monitoring-Mechanismen unverzichtbar.
Zentral ist außerdem eine klare Integrationsstrategie zwischen OT-Systemen (z. B. SPS, Feldbus, industrielle Gateways) und IT-Welten (MES, ERP, CloudPlattformen). KI-Anwendungen entfalten nur dann Wirkung, wenn ihre Ergebnisse unmittelbar in Steuerungs oder Planungssysteme zurückwirken – etwa durch automatische Anpassung von Parametern, Prozesswarnungen oder Empfehlungen für Bediener. Schnittstellen, APIs und Datenmodelle sollten deshalb so gestaltet sein, dass KI-Services sich wie weitere, gut dokumentierte Bausteine in die bestehende Architektur einfügen.
Integration ohne Brüche und Sicherheitslücken
Eine der größten Herausforderungen in Fabriken ist die Heterogenität der Systemlandschaft: Neue Cloud-Plattformen treffen auf jahrzehntealte Steuerungen und proprietäre Protokolle. Bewährt haben sich hier Architekturansätze, die standardisierte APIs und Konnektoren als „Übersetzer“ einsetzen. Diese übernehmen sowohl den Dateneingang für KI-Modelle als auch die strukturierte Rückgabe von Ergebnissen an die operativen Systeme.
Sicherheit muss dabei von Anfang an mitgeplant werden. Es bietet sich an, sensible Produktionsdaten so weit wie möglich lokal am Edge zu verarbeiten und nur anonymisierte oder aggregierte Informationen in übergeordnete Cloud-Instanzen zu übertragen. Ergänzend sorgen verteilte Verarbeitung, Redundanzkonzepte und fehlertolerante Frameworks dafür, dass KI-Funktionen auch bei Netzstörungen weiterlaufen – ein entscheidender Faktor für kritische Fertigungsprozesse.
Edge-Cloud-Modell: Wann was wo?
Bei datenintensiven Anwendungen wie Computer Vision oder hochfrequenter Sensorik spielt Edge Computing seine Stärken aus. Bild- und Sensordaten werden direkt an der Linie verarbeitet, Entscheidungen (z. B. „Bauteil gut/schlecht“, „Anlage in kritischem Zustand“) fallen in Millisekunden, ohne Umweg über entfernte Rechenzentren. Das reduziert Latenz, schont Bandbreite und erhöht die Robustheit gegenüber Netzschwankungen.
Die Cloud ergänzt diese lokale Intelligenz um skalierbare Rechenleistung und Speicher: Hier werden Modelle trainiert, Varianten verglichen oder Szenarien simuliert. Cloudbasierte Verarbeitung ist besonders dann sinnvoll, wenn keine harte Echtzeit gefordert ist, aber große Datenmengen und Rechenkapazitäten benötigt werden – etwa beim Training von KI-Modellen oder bei standortübergreifenden Optimierungen. Unter Einhaltung europäischer Datenschutz und Souveränitätsanforderungen können souveräne Cloud-Instanzen dafür sorgen, dass sensible Produktionsdaten geschützt bleiben.
Balance zwischen lokaler Intelligenz und zentralem Training
Die Kunst besteht darin, die richtige Balance zwischen Edge-Inferenz und zentralem Modelltraining zu finden. Zeitkritische Entscheidungen – zum Beispiel das Stoppen eines Bandes oder das Aussortieren eines fehlerhaften Bauteils – sollten möglichst nah an der Anlage getroffen werden. Dafür werden kompakten Modelle auf Edge-Geräten betrieben, die regelmäßig mit aktualisierten Parametern aus der Cloud versorgt werden.
Gleichzeitig können zentrale Plattformen oder Rechenzentren das aufwendige Training der Modelle übernehmen. Ein interessanter Ansatz ist hier Federated Learning: Standorte trainieren lokale Modelle auf ihren Daten, teilen aber nur Modellupdates, nicht die Rohdaten selbst. So lassen sich gemeinsame, leistungsfähige Modelle über mehrere Werke hinweg entwickeln, ohne dass sensible Produktionsdaten den jeweiligen Standort verlassen. Voraussetzung dafür sind reife Datenaggregation, sichere Kommunikationswege und ein verlässliches Monitoring der Modellqualität.
Vom Pilot zur Skalierung: Was sich bewährt hat
Viele KI-Projekte scheitern nicht an der Technologie, sondern an fehlender Skalierungsstrategie. Erfolgreiche Unternehmen starten mit klar definierten, überschaubaren Use Cases und messbaren Kennzahlen – etwa einer gezielten Reduktion von Nacharbeit, Stillstandzeiten oder manuellen Prüfaufwänden. Die skizzierten Projekte wie die KI-Qualitätskontrolle bei Optiplan, Predictive-Maintenance-Lösungen bei GlobalFoundries oder KI-gestützte Lager und Logistikoptimierung bei Frutania und FIEGE zeigen, dass sich aus fokussierten Piloten wiederverwendbare Bausteine für Qualität, Wartung und Materialfluss entwickeln lassen.
Auf diesen ersten Erfolgen bauen Unternehmen systematisch auf, indem sie standardisierte Daten und Infrastrukturbausteine etablieren, statt für jeden neuen Use Case ein Einmalprojekt zu starten. Plattformen für KI-Videoanalyse und IoT-Integration – wie sie unter anderem auch bei Remondis zum Einsatz kommen – erleichtern dabei den Übergang vom Prototyp in den Regelbetrieb und schaffen Anschlussfähigkeit an Initiativen wie Manufacturing-X und ein europäisches Cloud Edge Kontinuum.
Weiterführende Inhalte/mehr zum Thema
- KI in der Produktion | Erfahren Sie mehr über die Einsatzbereiche von künstlicher Intelligenz