MOM macht die Fertigung digital


Software-Plattform verbessert Fertigungsabläufe

Als beispielhaftes MOM fügt sich die offene Software-Plattform Moryx (Modular Factory Cross-Industry) in jedes Fabrik-Setting ein. Ob eine vollautomatisierte Fertigung oder klassische Produktlinie, ob Anlage oder Maschine, ob Greenfield- oder Brownfield-Szenario: Moryx ist mit jeder Ausgangsbasis kompatibel. Während MES-, SPS- und Industrie 4.0-Lösungen jeweils lediglich in spezifischen Bereichen Vorteile haben, integriert die Plattform diese Stärken und gleicht die Schwächen aus. Sie erweist sich als einzige Lösung auf dem Markt, mit der Produktionsmitarbeiter die Fertigungsprozesse in Echtzeit steuern können, um eigenständig Produkte oder Aufträge anzulegen oder zu ändern. Gibt es beispielsweise eine Störung, kann der Mitarbeiter selbständig am Bildschirm eine Maschine per Drag&Drop aus dem Produktionsprozess nehmen, bis das Problem behoben ist. Auf diese Weise verbessert das Team im Shopfloor die Abläufe und verringert den Ausschuss während der Fertigung. Solche Eingriffe reduzieren Stillstandzeiten und erhöhen die Overall Equipment Effectiveness (OEE). Moryx zeigt beliebig wählbare Prozess -und Arbeitsschritte auf, sodass auch ungelernte Fabrikmitarbeiter wissen, wie zum Beispiel bei einem Maschinenausfall oder Artikelwechsel zu reagieren ist. Einheitliche Software-Oberflächen anstatt viele einzelne Tools: Das erhöht die Bedienungssicherheit und reduziert die Schulungszeiten.

Architektur der Plattform im Überblick

Die Architektur besteht aus vier miteinander gekoppelten Komponenten:

1. Open Source Framework: Das auf .Net basierende Open Source Framework bildet das technische Fundament, das auf Linux, Windows, Edge Devices und (Cloud-)Servern läuft. Es stellt die Werkzeuge zur Modellierung sowie die Laufzeitumgebung der digitalen Zwillinge der Maschinen und der herzustellenden Produkte zur Verfügung. Einmal modelliert dienen diese digitalen Abbilder als wiederverwendbare Grundlage für Digitalisierungsapplikationen. So kann Moryx die Fähigkeiten und Zustände sämtlicher Produktionsgeräte abbilden – sowohl zur Steuerung des Fertigungsprozesses im Leitsystem ebenso wie im Wartungsmanagement. Die Software liefert alle relevanten Daten, unter anderem zur Produktionsdauer, den Prozessschritten, zum Energieeinsatz pro Produkt (Stichwort: Green Factory) und zu den genutzten Materialien aus bestimmten Chargen (Stichwort: Lebenszyklus).

2. Moryx-Treiber: In jeder Fabrik werden OT-Geräte mit geringer und hoher Komplexität verwendet, vom Handscanner bis zum Roboter. Moryx-Treiber integrieren diese Technologien digital ansteuerbar in die Plattform. Sie übersetzen die einheitlichen internen Moryx-Daten auf das Übertragungsprotokoll des jeweiligen Geräts (spezifische TCP-Protokolle, OPC UA, MQTT u.a.).

3. Moryx-Module: Sobald die heterogenen Fertigungstechnologien auf einer gemeinsamen Schnittstelle zusammengeführt sind, können die Moryx-Module die Produktions- und Logistikprozesse steuern. Darüber hinaus sind Module zur Verwaltung von Fertigungsaufträgen und Stammdaten sowie visuelle Werkerassistenz- und Data-Analytics-Module erhältlich.

4. Moryx-Adapter: Die Moryx-Adapter schließen die digitalen Lücken zu den IT-Systemen. Sie importieren beispielsweise Produktstammdaten, Produktionsaufträge, Produktidentifizierungsdaten oder Gehäusebeschriftungen. Sie überführen die heterogenen digitalen Schnittstellen der IT-Systeme auf die einheitlichen Schnittstellen zu den Moryx-Modulen. Die Herstellungsergebnisse können ebenfalls über den entsprechenden Adapter aus der Fertigung zurückgemeldet werden – z.B. an das ERP-System.

Bei sämtlichen Datenschnittstellen handelt es sich um auf GitHub verfügbare Open Source. Somit können Anwender ihre Software einfach anpassen und mit der gekauften Moryx-Software kombinieren. Treiber, Module und Adapter lassen sich in verschiedenen Applikationen wiederverwenden und austauschen, wenn eine Anlage beispielsweise erweitert oder an einen neuen Standort mit anderer IT-Infrastruktur verlagert wird.

Fazit: Auf dem Weg zur digitalen Fabrik kann Moryx für Unternehmen jeder Größe zum Startpunkt werden. Die Plattform ist durch den mehr als zehnjährigen Einsatz in der Industrie und Serienproduktion geprüft und gehärtet. Zahlreiche Verbesserungen am Produkt und Erfahrungen aus den Prozessen sind eingeflossen, die das Moryx-Team jetzt an seine Kunden weitergeben kann.

Das könnte Sie auch interessieren

Autonomes Navigieren, Pick-and-Place-Anwendungen, Qualitätssicherung - Roboter übernehmen in der Industrie bereits viele wichtige Aufgaben und tragen zur Produktivitätssteigerung bei. Mit KI könnte Robotik künftig flexibler und resilienter werden. Wie sieht diese Kombination aus - und welche Rolle nimmt der Mensch ein?‣ weiterlesen

Trend Micro fasst im aktuellen Lagebericht die wichtigsten IT-Sicherheitstrends im ersten Halbjahr 2024 zusammen. Das Bedrohungsniveau bei Ransomware und Phishing bleibt hoch. Cyberkriminelle haben aus den jüngsten Erfolgen der Polizei gelernt und passen ihre Taktiken an, indem sie etwa KI und globale Ereignisse für ihre Zwecke nutzen. ‣ weiterlesen

Das Projekt Arctic bringt 36 internationale Partner aus Industrie und Forschung zusammen, um eine europäische Lieferkette für eine Steuerungsinfrastruktur für kryogene Quantenprozessoren aufzubauen. Die deutschen Institute Fraunhofer IPMS und Fraunhofer IAF bringen ihre Kompetenz in der Charakterisierung von elektronischen Komponenten ein. ‣ weiterlesen

Wie der VDMA vor einiger Zeit berichtet hat, trübt sich die Stimmung bei den deutschen Robotik-Herstellern zunehmend ein. Diese erwarten – vor allem aufgrund der schwachen Inlandsnachfrage – nur zwei Prozent Wachstum in 2024. Auch die chinesische Konkurrenz macht der hiesigen Branche das Leben schwer. Dass diese Krise überwiegend hausgemacht ist, meint Nikolai Ensslen, CEO und Gründer des schwäbischen Robotik-Spezialisten Synapticon. ‣ weiterlesen

Angriffe auf die IT-Infrastruktur können Datenlecks, Datenmanipulation und Produktionsausfälle verursachen. Der Schutz vor Angriffen rückt in den Vordergrund. Asset-Management ist eine Grundlage dabei, die künftig durch generative KI unterstützt werden könnte. ‣ weiterlesen

Mit der Abkündigung von Diensten und Plattformen wie Google IoT Core, IBM Watson IoT und SAP Leonardo standen im vergangenen Jahr die Zeichen im IoT-Markt auf Konsolidierung. Beobachter leiteten daraus ein Ende des Hypes ab, und Unternehmen stellten sich die Frage nach Wirtschaftlichkeit und Zukunftsfähigkeit ihrer IoT-Projekte. Zu Recht? Oder war der Abgesang verfrüht?Bei der Umsetzung einer IoT-Plattform-Migration unterstützt Device Insight die Unternehmen mit einem 5-Schitte-Verfahren. Darin enthalten ist ein Anforderungs-Check für die strukturierte Konzept-Entwicklung. (Bild: Device Insight GmbH)Das Internet of Things ist ein Werkzeug, das Unternehmen dabei unterstützt, Probleme zu lösen. Doch in der Frühphase des IoT wurde – oft ohne konkreten Anwendungsfall – viel experimentiert. Unternehmen wollten innovativ sein, den Trend nicht verpassen, und gingen davon aus, dass das Sammeln von Daten sich irgendwann als wertvoll erweisen würde. Mit dem heute erreichten Reifegrad des Marktes konzentrieren sich IoT-Investitionen jedoch stärker auf erzielbare Geschäftsergebnisse. Im industriellen Kontext bilden etwa gepflegte IoT-Daten eine wichtige Grundlage von Prozessoptimierung und für KI-Anwendungen. Gleichzeitig kämpfen viele Unternehmen mit ineffizienten IoT-Architekturen. Darauf müssen sie ebenso reagieren wie auf das Veralten oder Verschwinden von Plattformen.Nicht alles, was technisch machbar ist, ist wirtschaftlich sinnvoll. In der Anfangszeit experimentierten viele Unternehmen mit Hilfe von externen Dienstleistern und bauten IoT-Anwendungen auf. Doch der kommerzielle Erfolg blieb oft aus. In den letzten Jahren scheinen Unternehmen jedoch zunehmend zu verstehen, wie das IoT Mehrwerte für ihre Produktion, Produkte und Dienstleistungen bringen kann. Vielfach stellen vernetzte Software-Komponenten bereits integrale Bestandteile von Produkten und Geschäftsprozessen dar. Zunehmend bauen Unternehmen daher interne Kompetenz auf, wo sie sie vorher noch extern eingekauft haben. Dazu gehört auch die eigene Softwareentwicklung. Hier stehen sie jedoch vor der Herausforderung, gute Entwickler zu finden und zu halten. Das gilt besonders für Mittelständler, die häufig im ländlichen Raum ansässig sind.Ein weiteres Problem ist die Verwendung von IoT-Plattformen, die während der Hype-Phase eingeführt wurden und die sich später als ineffizient, instabil oder nicht skalierbar genug erwiesen. Die Folgen sind hohe operative Kosten, unzuverlässige Systeme und hohe Wartungsaufwände, die die Ressourcen von Entwicklern binden. Besonders problematisch ist das, wenn der Betrieb von Infrastruktur und Anwendungen zeitintensiv ist, weil auf Infrastructure as a Service (IaaS) gesetzt wurde.IoT ist inzwischen Bestandteil vieler Produkte. Eine instabile IoT-Architektur oder ein instabiler digitaler Teil eines größeren Produkts verringern den Wert der gesamten Lösung. Im schlimmsten Fall kann es zu Kundenunzufriedenheit und Rufschäden kommen. Hohe Betriebs-, Entwicklungs- und Sicherheitskosten binden Ressourcen, die in der Entwicklung und Verbesserung von Produkten besser investiert wären.Oft weisen IoT-Plattformen der ‘ersten Generation’ Leistungsdefizite auf, da sie nicht ausreichend auf Skalierbarkeit ausgelegt sind. Zudem sind viele ältere Plattformen häufig nicht modular aufgebaut und somit weniger flexibel. Auch hohe Betriebskosten sind bei älteren IaaS-basierten Lösungen häufig ein Problem. Ein möglicher Ausweg besteht im Umstieg auf Public Clouds wie Azure oder AWS. Vor einer solchen Migration sollte jedoch die bestehende Lösung und die Architektur evaluiert werden, um Fehler nicht zu wiederholen.

Um die Qualität zu erhöhen und effizienter zu produzieren, validiert Airbus Atlantic schon heute Produktionsprozesse virtuell am digitalen Zwilling. Was mit einigen simulierten Roboterzellen begann, könnte den Grundstein einer virtuellen Validierung kompletter Werkstätten bilden. (Bild: Airbus Atlantic)Airbus Atlantic ist eine hundertprozentige Tochtergesellschaft von Airbus – und mit rund 13.500 Mitarbeitern in fünf Ländern und drei Kontinenten selbst ein Tier-1 Player der Luftfahrtindustrie. Gemeinsam mit dem Airbus-Konzern will man zum Pionier der nachhaltigen Luftfahrt avancieren. Ein Ziel, das zum Gehen neuer Wege aufruft und mit Mitteln wie Innovation, Prozesseffizienz und Digitalisierung umgesetzt werden kann. Einen Meilenstein dafür setzte Airbus Atlantic 2021 am französischen Standort Méaulte: Mit einem Projekt rund um die Roboterprogrammierung und virtuelle Validierung. Ein Vorhaben, das klein startete – das allerdings den Start für den Aufbau des digitalen Zwillings und der Validierung von komplett virtuellen Werkstätten setzte.“Die Zielsetzung war eine möglichst genaue digitale Simulation der Realität, Verkürzung der Vorführ- und Justierzeiten im Werk und die Senkung von durch Ausschüsse und Fehler entstandenen Kosten”, schildert Arnaud Varlet, Sales Manager bei Cenit. (Bild: Airbus Atlantic)Technologische und situative Herausforderungen dienten als Auslöser: Der Standort Méaulte zeichnet sich durch den hohen Einsatz von Robotern aus. “Wir stellten allerdings fest, dass unsere bis dato eingesetzte Software unserem Anspruch in Bezug auf Leistungsfähigkeit nicht entsprach. So hatten wir in der Roboterprogrammierung bereits vor einigen Jahren mit einem sukzessiven Umstieg auf die Lösungen Catia / Delmia gestartet”, sagt Jonathan Schaubroek, Robotics and Riveting Machine Programer bei Airbus Atlantic. Die technologischen Neuerungen sollten jedoch nicht bei der Offline-Programmierung enden. Im Gegenteil: Man wollte auch den Folgeprozess, die virtuelle Validierung der aus der Online-Programmierung hervorgegangenen Programme am digitalen Zwilling – den sogenannten virtual dry run – zu einem festen Bestandteil der Abläufe machen. Die virtuelle Validierung ermöglicht es, Unzulänglichkeiten zwischen der Roboterprogrammierung und dem tatsächlichen Produktionsprozess im Vorfeld zu erkennen, um auf Anhieb eine gute Leistung zu erbringen. Sie stellt daher eine nicht zu unterschätzende industrielle und finanzielle Herausforderung dar.Die Suche nach einer Software, die die gesetzten fachlichen und technologischen Ansprüche erfüllte, führte die Experten von Airbus Atlantic zu einem Austausch mit Cenit. Die beiden Unternehmen arbeiteten bereits seit 2015 im Bereich der Roboterprogrammierung zusammen. “In der bisherigen Zusammenarbeit mit Cenit haben wir von deren Software-Expertise und der tiefen Kenntnis der Robotik- und Industriewelt profitiert. Auch menschlich und sprachlich war die Kooperation durch die Ansprechpartner vor Ort ein guter Fit”, betont Experte Schaubroeck. Zusammen mit Cenit-Spezialisten tauchte das Team aus Méaulte somit tiefer in die Welt der Fastsuite Edition 2 ein, Cenits 3D-Simulationssuite für die digitale Fabrik. “Ich kannte bisher kein System, das in einer virtuellen Softwareumgebung eine so exakte Kopie dessen simulierte, was man in der Werkstatt auf der Roboterseite vorfand”, sagt Jonathan Schaubroeck. Musste sein Team bis dato darauf vertrauen, dass die Online-Programmierung zu intendierten Ergebnissen beim Robotereinsatz führte – und damit im Nachhinein Planungs- oder Programmierfehler in Kauf nehmen – bot die Software nun im Vorfeld eine parameterbasierte Sicherheit.

Zwar erhöhen Firmen mittels Wartung die Verfügbarkeit ihrer Anlagen. Laut einer Studie von ABB kommt es bei der Mehrheit der Befragten monatlich jedoch zu mindestens einem ungeplanten Stillstand. ‣ weiterlesen

Die Kombination von Robotik und künstlicher Intelligenz (KI) verspricht großes Potenzial für die Produktion. Werden Bewegungsanweisungen etwa von einem KI-Algorithmus berechnet, muss nicht für jede neue Fertigungsaufgabe eine Fachperson hinzugezogen werden. Nach diesem Prinzip haben Forschende am IHP-Institut für Integrierte Produktion Hannover einem Cobot das Zeichnen beigebracht. Dieses , das ausschließlich relevante Kanten enthält, kann von einem Cobot nachgezeichnet werden. (Bild: Susann Reichert / IPH gGmbh)Kollaborierende Roboter, auch Cobots genannt, übernehmen in der Produktion Aufgaben, die üblicherweise von menschlichen Händen ausgeführt werden. Im Vergleich zu klassischen Industrierobotern sind sie kleiner und flexibler. Sie sind dafür gebaut, Seite an Seite mit Menschen zusammenzuarbeiten. Zudem zeichnen sich Cobots durch eine intuitivere Handhabung und geringeren – allerdings manuellen – Programmieraufwand aus. Der Einsatz lohnt sich daher nur für repetitive Bewegungsabläufe. Aufgaben, bei denen Flexibilität gefordert ist – etwa bei der Fertigung von Einzelstücken nach individuellen Kundenwünschen – können Cobots noch nicht sinnvoll übernehmen. Mit Hilfe von künstlicher Intelligenz (KI) könnte sich dies jedoch ändern. KI-Algorithmen übernehmen dabei die Aufgabe, Bewegungsanweisungen für den Cobot zu erstellen. In Zukunft könnten Cobots somit auch von Personen ohne Programmierkenntnisse bedient werden.Ein Beispiel für die Verbindung von Cobot und KI haben Forschende am IPH – Institut für Integrierte Produktion Hannover entwickelt. Sie haben einem Cobot beigebracht, Bilder detailliert nachzuzeichnen. Dabei wird ein zuvor unbekanntes Bild mittels KI analysiert und in eine Bewegungsanweisung für den Roboter umgewandelt.Mit mehreren verarbeitungs-Algorithmen wird ein in ein Schwarz-Weiß-umgewandelt, das ausschließlich relevante Kanten enthält. (Bild: Leonard Engelke / IPH gGmbh)Damit das Bild vom Cobot gezeichnet werden kann, sind zunächst mehrere Bildverarbeitungs-Schritte notwendig. Ziel ist es, das Bild so umzuwandeln, dass nur die wichtigen Kanten übrig bleiben. Für die Bildverarbeitung greifen mehrere Algorithmen ineinander. Zunächst wird das Bild in ein Schwarz-Weiß-Bild umgewandelt. Anschließend wird der Weichzeichner Gaussian Blur angewandt, um Bilderrauschen, Artefakte und kleinere Details zu entfernen. Danach kommt der Canny-Algorithmus (Canny Edge Detector) zum Einsatz: Dieser prüft jeden einzelnen Pixel darauf, wie stark sich dieser von seiner Umgebung abhebt. Pixel, die sich stark abheben, werden als Kante erkannt, alle anderen Pixel werden entfernt. So entsteht ein Schwarz-Weiß-Bild, das ausschließlich relevante Kanten enthält (siehe Zeichnung).Anschließend erstellt die KI den Programmiercode für den Cobot, der damit das Bild möglichst effizient zeichnen kann. Das Ziel ist es, nicht für jeden Pixel eine eigene Bewegungsanweisung zu erstellen, sondern so viele Pixel wie möglich in einer einzelnen Bewegung zu zeichnen. Die Zeichnung erfolgt also nicht Punkt für Punkt, sondern in langen, verbundenen Linien – überflüssige Bildfragmente werden weggelassen. Die KI trifft dabei die Entscheidungen, welche Bildpunkte tatsächlich relevant sind und welche entfallen werden können.Die Kombination aus Robotik und KI-Bilderkennung bietet perspektivisch Möglichkeiten für verschiedene Fertigungsbereiche. So könnten Cobots künftig individuelle Gravuren auf unterschiedliche Produkte aufbringen. Die KI-Bilderkennung erkennt die Größe und Form des Produkts, die Oberflächenbeschaffenheit und das Material und errechnet die richtigen Parameter für den Cobot, der die Gravur aufbringt.In der Werkstattfertigung könnte ein solcher Roboter ein individuelles Bauteil verschweißen. Benötigt würde dafür die CAD-Datei der Bauteilgeometrie sowie die Schweißnahtposition – die Bewegungsanweisungen für den Roboter errechnet dann ein KI-Algorithmus.Potenzial verspricht das Zusammenspiel von KI und Cobot auch bei der Qualitätssicherung: Die KI erkennt fehlerhafte Werkstücke, der Cobot sortiert sie aus. Wird die Qualität bereits während des Fertigungsprozesses erfasst, kann die KI bei Abweichungen eigenständig die Parameter anpassen und dadurch Ausschuss vermeiden. Die KI-basierte Qualitätssicherung beim 3D-Druck von individuellen Medizinprodukten hat das IPH bereits im Forschungsprojekt ‘Saviour’ erforscht.

Bei der Planung von Maschinen und Anlagen arbeiten viele Domänen einander zu. Das erschwert den Datenaustausch. Zwar unterstützen Product-Lifecycle-Management-Systeme (PLM), diese sind aber oft aufwendig in ihrer Integration. Mit einer selbst entwickelten Software will das Fraunhofer IFF nun eine Alternative bieten.Im Planungsprozess von Maschinen und Anlagen sind viele Akteure, wie Statiker, Elektriker, Layoutplaner, Logistiker und Ingenieure zu verschiedenen Zeitpunkten involviert. Sie nutzen unterschiedliche Software, was effizienten Datenaustausch erschwert. Im Rahmen eines Forschungsprojektes hat das Fraunhofer IFF eine Anwendung entwickelt, die alle genutzten Systeme innerhalb eines Produktlebenszyklus miteinander vernetzt. Damit wollen die Forschenden den Datenaustausch von der Planung über die Produktion bis hin zum End-of-Life ermöglichen. Die Software des Fraunhofer IFF setzt auf die Verwaltungsschale (englisch: Asset Administration Shell oder AAS), um Daten über standardisierte Schnittstellen bereitzustellen und zusammenzuführen. Über den AAS-Thread werden diese Daten zwischen den einzelnen AAS ausgetauscht. Akteure können über einen Browser auf Daten zugreifen, diese in eigenen Client-AAS zusammenstellen und nutzen.Mit Blick auf die unterschiedlichen Planungsprozesse und die eingesetzte Software fallen große und oft nicht kompatible Datenmengen an. Um diese sinnvoll zur Verfügung zu stellen, mussten die Forschenden zunächst Grundsatzfragen klären, etwa welche Datenquellen es überhaupt gibt. Ebenso musste Klarheit darüber bestehen, wo die Datenquellen verortet sind, in welchen Strukturen und wie diese auffindbar sind. Letztlich musste auch die Art der Datennutzung geklärt werden: Wer braucht beispielsweise welche Daten und wie gelangen diese zum Nutzer?Product-Lifecycle-Management-Systeme (PLM) bieten eine solche digitale Vernetzung über zahlreiche Kommunikationsprotokolle und Datenbanken an. Diese haben allerdings auch oft unerwünschte Effekte wie etwa die Verwechslung oder falsche Interpretation von Daten, die zentrale Sammlung aller Daten in einer Cloud, die mehrfache Existenz gleicher Daten und das Einzelmapping aller Datenpunkte von den Quellen ins PLM-System. Auch müssen neue Datenquellen aufwendig integriert werden, weil es oft keine flexible, modulare Architektur gibt.Hier verspricht die Verwaltungsschale Abhilfe. Als standardisierter digitaler Zwilling macht die AAS Produktionsdaten von Ressourcen wie Maschinen, Anlagen und Sensoren in einer standardisierten und semantisch beschriebenen Struktur abrufbar oder diese auch steuerbar. Sie wirkt als Software-Layer zur Integration von Datenquellen und Systemen. Weiterhin wird die AAS von der Industrial Digital Twin Association (IDTA) in sogenannten Teilmodellen standardisiert. Die IDTA beschreibt zu jedem Datenpunkt einer AAS eine eigene Schnittstelle (API) um den Wert abzurufen oder zu verändern. Ziel ist, die Erstellung und Nutzung von Verwaltungsschalen anwendungsfallbezogen zu standardisieren und somit zu vereinfachen.Die Forschenden am Fraunhofer IFF nutzen die AAS, um einen Digital Thread am Beispiel eines Produkts in der Luftfahrtindustrie umzusetzen. Im Herzen des Digital Thread steht der AAS-Thread. Dieser kann als eine leistungsfähige Datenautobahn zwischen den einzelnen AAS beschrieben werden. Die in der jeweiligen Lebenszyklusphase genutzten Systeme stellen ihre Datenquellen dabei mittels AAS zur Verfügung. Somit befinden sich alle Daten in standardisierten Umgebungen. Die Funktionalitäten der einzelnen AAS werden durch Teilmodelle beschrieben. Nutzer können mittels eines Browsers alle vorhandenen AAS nach dem Inhalt aller Datenquellen durchsuchen. Mit einem Konfigurator können sie auch eigene Client-AAS mit Werten aus verschiedenen Datenquellen bzw. der Quell-AAS zusammenstellen.Weiterhin kann bei der AAS jeder Wert mit einer SemanticID versehen werden. In öffentlichen Katalogen befindet sich hinter jeder SemanticID eine eindeutige Beschreibung, was mit diesem Wert gemeint ist. Kataloge wie Eclass enthalten bis zu 50.000 Einträge, die genutzt werden können. Diese Kataloge tragen den Gedanken der durchgängigen Standardisierung weiter bis in die Metaebene der Daten. Diese Werte der Datenquellen können nun genutzt werden, um damit zu arbeiten. Die daraus entstehenden Output-Daten werden wiederum durch AAS für weitere Nutzung zur Verfügung gestellt. Auch können weitere zugriffsberechtigte Akteure diese Daten nutzen.

Das Fraunhofer-Institut für Photonische Mikrosysteme IPMS präsentiert einen Demonstrator für die vorausschauende Wartung von Industrieanlagen. Dieser nutzt Sensorik, kombiniert mit einer auf künstlicher Intelligenz (KI) basierenden Datenverarbeitung, um potenzielle Maschinenschäden frühzeitig zu erkennen und kostspielige Ausfallzeiten zu vermeiden. ‣ weiterlesen