Verwaltungsschalen statt PLM-System


Daten-Synchronisierung

Auch die Frage nach der Versionierung wurde gelöst. Ändert sich ein Wert, werden auch die Werte in den betroffenen Client-AAS verändert. Auf Grundlage eines ereignisbasierten Kommunikationskonzeptes werden die Daten im AAS-Thread synchronisiert. Ändert sich ein Wert in einer Datenquelle, wird dieser synchron in den individualisierten AASs verändert. Als Technologie setzen IFF-Wissenschaftler auf MQTT und standardisierte Topics, die sich an der Struktur der AAS sowie dem ISA95-Standard orientieren. Der Datenraum etabliert die Datenautobahn als zentrale Single Source of Truth (Unified Namespace).

Noch nicht abschließend geklärt ist die Frage, wie die Werte von den Client-AAS in die jeweilige (Planungs-)Software kommen. Rest ist zwar als Schnittstelle weit verbreitet und steht für AAS zur Verfügung. Damit lässt sich allerdings kein ereignisbasiertes Kommunikationskonzept umsetzen. Erste Anbieter bieten inzwischen ereignisbasierte Kommunikationsschnittstellen an. Der durch die Einrichtung der AAS verbundene Aufwand wird mit Verbreitung dieser Technologie geringer werden. Mit Open-Source-Software wie BaSyx lassen sich AAS bereits jetzt implementieren.

Für den Datenschutz setzen die Forschenden auf den Data Space Connector der Eclipse Dataspace Components (EDC) zur unternehmensübergreifenden Vernetzung von Verwaltungsschalen. Alle AAS liegen dezentral beim Nutzer ab, können jedoch zu einem Gaia-X-kompatiblen Datenraum zusammengeführt werden. Dadurch bleiben die Daten bei deren Eigentümer.

Daten effizient bereitstellen

Das Ziel des AAS-Thread ist nicht das Sammeln von Daten, sondern deren schnelle und effiziente Bereitstellung. Eingesetzt werden dafür AAS als dezentrale Datenvermittler. Akteure im Planungsprozess eines Produktes oder einer Anlage sind bei Nutzung des AAS-Thread freier und flexibler als bei einer Wahl eines herkömmlichen PLM-Anbieters, da der Ansatz offenen Standards folgt. Neue Daten sollten somit leicht integrierbar und das System unendlich skalierbar sein.

Das könnte Sie auch interessieren

Autonomes Navigieren, Pick-and-Place-Anwendungen, Qualitätssicherung - Roboter übernehmen in der Industrie bereits viele wichtige Aufgaben und tragen zur Produktivitätssteigerung bei. Mit KI könnte Robotik künftig flexibler und resilienter werden. Wie sieht diese Kombination aus - und welche Rolle nimmt der Mensch ein?‣ weiterlesen

Trend Micro fasst im aktuellen Lagebericht die wichtigsten IT-Sicherheitstrends im ersten Halbjahr 2024 zusammen. Das Bedrohungsniveau bei Ransomware und Phishing bleibt hoch. Cyberkriminelle haben aus den jüngsten Erfolgen der Polizei gelernt und passen ihre Taktiken an, indem sie etwa KI und globale Ereignisse für ihre Zwecke nutzen. ‣ weiterlesen

Das Projekt Arctic bringt 36 internationale Partner aus Industrie und Forschung zusammen, um eine europäische Lieferkette für eine Steuerungsinfrastruktur für kryogene Quantenprozessoren aufzubauen. Die deutschen Institute Fraunhofer IPMS und Fraunhofer IAF bringen ihre Kompetenz in der Charakterisierung von elektronischen Komponenten ein. ‣ weiterlesen

Wie der VDMA vor einiger Zeit berichtet hat, trübt sich die Stimmung bei den deutschen Robotik-Herstellern zunehmend ein. Diese erwarten – vor allem aufgrund der schwachen Inlandsnachfrage – nur zwei Prozent Wachstum in 2024. Auch die chinesische Konkurrenz macht der hiesigen Branche das Leben schwer. Dass diese Krise überwiegend hausgemacht ist, meint Nikolai Ensslen, CEO und Gründer des schwäbischen Robotik-Spezialisten Synapticon. ‣ weiterlesen

Angriffe auf die IT-Infrastruktur können Datenlecks, Datenmanipulation und Produktionsausfälle verursachen. Der Schutz vor Angriffen rückt in den Vordergrund. Asset-Management ist eine Grundlage dabei, die künftig durch generative KI unterstützt werden könnte. ‣ weiterlesen

Mit der Abkündigung von Diensten und Plattformen wie Google IoT Core, IBM Watson IoT und SAP Leonardo standen im vergangenen Jahr die Zeichen im IoT-Markt auf Konsolidierung. Beobachter leiteten daraus ein Ende des Hypes ab, und Unternehmen stellten sich die Frage nach Wirtschaftlichkeit und Zukunftsfähigkeit ihrer IoT-Projekte. Zu Recht? Oder war der Abgesang verfrüht?Bei der Umsetzung einer IoT-Plattform-Migration unterstützt Device Insight die Unternehmen mit einem 5-Schitte-Verfahren. Darin enthalten ist ein Anforderungs-Check für die strukturierte Konzept-Entwicklung. (Bild: Device Insight GmbH)Das Internet of Things ist ein Werkzeug, das Unternehmen dabei unterstützt, Probleme zu lösen. Doch in der Frühphase des IoT wurde – oft ohne konkreten Anwendungsfall – viel experimentiert. Unternehmen wollten innovativ sein, den Trend nicht verpassen, und gingen davon aus, dass das Sammeln von Daten sich irgendwann als wertvoll erweisen würde. Mit dem heute erreichten Reifegrad des Marktes konzentrieren sich IoT-Investitionen jedoch stärker auf erzielbare Geschäftsergebnisse. Im industriellen Kontext bilden etwa gepflegte IoT-Daten eine wichtige Grundlage von Prozessoptimierung und für KI-Anwendungen. Gleichzeitig kämpfen viele Unternehmen mit ineffizienten IoT-Architekturen. Darauf müssen sie ebenso reagieren wie auf das Veralten oder Verschwinden von Plattformen.Nicht alles, was technisch machbar ist, ist wirtschaftlich sinnvoll. In der Anfangszeit experimentierten viele Unternehmen mit Hilfe von externen Dienstleistern und bauten IoT-Anwendungen auf. Doch der kommerzielle Erfolg blieb oft aus. In den letzten Jahren scheinen Unternehmen jedoch zunehmend zu verstehen, wie das IoT Mehrwerte für ihre Produktion, Produkte und Dienstleistungen bringen kann. Vielfach stellen vernetzte Software-Komponenten bereits integrale Bestandteile von Produkten und Geschäftsprozessen dar. Zunehmend bauen Unternehmen daher interne Kompetenz auf, wo sie sie vorher noch extern eingekauft haben. Dazu gehört auch die eigene Softwareentwicklung. Hier stehen sie jedoch vor der Herausforderung, gute Entwickler zu finden und zu halten. Das gilt besonders für Mittelständler, die häufig im ländlichen Raum ansässig sind.Ein weiteres Problem ist die Verwendung von IoT-Plattformen, die während der Hype-Phase eingeführt wurden und die sich später als ineffizient, instabil oder nicht skalierbar genug erwiesen. Die Folgen sind hohe operative Kosten, unzuverlässige Systeme und hohe Wartungsaufwände, die die Ressourcen von Entwicklern binden. Besonders problematisch ist das, wenn der Betrieb von Infrastruktur und Anwendungen zeitintensiv ist, weil auf Infrastructure as a Service (IaaS) gesetzt wurde.IoT ist inzwischen Bestandteil vieler Produkte. Eine instabile IoT-Architektur oder ein instabiler digitaler Teil eines größeren Produkts verringern den Wert der gesamten Lösung. Im schlimmsten Fall kann es zu Kundenunzufriedenheit und Rufschäden kommen. Hohe Betriebs-, Entwicklungs- und Sicherheitskosten binden Ressourcen, die in der Entwicklung und Verbesserung von Produkten besser investiert wären.Oft weisen IoT-Plattformen der ‘ersten Generation’ Leistungsdefizite auf, da sie nicht ausreichend auf Skalierbarkeit ausgelegt sind. Zudem sind viele ältere Plattformen häufig nicht modular aufgebaut und somit weniger flexibel. Auch hohe Betriebskosten sind bei älteren IaaS-basierten Lösungen häufig ein Problem. Ein möglicher Ausweg besteht im Umstieg auf Public Clouds wie Azure oder AWS. Vor einer solchen Migration sollte jedoch die bestehende Lösung und die Architektur evaluiert werden, um Fehler nicht zu wiederholen.

Um die Qualität zu erhöhen und effizienter zu produzieren, validiert Airbus Atlantic schon heute Produktionsprozesse virtuell am digitalen Zwilling. Was mit einigen simulierten Roboterzellen begann, könnte den Grundstein einer virtuellen Validierung kompletter Werkstätten bilden. (Bild: Airbus Atlantic)Airbus Atlantic ist eine hundertprozentige Tochtergesellschaft von Airbus – und mit rund 13.500 Mitarbeitern in fünf Ländern und drei Kontinenten selbst ein Tier-1 Player der Luftfahrtindustrie. Gemeinsam mit dem Airbus-Konzern will man zum Pionier der nachhaltigen Luftfahrt avancieren. Ein Ziel, das zum Gehen neuer Wege aufruft und mit Mitteln wie Innovation, Prozesseffizienz und Digitalisierung umgesetzt werden kann. Einen Meilenstein dafür setzte Airbus Atlantic 2021 am französischen Standort Méaulte: Mit einem Projekt rund um die Roboterprogrammierung und virtuelle Validierung. Ein Vorhaben, das klein startete – das allerdings den Start für den Aufbau des digitalen Zwillings und der Validierung von komplett virtuellen Werkstätten setzte.“Die Zielsetzung war eine möglichst genaue digitale Simulation der Realität, Verkürzung der Vorführ- und Justierzeiten im Werk und die Senkung von durch Ausschüsse und Fehler entstandenen Kosten”, schildert Arnaud Varlet, Sales Manager bei Cenit. (Bild: Airbus Atlantic)Technologische und situative Herausforderungen dienten als Auslöser: Der Standort Méaulte zeichnet sich durch den hohen Einsatz von Robotern aus. “Wir stellten allerdings fest, dass unsere bis dato eingesetzte Software unserem Anspruch in Bezug auf Leistungsfähigkeit nicht entsprach. So hatten wir in der Roboterprogrammierung bereits vor einigen Jahren mit einem sukzessiven Umstieg auf die Lösungen Catia / Delmia gestartet”, sagt Jonathan Schaubroek, Robotics and Riveting Machine Programer bei Airbus Atlantic. Die technologischen Neuerungen sollten jedoch nicht bei der Offline-Programmierung enden. Im Gegenteil: Man wollte auch den Folgeprozess, die virtuelle Validierung der aus der Online-Programmierung hervorgegangenen Programme am digitalen Zwilling – den sogenannten virtual dry run – zu einem festen Bestandteil der Abläufe machen. Die virtuelle Validierung ermöglicht es, Unzulänglichkeiten zwischen der Roboterprogrammierung und dem tatsächlichen Produktionsprozess im Vorfeld zu erkennen, um auf Anhieb eine gute Leistung zu erbringen. Sie stellt daher eine nicht zu unterschätzende industrielle und finanzielle Herausforderung dar.Die Suche nach einer Software, die die gesetzten fachlichen und technologischen Ansprüche erfüllte, führte die Experten von Airbus Atlantic zu einem Austausch mit Cenit. Die beiden Unternehmen arbeiteten bereits seit 2015 im Bereich der Roboterprogrammierung zusammen. “In der bisherigen Zusammenarbeit mit Cenit haben wir von deren Software-Expertise und der tiefen Kenntnis der Robotik- und Industriewelt profitiert. Auch menschlich und sprachlich war die Kooperation durch die Ansprechpartner vor Ort ein guter Fit”, betont Experte Schaubroeck. Zusammen mit Cenit-Spezialisten tauchte das Team aus Méaulte somit tiefer in die Welt der Fastsuite Edition 2 ein, Cenits 3D-Simulationssuite für die digitale Fabrik. “Ich kannte bisher kein System, das in einer virtuellen Softwareumgebung eine so exakte Kopie dessen simulierte, was man in der Werkstatt auf der Roboterseite vorfand”, sagt Jonathan Schaubroeck. Musste sein Team bis dato darauf vertrauen, dass die Online-Programmierung zu intendierten Ergebnissen beim Robotereinsatz führte – und damit im Nachhinein Planungs- oder Programmierfehler in Kauf nehmen – bot die Software nun im Vorfeld eine parameterbasierte Sicherheit.

Mit der Digitalisierung ihrer Produktion erlangen Unternehmen mehr Produktivität, Flexibilität und Datendurchgängigkeit. Allerdings blockieren heterogene IT- und OT-Landschaften vielerorts die notwendige Modernisierung. Außerdem fehlen Fachleute für aufwendige Innovationsprojekte. In diesem Szenario bietet sich eine modulare Software-Plattform an, die vorhandene IT- und OT-Strukturen vernetzt sowie die Schwächen bisheriger Ansätze aus starr verketteten SPS-basierten Lösungen vermeidet.Digitalisierung und Einbindung funktionieren im eigenen Haushalt einfach und kostengünstig: Fernseher, Laptops und Türklingeln lassen sich ohne besonderes Fachwissen innerhalb von Minuten in das Heimnetz integrieren. Selbst eine Hausautomation können Heimwerker heute umsetzen und komplette Abläufe ohne Programmierkenntnisse definieren. In der Industrie ist es dagegen bislang unmöglich, Werkzeugmaschinen, Laser, Roboter oder Prüfzellen schnell in Fertigungsprozesse einzubeziehen und Produktionsanlagen simpel und flexibel umzustellen.Das liegt vor allem an den fragmentierten Digitalisierungsansätzen, die aus den gewachsenen komplexen IT- und OT-Landschaften resultieren: Die Automatisierungstechniken und Software-Anwendungen stammen oftmals aus den 1990er-Jahren. Häufig laufen Architekturen aus logisch starr miteinander verketteten individuellen SPS-basierten Lösungen. Applikationen lassen sich nur funktional erweitern, indem Experten unterschiedliche Programme und SPS-Systeme anpassen. Das alles erschwert eine Modernisierung und Standardisierung der Fertigungsprozesse. Zahlreiche Digitalisierungslösungen adressieren diese Herausforderungen zwar und versprechen mehr Effizienz und Flexibilität. Sie haben jedoch meistens zwei wesentliche Schwächen:1. schaffen langwierige Adaptionen in der laufenden Produktion Risiken für einen Stillstand und lange Rüstzeiten. Selbst wenn Optimierungen bekannt und theoretisch realisierbar sind, implementieren viele Unternehmen diese letztlich nicht – aus Sorge vor einem zu langen Fertigungsausfall. Im Ergebnis schöpfen sie ihre Produktionspotenziale nicht aus.2. haben etablierte digitale Lösungen – zum Beispiel MES-, SPS- und Industrie 4.0-Ansätze – wohl ihre Vorteile für verschiedene Fabrik-Settings. Sie stellen allerdings keine durchgängigen Kontroll- und Datenflüsse sicher.Das Ergebnis solcher IT/OT-Projekte bleibt dann oft eine fragmentierte Digitalisierung: Die Durchgängigkeit vom Auftrag zum Artikel fehlt weiterhin, Prozessdaten werden ohne Korrelation erfasst, für mehr Flexibilität und kleine Losgrößen entstehen noch immer hohe Kosten, Anpassungen bedeuten einen großen Programmieraufwand an den SPSen. Solche Insellösungen und Datensilos werden den hohen Anforderungen einer modernen Fabrik nicht gerecht.Diese Schwächen umgehen Lösungen aus dem Manufacturing Operations Management (MOM). Das verspricht eine lückenlose Kommunikation von der Fertigungs- bis zur Unternehmensleitebene. Das MOM verwaltet und optimiert Produktionsprozesse und modelliert diese durchgängig digital – von der Planung und Steuerung sowie Organisation und Durchführung über die Überwachung und Verbesserung der Prozesse bis zur Datenanalyse. Dafür braucht es ein systemübergreifendes Zusammenspiel von MES, ERP, Produktionsplanung und mehr. Die Vernetzung gelingt mit einer Vielzahl offener technischer Schnittstellen.

Zwar erhöhen Firmen mittels Wartung die Verfügbarkeit ihrer Anlagen. Laut einer Studie von ABB kommt es bei der Mehrheit der Befragten monatlich jedoch zu mindestens einem ungeplanten Stillstand. ‣ weiterlesen

Die Kombination von Robotik und künstlicher Intelligenz (KI) verspricht großes Potenzial für die Produktion. Werden Bewegungsanweisungen etwa von einem KI-Algorithmus berechnet, muss nicht für jede neue Fertigungsaufgabe eine Fachperson hinzugezogen werden. Nach diesem Prinzip haben Forschende am IHP-Institut für Integrierte Produktion Hannover einem Cobot das Zeichnen beigebracht. Dieses , das ausschließlich relevante Kanten enthält, kann von einem Cobot nachgezeichnet werden. (Bild: Susann Reichert / IPH gGmbh)Kollaborierende Roboter, auch Cobots genannt, übernehmen in der Produktion Aufgaben, die üblicherweise von menschlichen Händen ausgeführt werden. Im Vergleich zu klassischen Industrierobotern sind sie kleiner und flexibler. Sie sind dafür gebaut, Seite an Seite mit Menschen zusammenzuarbeiten. Zudem zeichnen sich Cobots durch eine intuitivere Handhabung und geringeren – allerdings manuellen – Programmieraufwand aus. Der Einsatz lohnt sich daher nur für repetitive Bewegungsabläufe. Aufgaben, bei denen Flexibilität gefordert ist – etwa bei der Fertigung von Einzelstücken nach individuellen Kundenwünschen – können Cobots noch nicht sinnvoll übernehmen. Mit Hilfe von künstlicher Intelligenz (KI) könnte sich dies jedoch ändern. KI-Algorithmen übernehmen dabei die Aufgabe, Bewegungsanweisungen für den Cobot zu erstellen. In Zukunft könnten Cobots somit auch von Personen ohne Programmierkenntnisse bedient werden.Ein Beispiel für die Verbindung von Cobot und KI haben Forschende am IPH – Institut für Integrierte Produktion Hannover entwickelt. Sie haben einem Cobot beigebracht, Bilder detailliert nachzuzeichnen. Dabei wird ein zuvor unbekanntes Bild mittels KI analysiert und in eine Bewegungsanweisung für den Roboter umgewandelt.Mit mehreren verarbeitungs-Algorithmen wird ein in ein Schwarz-Weiß-umgewandelt, das ausschließlich relevante Kanten enthält. (Bild: Leonard Engelke / IPH gGmbh)Damit das Bild vom Cobot gezeichnet werden kann, sind zunächst mehrere Bildverarbeitungs-Schritte notwendig. Ziel ist es, das Bild so umzuwandeln, dass nur die wichtigen Kanten übrig bleiben. Für die Bildverarbeitung greifen mehrere Algorithmen ineinander. Zunächst wird das Bild in ein Schwarz-Weiß-Bild umgewandelt. Anschließend wird der Weichzeichner Gaussian Blur angewandt, um Bilderrauschen, Artefakte und kleinere Details zu entfernen. Danach kommt der Canny-Algorithmus (Canny Edge Detector) zum Einsatz: Dieser prüft jeden einzelnen Pixel darauf, wie stark sich dieser von seiner Umgebung abhebt. Pixel, die sich stark abheben, werden als Kante erkannt, alle anderen Pixel werden entfernt. So entsteht ein Schwarz-Weiß-Bild, das ausschließlich relevante Kanten enthält (siehe Zeichnung).Anschließend erstellt die KI den Programmiercode für den Cobot, der damit das Bild möglichst effizient zeichnen kann. Das Ziel ist es, nicht für jeden Pixel eine eigene Bewegungsanweisung zu erstellen, sondern so viele Pixel wie möglich in einer einzelnen Bewegung zu zeichnen. Die Zeichnung erfolgt also nicht Punkt für Punkt, sondern in langen, verbundenen Linien – überflüssige Bildfragmente werden weggelassen. Die KI trifft dabei die Entscheidungen, welche Bildpunkte tatsächlich relevant sind und welche entfallen werden können.Die Kombination aus Robotik und KI-Bilderkennung bietet perspektivisch Möglichkeiten für verschiedene Fertigungsbereiche. So könnten Cobots künftig individuelle Gravuren auf unterschiedliche Produkte aufbringen. Die KI-Bilderkennung erkennt die Größe und Form des Produkts, die Oberflächenbeschaffenheit und das Material und errechnet die richtigen Parameter für den Cobot, der die Gravur aufbringt.In der Werkstattfertigung könnte ein solcher Roboter ein individuelles Bauteil verschweißen. Benötigt würde dafür die CAD-Datei der Bauteilgeometrie sowie die Schweißnahtposition – die Bewegungsanweisungen für den Roboter errechnet dann ein KI-Algorithmus.Potenzial verspricht das Zusammenspiel von KI und Cobot auch bei der Qualitätssicherung: Die KI erkennt fehlerhafte Werkstücke, der Cobot sortiert sie aus. Wird die Qualität bereits während des Fertigungsprozesses erfasst, kann die KI bei Abweichungen eigenständig die Parameter anpassen und dadurch Ausschuss vermeiden. Die KI-basierte Qualitätssicherung beim 3D-Druck von individuellen Medizinprodukten hat das IPH bereits im Forschungsprojekt ‘Saviour’ erforscht.

Das Fraunhofer-Institut für Photonische Mikrosysteme IPMS präsentiert einen Demonstrator für die vorausschauende Wartung von Industrieanlagen. Dieser nutzt Sensorik, kombiniert mit einer auf künstlicher Intelligenz (KI) basierenden Datenverarbeitung, um potenzielle Maschinenschäden frühzeitig zu erkennen und kostspielige Ausfallzeiten zu vermeiden. ‣ weiterlesen