Das Ende des Hypes?


Ineffiziente IoT-Architekturen

Am Anfang jeder Evaluierung steht die Frage, ob die genutzte IoT-Anwendung einen Mehrwert schafft. Ist dem nicht so, sollte auch die Überlegung, ob der gewählte Digitalisierungsansatz für das Unternehmen überhaupt der richtige ist, kein Tabu sein. Gibt es einen klaren Anwendungsfall oder wird dieser mit einiger Wahrscheinlichkeit in absehbarer Zeit erzielt, müssen alle Werkzeuge, Dienste, Prozesse und Kosten auf den Prüfstand. Unternehmen können sich hier unter anderem an den folgenden Fragen orientieren:

  • • Setzen wir die richtigen Prioritäten?
  • • Verfügen wir über genügend interne Expertise für eine Migration?
  • • Was entlastet unsere Entwickler und senkt Betriebskosten?

Auch ein 5×5 Assessment, wie es Device Insight anbietet, kann helfen. In diesem fünfstufigen Prozess wird eine aktuelle Anwendung kartiert, es werden Schwachstellen und Optimierungspotenziale identifiziert. Der Prozess beginnt mit einer Überprüfung der bestehenden Architektur, um die Anforderungen und notwendigen Clouddienste systematisch zu erfassen. Darauf folgt das Mapping der technischen und geschäftlichen Anforderungen, an das sich die Erstellung eines Konzepts für die potenzielle IoT-Migration anschließt. Im vierten Schritt wird der geeignete Cloud-Anbieter – meist Microsoft Azure oder AWS – ausgewählt.

Das Angebot der Hyperscaler, das zahlreiche Platform-as-a -Service (PaaS)-Dienste umfasst, kann für kleine Unternehmen und Teams sehr undurchsichtig sein. Oft gibt es mehrere Dienste, die ein bestimmtes Problem adressieren. Ohne Unterstützung von Spezialisten tun sich Unternehmen oft schwer mit der Entscheidungsfindung. Der Prozess endet mit der technischen Umsetzung des Plattformwechsels, einschließlich der Integration in die bestehende IT-Landschaft und umfassenden Tests.

Von monolithisch zu flexibel

Ein Trend im IoT geht weg von Plattformen hin zu flexiblen, cloudbasierten Anwendungen. Dieser Wandel erscheint sinnvoll, da IoT-Lösungen sehr heterogen sind und eine einzige Plattform oft nicht allen Anforderungen gleichermaßen gerecht werden kann. Die Verwaltung einer Plattform kann sehr komplex sein, das Beheben der eigentlichen Probleme in den Hintergrund drängen und zum Selbstzweck werden.

Stattdessen sollten Unternehmen auf modulare Ansätze setzen und nach dem Baukastenprinzip nur die tatsächlich benötigten Komponenten auswählen und bezahlen. Erfolgreiche IoT-Lösungen werden aus leistungsfähigen Komponenten zusammengestellt und zu einer Gesamtlösung verknüpft. Dabei ist es auch keineswegs notwendig, das sprichwörtliche Rad neu zu erfinden – es gibt genügend erprobte Bausteine, derer man sich bedienen kann.

Ist cloud-nativ der bessere Weg?

Durch den Einsatz von cloud-nativen Anwendungen können Unternehmen zweifellos Kosten sparen. Aber auch hier gilt es, im Einzelfall zu entscheiden. Manches scheint im Eigenbetrieb günstiger zu sein, doch gerade On-Premises-Systeme verursachen oft erheblichen Aufwand, etwa für das Überwachen, Patchen und Skalieren von Diensten.

Alles, was mit der Verarbeitung und Speicherung von großen Datenmengen zu tun hat, kann in die Cloud ausgelagert werden. Hier liegt die Kernkompetenz der großen Hyperscaler. Sie ermöglichen eine flexible Skalierung, was besonders bei großen Datenmengen und hohen Durchsätzen von Vorteil sein kann. Unternehmen sollten daher prüfen, welche Aufgaben in die Cloud ausgelagert werden können. Allgemein gilt: Es wird nicht automatisch alles gut, weil man in die Cloud geht. Richtig umgesetzt aber kann sich die Cloud als besserer Weg erweisen.

Das könnte Sie auch interessieren

Autonomes Navigieren, Pick-and-Place-Anwendungen, Qualitätssicherung - Roboter übernehmen in der Industrie bereits viele wichtige Aufgaben und tragen zur Produktivitätssteigerung bei. Mit KI könnte Robotik künftig flexibler und resilienter werden. Wie sieht diese Kombination aus - und welche Rolle nimmt der Mensch ein?‣ weiterlesen

Trend Micro fasst im aktuellen Lagebericht die wichtigsten IT-Sicherheitstrends im ersten Halbjahr 2024 zusammen. Das Bedrohungsniveau bei Ransomware und Phishing bleibt hoch. Cyberkriminelle haben aus den jüngsten Erfolgen der Polizei gelernt und passen ihre Taktiken an, indem sie etwa KI und globale Ereignisse für ihre Zwecke nutzen. ‣ weiterlesen

Das Projekt Arctic bringt 36 internationale Partner aus Industrie und Forschung zusammen, um eine europäische Lieferkette für eine Steuerungsinfrastruktur für kryogene Quantenprozessoren aufzubauen. Die deutschen Institute Fraunhofer IPMS und Fraunhofer IAF bringen ihre Kompetenz in der Charakterisierung von elektronischen Komponenten ein. ‣ weiterlesen

Wie der VDMA vor einiger Zeit berichtet hat, trübt sich die Stimmung bei den deutschen Robotik-Herstellern zunehmend ein. Diese erwarten – vor allem aufgrund der schwachen Inlandsnachfrage – nur zwei Prozent Wachstum in 2024. Auch die chinesische Konkurrenz macht der hiesigen Branche das Leben schwer. Dass diese Krise überwiegend hausgemacht ist, meint Nikolai Ensslen, CEO und Gründer des schwäbischen Robotik-Spezialisten Synapticon. ‣ weiterlesen

Angriffe auf die IT-Infrastruktur können Datenlecks, Datenmanipulation und Produktionsausfälle verursachen. Der Schutz vor Angriffen rückt in den Vordergrund. Asset-Management ist eine Grundlage dabei, die künftig durch generative KI unterstützt werden könnte. ‣ weiterlesen

Um die Qualität zu erhöhen und effizienter zu produzieren, validiert Airbus Atlantic schon heute Produktionsprozesse virtuell am digitalen Zwilling. Was mit einigen simulierten Roboterzellen begann, könnte den Grundstein einer virtuellen Validierung kompletter Werkstätten bilden. (Bild: Airbus Atlantic)Airbus Atlantic ist eine hundertprozentige Tochtergesellschaft von Airbus – und mit rund 13.500 Mitarbeitern in fünf Ländern und drei Kontinenten selbst ein Tier-1 Player der Luftfahrtindustrie. Gemeinsam mit dem Airbus-Konzern will man zum Pionier der nachhaltigen Luftfahrt avancieren. Ein Ziel, das zum Gehen neuer Wege aufruft und mit Mitteln wie Innovation, Prozesseffizienz und Digitalisierung umgesetzt werden kann. Einen Meilenstein dafür setzte Airbus Atlantic 2021 am französischen Standort Méaulte: Mit einem Projekt rund um die Roboterprogrammierung und virtuelle Validierung. Ein Vorhaben, das klein startete – das allerdings den Start für den Aufbau des digitalen Zwillings und der Validierung von komplett virtuellen Werkstätten setzte.“Die Zielsetzung war eine möglichst genaue digitale Simulation der Realität, Verkürzung der Vorführ- und Justierzeiten im Werk und die Senkung von durch Ausschüsse und Fehler entstandenen Kosten”, schildert Arnaud Varlet, Sales Manager bei Cenit. (Bild: Airbus Atlantic)Technologische und situative Herausforderungen dienten als Auslöser: Der Standort Méaulte zeichnet sich durch den hohen Einsatz von Robotern aus. “Wir stellten allerdings fest, dass unsere bis dato eingesetzte Software unserem Anspruch in Bezug auf Leistungsfähigkeit nicht entsprach. So hatten wir in der Roboterprogrammierung bereits vor einigen Jahren mit einem sukzessiven Umstieg auf die Lösungen Catia / Delmia gestartet”, sagt Jonathan Schaubroek, Robotics and Riveting Machine Programer bei Airbus Atlantic. Die technologischen Neuerungen sollten jedoch nicht bei der Offline-Programmierung enden. Im Gegenteil: Man wollte auch den Folgeprozess, die virtuelle Validierung der aus der Online-Programmierung hervorgegangenen Programme am digitalen Zwilling – den sogenannten virtual dry run – zu einem festen Bestandteil der Abläufe machen. Die virtuelle Validierung ermöglicht es, Unzulänglichkeiten zwischen der Roboterprogrammierung und dem tatsächlichen Produktionsprozess im Vorfeld zu erkennen, um auf Anhieb eine gute Leistung zu erbringen. Sie stellt daher eine nicht zu unterschätzende industrielle und finanzielle Herausforderung dar.Die Suche nach einer Software, die die gesetzten fachlichen und technologischen Ansprüche erfüllte, führte die Experten von Airbus Atlantic zu einem Austausch mit Cenit. Die beiden Unternehmen arbeiteten bereits seit 2015 im Bereich der Roboterprogrammierung zusammen. “In der bisherigen Zusammenarbeit mit Cenit haben wir von deren Software-Expertise und der tiefen Kenntnis der Robotik- und Industriewelt profitiert. Auch menschlich und sprachlich war die Kooperation durch die Ansprechpartner vor Ort ein guter Fit”, betont Experte Schaubroeck. Zusammen mit Cenit-Spezialisten tauchte das Team aus Méaulte somit tiefer in die Welt der Fastsuite Edition 2 ein, Cenits 3D-Simulationssuite für die digitale Fabrik. “Ich kannte bisher kein System, das in einer virtuellen Softwareumgebung eine so exakte Kopie dessen simulierte, was man in der Werkstatt auf der Roboterseite vorfand”, sagt Jonathan Schaubroeck. Musste sein Team bis dato darauf vertrauen, dass die Online-Programmierung zu intendierten Ergebnissen beim Robotereinsatz führte – und damit im Nachhinein Planungs- oder Programmierfehler in Kauf nehmen – bot die Software nun im Vorfeld eine parameterbasierte Sicherheit.

Die strukturelle Verbesserung der Kosten und Profitabiltät steht für große Industrieunternehmen in diesem Jahr ganz oben auf der Managementagenda. Für zwei Drittel der Vorstände hat das Thema laut einer Studie der Managementberatung Horváth größte Bedeutung. Im Zuge dessen setzt sich die Deglobalisierung der Unternehmen fort: aus Exportweltmeistern werden transnationale Organisationen. Deutschland profitiert hier laut der Studie nicht. ©LALAKA/stock.adobe.com (Bild: ©LALAKA/stock.adobe.com)Mit Ausnahme des Automotive-Sektors gehen die CXOs in allen Industriezweigen für das Gesamtjahr 2024 von konstanten oder leicht steigenden Umsätzen aus. Mit Blick auf 2025 sind die Aussichten positiv – keine Branche geht dann mehr von einem Rückgang aus, alle rechnen mit relevanten Umsatzsteigerungen. “Die Unternehmen haben ihre Hausaufgaben gemacht. Der Fokus auf Kostenmanagement – und auch Liquiditätsmanagement ist in der Priorität gestiegen, die Basis für Wachstum – zahlt sich aus. Die Unternehmen bedienen die Märkte zunehmend direkt aus den Regionen heraus mit eigenen Standorten. Das erweist sich als Erfolgsstrategie”, sagt Ralf Sauter, Partner und Industrieexperte bei der Managementberatung Horváth.”Für den Standort Deutschland muss man aber sagen: Aufschwung sieht anders aus. Denn das Wachstum findet im Ausland statt, die Wertschöpfung wird immer dezentraler. Das ist Erfolgsfaktor, aber auch Herausforderung: Die Unternehmen müssen ihre Organisationsstrukturen dahingehend anpassen, dass die Regionen autonomer vom Headquarter agieren können.”Über die sich verschlechternden Standortbedingungen in Deutschland besteht Sauter zufolge großer Unmut und Unverständnis bei den Top Playern. Der Experte und Studienleiter hat persönlich im Rahmen der Studie Gespräche mit 50 Vorständen und Geschäftsführungsmitgliedern international agierender Industriekonzerne geführt, insgesamt wurden CXOs aus 440 großen produzierenden Unternehmen gefragt. “Industriekonzerne mit Hauptstandort in Deutschland investieren zwar noch immer etwa 50 Prozent ihrer Kapitalaufwendungen hier, für Ersatz und neue Produktionen. Doch das bedeutet auch: die Hälfte der Investitionen fließen ins Ausland, und zwar die Wachstumsinvestitionen”, sagt Sauter.Ein starker Fokus der deutschen Produzenten liegt in den USA, mehr als 12 Prozent an CAPEX fließen dorthin. “Nicht nur die Kostenstrukturen und Marktchancen sind hier attraktiv – das ökonomische Mindset ist ein ganz anderes. Die Industrie hat volle politische Rückendeckung, Wachstum wird gezielt gefördert”, so Sauter. Doch die Unternehmen stellen sich resilient auf und setzen nicht alle Karten auf den US-Markt, sondern orientieren sich beispielsweise auch weiterhin verstärkt nach Asien (rund 14 Prozent CAPEX), insbesondere China und Indien. “Die Unternehmen betreiben Derisking, ja, aber das heißt nicht, dass sie aus China rausgehen – im Gegenteil”, so Sauter.

Mit dem TechnikRadar untersuchen Acatech, die Körber-Stiftung und das Zentrum für Interdisziplinäre Risiko- und Innovationsforschung der Universität Stuttgart jährlichen, wie sich die Technikeinstellungen in der Bevölkerung in den letzten Jahren verändert haben und dass die Deutschen im Vergleich mit ihren europäischen Nachbarn Technik differenzierter bewerten. Die Daten aus den seit 2017 regelmäßig durchgeführten Repräsentativumfragen lassen einen Längsschnittvergleich zu – und dieser zeigt: In einigen zentralen Fragen haben sich ältere und jüngere Menschen in Deutschland stetig voneinander entfernt. ©THANANIT/stock.adobe.com (Bild: ©THANANIT/stock.adobe.com)Umweltschutz hängt vom Alter ab. Das ist das Ergebnis des TechnikRadar 2024, für das die bisherigen Repräsentativumfragen von 2017, 2019, 2021 und 2022 vergleichend ausgewertet wurden. Demnach trifft die Aussage, dass der Erhalt einer intakten Umwelt erfordert, dass alle ihren Konsum reduzieren, bei den 16 bis 34-Jährigen zuletzt auf vergleichsweise wenig Einverständnis – mit einem Durchschnittswert von 6,8 auf einer Skala von 0 (volle Ablehnung) bis 10 (volle Zustimmung). Die Altersgruppe der über 65-Jährigen stimmt mit einem Wert von 7,9 deutlich stärker zu.Auch bei anderen Fragestellungen haben sich die Ansichten von jüngeren und älteren Deutschen voneinander entfernt. Die Generation 65+ teilt laut der jüngsten Befragung eher die Befürchtung, dass Technik ihre Freiheit einschränken könnte. Bei der Aussage “Je weiter sich die Technik entwickelt, desto mehr Zwänge wirken auf den Menschen” erreicht die Zustimmung der älteren Altersgruppe auf einer Skala von 0 (volle Ablehnung) bis 10 (volle Zustimmung) einen Wert von 7,0. Die 16 bis 34-Jährigen weisen mit 5,7 im Vergleich mit allen anderen untersuchten Gruppen den niedrigsten Wert auf.Das TechnikRadar zeigt, dass die Deutschen Technik sehr differenziert und stark anwendungsbezogen bewerten. Der Einsatz von Robotern in der Pflege wird beispielsweise auf einer Skala von 0 (gar nicht nützlich) bis 10 (sehr nützlich) mit einem Wert von 3,9 im Jahr 2022 eher kritisch gesehen, auch wenn die Nutzenbewertung seit 2017 stetig gestiegen ist (vgl. 2017: 3,4). Ein stärkerer Einsatz von Robotern im Bausektor wird hingegen mit einem Wert von 5,1 als deutlich nützlicher eingeschätzt.

Mit der Digitalisierung ihrer Produktion erlangen Unternehmen mehr Produktivität, Flexibilität und Datendurchgängigkeit. Allerdings blockieren heterogene IT- und OT-Landschaften vielerorts die notwendige Modernisierung. Außerdem fehlen Fachleute für aufwendige Innovationsprojekte. In diesem Szenario bietet sich eine modulare Software-Plattform an, die vorhandene IT- und OT-Strukturen vernetzt sowie die Schwächen bisheriger Ansätze aus starr verketteten SPS-basierten Lösungen vermeidet.Digitalisierung und Einbindung funktionieren im eigenen Haushalt einfach und kostengünstig: Fernseher, Laptops und Türklingeln lassen sich ohne besonderes Fachwissen innerhalb von Minuten in das Heimnetz integrieren. Selbst eine Hausautomation können Heimwerker heute umsetzen und komplette Abläufe ohne Programmierkenntnisse definieren. In der Industrie ist es dagegen bislang unmöglich, Werkzeugmaschinen, Laser, Roboter oder Prüfzellen schnell in Fertigungsprozesse einzubeziehen und Produktionsanlagen simpel und flexibel umzustellen.Das liegt vor allem an den fragmentierten Digitalisierungsansätzen, die aus den gewachsenen komplexen IT- und OT-Landschaften resultieren: Die Automatisierungstechniken und Software-Anwendungen stammen oftmals aus den 1990er-Jahren. Häufig laufen Architekturen aus logisch starr miteinander verketteten individuellen SPS-basierten Lösungen. Applikationen lassen sich nur funktional erweitern, indem Experten unterschiedliche Programme und SPS-Systeme anpassen. Das alles erschwert eine Modernisierung und Standardisierung der Fertigungsprozesse. Zahlreiche Digitalisierungslösungen adressieren diese Herausforderungen zwar und versprechen mehr Effizienz und Flexibilität. Sie haben jedoch meistens zwei wesentliche Schwächen:1. schaffen langwierige Adaptionen in der laufenden Produktion Risiken für einen Stillstand und lange Rüstzeiten. Selbst wenn Optimierungen bekannt und theoretisch realisierbar sind, implementieren viele Unternehmen diese letztlich nicht – aus Sorge vor einem zu langen Fertigungsausfall. Im Ergebnis schöpfen sie ihre Produktionspotenziale nicht aus.2. haben etablierte digitale Lösungen – zum Beispiel MES-, SPS- und Industrie 4.0-Ansätze – wohl ihre Vorteile für verschiedene Fabrik-Settings. Sie stellen allerdings keine durchgängigen Kontroll- und Datenflüsse sicher.Das Ergebnis solcher IT/OT-Projekte bleibt dann oft eine fragmentierte Digitalisierung: Die Durchgängigkeit vom Auftrag zum Artikel fehlt weiterhin, Prozessdaten werden ohne Korrelation erfasst, für mehr Flexibilität und kleine Losgrößen entstehen noch immer hohe Kosten, Anpassungen bedeuten einen großen Programmieraufwand an den SPSen. Solche Insellösungen und Datensilos werden den hohen Anforderungen einer modernen Fabrik nicht gerecht.Diese Schwächen umgehen Lösungen aus dem Manufacturing Operations Management (MOM). Das verspricht eine lückenlose Kommunikation von der Fertigungs- bis zur Unternehmensleitebene. Das MOM verwaltet und optimiert Produktionsprozesse und modelliert diese durchgängig digital – von der Planung und Steuerung sowie Organisation und Durchführung über die Überwachung und Verbesserung der Prozesse bis zur Datenanalyse. Dafür braucht es ein systemübergreifendes Zusammenspiel von MES, ERP, Produktionsplanung und mehr. Die Vernetzung gelingt mit einer Vielzahl offener technischer Schnittstellen.

Zwar erhöhen Firmen mittels Wartung die Verfügbarkeit ihrer Anlagen. Laut einer Studie von ABB kommt es bei der Mehrheit der Befragten monatlich jedoch zu mindestens einem ungeplanten Stillstand. ‣ weiterlesen

Bei der Planung von Maschinen und Anlagen arbeiten viele Domänen einander zu. Das erschwert den Datenaustausch. Zwar unterstützen Product-Lifecycle-Management-Systeme (PLM), diese sind aber oft aufwendig in ihrer Integration. Mit einer selbst entwickelten Software will das Fraunhofer IFF nun eine Alternative bieten.Im Planungsprozess von Maschinen und Anlagen sind viele Akteure, wie Statiker, Elektriker, Layoutplaner, Logistiker und Ingenieure zu verschiedenen Zeitpunkten involviert. Sie nutzen unterschiedliche Software, was effizienten Datenaustausch erschwert. Im Rahmen eines Forschungsprojektes hat das Fraunhofer IFF eine Anwendung entwickelt, die alle genutzten Systeme innerhalb eines Produktlebenszyklus miteinander vernetzt. Damit wollen die Forschenden den Datenaustausch von der Planung über die Produktion bis hin zum End-of-Life ermöglichen. Die Software des Fraunhofer IFF setzt auf die Verwaltungsschale (englisch: Asset Administration Shell oder AAS), um Daten über standardisierte Schnittstellen bereitzustellen und zusammenzuführen. Über den AAS-Thread werden diese Daten zwischen den einzelnen AAS ausgetauscht. Akteure können über einen Browser auf Daten zugreifen, diese in eigenen Client-AAS zusammenstellen und nutzen.Mit Blick auf die unterschiedlichen Planungsprozesse und die eingesetzte Software fallen große und oft nicht kompatible Datenmengen an. Um diese sinnvoll zur Verfügung zu stellen, mussten die Forschenden zunächst Grundsatzfragen klären, etwa welche Datenquellen es überhaupt gibt. Ebenso musste Klarheit darüber bestehen, wo die Datenquellen verortet sind, in welchen Strukturen und wie diese auffindbar sind. Letztlich musste auch die Art der Datennutzung geklärt werden: Wer braucht beispielsweise welche Daten und wie gelangen diese zum Nutzer?Product-Lifecycle-Management-Systeme (PLM) bieten eine solche digitale Vernetzung über zahlreiche Kommunikationsprotokolle und Datenbanken an. Diese haben allerdings auch oft unerwünschte Effekte wie etwa die Verwechslung oder falsche Interpretation von Daten, die zentrale Sammlung aller Daten in einer Cloud, die mehrfache Existenz gleicher Daten und das Einzelmapping aller Datenpunkte von den Quellen ins PLM-System. Auch müssen neue Datenquellen aufwendig integriert werden, weil es oft keine flexible, modulare Architektur gibt.Hier verspricht die Verwaltungsschale Abhilfe. Als standardisierter digitaler Zwilling macht die AAS Produktionsdaten von Ressourcen wie Maschinen, Anlagen und Sensoren in einer standardisierten und semantisch beschriebenen Struktur abrufbar oder diese auch steuerbar. Sie wirkt als Software-Layer zur Integration von Datenquellen und Systemen. Weiterhin wird die AAS von der Industrial Digital Twin Association (IDTA) in sogenannten Teilmodellen standardisiert. Die IDTA beschreibt zu jedem Datenpunkt einer AAS eine eigene Schnittstelle (API) um den Wert abzurufen oder zu verändern. Ziel ist, die Erstellung und Nutzung von Verwaltungsschalen anwendungsfallbezogen zu standardisieren und somit zu vereinfachen.Die Forschenden am Fraunhofer IFF nutzen die AAS, um einen Digital Thread am Beispiel eines Produkts in der Luftfahrtindustrie umzusetzen. Im Herzen des Digital Thread steht der AAS-Thread. Dieser kann als eine leistungsfähige Datenautobahn zwischen den einzelnen AAS beschrieben werden. Die in der jeweiligen Lebenszyklusphase genutzten Systeme stellen ihre Datenquellen dabei mittels AAS zur Verfügung. Somit befinden sich alle Daten in standardisierten Umgebungen. Die Funktionalitäten der einzelnen AAS werden durch Teilmodelle beschrieben. Nutzer können mittels eines Browsers alle vorhandenen AAS nach dem Inhalt aller Datenquellen durchsuchen. Mit einem Konfigurator können sie auch eigene Client-AAS mit Werten aus verschiedenen Datenquellen bzw. der Quell-AAS zusammenstellen.Weiterhin kann bei der AAS jeder Wert mit einer SemanticID versehen werden. In öffentlichen Katalogen befindet sich hinter jeder SemanticID eine eindeutige Beschreibung, was mit diesem Wert gemeint ist. Kataloge wie Eclass enthalten bis zu 50.000 Einträge, die genutzt werden können. Diese Kataloge tragen den Gedanken der durchgängigen Standardisierung weiter bis in die Metaebene der Daten. Diese Werte der Datenquellen können nun genutzt werden, um damit zu arbeiten. Die daraus entstehenden Output-Daten werden wiederum durch AAS für weitere Nutzung zur Verfügung gestellt. Auch können weitere zugriffsberechtigte Akteure diese Daten nutzen.