Zusammenfassung
Systeme im Bereich Industrie 4.0 sollen interoperabel miteinander agieren können. Damit dies automatisiert realisiert werden kann, müssen sie semantisch interoperabel sein. Hierfür fokussiert der aktuelle Industrie 4.0 Forschungsansatz einen semantisch homogenen Sprachraum. In diesem Paper wird eine Methode vorgestellt, die diesen Ansatz um heterogene Semantik erweitert. Die Abbildung unbekannter Vokabulare auf eine Zielontologie ermöglicht die Interaktionen heterogener Verwaltungsschalen. Basis der Abbildung sind Methoden aus dem Bereich Natural Language Processing. Hierzu werden auf ISO Standards vortrainierte language models und sentence embeddings kombiniert. Dies führt zu einer vielversprechenden Genauigkeit bei dem erstellten Evaluationsdatensatz, welcher unterschiedliche Semantiken für Identifikation- und Design-Teilmodelle des Projektes Pumpe 4.0 enthält.
Abstract
Systems in the field of Industrie 4.0 should be able to interact with each other in an interoperable manner. In order for this to be realized automatically, they must be semantically interoperable. For this purpose, the current Industrie 4.0 research approach to the interaction of systems focuses on a semantically homogeneous language space. In this paper, we present a method that extends the current approach to include heterogeneous semantics. Mapping unknown vocabularies to a target ontology enables the interactions of semantically heterogeneous Industrie 4.0 asset administration shells. The mapping is based on methods from the field of Natural Language Processing. For this purpose, language models pre-trained on ISO standards and sentence embeddings are combined. This leads to a promising accuracy in the created evaluation dataset, which contains different semantics for identification and design submodels of the Pumpe 4.0 project.
1 Einleitung
Die breite Verfügbarkeit von Systemen mit Self-X-Fähigkeiten wird die nächste Entwicklungsstufe der Automatisierungstechnik charakterisieren. Unter Self-X-Fähigkeiten werden Funktionalitäten eines Systems verstanden, welche intrinsische Automatismen zur Erkundung eines Netzwerks, Selbst-Konfiguration, -Diagnose und -Optimierung ermöglichen. Self-X-Fähigkeiten von Systemen ermöglichen Interoperabilität und darauf basierend Automatisierung. Interoperabilität bedeutet, dass Systeme aktiv miteinander kommunizieren und für eine gemeinsame Funktionserfüllung zusammenarbeiten. Damit diese Zusammenarbeit automatisiert realisiert werden kann, müssen die Systeme ebenfalls semantisch interoperabel sein: Sie besitzen die Fähigkeit, ihre Daten untereinander korrekt auszutauschen und verstehen, was diese bedeuten [40].
Der aktuelle Forschungsansatz von Industrie 4.0 (I4.0) zur Interaktion von Systemen basiert auf homogenen semantischen Beschreibungen. Solche Systeme beruhen auf einem gemeinsamen Informationsmodell und sind semantisch einheitlich beschrieben [33], [46]. Sprechen alle Teilnehmer eines Netzwerks dieselbe Sprache, kann mittels automatisiert ausführbarer Regeln eine Selbst-Konfiguration von Interaktionen (z. B. die Einbindung von Energiewerten in eine Monitoring-Anwendung) realisiert und Engineering-Aufwendungen vermieden oder essenziell reduziert werden. Basieren z. B. Merkmale zur Leistungsaufnahme auf einem einheitlichen Vokabular, so können diese Merkmale automatisiert in eine Monitoring-Anwendung eingebunden werden. Ein Beispiel hierfür ist in Abbildung 1 gegeben. Komponenten verschiedener Hersteller basieren alle auf dem gleichen I4.0-Vokabular. Dies ermöglicht die automatisierte Einbindung der Werte in eine Monitoring-Anwendung, da diese ebenfalls auf dem selben Vokabular basiert und die Merkmale daher bekannt sind.
Semantisch homogene I4.0-Systeme entstehen aktuell durch Standardisierungs- und Harmonisierungsaktivitäten von I4.0-Teilmodellen für I4.0-Komponenten (z. B. [9], [2], [43]).
Basieren Systeme jedoch auf heterogenen Vokabularen und Informationsmodellen, so muss deren Interaktion durch manuellen Aufwand und Expertenwissen konfiguriert werden. Dies ist für den Großteil industrieller und gebäudetechnischer Anwendungen aktueller Stand der Technik. Aufgrund des Aufwands wägen Betreiber die Implementierung herstellerübergreifender Anwendungen – z. B. Plant Asset Management Anwendungen (Dokumentationsmanagement, Energie- und Asset Monitoring etc.) – sorgfältig gegen ihren Nutzen ab. Der hohe Konfigurationsaufwand steht der breiten Verfügbarkeit dieser Anwendungen im Wege [39].
Semantisch heterogene Systeme können durch eine Abbildung aufeinander semantisch interoperabel gemacht werden. Dies kann entweder über Methoden aus dem Bereich Linked Data [3] oder ein automatisiertes Matching [41] erfolgen. Die Abbildung mittels Linked Data erzeugt initial einen hohen manuellen Aufwand und bedarf eines besonderen Expertenwissens [3], [44].
Dieser Beitrag stellt eine neue Methode vor, die ein automatisiertes semantic matching ermöglicht (Abbildung 2). Durch das automatisierte Matching sind Systeme eines heterogenen Netzwerks fähig, ihre semantische Beschreibung selbstständig und konfigurationsfrei auf einen Standard abzubilden. Dies erweitert den aktuellen I4.0-Forschungsansatz von Interaktionen semantisch homogener auf heterogene Systeme. Ausgangslage des Matchings sind die Informationen der Verwaltungsschale. Die Informationen der Komponenten liegen also in einer einheitlichen Struktur vor, folgen jedoch keinem einheitlichen semantischen Standard. Das Matching erfolgt auf Basis der Attribute von Merkmalen der Verwaltungsschale. Für den ersten Entwurf in dieser Arbeit werden zunächst nur die Attribute definition und preferred Name der Merkmale verwendet. Das Matching basiert also ausschließlich auf natürlicher Sprache. Weitere Attribute (z. B. Unit) und die Metainformationen der Verwaltungsschale werden in zukünftigen Arbeiten als weitere Parameter des Matchings miteinbezogen.
Der betrachtete Use Case des Matching Dienstes sind nicht kritische Anwendungen (z. B. die Monitoringanwendungen der Abbildungen 1 und 2). In kritischen automatisierungstechnischen Anwendungen wie der Prozessautomatisierung wird dieser nicht eingesetzt. Hierfür wäre eine 100 prozentige Genauigkeit des Dienstes notwendig, welche durch die angewandten Methoden nicht erreicht wird.
Basis des Matchings sind Methoden des Natural Language Processing (NLP) [25], die auch auf das Gebiet der I4.0 übertragen und dort im Bereich des semantic matching angewandt werden können. Durch den Einsatz eines auf ISO-Normen erweitert trainierten (pretrained) language models (PLM) (Schritt 1 (Abbildung 3)) in Kombination mit sentence embeddings (SE), die auf allgemeinen Datensätzen aus dem Bereich Paraphrase Identification verfeinert werden (Schritt 2), ermöglicht die entwickelte Methode die Abbildung unbekannter Semantik auf eine definierte Zielontologie. Zum Abschluss wird das Modell mit einem eigens erstellten Datensatz evaluiert (Schritt 3). Der hierbei angewendete Trainingsprozess des Modells (Abbildung 3) benötigt kein Training auf domänenspezifischen Datensätzen und ermöglicht Zero-Shot-Learning.
2 Hintergrund
Das entwickelte Konzept ermöglicht Interoperabilität semantisch heterogener I4.0-Komponenten, indem Methoden aus dem Bereich NLP verwendet werden.
2.1 Industrie 4.0 Komponente
Der Wandel von starren Wertschöpfungsketten zu flexiblen, hochdynamischen und weltweit vernetzten Wertschöpfungsnetzwerken charakterisiert das aktuelle Bestreben von Organisationen hin zu einer I4.0. Hierfür werden verschiedene Handlungsfelder bearbeitet, von denen ein zentrales das Thema der Interoperabilität ist [1]. Im Bereich der I4.0 hat sich als Basis für Interoperabilität das Konzept der Verwaltungsschale etabliert. Die Verwaltungsschale ist der digitale Repräsentant eines Asset in der digitalen Welt [46]. Ein Asset kann hierbei jede Entität sein, die einen Wert für eine Organisation hat [16]. Das Informationsmodell der Verwaltungsschale definiert die Struktur, wie ausgetauschte Informationen verschiedener Assets strukturiert sein müssen [8]. Die Komposition aus Verwaltungsschale und Asset wird als I4.0-Komponente bezeichnet. Zentraler Baustein der Verwaltungsschale sind Teilmodelle, welche Eigenschaften und Funktionalitäten der Assets und deren Inhalte, bspw. in Form von Merkmalen, abbilden [8]. Teilmodelle stehen z. B. für die Themen Identifikation, Design oder Konfiguration. Neben der spezifizierten Struktur durch das Informationsmodell wird für die Interaktion von I4.0-Komponenten eine eindeutige Semantik benötigt [33], [46]. Diese wird erreicht, wenn die Teilmodelle in standardisierter Form vorliegen und deren Semantik ebenfalls einheitlich standardisiert ist. Verschiedene Initiativen standardisieren Teilmodelle für Komponenten der Industrie, bspw. Pumpen oder Antriebe [2], [4]. Die Integration der Teilmodelle in Vokabulare wie den ECLASS-Standard [11], oder das IEC Common Data Dictionary [15], ermöglicht die eindeutige Identifikation der Teilmodelle sowie deren Merkmale und bereitet so den Weg für eine eindeutige Semantik. Syntaktisch wird ein Key-Value-Paar Konzept verwendet, das zwischen dem Key als Identifikation für das entsprechende Modellelement und der Zuordnung der Bedeutung unterscheidet. Das Modell sieht explizit vor, dass ein Modellelement mehr als einen Identifikator hat und dass die Identifikatoren von unterschiedlichen Typen sein können. So wird z. B. für den Zugriff auf das Modellelement in OPC UA oder http/REST ein frei definierbarer String verwendet, für den Verweis auf den Dictionary-Eintrag ein standardisierter Identifier, wie z. B. eine IRDI (International Registration Data Identifier) oder eine URL (Universal Resource Locator). In dem Dictionary, das ebenfalls eine standardisierte Struktur aufweist (IEC 61360), ist dann mittels Attribute das Element definiert. Diese Attribute sind teilweise maschineninterpretierbar. Einige dieser Dictionaries wie z. B. ECLASS liegen als Ontologie in OWL vor (http://www.heppnetz.de/projects/eclassowl/) und können dann auch entsprechend behandelt werden, wobei es bei der Umwandlung von ECLASS in eine OWL Ontologie zu gewissen Einschränkungen hinsichtlich der Datentypen und Sonderzeichen kommt [14]. Die Dictionaries sind in ihrer Domäne durch die Identifikatoren jeweils eindeutig.
Im aktuellen I4.0-Ansatz wird Interoperabilität durch eine einheitliche Struktur (Informationsmodel Verwaltungsschale) und Semantik (homogener Sprachraum) erreicht.
2.2 Homogener Sprachraum
Aus abstrakter Sicht findet die Interaktion zwischen zwei Anwendungen statt. Im allgemeinen Fall können die Anwendungen als Systemfunktion im Zustandsraum dargestellt werden [29]. Abbildung 4 zeigt dies beispielhaft mit den Anwendungen A und B und ihren entsprechenden Zustandsraumgleichungen. Die erste Gleichung ist jeweils die sogenannte Zustandsgleichung, bei der x(t) der Zustandsvektor, u(t) der Eingangsvektor und y(t) der Ausgangsvektor ist. Die Matrix A ist die Systemmatrix, die Vektoren b und c Spalten- und Zeilenvektoren und d ein Skalar. Die Matrix und die Vektoren haben konstante Werte, die sich aus den Differentialgleichungen, die das Systemverhalten beschreiben, ableiten. Die Ausgänge der einen Anwendung müssen den Eingängen der anderen Anwendung zugeordnet werden. Konkret heißt dies, dass der Ausgang von Anwendung A yA mit dem Eingang von Anwendung B uB gleichgesetzt werden muss und umgekehrt. Dies geschieht entweder während der Planung der Systemkopplung oder im operativen Betrieb. Im homogenen Sprachraum wird diese Abbildung erleichtert, indem sich auf ein gemeinsames Vokabular geeinigt wird. Beispielweise werden Regler- bzw. Systemeingänge immer mit u bezeichnet und die Ausgänge mit y. Dies entspricht einem gemeinsamen Vokabular. Eine Zuordnung kann deshalb von beiden Seiten unabhängig voneinander durchgeführt werden.
Dieses Vorgehen ist auch das Grundprinzip der Eingang-/Ausgangszuordnung bei der Interaktion zwischen Verwaltungsschalen oder einer Anwendung mit Verwaltungsschalen. Wie in Abschnitt 2.1 beschrieben, sind in Verwaltungsschalen eine sehr große Vielfalt von Daten enthalten. Diese beziehen sich auf die Anwendungen (d. h. auch auf die Parameter der Matrizen A, die Vektoren b und c sowie den Wert d) sowie andere nicht-funktionale Beschreibungen, wie z. B. Typenschildinformationen, Zertifikatsaussagen und vieles mehr. In der Matrix A und den Vektoren b und c befinden sich Kenngrößen des technischen Systems, die in die Differentialgleichungen eingehen. In einem elektrischen RLC Netzwerk sind dies z. B. die Widerstandswerte, Kapazitäten und Induktivitäten, Kabellängen und Kabeltypen sowie Ströme, Spannungen, Frequenzen und Phasen. Diese Daten ergeben sich aus konstruktiven Daten und werden in Informationsmodellen abgelegt. Die Identifikation der Ein- und Ausgänge sowie der konstruktiven Daten erfolgt, indem für jede Informationseinheit eine Referenz auf eine Beschreibung in einem Dictionary hinterlegt werden soll ((1) in Abbildung 5). Es entstehen Key-Value Paare, wie in Abschnitt 2.1. beschrieben. Diese Dictionaries werden in verschiedenen Branchen standardisiert, so z. B. beim VDMA (Verband Deutscher Maschinen- und Anlagenbau) und bei ECLASS, einem der weltweiten ISO/IEC-normenkonformer Industriestandard für die Klassifizierung und eindeutige Beschreibung von Produkten und Dienstleistungen. Tauschen die Verwaltungsschalen Nachrichten aus ((2) in Abbildung 5), so beinhalten sie die auszutauschenden Daten mit Verweisen auf die jeweiligen Beschreibungen in den Dictionaries ((3) in Abbildung 5). Im Nachrichtenkasten von Abbildung 5 ist im mittleren Teil diese Referenzierung, in dem Beispiel auf ECLASS („value“: „0173-1#02-BAB216“), zu sehen. Hinter dieser Referenz befinden sich im ECLASS Dictionary die Beschreibungsattribute, wie z. B. Datentyp, Maßeinheit, erlaubter Wertebereich des Senkdurchmessers und anderes mehr. So können die Anwendungen jeweils die Zuordnung der Daten zu den Ein- und Ausgängen und zu den Parametern der Systemfunktionen intern vornehmen.
Heterogene Sprachräume, d. h. Sprachräume, die nicht in den standardisierten Dictionaries erfasst sind, wie sie beispielsweise in herstellerspezifische Beschreibungen vorliegen, werden im aktuellen I4.0-Ansatz nicht erfasst.
2.3 Semantische Interoperabilität
Allgemein wird semantische Interoperabilität als die Fähigkeit von Assets definiert, welche ihre Informationen untereinander austauschen können und verstehen, was diese bedeuten [40]. Neben dem Verwenden einer eindeutigen Semantik kann semantische Interoperabilität jedoch ebenfalls durch eine Abbildung heterogener Semantik aufeinander erreicht werden. Dies kann entweder durch eine manuelle Übersetzung oder ein automatisiertes Matching erfolgen (Abbildung 6). Das Matching kann hierbei sowohl bei horizontalen (zwischen I4.0-Komponenten, dargestellt in Abbildung 6) als auch vertikalen (I4.0-Komponente und Anwendung, dargestellt in Abbildung 2) Interaktionen stattfinden.
Die Übernahme gemeinsamer Funktionen bedingt eine Abbildung der beiden Vokabulare A und B aufeinander. Hierzu können Ontologien dienen, die Konzepte und Beziehungen innerhalb einer Domäne in strukturierter Form darstellen [47]. Um Ontologien aufeinander abzubilden, können grundsätzlich verschiedene Methoden verwendet werden. Eine Möglichkeit besteht darin, die Ontologien mittels Linked Data Methoden zu verknüpfen [3], [48]. Ein Beispiel für die Darstellung einer solchen Vernetzung verschiedener Ontologien stellt die Linked Open Data Cloud dar [44]. Hierbei findet eine Verknüpfung der einzelnen Objekte der Ontologien statt. Bei einer Interaktion von I4.0-Komponenten, deren Ontologien mittels Linked Data aufeinander abgebildet sind, können die semantischen Verknüpfungen dieser automatisiert untersucht und so ein Verständnis über die jeweiligen Ontologien hergestellt werden. Zur Realisierung von Linked Data Modellen müssen die Ontologien analysiert und Beziehungen zwischen einzelnen Entitäten angelegt werden. Die Modularisierung möglicher Ontologien in allgemeine und domänenspezifische Ontologien erlaubt eine Hierarchisierung der Ontologien und so die Wiederverwendbarkeit allgemeiner Module [7]. In einem umfassenden I4.0-Wertschöpfungsnetzwerk ist jedoch eine große Anzahl an domänenspezifischen Ontologien unterschiedlichster Komponenten zu erwarten. Diese alle miteinander zu verknüpfen, erfordert einen hohen Analyse- und Engineeringaufwand, was den Einsatz solcher Modelle erschwert.
Automatisiertes semantic matching stellt eine weitere Abbildungsmöglichkeit dar. Das in dieser Arbeit angewandte Verfahren hierzu basiert auf den natürlichsprachigen Beschreibungen der Merkmale von Vokabularen. Automatisiertes semantic matching erlaubt die konfigurationsfreie Übersetzung von Vokabularen, da die I4.0-Komponenten weder auf einem gemeinsamen semantischen Standard basieren noch händisch miteinander verknüpft werden müssen. Auf Basis des semantic matchings können I4.0-Komponenten eine konfigurationsfreie Erkundung der anderen Teilnehmer eines I4.0-Netzwerkes durchführen und mit diesen interagieren. Die Basis des Verfahrens zum semantic matching in dieser Arbeit bilden Konzepte des NLP.
2.4 Natural Language Processing
Das Ziel von NLP ist, dass Computer menschliche Sprache verstehen und darauf aufbauend Interaktionen realisieren [25]. In den letzten Jahren wurden die Methoden zur Extraktion von Wissen aus Text weiterentwickelt, sodass dieses in unterschiedlichen NLP Anwendungen, wie Text Classification oder Question Answering, verwendet werden kann. Die hier entwickelte Modellarchitektur setzt sich aus einem PLM und darauf aufbauenden SEs zusammen, vgl. Abbildung 3.
2.4.1 Pretrained Language Models
Aktuelle NLP Methoden basieren häufig auf PLMs. Diese Modelle werden auf großen Mengen Text vortrainiert (pretraining). State-of-the-art Modelle basieren auf der Transformer Architektur [45]. Das Transformer Modell setzt sich aus einem Encoder und Decoder zusammen und eignet sich besonders für sequence-to-sequence Aufgaben (z. B. Übersetzungen) [45]. Um die Transformer Architektur für andere Aufgaben als Übersetzungen zu verwenden, werden für die heutigen Modelle entweder der Encoder [10], [27], [38], [26], [6] oder Decoder [51], [34], [35] eingesetzt. Ergebnis dieser Trainings sind Vektoren, welche Wörter so repräsentieren, dass sie semantische Bedeutungen und Beziehungen der Wörter enthalten. Diese word embeddings (WE) können für die Erkennung von Ähnlichkeiten von Beziehungen verwendet werden, z. B. ob ein Wortpaar wie Berlin und Deutschland die gleiche Beziehung hat wie Madrid und Spanien. Vortrainierte WEs werden in einem zweiten Trainingsschritt mit spezifischen Datensätzen eines konkreten Anwendungsfalls (Text Classification etc.) verfeinert (fine tuning) [32]. Diese Art des Trainings, pretraining auf allgemeinen Texten und fine tuning auf spezifischen Datensätzen, wird als transfer learning bezeichnet [31] und in diesem Beitrag angewandt. Im weiteren Verlauf wird das vortrainierte Modell DistilBERT [38] verwendet.
2.4.2 Erweitertes pretraining auf fachspezifischer Literatur
DistilBERT ist ein auf englischer Literatur in Form des BooksCorpus [52] und dem englischen Wikipedia trainiertes Modell [38]. Die im NLP-Bereich verwendeten Anwendungsfälle und Benchmarks zur Evaluierung der PLMs sind allgemeiner Natur. Um diese Anwendungsfälle abzudecken, werden die Modelle auf einer möglichst breitgefächerten Literatur trainiert. Untersuchungen [13] zeigen, dass die PLMs für domänenspezifische Anwendungsfälle auf spezifischer Literatur weiter trainiert werden können. Die Ergebnisse der Untersuchungen zeigen, dass eine zweite Phase des pretrainings auf Texten der Domäne des Anwendungsfalls zu besseren Ergebnissen führt. So wurde das vortrainierte PLM RoBERTa [27] auf Veröffentlichungen aus dem Bereich Computer Science weiter trainiert, was zu einer Erhöhung des Makro-F1 Wertes um 3,5 Prozentpunkte bei der SCIERC [28] Benchmark geführt hat [13].
2.4.3 Sentence Embeddings für Paraphrase Identification
Paraphrase Identification (Detection) bezeichnet die Fähigkeit eines Modells zu erkennen, ob zwei Sätze die gleiche Bedeutung haben [42]. Ein Beispiel für eine solche Anwendung ist der Quora Question Pairs (QQP) Datensatz, bei dem vorhergesagt werden soll, ob Fragen die gleiche Bedeutung haben oder nicht [24]. Verschiedene PLMs haben hohe Genauigkeiten von bis zu 90 Prozent für diesen Datensatz erzielt, unter anderem das Modell Sentence-BERT [37]. Bei diesem Modell werden die WEs von BERT zu einem SE mit einer fixen Dimension zusammengefasst. Mittels der Kosinus-Ähnlichkeit kann im Anschluss überprüft werden, ob sich die SEs zweier Sätze ähneln. Dies ermöglicht den Abgleich, ob eine Frage des QQP Datensatzes ein Duplikat im Korpus hat oder nicht [37]. Neben dem ursprünglichen Sentence-BERT wurden weitere Modelle trainiert, die auf unterschiedlichen PLMs basieren und mit verschiedenen Datensätzen trainiert wurden [36].
3 Semantische Interoperabilität durch Methoden des Natural Language Processing
Der aktuelle I4.0 Ansatz für Interoperabilität basiert auf drei Grundsätzen: Einheitliche Struktur (Metamodell der Verwaltungsschale), eindeutiges Vokabular (homogener Sprachraum) und Dialoggestaltung (Interaktionsprotokolle).
Die entwickelte Methode setzt am Grundsatz des eindeutigen Vokabulars an. Zur Erweiterung der Interaktionen von Verwaltungsschalen von homogener auf heterogene Sprachräume erfolgt die Ausprägung eines Matching Dienstes für das semantic matching.
3.1 Matching Dienst der Verwaltungsschale
Abbildung 7 zeigt den grundlegenden Aufbau der Verwaltungsschale. Für die in Abbildung 6 abstrakt dargestellte Interaktion und Abbildung der Semantik werden der Interaktionsmanager und Matching Dienst eingesetzt.
Die zwei Verwaltungsschalen der I4.0-Komponenten interagieren miteinander. Hierbei kennen sie das Vokabular der jeweils anderen nicht, basieren somit auf heterogener Semantik. Damit semantische Interoperabilität zwischen den beiden hergestellt werden kann, wird ein Matching der beiden Vokabulare benötigt. Für die Abwicklung der Interaktionen ist der Interaktionsmanager verantwortlich, welcher die eingehenden Nachrichten verarbeitet [46]. Die Abbildung der unbekannten Semantik auf die eigene wird durch den Matching Dienst realisiert. Dieser ist Teil des Interaktionsmanagers und bildet die eingehenden Nachrichten auf das eigene Vokabular, die Zielontologie, ab. Hierdurch kann heterogene Semantik verarbeitet und der Ansatz des homogenen Sprachraums auf einen heterogenen Sprachraum erweitert werden.
Als konkreter Anwendungsfall werden unterschiedliche Semantiken auf die Identifikation und Design Teilmodelle des Projektes Pumpe 4.0 [4] abgebildet.
3.2 NLP-Modell zur Abbildung heterogener Semantik
Die Basis des Modells bildet das vortrainierte PLM DistilBERT. Durch ein erweitertes pretraining auf domänenspezifischer Literatur wird grundsätzlich eine Erhöhung der Genauigkeit erreicht. Hierbei sind Vorhersagen der Versuch des Modells, ein unbekanntes Merkmal des Evaluationsdatensatzes dem korrekten Merkmal in der Zielontologie zuzuordnen.
Das pretraining von DistilBERT wird mit ISO-Standards, die Identifizierung und die Informationen von Pumpen beschreiben, erweitert (Schritt 1 aus Abbildung 3). Dieses Modell wird im Anschluss verwendet, um mit Datensätzen aus dem Bereich Paraphrase Identification verfeinert zu werden (Schritt 2 aus Abbildung 3). Durch diesen Trainingsablauf erlernt das Modell die Semantik des Anwendungsfalls (pretraining) und Methoden zur Lösung der Aufgabe des Paraphrase Identification (fine tuning). Die Kombination aus pretraining und fine tuning ermöglicht Zero-Shot-Learning hinsichtlich der eigentlichen Aufgabe. Zero-Shot-Learning bedeutet, dass kein fine tuning mit einem Trainingsdatensatz des spezifischen Anwendungsfalls stattfindet. Es wird lediglich ein Datensatz zur Evaluation des Modells erstellt (Schritt 3 Abbildung 3). Dieser enthält unterschiedliche Definitionen und Namen für Merkmale aus dem Bereich Identifikation und Design von Pumpen.
Die Auswahl der ISO Standards umfassen die Bereiche Identifikation von Assets allgemein und spezifische Inhalte von Pumpen. Insgesamt bilden 303 Standards die Basis für das erweiterte pretraining [17], [18], [19], [20], [21], [22], [23]. Diese wurden in das XML-Format umgewandelt [12] und zu Textpassagen weiterverarbeitet, ohne Tabellen, Bildunterschriften oder Literaturangaben. Die extrahierten Passagen wurden eingelesen, weiter gesäubert und in eine einzelne Text-Datei geschrieben. Auf diesem Text wurde das durch [50] zur Verfügung gestellte DistilBERT Modell weitertrainiert.
Die Texte der Standards ergeben drei Millionen Tokens. Tokens repräsentieren Wörter oder Teile von Wörtern. Für die Tokenisierung wurde das WordPiece Modell verwendet [30]. Die Tokens wurden in das Modell innerhalb von Sequenzen eingelesen. Untersuchungen [27] zeigen, dass die höchste Genauigkeit erzielt wird, wenn satzübergreifende Sequenzen eingelesen werden. In das Modell werden Sequenzen von 400 Tokens eingelesen. Mit einer Batch-Size von acht sowie zwölf Durchgängen und einer Gradienten-Akkumulation von zwei ergeben sich 5.724 Schritte für das Training des Modells. Das trainierte Modell, ISO-DistilBERT, wurde im weiteren Verlauf verwendet, um SEs zu trainieren.
Für das Training der SEs wurde [36] und die Datensätze MultiNLI [49], STS-Benchmark [5] und QQP [24] verwendet. Die drei Datensätze werden häufig eingesetzt, um im Bereich Paraphrase Identification neue Modelle zu trainieren. Da für den Anwendungsfall der semantischen Interoperabilität von I4.0-Verwaltungsschalen aktuell keine Datensätze für ein fine tuning zur Verfügung stehen, wurden diese allgemeinen Datensätze verwendet. Hierdurch erlernt das Modell die Aufgabe des Paraphrase Identification und kann diese auf den konkreten Anwendungsfall adaptieren. Das Modell wurde nacheinander mit den drei Datensätzen verfeinert, sodass zum Abschluss das Modell ISO-DistilBERT-SE erstellt wurde.
4 Evaluation und Diskussion
Zur Evaluierung des Modells wurde ein Datensatz erstellt, der als Basis 39 Merkmale aus den Teilmodellen Identifikation und Design der Teilmodelle für Pumpen als Zielontologie verwendet [4]. Für das Matching wurden ausschließlich die Namen und Definitionen der Merkmale verwendet. Für jedes Merkmal wurden bis zu elf Paraphrasen, bestehend aus Name und Definition, erstellt (Auszug in Tabelle 1).
Merkmal aus der Zielontologie | Beispiel Paraphrase | ||
Name | Definition | Name | Definition |
Name of product | Product designation under which the device is marketed | Product title | Title under which the product is known |
Manufacturer | Name of the manufacturer of a device | Producer | Company or organization that transforms raw material into a product |
Maximum allowable ambient temperature | Highest allowable ambient temperature for which the equipment (or any part to which the term refers) is suitable | Highest permissible ambient temperature | Maximum temperature that may be present in the immediate exterior environment of the operation resource. This is the maximum environmental temperature not ever to be exceeded in which the operating resource can be operated without permanent changes in its characteristics |
Optimum rate of flow | Rate of flow at the point of best efficiency | Best volume flow | Optimum volume flow of a component |
Insgesamt wurden 406 Paraphrasen der 39 Merkmale erstellt. Um zu vergleichen, ob das pretraining auf den Standards einen positiven Effekt auf das Ergebnis hat, wird das Modell ISO-DistilBERT-SE mit DistilBERT-SE [36] verglichen. Bei diesem Modell wurde das allgemeine DistilBERT Modell mit den drei Datensätzen für SEs verfeinert (Abbildung 3). Der Evaluationsdatensatz kann als für Verwaltungsschalen unbekanntes Vokabular angesehen werden.
Ein Beispiel für den Ablauf innerhalb des Matching Dienstes zeigt Abbildung 8. Der in Abbildung 7 eingeführte Matching Dienst wird durch das ISO-DistilBERT-SE Modell implementiert. Die Verwaltungsschale bildet die Semantik des unbekannten Vokabulars B auf ihr eigenes ab, beispielhaft dargestellt durch die Definition und den Namen des Producers, die auf das eigene Merkmal (Manufacturer) abgebildet werden. Hierfür durchlaufen sowohl die eigenen Merkmale als auch die unbekannten Merkmale den Matching Dienst.
Von den 39 Merkmalen des eigenen Vokabulars A werden zunächst 39 SEs gebildet. Hierbei durchlaufen Name und Definition der Merkmale getrennt das Modell, sodass sich zwei Vektoren bilden. Diese werden im Anschluss miteinander zu einem SE verkettet. Ebenso durchlaufen die 406 Paraphrasen das gleiche Modell. Für jede dieser SEs wird die Kosinus-Ähnlichkeit mit den 39 SEs des Korpus berechnet. Das jeweilige Paar mit der höchsten Ähnlichkeit wird von dem Modell als Paraphrase klassifiziert. Zur Bewertung von ISO-DistilBERT-SE und DistilBERT-SE wird die Bewertungsmetrik Genauigkeit verwendet. Bei dem allgemeinen Modell DistilBERT-SE wurde für den Evaluationsdatensatz eine Genauigkeit von 91,87 % erreicht. Bei dem auf Normen vortrainierten Modell ISO-DistilBERT-SE wurde eine Genauigkeit von 94,33 % erreicht, was einer Steigerung von 2,46 Prozentpunkten entspricht.
Die Ergebnisse zeigen, dass der Einsatz der SEs gut funktioniert, um die Ähnlichkeit von Merkmalen auf Basis des Namens und der Definition zu bestimmen. Dies zeigt die erreichte Genauigkeit von 91,87 % des allgemeinen Modells. Außerdem zeigt das Ergebnis, dass transfer learning angewendet werden kann. Das Modell wurde mit keinen Daten aus dem Evaluationsdatensatz trainiert, sondern hat diese lediglich für die Evaluation verwendet. Hierdurch wurde Zero-Shot-Learning ermöglicht, was bei Anwendungsfällen ohne große Datenmengen relevant ist. Die Verbesserung der Genauigkeit um 2,46 Prozentpunkte des ISO-DistilBERT-SE zeigt außerdem, dass das pretraining mit internationalen Standards zu Erfolg geführt hat. Durch die so erlernte Semantik der technischen Domäne konnte das Modell Ähnlichkeiten von Definitionen und Namen der Merkmale besser erkennen.
Die entwickelte Methode bildet die Basis für Interaktionen von semantisch heterogenen Verwaltungsschalen. Durch die automatisierte Abbildung unbekannter Semantik auf eine Zielontologie wird ein Beitrag zu Interoperabilität von Verwaltungsschalen geleistet. Ein einheitliches Vokabular oder die händische Verknüpfung unterschiedlicher Vokabulare ist nicht notwendig.
5 Fazit
Die Ergebnisse erweitern den aktuellen I4.0-Forschungsansatz zur Interaktion von semantisch homogenen auf semantisch heterogene Verwaltungsschalen. Hierzu wurden NLP-Methoden verwendet, um ein automatisiertes semantic matching auf eine Zielontologie zu realisieren. Die erreichte Genauigkeit von 94 % zeigt, dass die entwickelte Methodik ein vielversprechender Ansatz ist, um semantische Interoperabilität zu erreichen. Zur Akzeptanz in der Praxis muss die Genauigkeit des Modells jedoch weiter erhöht werden. Diese reicht bspw. zur Anwendung in automatisierungstechnischen Funktionen wie der Prozessführung nicht aus. Außerdem stellt der betrachtete Anwendungsfall, Identifikation und Design Merkmale von Pumpen, nur einen kleinen Ausschnitt der etwaigen Merkmale von I4.0-Komponenten dar. Für konkrete Anwendungsszenarien, wie ein umfangreiches Plant Asset Management, müssen mehr Merkmale in der Zielontologie abgebildet werden. Zudem wurde das Modell nur auf einem kleinen Ausschnitt internationaler Normen trainiert. In weiteren Schritten wird das pretraining auf mehr Normen durchgeführt, der Zielontologie werden mehr Merkmale hinzugefügt und der Evaluationsdatensatz wird erhöht. Die Ergebnisse werden in relevante Spezifikationsarbeiten eingespeist, um den Interaktionsmanager der Verwaltungsschale um einen semantic matching Dienst zu erweitern.
Dieser Artikel ist dem 80. Geburtstag von Prof. Dr.-Ing. Peter Neumann gewidmet.
Funding statement: Die Autoren bedanken sich für die finanzielle Unterstützung durch die KSB-Stiftung in dem Projekt Automatische Interaktion von semantisch heterogenen Industrie 4.0-Verwaltungsschalen durch generische Übersetzungsmechanismen auf Basis von Methoden des Natural Language Processing (1.1359.2020.1).
Über die Autoren
Maximilian Both ist wisschenschaftlicher Mitarbeiter im Labor für Regelungstechnik und Gebäudeautomation an der TH Köln. Im Zuge seiner Promotion forscht er an Methoden des Natural Language Processing im Kontext semantischer Interoperabilität von Komponenten der technischen Gebäudeausrüstung.
Prof. Jochen Müller hat am Lehrstuhl für Prozessleittechnik an der RWTH Aachen promoviert und hat seit 2014 die Professur für Gebäudeautomation an der TH Köln inne. Seine Forschungsschwerpunkte liegen auf den Gebieten der Informationsmodellierung, Regelungs- und Automationskonzepte, Building Performance und anwendungsorientierten Zertifizierung.
Prof. Christian Diedrich hat technische Kybernetik und Automatisierungstechnik studiert und lehrt und forscht an der Otto-von-Guericke-Universität und am Institut für Automation und Kommunikation (ifak) e. V. in Magdeburg. Seine Schwerpunkte liegen auf dem Gebiet der Automation in digital betriebenen Produktionssystemen, basierend auf informations- und wissensbasierten Methoden. Dazu gehören vor allem die industrielle Kommunikation, Integrations- sowie Beschreibungsmethoden.
Literatur
1. 2030 Vision for Industrie 4.0. Shaping Digital Ecosystems Globally. Federal Ministry for Economic Affairs and Energy, October 2019.Search in Google Scholar
2. Antrieb 4.0 – Vision wird Realität. Merkmale, Daten und Funktionen elektrischer Antriebssysteme in Industrie 4.0 für Hersteller, Maschinenbauer und Betreiber. ZVEI - Zentralverband Elektrotechnik und Elektronikindustrie e. V., November 2018.Search in Google Scholar
3. Christian Bizer, Tom Heath and Tim Berners-Lee, Linked Data - The Story So Far. International Journal on Semantic Web and Information Systems 5.3 (2009), S. 1–22. issn: 1552-6283. doi: 10.4018/jswis.2009081901.Search in Google Scholar
4. Maximilian Both and Jochen Müller, Digitization of pumps – Industry 4.0 submodels for liquid and vacuum pumps. In: 4th International Rotating Equipment Conference (2019).Search in Google Scholar
5. Daniel Cer et al. SemEval-2017 Task 1: Semantic Textual Similarity Multilingual and Crosslingual Focused Evaluation. In: Proceedings of the 11th International Workshop on Semantic Evaluation (SemEval-2017), aug, Vancouver, Canada: Association for Computational Linguistics, 2017, S. 1–14. doi: 10.18653/v1/S17-2001. url: https://www.aclweb.org/anthology/S17-2001.Search in Google Scholar
6. Kevin Clark et al. ELECTRA: Pre-training Text Encoders as Discriminators Rather Than Generators, ICLR 2020. 23.03.2020. url: http://arxiv.org/pdf/2003.10555v1.Search in Google Scholar
7. Describing Capabilities of Industrie 4.0 Components. Whitepaper. Federal Ministry for Economic Affairs and Energy, November 2020.Search in Google Scholar
8. Details of the Asset Administration Shell. Part 1 - The exchange of information between partners in the value chain of Industrie 4.0 (Version 2.0.1). Berlin: Federal Ministry for Economic Affairs and Energy, May 2020.Search in Google Scholar
9. Deutsche Normungsroadmap Industrie 4.0. Version 4. DIN, DKE, STANDARDIZATION COUNCIL INDUSTRIE 4.0, März 2020.Search in Google Scholar
10. Jacob Devlin et al. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. 2018. url: http://arxiv.org/pdf/1810.04805v2.Search in Google Scholar
11. ECLASS - Standard für Stammdaten und Semantik für die Digitalisierung. ECLASS. url: https://www.eclass.eu/index.html (besucht am 17. 11. 2020).Search in Google Scholar
12. GROBID. 2008–2020. url: https://github.com/kermitt2/grobid (besucht am 14. 04. 2021).Search in Google Scholar
13. Suchin Gururangan et al. Don’t Stop Pretraining: Adapt Language Models to Domains and Tasks. ACL 2020. 23.04.2020. url: http://arxiv.org/pdf/2004.10964v3.Search in Google Scholar
14. Martin Hepp, Products and Services Ontologies, International Journal on Semantic Web and Information Systems 2.1 (2006). S. 72–99. issn: 1552-6283. doi: 10.4018/jswis.2006010103.Search in Google Scholar
15. IEC Common Data Dictionary. IEC. url: https://cdd.iec.ch/cdd/iec61360/iec61360.nsf/TreeFrameset?OpenFrameSet (besucht am 17. 11. 2020).Search in Google Scholar
16. Industrie 4.0 Begriffe/Terms. VDI Statusreport. VDI/VDE-Gesellschaft, April 2019.Search in Google Scholar
17. ISO TC 115. Pumps. ISO. url: https://www.iso.org/committee/51766.html (besucht am 11. 12. 2020).Search in Google Scholar
18. ISO/IEC JTC 1/SC 17. Cards and security devices for personal identification. ISO. url: https://www.iso.org/committee/45144.html (besucht am 11. 12. 2020).Search in Google Scholar
19. ISO/IEC JTC 1/SC 31. Automatic identification and data capture techniques. ISO. url: https://www.iso.org/committee/45332.html (besucht am 11. 12. 2020).Search in Google Scholar
20. ISO/TC 184/SC 4. Industrial data. ISO. url: https://www.iso.org/committee/54158.html (besucht am 11. 12. 2020).Search in Google Scholar
21. ISO/TC 46/SC 4. Technical interoperability. ISO. url: https://www.iso.org/committee/48798.html (besucht am 11. 12. 2020).Search in Google Scholar
22. ISO/TC 46/SC 9. Identification and description. ISO. url: https://www.iso.org/committee/48836.html (besucht am 11. 12. 2020).Search in Google Scholar
23. ISO/TC 59/SC 2. Terminology and harmonization of languages. ISO. url: https://www.iso.org/committee/49076.html (besucht am 11. 12. 2020).Search in Google Scholar
24. Shankar Iyer, Nikhil Dandekar and Kornél Csernai, First Quora Dataset Release: Question Pairs. Quora. url: https://www.quora.com/q/quoradata/First-Quora-Dataset-Release-Question-Pairs (besucht am 23. 11. 2020).Search in Google Scholar
25. Dan Jurafsky and James H. Martin, Speech and language processing. An introduction to natural language processing, computational linguistics, and speech recognition, eng.2. ed., Pearson internat. ed. Prentice Hall series in artificial intelligence. Upper Saddle River, NJ: Prentice Hall Pearson Education Internat, 2009 1024 S. isbn: 978-0135041963.Search in Google Scholar
26. Guillaume Lample and Alexis Conneau, Cross-lingual Language Model Pretraining. 22.01.2019. url: http://arxiv.org/pdf/1901.07291v1.Search in Google Scholar
27. Yinhan Liu et al. RoBERTa: A Robustly Optimized BERT Pretraining Approach. 26.07.2019. url: http://arxiv.org/pdf/1907.11692v1.Search in Google Scholar
28. Yi Luan et al. Multi-Task Identification of Entities, Relations, and Coreference for Scientific Knowledge Graph Construction. In: Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing. oct # ”-” # nov, Brussels, Belgium: Association for Computational Linguistics, 2018, S. 3219–3232. doi: 10.18653/v1/D18-1360. url: https://www.aclweb.org/anthology/D18-1360.Search in Google Scholar
29. Jan Lunze, Automatisierungstechnik. Methoden für die Überwachung und Steuerung kontinuierlicher und ereignisdiskreter Systeme, ger. 2., überarb. Aufl. München: Oldenbourg, 2008. 643 S. isbn: 978-3-486-58061-7.10.1524/9783486595116Search in Google Scholar
30. M. Schuster and K. Nakajima, Japanese and Korean voice search. In: 2012 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), 2012, S. 5149–5152. doi: 10.1109/ICASSP.2012.6289079.Search in Google Scholar
31. Sinno Jialin Pan and Qiang Yang, A Survey on Transfer Learning, IEEE Transactions on Knowledge and Data Engineering 22.10 (2010), S. 1345–1359. issn: 1041-4347. doi: 10.1109/TKDE.2009.191.Search in Google Scholar
32. Matthew E. Peters, Sebastian Ruder and Noah A. Smith, To Tune or Not to Tune? Adapting Pretrained Representations to Diverse Tasks. Proceedings of the 4th Workshop on Representation Learning for NLP. 14.03.2019. url: http://arxiv.org/pdf/1903.05987v2.10.18653/v1/W19-4302Search in Google Scholar
33. Position Paper. Interoperability – Our vision for Industrie 4.0: Interoperable communication between machines within networked digital ecosystems. Federal Ministry for Economic Affairs and Energy, November 2019.Search in Google Scholar
34. Alec Radford et al. Improving language understanding by Generative Pre-Training. 2018.Search in Google Scholar
35. Alec Radford et al. Language Models are Unsupervised Multitask Learners Alec. 2019.Search in Google Scholar
36. Nils Reimers, SentenceTransformers Documentation. url: https://www.sbert.net/index.html (besucht am 23. 11. 2020).Search in Google Scholar
37. Nils Reimers and Iryna Gurevych, Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks. Published at EMNLP 2019. 27.08.2019. url: http://arxiv.org/pdf/1908.10084v1.10.18653/v1/D19-1410Search in Google Scholar
38. Victor Sanh et al. DistilBERT, a distilled version of BERT: smaller, faster, cheaper and lighter. February 2020 - Revision: fix bug in evaluation metrics, updated metrics, argumentation unchanged. 5 pages, 1 figure, 4 tables. Accepted at the 5th Workshop on Energy Efficient Machine Learning and Cognitive Computing - NeurIPS 2019. 02.10.2019. url: http://arxiv.org/pdf/1910.01108v4.Search in Google Scholar
39. Roland Schuhmann, Aufwand zur Integration von Maschinen in Asset Monitoring Anwendungen. Interne Studie. BASF, 2019.Search in Google Scholar
40. Semantic interoperability: challenges in the digital transformation age. International Electrotechnical Commission, 2019.Search in Google Scholar
41. P. Shvaiko and J. Euzenat, Ontology Matching: State of the Art and Future Challenges, IEEE Transactions on Knowledge and Data Engineering 25.1 (2013), S. 158–176. issn: 1041-4347. doi: 10.1109/TKDE.2011.253.Search in Google Scholar
42. Richard Socher et al. Dynamic Pooling and Unfolding Recursive Autoencoders for Paraphrase Detection. In: Proceedings of the 24th International Conference on Neural Information Processing Systems. NIPS’11. Red Hook, NY, USA: Curran Associates Inc, 2011, S. 801–809. isbn: 9781618395993.Search in Google Scholar
43. Submodel Templates of the Asset Administration Shell. ZVEI Digital Nameplate for industrial equipment (Version 1.0). Federal Ministry for Economic Affairs and Energy, November 2020.Search in Google Scholar
44. The Linked Open Data Cloud. Linked Open Data Cloud. url: https://lod-cloud.net/ (besucht am 16. 11. 2020).Search in Google Scholar
45. Ashish Vaswani et al. Attention Is All You Need. 15 pages, 5 figures. 12.06.2017. url: http://arxiv.org/pdf/1706.03762v5.Search in Google Scholar
46. VDI Verein Deutscher Ingenieure, Hrsg. Sprache für I4.0-Komponenten. 1. Apr. 2020.Search in Google Scholar
47. Vocabularies. W3C. 2020. url: https://www.w3.org/standards/semanticweb/ontology (besucht am 18. 11. 2020).Search in Google Scholar
48. What is 5 Star Linked Data?. W3C. 2014. url: https://www.w3.org/community/webize/2014/01/17/what-is-5-star-linked-data/ (besucht am 18. 11. 2020).Search in Google Scholar
49. Adina Williams, Nikita Nangia and Samuel Bowman, A Broad-Coverage Challenge Corpus for Sentence Understanding through Inference. In: Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), Association for Computational Linguistics, 2018, S. 1112–1122. url: http://aclweb.org/anthology/N18-1101.10.18653/v1/N18-1101Search in Google Scholar
50. Thomas Wolf et al. HuggingFace’s Transformers: State-of-the-art Natural Language Processing. 8 pages, 4 figures, more details at https://github.com/huggingface/transformers. 09.10.2019. url: http://arxiv.org/pdf/1910.03771v5.Search in Google Scholar
51. Zhilin Yang et al. XLNet: Generalized Autoregressive Pretraining for Language Understanding. Pretrained models and code are available at https://github.com/zihangdai/xlnet. 19.06.2019. url: http://arxiv.org/pdf/1906.08237v2.Search in Google Scholar
52. Yukun Zhu et al. Aligning Books and Movies: Towards Story-like Visual Explanations by Watching Movies and Reading Books. 22.06.2015. url: http://arxiv.org/pdf/1506.06724v1.10.1109/ICCV.2015.11Search in Google Scholar
© 2021 Both et al., publiziert von De Gruyter
Dieses Werk ist lizensiert unter einer Creative Commons Namensnennung 4.0 International Lizenz.