({{ request_quote_modules_count }}) Angebot anfordern

Bitte senden Sie mir ein Angebot:

Tipps & Trends

November 11, 2019

Wie man die Datenflut in brauchbare Erkenntnisse verwandelt

In einer Welt mit immer komplexeren Produkten und schnelleren Release-Zyklen war die Fähigkeit, Testdaten zu sammeln und effizient zu analysieren, noch nie so wichtig wie heute.

Aufgrund der gegensätzlichen Trends von zunehmender Komplexität von Strukturen und Systemen und drastisch verkürzten Entwicklungszeiten stehen Testlabore unter immensem Druck, Testergebnisse schneller zu produzieren, um trotz der Erfassung von mehr Daten von mehr Sensoren Kosten zu sparen und Entwicklungszeiten zu reduzieren. Testingenieure suchen ständig nach Möglichkeiten, Testzeiten und Risiken zu reduzieren. Um schneller und effizienter arbeiten zu können, müssen diese Ingenieure in der Lage sein, Testdaten in Echtzeit zu überwachen und darauf zu reagieren, unabhängig vom Datenvolumen.

Abhängig von der Art des Tests, der Dauer und der Anzahl der Messungen wird eine Flut an Daten generiert. Die Herausforderung besteht nicht nur darin, die Daten zu erfassen, sondern auch große Datenmengen zu speichern und aufzubewahren sowie die Möglichkeit zu haben, auf diese Daten für eine schnelle kontinuierliche Online-Analyse zuzugreifen. Große Mengen an sowohl strukturierten als auch unstrukturierten Daten erfordern eine hohe Verarbeitungsleistung, Speicherung und eine zuverlässige Dateninfrastruktur. Wenn alle Elemente zusammen in einem skalierbaren Daten-Backend angewendet werden, kann dies die Markteinführungszeit erheblich verbessern, die Kosten senken und bessere Produkte entwickeln.

Adaptives und skalierbares Daten-Backend

Ein adaptives und skalierbares Daten-Backend bietet eine skalierbare Speicher- und Rechenplattform für die Erfassung von Datenströmen, Konfigurationen zu speichern und Analysen duchrzuführen.

Um mit ständig wechselnden Anforderungen, Setup-Konfigurationen, Parametererweiterungen und varrierenden Abtastraten zurechtzukommen, ist eine Trennung zwischen heißen und kalten Daten die beste Wahl. Rohdaten, also Daten, auf die seltener zugegriffen wird und die nur für Audits oder die Nachbearbeitung von Test benötigt werden (“cold data”), werden in einer verteilen Streaming-Plattform gespeichert, die extrem effizient skaliert. Wenn man aus hunderttausenden von Messwerten pro Sekunde und aus hunderten Kanälen gleichzeitig neue Variablen speichern, verarbeiten und berechnen muss, zeigt diese verteilte Streaming-Architektur Ihre Stärke und Leistungfähigkeit.

Sogenannte “hot data”, also Messdaten, auf die zur Analyse sofort zugegriffen werden muss, werden in einer NoSQL-Zeitreihendatenbank dargestellt. Diese Datenbank speichert die Daten sicher in redundaten, fehlertoleranten Clustern. Alle Messdaten werden automatisch gesichert. Eine flexible Datenaggregation stellt sicher, dass die Messdaten kontinuierlich von der Streaming-Plattofrm zur Datenbank mit vordefinierten Datensätzen verarbeitet werden, um die Datenverarbeitung von Testmetriken und KPIs, wie Mittelwert, Standardabweichung und Minimum/Maximum, zu erleichtern. Dieselben Daten können jedoch erneut abgespielt und anders aggregiert werden, falls eine detaillierte Analyse rund um ein bestimmtes Testereignis erforderlich ist. Dieser Ansatz minimiert die Investitions- und Betriebskosten für die IT- und Speicherinfrastruktur im Testlabor, während die notwendige Rechenleistung für testkritische Datenanalyseaufgaben erhalten bleiben.

Der Test von Flugzeugtriebwerken ist ein typischer Anwendungsfall, bei dem ein skalierbares Daten-Backend große Vorteile bietet. Bei Triebwerkstests werden viele Daten generiert, vor allem, wenn die transienten Reaktionen des Triebwerks aufgezeichnet werden müssen. Die Datenraten können von 10 Samples/Sekunde bis zu 100.000 Samples/Sekunde variieren. Die Herausforderung besteht darin, große Mengen an Sensordaten zu speichern, diese rund um die Uhr verfügbar zu halten und eine schnelle Datenanalyse zu ermöglichen. Ein weiteres Beispiel, bei dem ein skalierbares Daten-Backend seine Vorteile beweist, sind Ermüdungstests an großen Komponenten oder Fullscale-Strukturen. Ein typisches Ermüdungsprüfprogramm ist in eine Reihe von Testblöcken unterteilt. Am Ende eines jeden Blocks wird der Test gestoppt und der Prüfling auf Risse untersucht. Diese manuellen Inspektionen sind zeitaufwendig und der zeitliche Abstand zwischen diesen Inspektionen ist relativ groß. Strukturelle Anomalien werden möglicherweise zu spät erkannt und können dazu führen, dass in Betrieb befindliche Flugzeuge nachgerüstet werden müssen.

“DIE HERAUSFORDERUNG BESTEHT NICHT NUR DARIN, DIE DATEN ZU ERFASSEN, SONDERN AUCH GROSSE DATENMENGEN ZU SPEICHERN UND ZU BEWAHREN.”

Die zustandsorientierte Prüfung der Messprobe anstelle der intervallorientierten Prüfung ist eine mögliche Lösung, um die Gesamtdauer der Ermüdungsprüfung zu verkürzen und Anomalien schnell zu erkennen. Eine der Implikationen ist, dass mehr Sensoren benötigt werden, um das Verhalten des Prüflings zu überwachen und strukturelle Ausfälle zu erkennen und vorherzusagen. Da ein Ermüdungstest in vollem Unfang Daten mit einer Geschwindigkeit von bis zu 10 MB/s erzeugen kann, die sich am Ende auf Hunderte von Terabytes summieren, sind Datenverarbeitung und -analyse zu einem großen Engpass geworden.

Um die enormen Datenmengen zu erfassen, zu analysieren, zu speichern und für Anwendungen verfügbar zu machen, entschied sich Gantner für eine Kombination aus Apache Kafka (Daten-Streaming) und CrateDB (verteile NoSQL-Datenbank, die für IoT-/Industrieanwendungen entwickelt wurde). CrateDB wird für Echtzeit-Hot-Storage und Kafka für kostengünstige, dokumentenbasierte Speicherung verwendet.

“Nach umfangreichen Recherchen und Vergleichen haben wir uns beim Design des Daten-Backends für die Kombintation aus Apache Kafka und CrateDB entschieden”, erklärt Jürgen Sutterlüti, Leiter Cloud und Daten Analytics bei Gantner Instruments. ” Sie sind quasi der Motor, um den herum das gesamte Konzept aufgebaut ist.”

Neue Stream-Processing-Plattform

Apache Kafka ist ein Messaging-System, das es ermöglicht, die von Messgeräten empfangenen Daten in eine Warteschlange zu stellen und für Folgesysteme hochverfügbar zu machen. Kafka schaut sich jeden einzelnen empfangenen Wert an und analysiert ihn für aktuelle Maßnahmen, “Stream-Processing”. Um die enormen Datenmengen zu erfassen, zu speichern und für Folgesysteme zugänglich zu machen, bedarf es jedoch einer Datenbank, die die entsprechende Performance und Schnittstellen bietet, die einen schnellen und komfortablen Zugriff ermöglichen.

Die CrateDB ist eine neuartige verteilte SQL-Datenbank, die die Handhabung der Zeitreihenanalyse verbessert. Die Verwendung von SQL als Abfragesprache vereinfacht die Anwendung und Integration, und die NoSQL-Basistechnologie ermöglicht die Verarbeitung von IoT-Daten in einer Vielzahl von Formaten. Die CrateDB kann Hunderte von Terabyte an Daten aufnehmen und garantiert dank der Shared-Nothing-Architektur innerhalb von Server-Clustern eine Echtzeitverfügbarkeit ohne Datenverlust oder Ausfallzeiten.

“CrateDB ist extrem schnell und hoch skalierbar,” sagt Sutterlüti. “Deshalb nutzen wir die Datenbank, um alle aggregierten Messdaten zu speichern und darauf zuzugreifen. Die Arbeit mit CrateDB zeigt das Potenzial, das sich aus der Kombination von Edge Computing, Big-Data-Verarbeitung und maschinellem Lernen ergeben kann.”

Konnektivität

Immer mehr Prüflabore verwenden spezialisierte Steuerungs-, Überwachungs- und Datenerfassungssysteme. Beispiele aus der Praxis haben gezeigt, dass die fehlende Integration zwischen diesen Systemen immer noch zu einer späten Erkennung von Struktur- oder Systemanomalien führt. Einer der Gründe dafür ist, dass Multi-Source- und/oder Metadaten während des Tests nicht ohne weiteres verfügbar sind. Die Messdaten können daher erst am Ende des Testlaufs (oder in vordefinierten Intervallen) vollständig analysiert werden.

Die Kafka-Stream-Processing-Engine verfügt über einen umfangreichen Satz von APIs zur Integration von Datenströmen von Drittanbietern, z. B. von einem Steuerungssystem. Die primären Messdaten können mit Steuerungs- und Simulationsdaten angereichert werden. Die Bereitstellung einer offenen Softwarearchitektur, die eine Vielzahl von Publish-Subscribe-basierten Protokollen (wie MQTT und DDS) unterstützt, ermöglicht die nahtlose Integration mit anderen Überwachungs-, Analyse- und Reporting-Tools. Für Testlabore, die derzeit automatisierte Testsysteme unterhalten, bietet die Anwendungsprogrammierschnittstelle (API) eine einfache Möglichkeit, bestehende Umgebungen zu integrieren. Im Gegenzug sind sie in der Lage, die automatischen Aufzeichnungs-, Datenspeicher-, Plot- und Konfigurationsmanagementfunktionen zu nutzen. Benutzer können auch programmatisch auf Daten zugreifen, die im Daten-Backend gespeichert sind, um sie für benutzerdefinierte Grafik-, Analyse- und Berichterstellungsanwendungen zu verwenden.

Die Philosophie von Gantner ist es, den Kunden offene Schnittstellen zur Verfügung zu stellen, in denen sie Daten speichern und an beliebige Stellen senden können. Herr Sutterlüti sagt: “Unsere Kunden schätzen diese Option sehr, weil Sie dadurch von der Handhabung von Daten und deren Speicherung entlastet werden. Stattdessen haben Sie einfachen Zugang zu den APIs und alle bestehenden Funktionen, an die Sie gewöhnt sind, sind weiterhin verfügbar.”

Schnelle Analyse

Die Analyse oder Fehlererkennung unterscheidet sich je nach Anwendung. Gemeinsame Software und Benutzeroberflächen für die Verwaltung, Visualisierung, Berichterstellung oder die Definition dedizierter Ereignisregeln vereinfachen den Zugriff und die Integration. Dieser Ansatz minimiert die Investitionskosten für die IT- und Speicherinfrastruktur im Testlabor, während die notwendige Rechenleistung für testkritische Datenanalyseaufgaben erhalten bleibt. Um zum Beispiel zeitliche und räumliche Analysen von Flugzeugtriebwerken durchzuführen oder die mechanische Reaktion einer Flugzeugstrukturkomponente besser zu verstehen, ermöglichen leistungsstarke Abfragefunktionen den Ingenieuren die Analyse großer Sensordatenmengen on-the-fly.

Die Trendüberwachung über die gesamte Lebensdauer des Test signalisiert schnell jede signifikante Änderung der Reaktion des Testobjekts zwischen sich wiederholenden Testbedingungen. Mit einer adaptiven und saklierbaren Daten-Backend-Lösung ist Gantner Instruments in der Lage, eine Plattform bereitzustellen, die es Testlaboren ermöglicht, beliebige physikalische Daten in Echtzeit und unabhängig von der Datenmenge zu erfassen, zu überwachen, zu analysieren und darauf zu reagieren und so Daten in Erkenntnisse zu verwandeln.

 

Erleben Sie die neue Plattform für moderne und robuste Messaufbauten

Die Software-Plattform GI.bench vereint schnellere Testaufbauten, Projektkonfiguration und -abwicklung sowie die Visualisierung von Datenströmen in einer digitalen Werkbank. Sie ermöglicht es Ihnen, Ihre Mess- und Prüfaufgaben “on the fly” zu konfigurieren, auszuführen und zu analysieren. Greifen Sie überall auf Live- und historische Messdaten zu.

GI.bench - monitor better & test faster

Author: Stephan Ploegman

Stephan Ploegman is Gantner Instruments business developer in Aerospace & Structural Testing

Sie haben Fragen an unsere Messtechnik-Experten?