({{ request_quote_modules_count }}) Demander un devis

Envoyez-moi une offre:

Astuces & tendances

November 11, 2019

Comment transformer l’avalanche de données en informations

Dans un monde où les produits sont de plus en plus complexes et les cycles de diffusion plus rapides, la capacité à accumuler et à analyser efficacement les données d’essai n’a jamais été aussi importante.

En raison des tendances contradictoires que sont la complexité croissante des structures et des systèmes et la réduction drastique des temps de développement, les laboratoires d’essai sont soumis à une pression énorme pour produire des résultats de test plus rapidement afin de réduire les coûts et les temps de développement malgré l’acquisition de plus de données provenant d’un plus grand nombre de capteurs. Les ingénieurs d’essai cherchent continuellement des moyens de réduire le temps d’essai et les risques. Pour travailler plus rapidement et plus efficacement, ces ingénieurs doivent être capables de surveiller et de répondre aux données des tests en temps réel, quel que soit le volume des données.

Selon le type de test, la durée et la fréquence des mesures, une avalanche de données est générée. Le défi à relever est non seulement d’acquérir les données, mais aussi de stocker et de sauvegarder de grands volumes de données, et d’avoir la possibilité d’accéder à ces données pour une analyse en ligne rapide et continue. De grands volumes de données structurées et non structurées nécessitent une puissance de traitement et un stockage accrus, ainsi qu’une infrastructure de données fiable. Lorsque tous les éléments sont appliqués ensemble dans un backend de données évolutif, cela peut améliorer considérablement le temps de mise sur le marché, réduire les coûts et créer de meilleurs produits.

Backend de données adaptable et évolutif

Un backend de données adaptatif et évolutif fournit une plate-forme de stockage et de calcul évolutive pour acquérir des flux de données provenant des instruments, stocker des configurations et effectuer des analyses.

Pour faire face à des exigences en constante évolution, à la configuration de l’installation, à l’extension des paramètres et à la variation des taux d’échantillonnage, une séparation entre les données “chaudes” et “froides” est le meilleur choix. Les données brutes, c’est-à-dire les données auxquelles on accède moins fréquemment et qui ne sont nécessaires qu’à l’audit ou au post-traitement des tests (“données froides”), sont stockées dans une plateforme de diffusion en continu distribuée qui évolue de manière extrêmement efficace. Si l’on doit stocker, traiter et calculer de nouvelles variables à partir de centaines de milliers d’échantillons par seconde et de centaines de voies en même temps, cette architecture de streaming distribué montrera sa force et sa puissance.

Les données dites “hot data”, c’est-à-dire les données de mesure auxquelles il faut accéder immédiatement pour les analyser, sont fournies dans une base de données de séries chronologiques NoSQL. Cette base de données stocke les données en toute sécurité dans des clusters redondants et résistants aux défaillances. Toutes les données de mesure sont automatiquement sauvegardées. L’agrégation des données garantit que les données de mesure sont traitées en continu depuis la plateforme de streaming vers la base de données avec des ensembles de données prédéfinis pour un traitement facile des mesures de test et des KPI, comme la valeur moyenne, l’écart type et les minimum/maximum. Toutefois, les mêmes données peuvent être rejouées et compilées différemment au cas où une analyse détaillée autour d’un certain événement de test serait nécessaire. Cette approche minimise l’investissement et le coût opérationnel de l’infrastructure informatique et de stockage du laboratoire de test, tout en maintenant les performances de calcul nécessaires aux tâches d’analyse des données critiques du test.

Les essais de moteurs d’avion sont un cas d’utilisation typique où un backend de données évolutif offre des avantages majeurs. Les essais de moteurs génèrent beaucoup de données, en particulier lorsque les réponses transitoires des moteurs doivent être enregistrées. Les débits de données peuvent varier de 10 échantillons/seconde à 100 000 échantillons/seconde. Le défi consiste à stocker des quantités considérables de données, à les maintenir disponibles 24 heures sur 24 et 7 jours sur 7 et de permettre une analyse rapide des données. Un autre exemple où un backend de données évolutif prouve ses avantages : les tests de fatigue de grands composants ou de structures à grande échelle. Un programme d’essai de fatigue typique est divisé en un certain nombre de blocs de vol. À la fin de chaque bloc de vol, l’essai est arrêté et l’éprouvette est inspectée pour détecter des fissures. Ces inspections manuelles prennent beaucoup de temps et l’intervalle de temps entre ces inspections est relativement important. Les anomalies structurelles sont parfois détectées trop tard et peuvent entraîner la mise en révision d’un avion en service.

” LE DÉFI À VENIR N’EST PAS SEULEMENT D’ACQUÉRIR LES DONNÉES, MAIS DE STOCKER ET DE SAUVEGARDER DE GRANDS VOLUMES DE DONNÉES “

Le contrôle de l’état de l’éprouvette, au lieu du contrôle par intervalles, est une solution potentielle pour réduire la durée totale de l’essai de fatigue et pour détecter rapidement les anomalies. L’une des conséquences est qu’il faut davantage de capteurs pour surveiller le comportement de l’échantillon d’essai et pour détecter ou prévoir les défaillances structurelles. Comme un essai de fatigue en grandeur réelle peut générer des données à des taux allant jusqu’à 10 Mo/s, totalisant des centaines de téraoctets à la fin, le traitement et l’analyse des données sont devenus un goulot d’étranglement majeur.

Afin de collecter, d’analyser et de stocker ce volume de données plutôt imposant et de garantir sa disponibilité pour les applications, Gantner s’est tourné vers une combinaison d’Apache Kafka (flux de données) et de CrateDB (base de données NoSQL distribuée construite pour l’IdO/les cas d’utilisation industrielle). CrateDB est utilisé pour le stockage à chaud en temps réel et Kafka pour le stockage de documents à moindre coût.

“Après des recherches et des comparaisons approfondies, nous avons décidé d’utiliser la combinaison d’Apache Kafka et de CrateDB pour la conception du backend de données”, explique Jürgen Sutterlüti, responsable du cloud et de l’analyse des données chez Gantner Instruments. “Ils sont pratiquement le moteur autour duquel tout le concept est construit”.

Nouvelle plate-forme de traitement des streams

Apache Kafka est un système de messagerie qui permet de mettre en attente les données reçues des instruments et de les rendre accessibles aux systèmes de suivi. Kafka examine chaque valeur reçue et l’analyse pour des mesures courantes, le “stream processing”. Cependant, pour pouvoir saisir, stocker et rendre accessible aux systèmes de suivi, les énormes volumes de données nécessitent une base de données offrant les performances appropriées et des interfaces permettant un accès rapide et pratique.

CrateDB est un nouveau type de base de données SQL distribuée qui améliore la gestion de l’analyse des séries temporelles. L’utilisation de SQL comme langage de requête simplifie l’application et l’intégration, et la technologie de base NoSQL vous permet de traiter des données de l’IdO dans divers formats. CrateDB peut contenir des centaines de téraoctets de données et, grâce à l’architecture “shared-nothing” au sein de groupes de serveurs, garantit une disponibilité en temps réel sans perte de données ni temps d’arrêt.

“CrateDB est extrêmement rapide et très évolutif”, explique M. Sutterlüti. “C’est pourquoi nous utilisons la base de données pour stocker et accéder à toutes les données de mesure cumulées. Travailler avec CrateDB démontre le potentiel qui peut venir de la combinaison de l’informatique de pointe, du traitement de données volumineuses et du “machine learning””.

Connectivité

De plus en plus de laboratoires d’essai utilisent des systèmes spécialisés de contrôle, de surveillance et d’acquisition de données. Des exemples sur le terrain ont montré que le manque d’intégration entre ces systèmes conduit à la détection tardive d’anomalies structurelles ou de fonctionnement des systèmes. L’une des raisons est que les données multi-sources et/ou les métadonnées ne sont pas facilement disponibles pendant le test. Les données de mesure ne peuvent donc pas être analysées complètement avant la fin du test (ou à des intervalles prédéfinis).

Le mécanisme de traitement des flux Kafka est fourni avec un ensemble complet d’API permettant d’intégrer des flux de données de tiers, par exemple d’un système de contrôle. Les données de mesure primaires peuvent être enrichies de données de contrôle et de simulation. La fourniture d’une architecture logicielle ouverte qui prend en charge une variété de protocoles basés sur les abonnements des éditeurs (comme MQTT et DDS), permet une intégration transparente avec d’autres outils de contrôle, d’analyse et de rapport. Pour les laboratoires d’essai qui maintiennent actuellement des systèmes de test automatisés, l’interface de programmation d’applications (API) offre un moyen simple d’intégrer les environnements existants. En retour, ils sont en mesure de tirer parti des capacités d’enregistrement automatique, de stockage des données, de traçage et de gestion de la configuration. Les utilisateurs peuvent également accéder par programmation aux données stockées dans le back-end de données pour les utiliser avec des applications graphiques, analytiques et de génération de rapports personnalisées.

La philosophie de Gantner est de fournir aux clients des interfaces ouvertes où ils peuvent stocker des données et les envoyer où ils veulent. M. Sutterlüti déclare : “Nos clients apprécient beaucoup cette option car elle les soulage de la manipulation des données et de la manière de les stocker. À la place, ils ont un accès facile aux API, et toutes les fonctions existantes auxquelles ils sont habitués sont toujours disponibles”.

Analyse rapide

L’analyse ou la détection des défaillances diffère selon les applications. Des logiciels et des interfaces utilisateur communs pour la gestion, la visualisation, la création de rapports ou la définition de règles spécifiques aux événements simplifient l’accès et l’intégration. Cette approche minimise le coût d’investissement pour l’infrastructure informatique et le stockage dans le laboratoire de test, tout en maintenant les performances informatiques nécessaires pour les tâches d’analyse des données critiques. Par exemple, pour effectuer une analyse temporelle et spatiale des moteurs d’avion, ou pour mieux comprendre la réponse mécanique d’un composant structurel d’un avion, de puissantes capacités de requête permettent aux ingénieurs d’analyser une grande quantité de données de capteurs à la volée. 

La surveillance des diverses étapes pendant toute la durée du test permettra de signaler rapidement tout changement significatif de la réponse de la pièce testée entre des essais successifs. Grâce à une solution de gestion des données adaptative et évolutive, Gantner Instruments est en mesure de fournir une plate-forme qui permet aux laboratoires de test de saisir, de surveiller, d’analyser et de réagir sur n’importe quelle donnée physique en temps réel et quel que soit le volume de données, transformant les données en informations.

 

Faites l’expérience de la nouvelle plate-forme pour des dispositifs de mesure modernes et robustes

La plate-forme logicielle GI.bench combine des configurations de test, des configurations et des gestions de projet ainsi que la visualisation des flux de données plus rapides dans un seul et même banc d’essai numérique. Elle vous permet de configurer, d’exécuter et d’analyser vos tâches de mesure et de test à la volée. Accédez à vos données de mesures en direct et a votre historique, où que vous soyez.

GI.bench - monitor better & test faster

Author: Stephan Ploegman

Stephan Ploegman is Gantner Instruments business developer in Aerospace & Structural Testing

Vous avez des questions ? Contactez nos experts en technologie de mesure :