Présentation

Scene Intelligence with Rosbag sur AWS est conçu spécialement pour aider à simplifier le processus de développement des systèmes avancés d'aide à la conduite (ADAS, Advanced Driver Assistance Systems) et des véhicules autonomes (AV, Autonomous Vehicles). La solution comporte des modules d'extraction de capteurs et de détection d'objets, qui aident les ingénieurs en machine learning et les scientifiques des données à accélérer la recherche de scènes pour l'entraînement des modèles.
Vous pouvez utiliser cette solution pour mettre en scène des exemples de fichiers Rosbag, extraire des données de capteurs Rosbag telles que des métadonnées et des images, appliquer des modèles de détection d'objets et de voies de circulation aux images extraites, ainsi qu'appliquer et stocker la logique métier de détection de scènes.
Avantages

Des pipelines de données évolutifs et flexibles qui ingèrent, transforment, étiquettent et cataloguent de manière fiable des milliards de kilomètres de données réelles ou simulées.
Meilleure accessibilité des équipes internationales pour la recherche, l'identification et l'analyse des données automobiles.
Réduisez le nombre de dépendances et de prérequis grâce à des options de configuration open source.
Détails techniques

Vous pouvez déployer automatiquement cette architecture à l’aide du guide d’implémentation et du modèle AWS CloudFormation qui l’accompagne.
Étape 1
L'AV charge le fichier Rosbag sur HAQM Simple Storage Service (HAQM S3). L'utilisateur final invoque le flux pour lancer le traitement via HAQM Managed Workflows pour Apache Airflow (HAQM MWAA) et un graphe acyclique dirigé (DAG, Directed Acyclic Graph).
Étape 2
AWS Batch extrait le fichier rosbag d'HAQM S3, analyse et extrait les données du capteur et de l'image, et écrit ces données dans un autre compartiment S3.
Étape 3
HAQM SageMaker applique des modèles de détection d'objets et de voies aux données extraites. SageMaker écrit ensuite les données et les étiquettes dans un autre compartiment S3.
Étape 4
HAQM EMR sans serveur (avec une tâche Apache Spark) applique une logique métier aux données et aux étiquettes dans HAQM S3. Cela génère des métadonnées liées à la détection d'objets et à la détection de voies. HAQM EMR sans serveur écrit ensuite les métadonnées dans HAQM DynamoDB et dans un autre compartiment S3.
Étape 5
Une fonction AWS Lambda publie les nouvelles données entrantes de DynamoDB (métadonnées) vers le cluster HAQM OpenSearch Service. L'utilisateur final accède au cluster OpenSearch Service , via un proxy sur HAQM Elastic Compute Cloud (HAQM EC2), pour soumettre des requêtes relatives aux métadonnées.
Rubriques connexes

Ce guide explique comment les clients peuvent traiter et rechercher des données de haute précision basées sur des scénarios grâce au Cadre de données sur la conduite autonome (ADDF).
- Date de publication