Présentation

La localisation de contenu sur AWS permet d'étendre la portée de votre contenu vidéo à la demande en créant des sous-titres multilingues, grâce à l'intelligence artificielle (IA). La production de sous-titres précis et multilingues pour les vidéos est à la fois complexe et laborieuse, car de nombreuses heures de personnel sont consacrées à la transcription, au sous-titrage, à la traduction et à la révision des contenus multimédias. Grâce à cette solution AWS, vous pouvez automatiser ces processus manuels tout en contrôlant le résultat. Il comprend une interface utilisateur simple qui vous permet de télécharger, d'analyser et d'extraire des métadonnées précieuses à partir de fichiers vidéo à l'aide des services AWS AI natifs.
Avantages

Chargez et analysez des fichiers vidéo, et utilisez des sous-titres de vidéo générés automatiquement à l'aide d'une interface utilisateur web simple.
Vous pouvez passer en revue les sous-titres et effectuer des corrections dans l'application. Une fois que vous êtes satisfait des sous-titres ainsi générés, exécutez à nouveau le flux à l'aide de l'entrée corrigée pour régénérer des résultats en aval.
Générez des vocabulaires et des terminologies personnalisés à l'aide des corrections que vous apportez aux sous-titres. Effectuez ces personnalisations lorsque vous téléchargez une vidéo et configurez le flux de travail automatisé.
Détails techniques

Vous pouvez déployer automatiquement cette architecture à l’aide du guide d’implémentation et du modèle AWS CloudFormation qui l’accompagne.
Étape 1
Le modèle AWS CloudFormation déploie une instance de la solution Media Insights on AWS.
Étape 2
Une distribution HAQM CloudFront pour servir l'application web de la solution.
Étape 3
Un compartiment source web HAQM Simple Storage Service (HAQM S3) pour héberger l'application web statique.
Étape 4
Un groupe d'utilisateurs HAQM Cognito pour fournir un répertoire utilisateur.
Étape 5
Un groupe d'identités HAQM Cognitopour fournir à la fédération AWS Identity and Access Management (IAM) à des fins d'authentification et d'autorisation sur l'application web.
Étape 6
Points de terminaison HAQM API Gateway pour l'API de flux de travail Media Insights on AWS, l'API de plan de données Media Insights on AWS et le point de terminaison de l'API HAQM OpenSearch Service.
Étape 7
Un flux de travail AWS Step Functions créé par Media Insights on AWS. Le flux de travail de la localisation de contenu consiste en des fonctions AWS Lambda qui exécutent des tâches dans HAQM Transcribe, HAQM Translate, AWS Elemental MediaConvert, et HAQM Polly.
Ces fonctions Lambda interagissent également avec le plan de données Media Insights on AWS pour stocker et récupérer les objets et métadonnées multimédias générés par les tâches d'analyse multimédia. Le flux de travail peut aussi éventuellement exécuter HAQM Rekognition et HAQM Comprehend pour fournir une analyse supplémentaire de l'entrée.
Étape 8
Une fonction Lambda pour extraire, transformer et télécharger les métadonnées des médias à partir du pipeline de données Media Insights sur AWS dans un cluster OpenSearch Service. Cette fonction Lambda est invoquée par le flux HAQM DynamoDB du plan de données Media Insights on AWS chaque fois que les métadonnées des ressources sont modifiées dans le plan de données Media Insights on AWS.
Étape 9
Un cluster OpenSearch Service pour indexer les métadonnées multimédias.
- Date de publication
Rubriques connexes

Media Insights on AWS est un cadre qui permet aux développeurs de créer facilement des applications sans serveur qui traitent du contenu vidéo, image, audio et texte avec les services d'IA et multimédias sur AWS. Cette solution est un cadre de développement conçu pour appliquer des services de machine learning aux flux de travail multimédias.