Publié le: Aug 14, 2020
HAQM Elastic Container Service (ECS) lance aujourd'hui l'HAQM Machine Image (AMI) Inferentia optimisée pour HAQM ECS : une nouvelle AMI basée sur HAQM Linux 2 pour les instances HAQM EC2 Inf1 sur ECS. Celle-ci permet aux clients d'exécuter facilement des conteneurs Inferentia sur ECS. L'AMI Inferentia optimisée pour ECS contient d'office tous les packages AWS Neuron nécessaires.
Les instances Inf1 d’HAQM EC2 offrent l’inférence de machine learning haute performance la plus économique dans le cloud. Les instances Inf1 comportent jusqu'à 16 puces AWS Inferentia. Il s'agit de puces d'inférence de machine learning haute performance conçues et fabriquées par AWS. Les instances Inf1 permettent aux clients d'exécuter des applications d'inférence de machine learning à grande échelle comme la reconnaissance d'images, la reconnaissance vocale, le traitement du langage naturel, la personnalisation et la détection des fraudes. Une fois que votre modèle de machine learning est entraîné pour répondre à vos besoins, vous pouvez le déployer en utilisant AWS Neuron. AWS Neuron est un kit de développement logiciel (SDK, specialized software development) spécialisé qui optimise la performance d’inférence de machine learning des puces Inferentia et prend en charge les frameworks machine learning tels que TensoFlow, PyTorch et MXNet. Il est composé d'un compilateur, d'un environnement d'exécution et d'outils de profilage.
Les clients peuvent lancer et ajouter une instance Inf1 à leurs clusters ECS grâce à la nouvelle AMI Inferentia optimisée pour ECS à partir de l'AWS CLI et de la console ECS. L'AMI Inferentia optimisée pour ECS version 20200623 comprend l'agent de conteneur ECS version 1.41.0 et la version docker 1903.6-ce.
L’AMI Inferentia optimisée pour HAQM ECS est actuellement disponible dans les régions USA Est (Virginie du Nord) et USA Ouest (Oregon). Pour en savoir plus, consultez la documentation et le blog des actualités AWS.