Veröffentlicht am: Sep 17, 2019

HAQM ECS unterstützt das Anfügen von HAQM Elastic Inference-Accelerators an Ihre Container, um die Ausführung von Deep Learning Inference-Workloads kostengünstiger zu gestalten. Die HAQM Elastic Inference ermöglicht Ihnen, jeder beliebigen HAQM EC2- oder HAQM SageMaker-Instanz oder ECS-Aufgabe genau die richtige GPU-Beschleunigung zuweisen, um die Kosten für das In Deep Learning Inference-Verfahren um bis zu 75 % zu reduzieren.

Mit der Unterstützung für HAQM Elastic Inference in ECS können Sie die Aufgaben-CPU und Speicherkonfiguration auswählen, der am besten zu den Anforderungen Ihrer Anwendung passt. Im Anschluss können Sie ohne Code-Änderung die Höhe der benötigten Inferenzbeschleunigung separat konfigurieren, die Sie brauchen. Dies ermöglicht Ihnen, die Ressourcen effizient einzusetzen und die Kosten der laufenden Inferenz zu reduzieren. Diese Funktion wird bei der Verwendung von Linux-Containern und bei Aufgaben unterstützt, die den EC2-Start-Typ verwenden. HAQM Elastic Inference unterstützt TensorFlow-, Apache MXNet- und ONNX-Modelle, und weitere Frameworks werden in Kürze zur Verfügung stehen.

Die Unterstützung für HAQM Elastic Inference in ECS ist in allen Regionen verfügbar, in den ECS und Elastic Inference verfügbar sind. Informationen zu den ersten Schritten finden Sie in unserer Dokumentation