投稿日: Sep 17, 2019

HAQM ECS では、ディープラーニング推論ワークロードをよりコスト効率良く実行するため、コンテナに HAQM Elastic Inference アクセラレーターをアタッチできます。 HAQM Elastic Inference では、HAQM EC2 や HAQM SageMaker インスタンス、または ECS タスクに適切な量の GPU アクセラレーションをアタッチすることで、ディープラーニング推論の実行コストを最大 75% まで削減できます。

ECS での HAQM Elastic Inference のサポートにより、タスクの CPU とメモリの設定についてアプリケーションのニーズに最適なものを選択し、必要な推論アクセラレーションの程度をコードを変更することなく個別に設定できます。これにより、リソースを効率的に使用し、推論を実行するコストを削減できます。この機能は、Linux コンテナと、EC2 起動タイプを使用するタスクの使用時にサポートされます。HAQM Elastic Inference は、TensorFlow、Apache MXNet、および ONNX モデルをサポートしており、さらにたくさんのフレームワークが近日中に提供される予定です。

ECS での HAQM Elastic Inference のサポートは、ECS と Elastic Inference が利用可能なすべてのリージョンで提供されています。使用を開始するには、ドキュメントを参照してください。