Inserito il: Sep 17, 2019
HAQM ECS permette ora di allegare gli acceleratori di HAQM Elastic Inference ai tuoi container per permetterti di eseguire carichi di lavoro di inferenza per il deep learning in modo più conveniente. HAQM Elastic Inference consente di collegare la giusta quantità di accelerazione basata su GPU a qualsiasi tipo di istanza HAQM EC2 o HAQM SageMaker, o a un’attività su ECS per ridurre fino al 75% il costo dell’esecuzione dell’inferenza di apprendimento approfondito.
Con il supporto per ECS di HAQM Elastic Inference, puoi ora scegliere la CPU e la configurazione di memoria più adatte alle esigenze dell’applicazione, per poi configurare separatamente la quantità di accelerazione di inferenza di cui hai bisogno senza modificare il codice. Ciò consente di usare efficacemente le risorse e ridurre il costo dell’esecuzione dell’inferenza. Questa funzionalità è supportata quando si utilizzano i container e le attività Linux che usano il tipo di lancio EC2. HAQM Elastic Inference offre supporto per i modelli TensorFlow, Apache MXNet e ONNX e prevede più framework disponibili a breve.
Il supporto di HAQM Elastic Inference per ECS è disponibile in tutte le regioni in cui ECS ed Elastic Inference sono disponibili. Per iniziare, consulta la nostra documentazione.