Publicado en: Oct 25, 2019

HAQM Elastic Inference presenta los nuevos aceleradores de Elastic Inference llamados EIA2, con hasta 8 GB de memoria de GPU. Ahora, los clientes pueden usar HAQM Elastic Inference en modelos más grandes o modelos que tienen tamaños de entrada más grandes para el procesamiento de imágenes, la detección de objetos, la clasificación de imágenes, el procesamiento de voz automatizado y el procesamiento del lenguaje natural, y otros casos de uso de aprendizaje profundo.

HAQM Elastic Inference le permite adjuntar la cantidad justa de aceleración impulsada por GPU a cualquier instancia de HAQM EC2, instancia de HAQM SageMaker o tareas de HAQM ECS para reducir el costo de ejecución de la inferencia de aprendizaje profundo hasta un 75 %. Con HAQM Elastic Inference, puede elegir el tipo de instancia que mejor se adapte a las necesidades generales del CPU y la memoria de su aplicación, y configurar por separado la cantidad de aceleración de inferencia que necesita sin cambios de código. Hasta ahora, podía aprovisionar un máximo de 4 GB de memoria de GPU en Elastic Inference. Ahora, puede elegir entre 3 nuevos tipos de acelerador, que tienen 2 GB, 4 GB y 8 GB de memoria GPU respectivamente. Próximamente, HAQM Elastic Inference admitirá modelos TensorFlow, Apache MXNet y ONNX con más marcos de trabajo.

Los nuevos aceleradores de Elastic Inference están disponibles en EE. UU. Este (Virginia), EE. UU. Oeste (Oregón), EE. UU. Este (Ohio), Asia Pacífico (Seúl) y UE (Irlanda). Próximamente se incorporarán otras regiones.

Para obtener más información, consulte la página del producto.