Publicado en: Jan 18, 2019
HAQM Elastic Inference es un servicio que le permite adjuntar aceleradores a cualquier tipo de instancia de HAQM SageMaker o HAQM EC2 para agilizar las cargas de trabajo de inferencia de aprendizaje profundo. Los aceleradores de Elastic Inference le ofrecen el nivel de latencia bajo y los beneficios de alto rendimiento de la aceleración de GPU a un costo mucho menor (de hasta el 75 %). Puede usar Elastic Inference para implementar modelos de TensorFlow, Apache MXNet y ONNX y realizar inferencias.
HAQM Elastic Inference ahora admite la versión más reciente de TensorFlow 1.12. Se incluye EIPredictor, una función de API de Python nueva y fácil de usar para implementar modelos de TensorFlow a través de aceleradores de HAQM Elastic Inference. EIPredictor le permite realizar tareas de experimentación con facilidad y comparar el rendimiento con y sin HAQM Elastic Inference. Si desea obtener más información acerca de cómo ejecutar modelos de TensorFlow con HAQM Elastic Inference, consulte esta publicación de blog.
Para leer más contenido acerca de HAQM Elastic Inference, consulte la página web y la guía del usuario de la documentación.