Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Instancias de Inferentia recomendadas
AWS Las instancias de Inferentia están diseñadas para proporcionar un alto rendimiento y rentabilidad para las cargas de trabajo de inferencia de modelos de aprendizaje profundo. En concreto, los tipos de instancias de Inf2 utilizan chips AWS Inferentia y el SDK AWS Neuron
Los clientes pueden usar las instancias de Inf2 para ejecutar aplicaciones de inferencia de machine learning a gran escala, como búsquedas, motores de recomendación, visión artificial, reconocimiento de voz, procesamiento del lenguaje natural, personalización y detección de fraudes, al menor costo en la nube.
nota
El tamaño del modelo debe ser un factor a tener en cuenta para la elección de una instancia. Si su modelo supera la RAM disponible de una instancia, seleccione otro tipo de instancia con memoria suficiente para la aplicación.
Las instancias Amazon EC2 Inf2
tienen hasta 16 chips AWS Inferentia y 100 Gbps de rendimiento de red.
Para obtener más información sobre cómo empezar a utilizar Inferentia, consulte. AWS DLAMIs El chip AWS Inferentia con DLAMI
Tema siguiente
Instancias de Trainium recomendadas