

# Começar a usar instâncias aceleradas por GPU
<a name="gpu-instances-started"></a>

A última geração de tipos de instância acelerada por GPU de quinta geração, como os mostrados na lista a seguir, oferecem os recursos de maior performance para aplicações de aprendizado profundo e computação de alta performance (HPC). Selecione o link do tipo de instância para saber mais sobre seus recursos.
+ [Família P6](https://aws.amazon.com/ec2/instance-types/p6/)
+ [Família P](https://aws.amazon.com/ec2/instance-types/p6/)
+ [Família P](https://aws.amazon.com/ec2/instance-types/p5/)

Para obter uma lista completa das especificações de tipo de instância para tipos de instâncias aceleradas, consulte [Computação acelerada](https://docs.aws.amazon.com/ec2/latest/instancetypes/ac.html) na referência de *Tipos de instância do Amazon EC2*.

**Configuração de software**  
A maneira mais fácil de começar a usar a última geração de tipos de instâncias aceleradas de GPU de quinta geração é lançar uma instância de uma AMI do AWS Deep Learning pré-configurada com todo o software necessário. Para conecer os AMIs de deep learning da AWS mais recentes para uso com tipos de instância acelerada por GPU, consulte [DLAMI compatível com P6](https://docs.aws.amazon.com/dlami/latest/devguide/p6-support-dlami.html), no *Guia do desenvolvedor do AMIs de deep learning da AWS*.

Se você precisar criar uma AMI personalizada para inicializar instâncias que hospedam aplicações de aprendizado profundo ou HPC, recomendamos instalar as seguintes versões mínimas de software em cima da imagem base.


| Tipo de instância | Driver NVIDIA | CUDA | NVIDIA GDRCopy | Instaladora EFA | NCCL | EFA K8s ¹ | 
| --- | --- | --- | --- | --- | --- | --- | 
| G7e | 575 | 12.9 | 2,5 | 1.45.0 | 2.28.3 | 0.5.10 | 
| P5 | 530 | 12.1 | 2.3 | 1.24.1 | 2.18.3 | 0.4.4 | 
| P5.4xlarge | 530 | 12.1 | 2.3 | 1,43.1 ² | 2.18.3 | 0.4.4 | 
| P5e | 550 | 12.1 | 2.3 | 1.24.1 | 2.18.3 | 0.5.5 | 
| P5en | 550 | 12.1 | 2.3 | 1.24.1 | 2.18.3 | 0.5.6 | 
| P6-B200 | 570 | 12.8 | 2,5 | 1.41.0 | 2.26.2-1 | 0.5.10 | 
| P6e-GB200 | 570 | 12.8 | 2,5 | 1.41.0 | 2.26.2-1 | 0.5.10 | 
| P6-B300 | 580 | 13.0 | 2,5 | 1.44.0 | 2.28.3 | 0.5.10 | 

** ¹** A coluna **EFA K8s** contém a versão mínima recomendada para o `aws-efa-k8s-device-plugin`.

**²** Há um problema de compatibilidade que afeta as instâncias `P5.4xlarge` em que a comunicação entre GPUs usa o Elastic Fabric Adapter (EFA) e a NVIDIA Collective Communications Library (NCCL). Para mitigar o problema, defina a variável de ambiente `FI_HMEM_DISABLE_P2P` como `1` e certifique-se de instalar o EFA versão 1.43.1 ou mais recente.

**nota**  
Se você usar a versão 1.41.0 do instalador EFA, o `aws-ofi-nccl plugin` vem com ela. Para versões anteriores do instalador do EFA, use o `aws-ofi-nccl plugin` versão `1.7.2-aws` ou posterior.

Também recomendamos que você configure a instância para não usar estados C mais profundos. Para obter mais informações, consulte [High performance and low latency by limiting deeper C-states](https://docs.aws.amazon.com/linux/al2/ug/processor_state_control.html#c-states) no *Amazon Linux 2 User Guide*. As mais recentes AMIs de GPU básica de aprendizado profundo da AWS estão pré-configuradas para não usar estados C mais profundos.

Sobre como configurar redes e Elastic Fabric Adapter (EFA), consulte [Maximize a largura de banda da rede em instâncias do Amazon EC2 com várias placas de rede](efa-acc-inst-types.md).