As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Os recursos do AMIs de deep learning da AWS (DLAMI) incluem estruturas de aprendizado profundo pré-instaladas, software de GPU, servidores de modelos e ferramentas de visualização de modelos.
Frameworks pré-instalados
No momento, há dois tipos principais de DLAMI com outras variações relacionadas ao sistema operacional (SO) e às versões de software:
-
AMI de aprendizado profundo com Conda: frameworks instalados separadamente usando pacotes
conda
e ambientes Python separados. -
AMI de deep learning base: sem frameworks instalados; apenas NVIDIA CUDA
e outras dependências.
A AMI de aprendizado profundo com Conda usa ambientes conda
para isolar cada estrutura de trabalho, para que você possa alternar entre eles conforme sua necessidade e para que não se preocupe com suas dependências conflitantes. A AMI de aprendizado profundo com Conda é compatível com os seguintes frameworks:
-
PyTorch
-
TensorFlow 2
nota
O DLAMI não oferece mais suporte às seguintes estruturas de aprendizado profundo: Apache MXNet, Microsoft Cognitive Toolkit (CNTK), Caffe, Caffe2, Theano, Chainer e Keras.
Software de GPU pré-instalado
Mesmo se você usar uma instância somente de CPU, ela DLAMIs terá NVIDIA CUDA e NVIDIA cuDNN
Para ter mais informações sobre o CUDA, consulte Instalações do CUDA e associações da estrutura.
Fornecimento e visualização de modelos
A AMI de aprendizado profundo com Conda vem pré-instalada com servidores de modelos para TensorFlow, bem como TensorBoard para visualizações de modelos. Para obter mais informações, consulte TensorFlow Servindo.