

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Exemples de bibliothèque de parallélisme de modèles Amazon SageMaker AI v2
<a name="distributed-model-parallel-v2-examples"></a>

Cette page fournit une liste de blogs et de blocs-notes Jupyter présentant des exemples pratiques d'implémentation de la bibliothèque de parallélisme de SageMaker modèles (SMP) v2 pour exécuter des tâches de formation distribuées sur l'IA. SageMaker 

## Blogs et études de cas
<a name="distributed-model-parallel-v2-examples-blog"></a>

Les blogs suivants traitent d’études de cas sur l’utilisation de SMP v2.
+ [La bibliothèque parallèle de modèles Amazon SageMaker AI accélère désormais les charges de travail PyTorch FSDP jusqu'à 20 %](https://aws.amazon.com/blogs/machine-learning/amazon-sagemaker-model-parallel-library-now-accelerates-pytorch-fsdp-workloads-by-up-to-20/)

## PyTorch exemples de carnets
<a name="distributed-model-parallel-examples-v2-pytorch"></a>

Des carnets d'exemples sont fournis dans le [ GitHub référentiel d'exemples d'SageMaker IA](https://github.com/aws/amazon-sagemaker-examples/tree/master/training/distributed_training/). Pour les télécharger, exécutez la commande suivante afin de cloner le référentiel et d’accéder à `training/distributed_training/pytorch/model_parallel_v2`.

**Note**  
Clonez et exécutez les exemples de blocs-notes dans l' SageMaker AI ML IDEs suivant.  
[SageMaker JupyterLab](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-updated-jl.html)(disponible dans [Studio](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-updated.html) créé après décembre 2023)
[SageMaker Éditeur de code](https://docs.aws.amazon.com/sagemaker/latest/dg/code-editor.html) (disponible dans [Studio](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-updated.html) créé après décembre 2023)
[Studio Classic](https://docs.aws.amazon.com/sagemaker/latest/dg/studio.html) (disponible sous forme d’application dans [Studio](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-updated.html), créé après décembre 2023)
[SageMaker Instances d'ordinateurs portables](https://docs.aws.amazon.com/sagemaker/latest/dg/nbi.html)

```
git clone https://github.com/aws/amazon-sagemaker-examples.git
cd amazon-sagemaker-examples/training/distributed_training/pytorch/model_parallel_v2
```

**Exemples de blocs-notes SMP v2**
+ [Accélérez l'entraînement de Llama v2 avec SMP v2, PyTorch FSDP et Transformer Engine en exécutant FP8 l'entraînement sur des instances P5](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/model_parallel_v2/llama_v2/smp-train-llama-fsdp-tp-fp8.ipynb)
+ [Ajustez Llama v2 avec SMP v2 et PyTorch FSDP à grande échelle en utilisant le parallélisme des tenseurs, le sharding hybride et le déchargement des activations](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/model_parallel_v2/llama_v2/smp-finetuning-llama-fsdp-tp.ipynb)
+ [Entraînez GPT-Neox avec SMP v2 et PyTorch FSDP à grande échelle](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/model_parallel_v2/gpt-neox/smp-train-gpt-neox-fsdp-tp.ipynb)
+ [Ajustez GPT-Neox avec SMP v2 et PyTorch FSDP à grande échelle en utilisant le parallélisme des tenseurs, le sharding hybride et le déchargement des activations](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/model_parallel_v2/gpt-neox/smp-finetuning-gpt-neox-fsdp-tp.ipynb)