

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Création d’un modèle
<a name="serverless-endpoints-create-model"></a>

Pour créer votre modèle, vous devez fournir l’emplacement de vos artefacts de modèle et de l’image de conteneur. Vous pouvez également utiliser une version du modèle depuis [SageMaker Model Registry](model-registry.md). Les exemples présentés dans les sections suivantes vous montrent comment créer un modèle à l'aide de l'[CreateModel](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateModel.html)API, du Model Registry et de la [console Amazon SageMaker AI](https://console.aws.amazon.com/sagemaker/home).

## Pour créer un modèle (à l’aide du registre de modèles)
<a name="serverless-endpoints-create-model-registry"></a>

[Model Registry](model-registry.md) est une fonctionnalité de l' SageMaker IA qui vous aide à cataloguer et à gérer les versions de votre modèle à utiliser dans les pipelines de ML. Pour utiliser Model Registry avec Serverless Inference, vous devez commencer par enregistrer une version de modèle dans un groupe de modèles Model Registry. Pour savoir comment enregistrer un modèle dans Model Registry, suivez les procédures des rubriques [Création d’un groupe de modèles](model-registry-model-group.md) et [Enregistrement d’une version de modèle](model-registry-version.md).

Dans l'exemple suivant, vous devez disposer de l'ARN d'une version de modèle enregistrée et utiliser le [AWS SDK pour Python (Boto3) pour appeler](https://boto3.amazonaws.com/v1/documentation/api/latest/index.html) l'API. [CreateModel](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateModel.html) Pour l'inférence sans serveur, Model Registry n'est actuellement pris en charge que par le AWS SDK pour Python (Boto3). Pour l’exemple, spécifiez les valeurs suivantes :
+ Pour `model_name`, saisissez le nom du modèle.
+ En `sagemaker_role` effet, vous pouvez utiliser le rôle par défaut SageMaker créé par l'IA ou un rôle SageMaker AI IAM personnalisé à l'étape 4 de la section. [Remplir les conditions préalables](serverless-endpoints-prerequisites.md)
+ Pour `ModelPackageName`, spécifiez l’ARN de la version de votre modèle, qui doit être enregistré dans un groupe de modèles dans le registre de modèles.

```
#Setup
import boto3
import sagemaker
region = boto3.Session().region_name
client = boto3.client("sagemaker", region_name=region)

#Role to give SageMaker AI permission to access AWS services.
sagemaker_role = sagemaker.get_execution_role()

#Specify a name for the model
model_name = "<name-for-model>"

#Specify a Model Registry model version
container_list = [
    {
        "ModelPackageName": <model-version-arn>
     }
 ]

#Create the model
response = client.create_model(
    ModelName = model_name,
    ExecutionRoleArn = sagemaker_role,
    container_list
)
```

## Pour créer un modèle (à l’aide de l’API)
<a name="serverless-endpoints-create-model-api"></a>

L'exemple suivant utilise le [AWS SDK pour Python (Boto3) pour appeler](https://boto3.amazonaws.com/v1/documentation/api/latest/index.html) l'API. [CreateModel](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateModel.html) Indiquez l’une des valeurs suivantes :
+ Car `sagemaker_role,` vous pouvez utiliser le rôle par défaut SageMaker créé par l'IA ou un rôle SageMaker AI IAM personnalisé à l'étape 4 de la section. [Remplir les conditions préalables](serverless-endpoints-prerequisites.md)
+ Pour `model_url`, spécifiez l’URI Amazon S3 pour votre modèle.
+ Pour `container`, récupérez le conteneur que vous souhaitez utiliser par son chemin Amazon ECR. Cet exemple utilise un conteneur SageMaker fourni par l'IA XGBoost . Si vous n'avez pas sélectionné de conteneur d' SageMaker IA ou si vous n'avez pas apporté le vôtre, consultez l'étape 6 de la [Remplir les conditions préalables](serverless-endpoints-prerequisites.md) section pour plus d'informations.
+ Pour `model_name`, saisissez le nom du modèle.

```
#Setup
import boto3
import sagemaker
region = boto3.Session().region_name
client = boto3.client("sagemaker", region_name=region)

#Role to give SageMaker AI permission to access AWS services.
sagemaker_role = sagemaker.get_execution_role()

#Get model from S3
model_url = "s3://amzn-s3-demo-bucket/models/model.tar.gz"

#Get container image (prebuilt example)
from sagemaker import image_uris
container = image_uris.retrieve("xgboost", region, "0.90-1")

#Create model
model_name = "<name-for-model>"

response = client.create_model(
    ModelName = model_name,
    ExecutionRoleArn = sagemaker_role,
    Containers = [{
        "Image": container,
        "Mode": "SingleModel",
        "ModelDataUrl": model_url,
    }]
)
```

## Pour créer un modèle (à l’aide de la console)
<a name="serverless-endpoints-create-model-console"></a>

1. Connectez-vous à la [console Amazon SageMaker AI](https://console.aws.amazon.com/sagemaker/home).

1. Sous l’onglet de navigation, sélectionnez **Inférence**.

1. Ensuite, sélectionnez **Modèles**.

1. Sélectionnez **Créer un modèle**.

1. Dans **Nom du modèle**, entrez un nom pour le modèle unique à votre compte et Région AWS.

1. Pour **le rôle IAM**, sélectionnez un rôle IAM que vous avez déjà créé (voir[Remplir les conditions préalables](serverless-endpoints-prerequisites.md)) ou autorisez SageMaker AI à en créer un pour vous.

1. Dans **Définition de conteneur 1**, pour **Options d’entrée de conteneur**, sélectionnez **Fournir des artefacts de modèle et un emplacement d’entrée**.

1. Pour **Fournir des artefacts de modèle et des options d’image d’inférence**, sélectionnez **Utiliser un seul modèle**.

1. Pour **Emplacement de l’image du code d’inférence**, saisissez un chemin Amazon ECR vers un conteneur. L'image doit être une image de première partie SageMaker fournie par l'IA (par exemple TensorFlow, XGBoost) ou une image résidant dans un référentiel Amazon ECR sur le même compte dans lequel vous créez le point de terminaison. Si vous n’avez pas de conteneur, revenez à l’étape 6 de la section [Remplir les conditions préalables](serverless-endpoints-prerequisites.md) pour plus d’informations.

1. Pour **Emplacement des artefacts de modèle**, saisissez l’URI Amazon S3 de votre modèle de ML. Par exemple, `s3://amzn-s3-demo-bucket/models/model.tar.gz`.

1. (Facultatif) Pour **Balises**, ajoutez des paires de valeur clé afin de créer des métadonnées pour votre modèle.

1. Sélectionnez **Créer un modèle**.