Ajustez les modèles de base accessibles au public avec la classe JumpStartEstimator - Amazon SageMaker

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Ajustez les modèles de base accessibles au public avec la classe JumpStartEstimator

Vous pouvez affiner un algorithme intégré ou un modèle préentraîné en quelques lignes de code à l'aide du SageMaker Python SDK.

  1. Tout d'abord, trouvez l'identifiant du modèle de votre choix dans le tableau des algorithmes intégrés avec des modèles préentraînés.

  2. À l'aide de l'ID du modèle, définissez votre poste de formation en tant qu' JumpStartestimateur.

    from sagemaker.jumpstart.estimator import JumpStartEstimator model_id = "huggingface-textgeneration1-gpt-j-6b" estimator = JumpStartEstimator(model_id=model_id)
  3. Exécutez estimator.fit() sur votre modèle en pointant vers les données d'entraînement à utiliser pour le peaufiner.

    estimator.fit( {"train": training_dataset_s3_path, "validation": validation_dataset_s3_path} )
  4. Utilisez ensuite la deploy méthode pour déployer automatiquement votre modèle à des fins d'inférence. Dans cet exemple, nous utilisons le modèle GPT -J 6B de Hugging Face.

    predictor = estimator.deploy()
  5. Vous pouvez ensuite exécuter l'inférence avec le modèle déployé à l'aide de la predict méthode.

    question = "What is Southern California often abbreviated as?" response = predictor.predict(question) print(response)
Note

Cet exemple utilise le modèle de base GPT -J 6B, qui convient à un large éventail de cas d'utilisation de génération de texte, notamment la réponse à des questions, la reconnaissance d'entités nommées, la synthèse, etc. Pour plus d'informations sur les cas d'utilisation des modèles, consultezModèles de fondation disponibles.

Vous pouvez éventuellement spécifier des versions de modèles ou des types d'instances lors de la création de votreJumpStartEstimator. Pour plus d'informations sur la JumpStartEstimator classe et ses paramètres, consultez JumpStartEstimator.

Vérifier les types d'instances par défaut

Vous pouvez éventuellement inclure des versions de modèle ou des types d'instances spécifiques lorsque vous peaufinez un modèle préentraîné à l'aide de la JumpStartEstimator classe. Tous les JumpStart modèles ont un type d'instance par défaut. Récupérez le type d'instance d'entraînement par défaut à l'aide du code suivant :

from sagemaker import instance_types instance_type = instance_types.retrieve_default( model_id=model_id, model_version=model_version, scope="training") print(instance_type)

Vous pouvez voir tous les types d'instances pris en charge pour un JumpStart modèle donné avec la instance_types.retrieve() méthode.

Vérifiez les hyperparamètres par défaut

Pour vérifier les hyperparamètres par défaut utilisés pour l'entraînement, vous pouvez utiliser la retrieve_default() méthode de la hyperparameters classe.

from sagemaker import hyperparameters my_hyperparameters = hyperparameters.retrieve_default(model_id=model_id, model_version=model_version) print(my_hyperparameters) # Optionally override default hyperparameters for fine-tuning my_hyperparameters["epoch"] = "3" my_hyperparameters["per_device_train_batch_size"] = "4" # Optionally validate hyperparameters for the model hyperparameters.validate(model_id=model_id, model_version=model_version, hyperparameters=my_hyperparameters)

Pour plus d'informations sur les hyperparamètres disponibles, consultezHyperparamètres de réglage précis couramment pris en charge.

Vérifiez les définitions des métriques par défaut

Vous pouvez également vérifier les définitions des métriques par défaut :

print(metric_definitions.retrieve_default(model_id=model_id, model_version=model_version))