使用 JumpStartModel類別部署公開可用的基礎模型 - Amazon SageMaker

本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。

使用 JumpStartModel類別部署公開可用的基礎模型

您可以使用 將內建演算法或預先訓練的模型部署到幾行程式碼中的 SageMaker 端點 SageMaker Python SDK.

  1. 首先,在具有預先訓練模型表 的內建演算法中找到您選擇的模型的模型 ID。

  2. 使用模型 ID,將模型定義為 JumpStart 模型。

    from sagemaker.jumpstart.model import JumpStartModel model_id = "huggingface-text2text-flan-t5-xl" my_model = JumpStartModel(model_id=model_id)
  3. 使用 deploy方法自動部署模型以進行推論。在此範例中,我們使用來自 的 FLAN-T5 XL 模型 Hugging Face.

    predictor = my_model.deploy()
  4. 然後,您可以使用 predict方法,使用部署的模型執行推論。

    question = "What is Southern California often abbreviated as?" response = predictor.predict(question) print(response)
注意

此範例使用基礎模型 FLAN-T5 XL,適用於各種文字產生使用案例,包括問題回答、摘要、聊天機器人建立等。如需模型使用案例的詳細資訊,請參閱 可用的基礎模型

如需JumpStartModel 類別及其參數的詳細資訊,請參閱 JumpStartModel

檢查預設執行個體類型

使用 JumpStartModel類別部署預先訓練的模型時,您可以選擇包含特定的模型版本或執行個體類型。所有 JumpStart 模型都有預設執行個體類型。使用下列程式碼擷取預設部署執行個體類型:

from sagemaker import instance_types instance_type = instance_types.retrieve_default( model_id=model_id, model_version=model_version, scope="inference") print(instance_type)

使用 instance_types.retrieve()方法查看指定 JumpStart 模型的所有支援執行個體類型。

使用推論元件將多個模型部署到共用端點

推論元件是 SageMaker 託管物件,可用來將一或多個模型部署到端點,以提高彈性和可擴展性。您必須將 JumpStart 模型endpoint_type的 變更為 , inference-component-based而不是預設的模型型端點。

predictor = my_model.deploy( endpoint_name = 'jumpstart-model-id-123456789012', endpoint_type = EndpointType.INFERENCE_COMPONENT_BASED )

如需使用推論元件建立端點和部署 SageMaker 模型的詳細資訊,請參閱 多個模型的共用資源使用率

檢查有效的輸入和輸出推論格式

若要檢查有效的資料輸入和輸出格式以進行推論,您可以從 SerializersDeserializers類別使用 retrieve_options()方法。

print(sagemaker.serializers.retrieve_options(model_id=model_id, model_version=model_version)) print(sagemaker.deserializers.retrieve_options(model_id=model_id, model_version=model_version))

檢查支援的內容並接受類型

同樣地,您可以使用 retrieve_options()方法來檢查支援的內容,並接受模型的類型。

print(sagemaker.content_types.retrieve_options(model_id=model_id, model_version=model_version)) print(sagemaker.accept_types.retrieve_options(model_id=model_id, model_version=model_version))

如需公用程式的詳細資訊,請參閱公用程式 APIs