Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Menyebarkan model pondasi yang tersedia untuk umum dengan kelas JumpStartModel
Anda dapat menerapkan algoritme bawaan atau model pra-terlatih ke SageMaker titik akhir hanya dalam beberapa baris kode menggunakan SageMaker Python SDK.
-
Pertama, temukan ID model untuk model pilihan Anda di Algoritma Bawaan dengan Tabel Model yang telah dilatih sebelumnya
. -
Dengan menggunakan ID model, tentukan model Anda sebagai JumpStart model.
from sagemaker.jumpstart.model import JumpStartModel model_id =
"huggingface-text2text-flan-t5-xl"
my_model = JumpStartModel(model_id=model_id) -
Gunakan
deploy
metode ini untuk menerapkan model Anda secara otomatis untuk inferensi. Dalam contoh ini, kami menggunakan model FLAN -T5 XL dari Hugging Face.predictor = my_model.deploy()
-
Anda kemudian dapat menjalankan inferensi dengan model yang diterapkan menggunakan metode ini
predict
.question =
"What is Southern California often abbreviated as?"
response = predictor.predict(question) print(response)
catatan
Contoh ini menggunakan model dasar FLAN -T5 XL, yang cocok untuk berbagai kasus penggunaan pembuatan teks termasuk menjawab pertanyaan, ringkasan, pembuatan chatbot, dan banyak lagi. Untuk informasi selengkapnya tentang kasus penggunaan model, lihatModel pondasi yang tersedia.
Untuk informasi lebih lanjut tentang JumpStartModel
kelas dan parameternya, lihat JumpStartModel
Periksa jenis contoh default
Secara opsional, Anda dapat menyertakan versi model atau jenis instance tertentu saat menerapkan model yang telah dilatih sebelumnya menggunakan kelas. JumpStartModel
Semua JumpStart model memiliki tipe instance default. Ambil jenis instance penerapan default menggunakan kode berikut:
from sagemaker import instance_types instance_type = instance_types.retrieve_default( model_id=model_id, model_version=model_version, scope=
"inference"
) print(instance_type)
Lihat semua tipe instance yang didukung untuk JumpStart model tertentu dengan instance_types.retrieve()
metode.
Gunakan komponen inferensi untuk menerapkan beberapa model ke titik akhir bersama
Komponen inferensi adalah objek SageMaker hosting yang dapat Anda gunakan untuk menyebarkan satu atau beberapa model ke titik akhir untuk meningkatkan fleksibilitas dan skalabilitas. Anda harus mengubah endpoint_type
JumpStart model Anda menjadi inference-component-based bukan titik akhir berbasis model default.
predictor = my_model.deploy( endpoint_name =
'jumpstart-model-id-123456789012'
, endpoint_type =EndpointType.INFERENCE_COMPONENT_BASED
)
Untuk informasi selengkapnya tentang membuat titik akhir dengan komponen inferensi dan penerapan SageMaker model, lihat. Pemanfaatan sumber daya bersama dengan beberapa model
Periksa format inferensi input dan output yang valid
Untuk memeriksa format input dan output data yang valid untuk inferensi, Anda dapat menggunakan retrieve_options()
metode dari Serializers
dan Deserializers
kelas.
print(sagemaker.serializers.retrieve_options(model_id=model_id, model_version=model_version)) print(sagemaker.deserializers.retrieve_options(model_id=model_id, model_version=model_version))
Periksa konten yang didukung dan terima jenis
Demikian pula, Anda dapat menggunakan retrieve_options()
metode ini untuk memeriksa konten yang didukung dan menerima jenis untuk model.
print(sagemaker.content_types.retrieve_options(model_id=model_id, model_version=model_version)) print(sagemaker.accept_types.retrieve_options(model_id=model_id, model_version=model_version))
Untuk informasi selengkapnya tentang utilitas, lihat Utilitas APIs