

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

# Gunakan impor model khusus untuk mengimpor model sumber terbuka yang disesuaikan ke Amazon Bedrock
<a name="model-customization-import-model"></a>

Anda dapat membuat model kustom di Amazon Bedrock dengan menggunakan fitur Impor Model Kustom Amazon Bedrock untuk mengimpor Model Foundation yang telah Anda sesuaikan di lingkungan lain, seperti Amazon SageMaker AI. Misalnya, Anda mungkin memiliki model yang telah Anda buat di Amazon SageMaker AI yang memiliki bobot model eksklusif. Anda sekarang dapat mengimpor model itu ke Amazon Bedrock dan kemudian memanfaatkan fitur Amazon Bedrock untuk melakukan panggilan inferensi ke model. 

Anda dapat menggunakan model yang Anda impor dengan throughput sesuai permintaan. Gunakan [InvokeModelWithResponseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModelWithResponseStream.html)operasi [InvokeModel](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html)or untuk membuat panggilan inferensi ke model. Untuk informasi selengkapnya, lihat [Kirim satu prompt dengan InvokeModel](inference-invoke.md).

Impor model kustom didukung di wilayah berikut:
+ eu-central-1
+ us-east-1
+ us-east-2
+ us-west-2

**catatan**  
Pastikan impor dan penggunaan model di Amazon Bedrock sesuai dengan persyaratan atau lisensi yang berlaku untuk model.  
Anda tidak dapat menggunakan Impor Model Kustom dengan fitur Amazon Bedrock berikut.  
Inferensi Batch
CloudFormation

Dengan Impor Model Kustom Anda dapat membuat model kustom yang mendukung pola berikut.
+ **Model yang disetel dengan baik** — Anda dapat menyesuaikan bobot model menggunakan data eksklusif, tetapi mempertahankan konfigurasi model dasar. 
+ **Adaptasi** Anda dapat menyesuaikan model ke domain Anda untuk kasus penggunaan di mana model tidak digeneralisasi dengan baik. Adaptasi domain memodifikasi model untuk menggeneralisasi domain target dan menangani perbedaan di seluruh domain, seperti industri keuangan yang ingin membuat model yang menggeneralisasi harga dengan baik. Contoh lain adalah adaptasi bahasa. Misalnya Anda dapat menyesuaikan model untuk menghasilkan tanggapan dalam bahasa Portugis atau Tamil. Paling sering, ini melibatkan perubahan pada kosakata model yang Anda gunakan.
+ **Dilatih sebelumnya dari awal** — Selain menyesuaikan bobot dan kosakata model, Anda juga dapat mengubah parameter konfigurasi model seperti jumlah kepala perhatian, lapisan tersembunyi, atau panjang konteks.

Untuk informasi mengenai harga impor model kustom, pilih tab Impor Model Kustom di bagian Detail harga model pada [harga Amazon Bedrock](https://aws.amazon.com/bedrock/pricing).

**Topics**
+ [Arsitektur yang didukung](#model-customization-import-model-architecture)
+ [Impor sumber model dari Amazon S3](#model-customization-import-model-source)
+ [Prasyarat untuk mengimpor model khusus](custom-model-import-prereq.md)
+ [Kirim pekerjaan impor model](model-customization-import-model-job.md)
+ [Panggil model impor Anda](invoke-imported-model.md)
+ [Menangani Template Obrolan Kustom dan Tokenizers](custom-chat-templates-tokenizers.md)
+ [Hitung biaya menjalankan model kustom](import-model-calculate-cost.md)
+ [Sampel kode untuk impor model khusus](custom-model-import-code-samples.md)

## Arsitektur yang didukung
<a name="model-customization-import-model-architecture"></a>

Model yang Anda impor harus dalam salah satu arsitektur berikut.
+ **Mistral**- Arsitektur berbasis Transformer khusus decoder dengan Sliding Window Attention (SWA) dan opsi untuk Grouped Query Attention (GQA). Untuk informasi selengkapnya, lihat [https://huggingface.co/docs/transformers/en/model_doc/mistral](https://huggingface.co/docs/transformers/en/model_doc/mistral)di dokumentasi Hugging Face. 
+ **Mixtral**— Model transformator khusus decoder dengan model Mixture of Experts (MoE) yang jarang. Untuk informasi selengkapnya, lihat [Mixtral](https://huggingface.co/docs/transformers/en/model_doc/mixtral) dalam dokumentasi Hugging Face. 
+  **Flan**— Versi arsitektur T5 yang disempurnakan, model transformator berbasis encoder-decoder. Untuk informasi selengkapnya, lihat [https://huggingface.co/docs/transformers/model_doc/flan-t5](https://huggingface.co/docs/transformers/model_doc/flan-t5)di dokumentasi Hugging Face. 
+ **Llama 2,,Llama3,Llama3.1, Llama3.2Llama 3.3, dan Mllama** — Versi yang disempurnakan Llama dengan Grouped Query Attention (GQA). Untuk informasi lebih lanjut, lihat [https://huggingface.co/blog/llama2](https://huggingface.co/blog/llama2), [https://huggingface.co/meta-llama/Meta-Llama-3.1-8B-Instruct#model-information](https://huggingface.co/meta-llama/Meta-Llama-3.1-8B-Instruct#model-information), [https://huggingface.co/meta-llama/Llama-3.2-11B-Vision-Instruct](https://huggingface.co/meta-llama/Llama-3.2-11B-Vision-Instruct), [https://huggingface.co/meta-llama/Llama-3.3-70B-Instruct](https://huggingface.co/meta-llama/Llama-3.3-70B-Instruct),, dan [https://huggingface.co/docs/transformers/main/en/model_doc/mllama](https://huggingface.co/docs/transformers/main/en/model_doc/mllama)dalam Hugging Face dokumentasi.
+ **GPTBigCode**- Versi GPT-2 yang dioptimalkan dengan tindakan Multi-Query. Untuk informasi selengkapnya, lihat [GPTBigKode](https://huggingface.co/docs/transformers/en/model_doc/gpt_bigcode) dalam Hugging Face dokumentasi.
+ **Qwen2,Qwen2.5,, Qwen2-VLQwen2.5-VL, Qwen3** - Keluarga LLM dengan persepsi multimodal yang komprehensif dan pengkodean penglihatan kecepatan tinggi. Model apa pun yang menggunakan Qwen2Qwen2-VL,, dan Qwen2.5-VL arsitektur dapat diimpor. Untuk Qwen3 arsitektur, hanya Qwen3ForCausalLM dan Qwen3MoeForCausalLM didukung. Converse juga tidak didukung untuk Qwen3 model. [https://huggingface.co/collections/Qwen/qwen25-vl-6795ffac22b334a837c0f9a5](https://huggingface.co/collections/Qwen/qwen25-vl-6795ffac22b334a837c0f9a5) Hugging Face
+ **GPT-OSS**— Arsitektur berbasis GPT-OSS OpenAI. Amazon Bedrock mendukung model kustom berbasis 20B dan 120B. GPT-OSSarsitektur model hanya didukung di wilayah AS Timur (Virginia N.).

**catatan**  
Ukuran bobot model impor harus kurang dari 100GB untuk model multimodal dan 200GB untuk model teks.
Penyematan posisi maksimum atau panjang konteks maksimum yang didukung oleh model harus kurang dari 128K.
Amazon Bedrock mendukung transformator versi 4.51.3. Pastikan Anda menggunakan transformator versi 4.51.3 saat Anda menyempurnakan model Anda.
Impor Model Kustom tidak mendukung model penyematan.

## Impor sumber model dari Amazon S3
<a name="model-customization-import-model-source"></a>

Anda mengimpor model ke Amazon Bedrock dengan membuat pekerjaan impor model di konsol Amazon Bedrock atau API. Dalam pekerjaan Anda menentukan URI Amazon S3 untuk sumber file model. Selama pelatihan model, pekerjaan impor secara otomatis mendeteksi arsitektur model Anda.

Anda perlu menyediakan file model dalam format Hugging Face bobot. Anda dapat membuat file dengan menggunakan pustaka transformator Hugging Face. Untuk membuat file model untuk Llama model, lihat [convert\$1llama\$1weights\$1to\$1hf.py](https://github.com/huggingface/transformers/blob/main/src/transformers/models/llama/convert_llama_weights_to_hf.py). Untuk membuat file untuk Mistral AI model, lihat [convert\$1mistral\$1weights\$1to\$1hf.py](https://github.com/huggingface/transformers/blob/main/src/transformers/models/mistral/convert_mistral_weights_to_hf.py).

Untuk mengimpor model dari Amazon S3, Anda minimal memerlukan file berikut yang dibuat oleh library transformator Hugging Face.
+ **.safetensor** *— bobot model dalam format Safetensor.* Safetensors adalah format yang dibuat oleh Hugging Face yang menyimpan bobot model sebagai tensor. Anda harus menyimpan tensor untuk model Anda dalam file dengan ekstensi. `.safetensors` Untuk informasi lebih lanjut, lihat [Safetensors](https://huggingface.co/docs/safetensors/en/index). [Untuk informasi tentang mengonversi bobot model ke format Safetensor, lihat Mengonversi bobot menjadi pengaman.](https://huggingface.co/docs/safetensors/en/convert-weights)
+ **config.json — Sebagai** contoh, lihat dan. [LlamaConfig[MistralConfig](https://huggingface.co/docs/transformers/model_doc/mistral#transformers.MistralConfig)](https://huggingface.co/docs/transformers/model_doc/llama2#transformers.LlamaConfig)
**catatan**  
Amazon Bedrock mengganti nilai dengan llama3 `rope_scaling` nilai berikut:  
`original_max_position_embeddings=8192`
`high_freq_factor=4`
`low_freq_factor=1`
`factor=8`
+ **tokenizer\$1config.json** Sebagai contoh, lihat. [LlamaTokenizer](https://huggingface.co/docs/transformers/model_doc/llama2#transformers.LlamaTokenizer)
+ **tokenizer.json**
+ **tokenizer.model** 

### Tokenizer yang didukung
<a name="tokenizers"></a>

Amazon Bedrock Custom Model Import mendukung tokenizer berikut. Anda dapat menggunakan tokenizers ini dengan model apa pun.
+ T5Tokenizer
+ T5 TokenizerFast
+ LlamaTokenizer
+ LlamaTokenizerFast
+ CodeLlamaTokenizer
+ CodeLlamaTokenizerFast
+ GPT2Tokenizer
+ GPT2TokenizerFast
+ GPTNeoXTokenizer
+ GPTNeoXTokenizerCepat
+ PreTrainedTokenizer
+ PreTrainedTokenizerFast
+ Qwen2Tokenizer
+ Qwen2 TokenizerFast