

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

# Jalankan contoh permintaan Amazon Bedrock API dengan AWS Command Line Interface
<a name="getting-started-api-ex-cli"></a>

Bagian ini memandu Anda untuk mencoba beberapa operasi umum di Amazon Bedrock menggunakan AWS Command Line Interface untuk menguji apakah izin dan otentikasi Anda diatur dengan benar. Sebelum Anda menjalankan contoh berikut, Anda harus memeriksa apakah Anda telah memenuhi prasyarat berikut:

**Prasyarat**
+ Anda memiliki Akun AWS dan pengguna atau peran dengan pengaturan otentikasi dan izin yang diperlukan untuk Amazon Bedrock. Jika tidak, ikuti langkah-langkah di[Memulai dengan API](getting-started-api.md).
+ Anda telah menginstal dan mengatur otentikasi untuk. AWS CLI Untuk menginstal AWS CLI, ikuti langkah-langkah di [Instal atau perbarui ke versi terbaru AWS CLI](https://docs.aws.amazon.com/cli/latest/userguide/getting-started-install.html). Verifikasi bahwa Anda telah menyiapkan kredensional Anda untuk menggunakan CLI dengan mengikuti langkah-langkah di. [Dapatkan kredensil untuk memberikan akses terprogram](getting-started-api.md#gs-grant-program-access)

Uji apakah izin Anda diatur dengan benar untuk Amazon Bedrock, menggunakan pengguna atau peran yang Anda atur dengan izin yang tepat.

**Topics**
+ [Buat daftar model fondasi yang ditawarkan Amazon Bedrock](#getting-started-api-ex-cli-listfm)
+ [Kirim prompt teks ke model dan hasilkan respons teks dengan InvokeModel](#getting-started-api-ex-cli-invoke-text)
+ [Kirim prompt teks ke model dan hasilkan respons teks dengan Converse](#getting-started-api-ex-cli-converse)

## Buat daftar model fondasi yang ditawarkan Amazon Bedrock
<a name="getting-started-api-ex-cli-listfm"></a>

Contoh berikut menjalankan [ListFoundationModels](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_ListFoundationModels.html)operasi menggunakan AWS CLI. `ListFoundationModels`mencantumkan model dasar (FMs) yang tersedia di Amazon Bedrock di Wilayah Anda. Di terminal, jalankan perintah berikut:

```
aws bedrock list-foundation-models
```

Jika perintah berhasil, respons mengembalikan daftar model foundation yang tersedia di Amazon Bedrock.

## Kirim prompt teks ke model dan hasilkan respons teks dengan InvokeModel
<a name="getting-started-api-ex-cli-invoke-text"></a>

Contoh berikut menjalankan [InvokeModel](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html)operasi menggunakan AWS CLI. `InvokeModel`memungkinkan Anda mengirimkan prompt untuk menghasilkan respons model. Di terminal, jalankan perintah berikut:

```
aws bedrock-runtime invoke-model \
--model-id amazon.titan-text-express-v1 \
--body '{"inputText": "Describe the purpose of a \"hello world\" program in one line.", "textGenerationConfig" : {"maxTokenCount": 512, "temperature": 0.5, "topP": 0.9}}' \
--cli-binary-format raw-in-base64-out \
invoke-model-output-text.txt
```

Jika perintah berhasil, respons yang dihasilkan oleh model ditulis ke `invoke-model-output-text.txt` file. Respons teks dikembalikan di `outputText` lapangan, di samping informasi yang menyertainya.

## Kirim prompt teks ke model dan hasilkan respons teks dengan Converse
<a name="getting-started-api-ex-cli-converse"></a>

Contoh berikut menjalankan operasi [Converse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html) menggunakan file. AWS CLI`Converse`memungkinkan Anda mengirimkan prompt untuk menghasilkan respons model. Sebaiknya gunakan `Converse` operasi lebih `InvokeModel` saat didukung, karena ini menyatukan permintaan inferensi di seluruh model Amazon Bedrock dan menyederhanakan pengelolaan percakapan multi-putaran. Di terminal, jalankan perintah berikut:

```
aws bedrock-runtime converse \
--model-id amazon.titan-text-express-v1 \
--messages '[{"role": "user", "content": [{"text": "Describe the purpose of a \"hello world\" program in one line."}]}]' \
--inference-config '{"maxTokens": 512, "temperature": 0.5, "topP": 0.9}'
```

Jika perintah berhasil, respons yang dihasilkan oleh model dikembalikan di `text` lapangan, di samping informasi yang menyertainya.