

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# クイックスタート
<a name="getting-started"></a>

このセクションでは、数分以内に Amazon Bedrock の使用を開始する方法を示します。OpenAI 互換 APIs [Responses API](bedrock-mantle.md) と [Chat Completions API](inference-chat-completions.md)、および [Invoke ](inference-invoke.md)と [Converse API](conversation-inference.md) を使用して、推論リクエストの実行方法を示します。完全な API のリスト[構築](build.md)については、「」を参照してください。 APIs

**ステップ 1 - AWS アカウント:** AWS アカウントがすでにある場合は、このステップをスキップしてステップ 2 に進みます。AWS を初めて使用する場合は、[AWS アカウントに](https://portal.aws.amazon.com/billing/signup)サインアップし、手順に従ってください。

**ステップ 2 - API キー:** AWS アカウントを取得したら、長期 API キーを作成して Amazon Bedrock へのリクエストを認証できます。そのためには、[AWS コンソールの Amazon Bedrock サービス](https://console.aws.amazon.com/bedrock/home#/api-keys/long-term/create)に移動し、長期キーを生成します。詳細については、[「ビルド](build.md)」章の[「API キー](api-keys.md)」セクションを参照してください。

**ステップ 3 - SDK を取得する:** この入門ガイドを使用するには、Python がすでにインストールされている必要があります。次に、使用している APIs に応じて、関連するソフトウェアをインストールします。

------
#### [ Responses/Chat Completions API ]

```
pip install boto3 openai
```

------
#### [ Invoke/Converse API ]

```
pip install boto3
```

------

**ステップ 4 - 環境変数を設定する:** API キーを認証に使用するように環境を設定します。

------
#### [ Responses/Chat Completions API ]

```
OPENAI_API_KEY="<provide your Bedrock API key>"
OPENAI_BASE_URL="https://bedrock-mantle.<your-region>.api.aws/v1"
```

------
#### [ Invoke/Converse API ]

```
AWS_BEARER_TOKEN_BEDROCK="<provide your Bedrock API key>"
```

------

**ステップ 5 - 最初の推論リクエストを実行する:** Amazon Bedrock は [100 以上の基盤モデル](models.md)をサポートしています。モデルを選択し、次の Python コードを使用して最初の推論リクエストを実行します。ファイルを として保存する `bedrock-first-request.py`

------
#### [ Responses API ]

```
from openai import OpenAI

client = OpenAI()

response = client.responses.create(
    model="openai.gpt-oss-120b",
    input="Can you explain the features of Amazon Bedrock?"
    )
print(response)
```

------
#### [ Chat Completions API ]

```
from openai import OpenAI

client = OpenAI()

response = client.chat.completions.create(
    model="openai.gpt-oss-120b",
    messages=[{"role": "user", "content": "Can you explain the features of Amazon Bedrock?"}]
    )
print(response)
```

------
#### [ Invoke API ]

```
import json
import boto3

client = boto3.client('bedrock-runtime', region_name='us-east-1')
response = client.invoke_model(
    modelId='anthropic.claude-opus-4-6-v1',
    body=json.dumps({
            'anthropic_version': 'bedrock-2023-05-31',
            'messages': [{ 'role': 'user', 'content': 'Can you explain the features of Amazon Bedrock?'}],
            'max_tokens': 1024
    })
 )
 print(json.loads(response['body'].read()))
```

------
#### [ Converse API ]

```
import boto3

client = boto3.client('bedrock-runtime', region_name='us-east-1')
response = client.converse(
    modelId='anthropic.claude-opus-4-6-v1',
    messages=[
        {
            'role': 'user',
            'content': [{'text': 'Can you explain the features of Amazon Bedrock?'}]
        }
    ]
)
print(response)
```

------

コマンドを使用して Python でコードを実行します。

```
python3 bedrock-first-request.py
```

推論リクエストの出力が表示されます。

他の APIs「」を参照してください[構築](build.md)。