翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
プロンプトエンジニアリングの概念
プロンプトエンジニアリングとは、大言語モデル (LLM) へのテキスト入力を最適化して、必要なレスポンスを取得する方法を指します。プロンプトは、分類、質問への回答、コード生成、クリエイティブ書き込みなど、さまざまなタスクLLMを実行するのに役立ちます。に提供するプロンプトの品質は、モデルのレスポンスの品質に影響を与えるLLM可能性があります。このセクションでは、プロンプトエンジニアリングを開始するために必要な情報を提供します。また、Amazon Bedrock LLMで を使用する際に、ユースケースに最適なプロンプト形式を見つけるのに役立つツールについても説明します。
注記
このドキュメントのすべての例は、API呼び出しによって取得されます。レスポンスは、LLM生成プロセスの確率的性質によって異なる場合があります。特に記載がない限り、プロンプトは AWSの従業員が作成します。
Amazon Bedrock には、さまざまなプロバイダーのモデルが含まれています。これらのモデルのリストプロンプトエンジニアリングガイドラインを次に示します。
-
Anthropic Claude モデルプロンプトガイド: https://docs.anthropic.com/en/docs/build-with-claude/prompt-engineering/overview
-
Cohere プロンプトガイド: https://txt.cohere.com/how-to-train-your-pet-llm-prompt-engineering
-
AI21 Labs Jurassic モデルプロンプトガイド: https://docs.ai21.com/docs/prompt-engineering
-
Meta Llama 2 プロンプトガイド: https://ai.meta.com/llama/get-started/#prompting
-
Stability AI プロンプトガイド: https://platform.stability.ai/docs/getting-started
-
Mistral AI プロンプトガイド: https://docs.mistral.ai/guides/prompting_capabilities/
免責事項: このドキュメントの例で使用しているテキストモデルは、Amazon Bedrock で入手可能な最新のものです。また、このドキュメントは一般的なプロンプトに関するガイドラインです。モデル固有のガイドについては、Amazon Bedrock にあるそれぞれのドキュメントを参照してください。このドキュメントはあくまでも出発点です。以下に掲載されているレスポンス例は Amazon Bedrock の特定のモデルを使用して生成されていますが、Amazon Bedrock の他のモデルを使用してレスポンスを得ることもできます。各モデルには独自のパフォーマンス特性があるため、レスポンスはモデルによって異なる場合があります。AI サービスを使用して生成した出力が、ユーザーのコンテンツとなります。機械学習の性質上、生成される出力はユーザー間で異なってくる場合もあれば同じまたは類似になる場合もあります。