기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.
를 사용하여 예제 Amazon Bedrock API 요청 실행 AWS Command Line Interface
이 섹션에서는를 사용하여 Amazon Bedrock에서 몇 가지 일반적인 작업을 시도 AWS CLI 하여 권한 및 인증이 올바르게 설정되었는지 테스트하는 방법을 안내합니다. 다음 예제를 실행하기 전에 다음과 같은 사전 조건을 충족하는지 확인해야 합니다.
사전 조건
-
AWS 계정 인증이 설정되어 있고 Amazon Bedrock에 필요한 권한이 있는 및 사용자 또는 역할이 있습니다. 그렇지 않은 경우 API 시작하기의 단계를 따르세요.
-
에 대한 액세스를 요청했습니다.Amazon Titan Text G1 - Express 모델. 그렇지 않은 경우 Amazon Bedrock 파운데이션 모델에 대한 액세스 요청의 단계를 따르세요.
-
에 대한 인증을 설치하고 설정했습니다 AWS CLI. CLI를 설치하려면 최신 버전의 AWS CLI설치 또는 업데이트에 나와 있는 단계를 따르세요. 의 단계에 CLI 따라를 사용하도록 자격 증명을 설정했는지 확인합니다프로그래밍 방식 액세스 권한을 부여하는 자격 증명 가져오기.
적절한 권한으로 설정한 사용자 또는 역할을 사용하여 Amazon Bedrock에 대한 권한이 올바르게 설정되었는지 테스트합니다.
주제
Amazon Bedrock이 제공해야 하는 파운데이션 모델 나열
다음 예제에서는 Amazon Bedrock 엔드포인트를 사용하여 ListFoundationModels 작업을 실행합니다.는 리전의 Amazon Bedrock에서 사용할 수 있는 파운데이션 모델(FMs)을 ListFoundationModels
나열합니다. 터미널에서 다음 명령을 실행합니다.
aws bedrock list-foundation-models --region us-east-1
명령이 성공하면 응답은 Amazon Bedrock에서 사용할 수 있는 파운데이션 모델 목록을 반환합니다.
모델에 텍스트 프롬프트를 제출하고를 사용하여 텍스트 응답을 생성합니다. InvokeModel
다음 예제에서는 Amazon Bedrock 런타임 엔드포인트를 사용하여 InvokeModel 작업을 실행합니다.를 InvokeModel
사용하면 모델 응답을 생성하는 프롬프트를 제출할 수 있습니다. 터미널에서 다음 명령을 실행합니다.
aws bedrock-runtime invoke-model \ --model-id amazon.titan-text-express-v1 \ --body '{"inputText": "Describe the purpose of a \"hello world\" program in one line.", "textGenerationConfig" : {"maxTokenCount": 512, "temperature": 0.5, "topP": 0.9}}' \ --cli-binary-format raw-in-base64-out \ invoke-model-output-text.txt
명령이 성공하면 모델에서 생성된 응답이 invoke-model-output-text.txt
파일에 기록됩니다. 텍스트 응답은 함께 제공된 정보와 함께 outputText
필드에 반환됩니다.
모델에 텍스트 프롬프트를 제출하고 Converse를 사용하여 텍스트 응답 생성
다음 예제에서는 Amazon Bedrock 런타임 엔드포인트를 사용하여 Converse 작업을 실행합니다. Converse
을 사용하면 프롬프트를 제출하여 모델 응답을 생성할 수 있습니다. 지원되는 경우 InvokeModel
에서 Converse
작업을 사용하는 것이 좋습니다. Amazon Bedrock 모델에서 추론 요청을 통합하고 멀티턴 대화 관리를 간소화하기 때문입니다. 터미널에서 다음 명령을 실행합니다.
aws bedrock-runtime converse \ --model-id amazon.titan-text-express-v1 \ --messages '[{"role": "user", "content": [{"text": "Describe the purpose of a \"hello world\" program in one line."}]}]' \ --inference-config '{"maxTokens": 512, "temperature": 0.5, "topP": 0.9}'
명령이 성공하면 모델에서 생성된 응답이 함께 제공된 정보와 함께 text
필드에 반환됩니다.