기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.
Amazon Bedrock 지식 기반에 지원되는 리전 및 모델
Amazon Bedrock 지식 기반은 미주, 아시아 및 유럽 전역의 리전에서 지원됩니다. Amazon, Cohere 및 Anthropic에서 제공하는 특정 모델은 지식 기반에 대해 지원됩니다. 데이터를 벡터 임베딩으로 변환하는 모델과 정보 검색 및 응답 생성을 위한 모델을 사용합니다.
지식 기반에 지원되는 모델을 사용하려면 모델 액세스를 활성화해야 합니다.
Amazon Bedrock 를 사용하는 경우API, 데이터를 벡터 임베딩으로 변환하고 지식 기반 검색 및 생성에 필요한 모델 Amazon 리소스 이름(ARN)을 기록해 둡니다. https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_VectorKnowledgeBaseConfiguration.html 선택한 모델의 모델 ID를 지식 기반에 복사하고 모델 리소스 유형에 대해 제공된 ARN 예제에 따라 모델(리소스) ID를 ARN 사용하여 모델을 구성합니다.
Amazon Bedrock 콘솔을 사용하는 경우 지식 기반 생성 단계의 일부로 사용 가능한 모델을 선택할 수 ARN있으므로 모델을 구성할 필요가 없습니다.
Amazon Bedrock 지식 기반은 다음 리전에서 지원됩니다.
참고
Amazon Titan Text Premier는 현재 us-east-1
리전에서만 사용할 수 있습니다.
리전 |
---|
미국 동부(버지니아 북부) |
미국 서부(오리건) |
캐나다(중부) |
아시아 태평양(뭄바이) |
아시아 태평양(싱가포르)(게이트 액세스) |
아시아 태평양(시드니) |
아시아 태평양(도쿄) |
유럽(프랑크푸르트) |
유럽(런던) |
유럽(파리) |
유럽(아일랜드)(게이트 액세스) |
남아메리카(상파울루) |
AWS GovCloud (미국 서부) |
다음 모델을 사용하여 데이터를 벡터 임베딩 데이터 표현으로 변환할 수 있습니다.
참고
Amazon에서는 더 이상 새 벡터 스토어를 생성할 수 없습니다.Titan Embeddings G1 - Text. Amazon을 사용하여 이전에 생성된 벡터 스토어 Titan Embeddings G1 - Text 는 여전히 지원됩니다.
모델 이름 | 모델 ID |
---|---|
Amazon Titan Embeddings G1 - Text | amazon.titan-embed-text-v1 |
Amazon Titan 텍스트 임베딩 V2 | amazon.titan-embed-text-v2:0 |
Cohere Embed (영어) | cohere.embed-english-v3 |
Cohere Embed (다국어) | cohere.embed-multilingual-v3 |
다음 모델을 와 함께 사용할 수 있습니다. RetrieveAndGenerate API 지식 기반에서 정보를 검색한 후 응답을 생성하는 작업:
참고
는 지식 기반을 RetrieveAndGenerate API 쿼리하고 지원되는 Amazon Bedrock 지식 기반 모델을 사용하여 검색하는 정보에서 응답을 생성합니다. 검색은 지식 기반API만 쿼리하며 응답을 생성하지 않습니다. 따라서 Retrieve
를 사용하여 결과를 검색API한 후 Amazon Bedrock 또는 SageMaker 모델을 사용하여 결과를 InvokeModel
요청하여 응답을 생성할 수 있습니다.
모델 | 모델 ID |
---|---|
Amazon Titan 텍스트 프리미어 | amazon.titan-text-premier-v1:0 |
Anthropic Claude v2.0 | anthropic.claude-v2 |
Anthropic Claude v2.1 | anthropic.claude-v2:1 |
Anthropic Claude 3 Sonnet v1 | anthropic.claude-3-sonnet-20240229-v1:0 |
Anthropic Claude 3.5 소네트 | anthropic.claude-3-5-sonnet-20240620-v1:0 |
Anthropic Claude 3 Haiku v1 | anthropic.claude-3-haiku-20240307-v1:0 |
Anthropic Claude Instant v1 | anthropic.claude-instant-v1 |
Meta Llama 3.1 8B Instruct | meta.llama3-1-8b-instruct-v1:0 |
Meta Llama 3.1 70B Instruct | meta.llama3-1-70b-instruct-v1:0 |
Meta Llama 3.1 405B Instruct | meta.llama3-1-405b-instruct-v1:0 |
은RetrieveAndGenerate API 작업은 다음과 같은 유형의 처리량을 지원합니다.
-
온디맨드 - 현재 리전에 모델 추론 요청을 보냅니다. 최대 사용률 버스트 중에 요청 속도 또는 볼륨이 제한될 수 있습니다. 콘솔에서 온디맨드 처리량을 선택하거나 에서 모델 ID를 지정합니다. RetrieveAndGenerate 요청.
-
리전 간 추론 - 일련의 리전에 모델 추론 요청을 분산하여 처리량을 높이고 복원력을 높입니다. 에서 모델 호출 요청을 보낼 리전 엔드포인트를 정의하는 추론 프로파일을 지정합니다. RetrieveAndGenerate 또는 CreateDataSource 요청입니다. 자세한 내용은 리전 간 추론을 통한 복원력 개선 단원을 참조하십시오.
중요
리전 간 추론을 사용하는 경우 데이터를 리전 간에 공유할 수 있습니다.