쿠키 기본 설정 선택

당사는 사이트와 서비스를 제공하는 데 필요한 필수 쿠키 및 유사한 도구를 사용합니다. 고객이 사이트를 어떻게 사용하는지 파악하고 개선할 수 있도록 성능 쿠키를 사용해 익명의 통계를 수집합니다. 필수 쿠키는 비활성화할 수 없지만 '사용자 지정' 또는 ‘거부’를 클릭하여 성능 쿠키를 거부할 수 있습니다.

사용자가 동의하는 경우 AWS와 승인된 제3자도 쿠키를 사용하여 유용한 사이트 기능을 제공하고, 사용자의 기본 설정을 기억하고, 관련 광고를 비롯한 관련 콘텐츠를 표시합니다. 필수가 아닌 모든 쿠키를 수락하거나 거부하려면 ‘수락’ 또는 ‘거부’를 클릭하세요. 더 자세한 내용을 선택하려면 ‘사용자 정의’를 클릭하세요.

Amazon Bedrock 엔드포인트 및 할당량

포커스 모드
Amazon Bedrock 엔드포인트 및 할당량 - AWS 일반 참조

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

AWS 서비스에 프로그래밍 방식으로 연결하려면 endpoint. AWS services를 사용합니다. 서비스는 서비스가 지원하는 일부 또는 모든 AWS 리전에서 IPv4 엔드포인트, 듀얼 스택 엔드포인트 및 FIPS 엔드포인트와 같은 엔드포인트 유형을 제공합니다. 일부 서비스는 글로벌 엔드포인트를 제공합니다. 자세한 내용은 AWS 서비스 엔드포인트 단원을 참조하십시오.

한도라고도 하는 서비스 할당량은 AWS 계정의 최대 서비스 리소스 또는 작업 수입니다. 자세한 내용은 AWS 서비스 할당량 단원을 참조하십시오.

다음은 이 서비스에 대한 서비스 엔드포인트 및 서비스 할당량입니다.

Amazon Bedrock 서비스 엔드포인트

Amazon Bedrock 컨트롤 플레APIs

다음 표에는 Amazon Bedrock이 모델 관리, 훈련 및 배포를 위해 지원하는 리전별 엔드포인트 목록이 나와 있습니다. Amazon Bedrock API 작업에 이러한 엔드포인트를 사용합니다.

리전 이름 지역 엔드포인트 프로토콜
미국 동부(오하이오) us-east-2

bedrock.us-east-2.amazonaws.com

bedrock-fips.us-east-2.amazonaws.com

HTTPS

HTTPS

미국 동부(버지니아 북부) us-east-1

bedrock.us-east-1.amazonaws.com

bedrock-fips.us-east-1.amazonaws.com

HTTPS

HTTPS

미국 서부(오레곤) us-west-2

bedrock.us-west-2.amazonaws.com

bedrock-fips.us-west-2.amazonaws.com

HTTPS

HTTPS

아시아 태평양(하이데라바드) ap-south-2 bedrock.ap-south-2.amazonaws.com HTTPS
아시아 태평양(뭄바이) ap-south-1 bedrock.ap-south-1.amazonaws.com HTTPS
아시아 태평양(오사카) ap-northeast-3 bedrock.ap-northeast-3.amazonaws.com HTTPS
아시아 태평양(서울) ap-northeast-2 bedrock.ap-northeast-2.amazonaws.com HTTPS
아시아 태평양(싱가포르) ap-southeast-1 bedrock.ap-southeast-1.amazonaws.com HTTPS
아시아 태평양(시드니) ap-southeast-2 bedrock.ap-southeast-2.amazonaws.com HTTPS
아시아 태평양(도쿄) ap-northeast-1 bedrock.ap-northeast-1.amazonaws.com HTTPS
캐나다(중부) ca-central-1

bedrock.ca-central-1.amazonaws.com

bedrock-fips.ca-central-1.amazonaws.com

HTTPS

HTTPS

유럽(프랑크푸르트) eu-central-1 bedrock.eu-central-1.amazonaws.com HTTPS
유럽(아일랜드) eu-west-1 bedrock.eu-west-1.amazonaws.com HTTPS
유럽(런던) eu-west-2 bedrock.eu-west-2.amazonaws.com HTTPS
유럽(밀라노) eu-south-1 bedrock.eu-south-1.amazonaws.com HTTPS
유럽(파리) eu-west-3 bedrock.eu-west-3.amazonaws.com HTTPS
유럽(스페인) eu-south-2 bedrock.eu-south-2.amazonaws.com HTTPS
유럽(스톡홀름) eu-north-1 bedrock.eu-north-1.amazonaws.com HTTPS
유럽(취리히) eu-central-2 bedrock.eu-central-2.amazonaws.com HTTPS
남아메리카(상파울루) sa-east-1 bedrock.sa-east-1.amazonaws.com HTTPS
AWS GovCloud(미국 동부) us-gov-east-1

bedrock.us-gov-east-1.amazonaws.com

bedrock-fips.us-gov-east-1.amazonaws.com

HTTPS

HTTPS

AWS GovCloud(미국 서부) us-gov-west-1

bedrock.us-gov-west-1.amazonaws.com

bedrock-fips.us-gov-west-1.amazonaws.com

HTTPS

HTTPS

Amazon Bedrock 런타임 APIs

다음 표에는 Amazon Bedrock에서 호스팅되는 모델에 대한 추론 요청을 수행하기 위해 Amazon Bedrock에서 지원하는 리전별 엔드포인트 목록이 나와 있습니다. Amazon Bedrock 런타임 API 작업에 이러한 엔드포인트를 사용합니다.

리전 이름 지역 엔드포인트 프로토콜
미국 동부(오하이오) us-east-2

bedrock-runtime.us-east-2.amazonaws.com

bedrock-runtime-fips.us-east-2.amazonaws.com

HTTPS

HTTPS

미국 동부(버지니아 북부) us-east-1

bedrock-runtime.us-east-1.amazonaws.com

bedrock-runtime-fips.us-east-1.amazonaws.com

HTTPS

HTTPS

미국 서부(오레곤) us-west-2

bedrock-runtime.us-west-2.amazonaws.com

bedrock-runtime-fips.us-west-2.amazonaws.com

HTTPS

HTTPS

아시아 태평양(하이데라바드) ap-south-2 bedrock-runtime.ap-south-2.amazonaws.com HTTPS
아시아 태평양(뭄바이) ap-south-1 bedrock-runtime.ap-south-1.amazonaws.com HTTPS
아시아 태평양(오사카) ap-northeast-3 bedrock-runtime.ap-northeast-3.amazonaws.com HTTPS
아시아 태평양(서울) ap-northeast-2 bedrock-runtime.ap-northeast-2.amazonaws.com HTTPS
아시아 태평양(싱가포르) ap-southeast-1 bedrock-runtime.ap-southeast-1.amazonaws.com HTTPS
아시아 태평양(시드니) ap-southeast-2 bedrock-runtime.ap-southeast-2.amazonaws.com HTTPS
아시아 태평양(도쿄) ap-northeast-1 bedrock-runtime.ap-northeast-1.amazonaws.com HTTPS
캐나다(중부) ca-central-1

bedrock-runtime.ca-central-1.amazonaws.com

bedrock-runtime-fips.ca-central-1.amazonaws.com

HTTPS

HTTPS

유럽(프랑크푸르트) eu-central-1 bedrock-runtime.eu-central-1.amazonaws.com HTTPS
유럽(아일랜드) eu-west-1 bedrock-runtime.eu-west-1.amazonaws.com HTTPS
유럽(런던) eu-west-2 bedrock-runtime.eu-west-2.amazonaws.com HTTPS
유럽(밀라노) eu-south-1 bedrock-runtime.eu-south-1.amazonaws.com HTTPS
유럽(파리) eu-west-3 bedrock-runtime.eu-west-3.amazonaws.com HTTPS
유럽(스페인) eu-south-2 bedrock-runtime.eu-south-2.amazonaws.com HTTPS
유럽(스톡홀름) eu-north-1 bedrock-runtime.eu-north-1.amazonaws.com HTTPS
유럽(취리히) eu-central-2 bedrock-runtime.eu-central-2.amazonaws.com HTTPS
남아메리카(상파울루) sa-east-1 bedrock-runtime.sa-east-1.amazonaws.com HTTPS
AWS GovCloud(미국 동부) us-gov-east-1

bedrock-runtime.us-gov-east-1.amazonaws.com

bedrock-runtime-fips.us-gov-east-1.amazonaws.com

HTTPS

HTTPS

AWS GovCloud(미국 서부) us-gov-west-1

bedrock-runtime.us-gov-west-1.amazonaws.com

bedrock-runtime-fips.us-gov-west-1.amazonaws.com

HTTPS

HTTPS

Amazon Bedrock 빌드 API용 에이전트

다음 표에는 Agents for Amazon Bedrock이 에이전트 및 지식 기반을 생성하고 관리하기 위해 지원하는 리전별 엔드포인트 목록이 나와 있습니다. Amazon Bedrock용 에이전트 API 작업에 이러한 엔드포인트를 사용합니다.

리전 이름 지역 엔드포인트 프로토콜
미국 동부(버지니아 북부) us-east-1 bedrock-agent.us-east-1.amazonaws.com HTTPS
bedrock-agent-fips.us-east-1.amazonaws.com HTTPS
미국 서부(오레곤) us-west-2 bedrock-agent.us-west-2.amazonaws.com HTTPS
bedrock-agent-fips.us-west-2.amazonaws.com HTTPS
아시아 태평양(싱가포르) ap-southeast-1 bedrock-agent.ap-southeast-1.amazonaws.com HTTPS
아시아 태평양(시드니) ap-southeast-2 bedrock-agent.ap-southeast-2.amazonaws.com HTTPS
아시아 태평양(도쿄) ap-northeast-1 bedrock-agent.ap-northeast-1.amazonaws.com HTTPS
캐나다(중부) ca-central-1 bedrock-agent.ca-central-1.amazonaws.com HTTPS
유럽(프랑크푸르트) eu-central-1 bedrock-agent.eu-central-1.amazonaws.com HTTPS
유럽(아일랜드) eu-west-1 bedrock-agent.eu-west-1.amazonaws.com HTTPS
유럽(런던) eu-west-2 bedrock-agent.eu-west-2.amazonaws.com HTTPS
유럽(파리) eu-west-3 bedrock-agent.eu-west-3.amazonaws.com HTTPS
아시아 태평양(뭄바이) ap-south-1 bedrock-agent.ap-south-1.amazonaws.com HTTPS
남아메리카(상파울루) sa-east-1 bedrock-agent.sa-east-1.amazonaws.com HTTPS

Amazon Bedrock 런타임 API용 에이전트

다음 표에는 에이전트 호출 및 지식 기반 쿼리를 위해 Agents for Amazon Bedrock이 지원하는 리전별 엔드포인트 목록이 나와 있습니다. Amazon Bedrock 런타임 API 작업용 에이전트에 이러한 엔드포인트를 사용합니다.

리전 이름 지역 엔드포인트 프로토콜
미국 동부(버지니아 북부) us-east-1 bedrock-agent-runtime.us-east-1.amazonaws.com HTTPS
bedrock-agent-runtime-fips.us-east-1.amazonaws.com HTTPS
미국 서부(오레곤) us-west-2 bedrock-agent-runtime.us-west-2.amazonaws.com HTTPS
bedrock-agent-runtime-fips.us-west-2.amazonaws.com HTTPS
아시아 태평양(싱가포르) ap-southeast-1 bedrock-agent-runtime.ap-southeast-1.amazonaws.com HTTPS
아시아 태평양(시드니) ap-southeast-2 bedrock-agent-runtime.ap-southeast-2.amazonaws.com HTTPS
아시아 태평양(도쿄) ap-northeast-1 bedrock-agent-runtime.ap-northeast-1.amazonaws.com HTTPS
캐나다(중부) ca-central-1 bedrock-agent-runtime.ca-central-1.amazonaws.com HTTPS
유럽(프랑크푸르트) eu-central-1 bedrock-agent-runtime.eu-central-1.amazonaws.com HTTPS
유럽(파리) eu-west-3 bedrock-agent-runtime.eu-west-3.amazonaws.com HTTPS
유럽(아일랜드) eu-west-1 bedrock-agent-runtime.eu-west-1.amazonaws.com HTTPS
유럽(런던) eu-west-2 bedrock-agent-runtime.eu-west-2.amazonaws.com HTTPS
아시아 태평양(뭄바이) ap-south-1 bedrock-agent-runtime.ap-south-1.amazonaws.com HTTPS
남아메리카(상파울루) sa-east-1 bedrock-agent-runtime.sa-east-1.amazonaws.com HTTPS

Amazon Bedrock 서비스 할당량

이 섹션에서는 Amazon Bedrock 서비스 수준 할당량을 설명합니다.

참고

다음 단계에 따라 계정에 할당량 증가를 요청할 수 있습니다.

  • 조정 가능 열에 할당량이 예로 표시된 경우 Service Quotas 사용 설명서의 할당량 증가 요청의 단계에 따라 할당량을 조정할 수 있습니다.

  • 조정 가능 열에 할당량이 아니요로 표시된 경우 한도 증가 양식을 통해 요청을 제출하여 증가를 고려할 수 있습니다.

  • 온디맨드 모델 호출 할당량은 Service Quotas를 통해 조정할 수 없습니다. AWS 계정 관리자에게 문의하여 증가를 고려하세요. 수요가 압도적인 관계로, 기존에 할당된 할당량을 소비하는 트래픽을 생성하는 고객에게 우선 순위가 부여됩니다. 이 조건을 충족하지 않으면 요청이 거부될 수 있습니다.

콘솔 인터페이스에서 Amazon Bedrock의 서비스 할당량을 보려면 서비스 할당량 보기의 단계를 따르고 Amazon Bedrock을 서비스로 선택합니다. 다음 표를 참조할 수도 있습니다.

명칭 기본값 조정 가능 설명
(콘솔) 최대 문서 파일 크기(MB) 지원되는 각 리전: 200 아니요 설명 없음
(콘솔) 문서 파일당 최대 페이지 수 지원되는 각 지역: 20 아니요 설명 없음
에이전트당 APIs 지원되는 각 리전: 11 에이전트에 추가할 수 있는 최대 APIs 수입니다.
에이전트당 작업 그룹 지원되는 각 리전: 20개 에이전트에 추가할 수 있는 최대 작업 그룹 수입니다.
에이전트당 에이전트 공동 작업자 수 지원되는 각 리전: 10 에이전트에 추가할 수 있는 공동 작업자 에이전트의 최대 수입니다.
흐름당 에이전트 노드 수 지원되는 각 지역: 10개 아니요 최대 에이전트 노드 수입니다.
계정당 에이전트 지원되는 각 리전: 200 한 계정의 최대 에이전트 수입니다.
초당 AssociateAgentKnowledgeBase 요청 수 지원되는 각 리전: 6개 아니요 초당 AssociateAgentKnowledgeBase API 요청의 최대 수입니다.
에이전트당 연결된 별칭 지원되는 각 지역: 10개 아니요 에이전트와 연결할 수 있는 최대 별칭 수입니다.
에이전트당 관련 지식 기반 지원되는 각 지역: 2 에이전트와 연결할 수 있는 최대 지식 기반 수입니다.
Claude 3 Haiku의 배치 추론 입력 파일 크기(GB) 지원되는 각 리전: 1 아니요 Claude 3 Haiku에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다.
Claude 3 Opus의 배치 추론 입력 파일 크기(GB) 지원되는 각 리전: 1 아니요 Claude 3 Opus에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다.
Claude 3 Sonnet의 배치 추론 입력 파일 크기(GB) 지원되는 각 리전: 1 아니요 Claude 3 Sonnet에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다.
Claude 3.5 Haiku의 배치 추론 입력 파일 크기(GB) 지원되는 각 리전: 1 아니요 Claude 3.5 Haiku에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다.
Claude 3.5 Sonnet의 배치 추론 입력 파일 크기(GB) 지원되는 각 리전: 1 아니요 Claude 3.5 Sonnet에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다.
Claude 3.5 Sonnet v2의 배치 추론 입력 파일 크기(GB) 지원되는 각 리전: 1 아니요 Claude 3.5 Sonnet v2에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다.
Llama 3.1 405B Instruct의 배치 추론 입력 파일 크기(GB) 지원되는 각 리전: 1 아니요 Llama 3.1 405B Instruct에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다.
Llama 3.1 70B Instruct의 배치 추론 입력 파일 크기(GB) 지원되는 각 리전: 1 아니요 Llama 3.1 70B Instruct에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다.
Llama 3.1 8B Instruct의 배치 추론 입력 파일 크기(GB) 지원되는 각 리전: 1 아니요 Llama 3.1 8B Instruct에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다.
Llama 3.2 11B Instruct의 배치 추론 입력 파일 크기(GB) 지원되는 각 리전: 1 아니요 Llama 3.2 11B Instruct에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다.
Llama 3.2 1B Instruct의 배치 추론 입력 파일 크기(GB) 지원되는 각 리전: 1 아니요 배치 추론 Llama 3.2 1B 지침을 위해 제출된 단일 파일의 최대 크기(GB)입니다.
Llama 3.2 3B Instruct의 배치 추론 입력 파일 크기(GB) 지원되는 각 리전: 1 아니요 Llama 3.2 3B Instruct에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다.
Llama 3.2 90B Instruct의 배치 추론 입력 파일 크기(GB) 지원되는 각 리전: 1 아니요 Llama 3.2 90B Instruct에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다.
Llama 3.3 70B Instruct의 배치 추론 입력 파일 크기(GB) 지원되는 각 리전: 1 아니요 Llama 3.3 70B Instruct에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다.
Mistral Large 2(24.07)의 배치 추론 입력 파일 크기(GB) 지원되는 각 리전: 1 아니요 Mistral Large 2(24.07)에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다.
Mistral Small의 배치 추론 입력 파일 크기(GB) 지원되는 각 리전: 1 아니요 Mistral Small에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다.
Nova Lite V1의 배치 추론 입력 파일 크기(GB) 지원되는 각 리전: 1 아니요 Nova Lite V1에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다.
Nova Micro V1의 배치 추론 입력 파일 크기(GB) 지원되는 각 리전: 1 아니요 Nova Micro V1에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다.
Nova Pro V1의 배치 추론 입력 파일 크기(GB) 지원되는 각 리전: 1 아니요 Nova Pro V1에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다.
Titan Multimodal Embeddings G1의 배치 추론 입력 파일 크기(GB) 지원되는 각 리전: 1 아니요 Titan Multimodal Embeddings G1에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다.
Titan Text Embeddings V2의 배치 추론 입력 파일 크기(GB) 지원되는 각 리전: 1 아니요 Titan Text Embeddings V2에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB)입니다.
Claude 3 Haiku의 배치 추론 작업 크기(GB) 지원되는 각 지역: 5개 아니요 Claude 3 Haiku의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다.
Claude 3 Opus의 배치 추론 작업 크기(GB) 지원되는 각 지역: 5개 아니요 Claude 3 Opus의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다.
Claude 3 Sonnet의 배치 추론 작업 크기(GB) 지원되는 각 지역: 5개 아니요 Claude 3 Sonnet의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다.
Claude 3.5 Haiku의 배치 추론 작업 크기(GB) 지원되는 각 지역: 5개 아니요 Claude 3.5 Haiku의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다.
Claude 3.5 Sonnet의 배치 추론 작업 크기(GB) 지원되는 각 지역: 5개 아니요 Claude 3.5 Sonnet의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다.
Claude 3.5 Sonnet v2의 배치 추론 작업 크기(GB) 지원되는 각 지역: 5개 아니요 Claude 3.5 Sonnet v2의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다.
Llama 3.1 405B Instruct의 배치 추론 작업 크기(GB) 지원되는 각 지역: 5개 아니요 Llama 3.1 405B Instruct의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다.
Llama 3.1 70B Instruct의 배치 추론 작업 크기(GB) 지원되는 각 지역: 5개 아니요 Llama 3.1 70B Instruct의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다.
Llama 3.1 8B Instruct의 배치 추론 작업 크기(GB) 지원되는 각 지역: 5개 아니요 Llama 3.1 8B Instruct의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다.
Llama 3.2 11B Instruct의 배치 추론 작업 크기(GB) 지원되는 각 지역: 5개 아니요 Llama 3.2 11B Instruct의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다.
Llama 3.2 1B Instruct의 배치 추론 작업 크기(GB) 지원되는 각 지역: 5개 아니요 Llama 3.2 1B Instruct의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다.
Llama 3.2 3B Instruct의 배치 추론 작업 크기(GB) 지원되는 각 지역: 5개 아니요 Llama 3.2 3B Instruct의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다.
Llama 3.2 90B Instruct의 배치 추론 작업 크기(GB) 지원되는 각 지역: 5개 아니요 Llama 3.2 90B Instruct의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다.
Llama 3.3 70B Instruct의 배치 추론 작업 크기(GB) 지원되는 각 지역: 5개 아니요 Llama 3.3 70B Instruct의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다.
Mistral Large 2(24.07)의 배치 추론 작업 크기(GB) 지원되는 각 지역: 5개 아니요 Mistral Large 2(24.07)의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다.
Mistral Small의 배치 추론 작업 크기(GB) 지원되는 각 지역: 5개 아니요 Mistral Small의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다.
Nova Lite V1의 배치 추론 작업 크기(GB) 지원되는 각 지역: 5개 아니요 Nova Lite V1의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다.
Nova Micro V1의 배치 추론 작업 크기(GB) 지원되는 각 지역: 5개 아니요 Nova Micro V1의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다.
Nova Pro V1의 배치 추론 작업 크기(GB) 지원되는 각 리전: 100 아니요 Nova Pro V1의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다.
Titan Multimodal Embeddings G1의 배치 추론 작업 크기(GB) 지원되는 각 지역: 5개 아니요 Titan Multimodal Embeddings G1의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다.
Titan Text Embeddings V2의 배치 추론 작업 크기(GB) 지원되는 각 지역: 5개 아니요 Titan Text Embeddings V2의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다.
에이전트의 문자 지침 지원되는 각 리전: 20,000 아니요 에이전트에 대한 지침의 최대 문자 수입니다.
흐름당 수집기 노드 지원되는 각 리전: 1 아니요 최대 수집기 노드 수입니다.
계정당 동시 수집 작업 지원되는 각 지역: 5개 아니요 계정에서 동시에 실행할 수 있는 최대 수집 작업 수입니다.
데이터 소스당 동시 수집 작업 지원되는 각 리전: 1 아니요 데이터 소스에 대해 동시에 실행할 수 있는 최대 수집 작업 수입니다.
지식 기반당 동시 수집 작업 지원되는 각 리전: 1 아니요 지식 기반에 대해 동시에 실행할 수 있는 최대 수집 작업 수입니다.
동시 모델 가져오기 작업 지원되는 각 리전: 1 아니요 동시에 진행 중인 최대 모델 가져오기 작업 수입니다.
흐름당 조건 노드 지원되는 각 지역: 5개 아니요 최대 조건 노드 수입니다.
조건 노드당 조건 지원되는 각 지역: 5개 아니요 조건 노드당 최대 조건 수입니다.
텍스트 단위의 컨텍스트 근거 쿼리 길이 지원되는 각 리전: 1 아니요 컨텍스트 근거에 대한 쿼리의 텍스트 단위 최대 길이
텍스트 단위의 컨텍스트 근거 응답 길이 지원되는 각 지역: 5개 아니요 컨텍스트 근거에 대한 응답의 텍스트 단위 최대 길이
텍스트 단위의 컨텍스트 근거 소스 길이

us-east-1: 100

us-west-2: 100

각각의 지원되는 다른 리전: 50

아니요 컨텍스트 근거에 대한 근거 소스의 텍스트 단위 최대 길이
초당 CreateAgent 요청 수 지원되는 각 리전: 6개 아니요 초당 CreateAgent API 요청의 최대 수입니다.
초당 CreateAgentActionGroup 요청 수 지원되는 각 리전: 12 아니요 초당 CreateAgentActionGroup API 요청의 최대 수입니다.
초당 CreateAgentAlias 요청 수 지원되는 각 리전: 2 아니요 초당 CreateAgentAlias API 요청의 최대 수입니다.
CreateBlueprint - 계정당 최대 블루프린트 수 지원되는 각 리전: 350 설명 없음
CreateBlueprint - 초당 트랜잭션의 제한 지원되는 각 리전: 1 아니요 설명 없음
CreateBlueprintVersion - 블루프린트당 최대 블루프린트 버전 수 지원되는 각 리전: 10 설명 없음
CreateBlueprintVersion - 초당 트랜잭션의 제한 지원되는 각 리전: 1 아니요 설명 없음
초당 CreateDataSource 요청 수 지원되는 각 리전: 2 아니요 초당 최대 CreateDataSource API 요청 수입니다.
초당 CreateFlow 요청 수 지원되는 각 리전: 2 아니요 초당 최대 CreateFlow 요청 수입니다.
초당 CreateFlowAlias 요청 수 지원되는 각 리전: 2 아니요 초당 최대 CreateFlowAlias 요청 수입니다.
초당 CreateFlowVersion 요청 수 지원되는 각 리전: 2 아니요 초당 최대 CreateFlowVersion 요청 수입니다.
초당 CreateKnowledgeBase 요청 수 지원되는 각 리전: 2 아니요 초당 CreateKnowledgeBase API 요청의 최대 수입니다.
초당 CreatePrompt 요청 수 지원되는 각 리전: 2 아니요 초당 CreatePrompt 요청의 최대 수입니다.
초당 CreatePromptVersion 요청 수 지원되는 각 리전: 2 아니요 초당 CreatePromptVersion 요청의 최대 수입니다.
Amazon Nova Lite에 대한 분당 리전 간 InvokeModel 요청 지원되는 각 리전: 2,000 아니요 Amazon Nova Lite에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 요청 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합계를 고려합니다.
Amazon Nova Micro에 대한 분당 리전 간 InvokeModel 요청 지원되는 각 리전: 2,000 아니요 Amazon Nova Micro에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 요청 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합계를 고려합니다.
Amazon Nova Pro에 대한 분당 리전 간 InvokeModel 요청 지원되는 각 리전: 200 아니요 Amazon Nova Pro에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 요청 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합계를 고려합니다.
Anthropic Claude 3.5 Haiku에 대한 리전 간 분당 InvokeModel 요청 지원되는 각 리전: 2,000 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 호출할 수 있는 최대 횟수입니다. 할당량은 Anthropic Claude 3.5 Haiku에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Anthropic Claude 3.5 Sonnet V2에 대한 분당 리전 간 InvokeModel 요청 지원되는 각 리전: 100 아니요 Anthropic Claude 3.5 Sonnet V2에 대해 1분 동안 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합계를 고려합니다.
Amazon Nova Lite의 분당 리전 간 InvokeModel 토큰 지원되는 각 리전: 4,000,000 아니요 Amazon Nova Lite에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합계를 고려합니다.
Amazon Nova Micro의 분당 리전 간 InvokeModel 토큰 지원되는 각 리전: 4,000,000 아니요 Amazon Nova Micro에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합계를 고려합니다.
Amazon Nova Pro에 대한 분당 리전 간 InvokeModel 토큰 지원되는 각 리전: 800,000 아니요 Amazon Nova Pro에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합계를 고려합니다.
Anthropic Claude 3.5 Haiku의 분당 리전 간 InvokeModel 토큰 지원되는 각 리전: 4,000,000 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Anthropic Claude 3.5 Haiku에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Anthropic Claude 3.5 Sonnet V2에 대한 분당 리전 간 InvokeModel 토큰 지원되는 각 리전: 800,000 아니요 Anthropic Claude 3.5 Sonnet V2에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합계를 고려합니다.
Anthropic Claude 3.7 Sonnet V1에 대한 분당 교차 리전 모델 추론 요청 각 지원되는 리전: 250명 아니요 Anthropic Claude 3.7 Sonnet V1에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 리전 간 요청의 최대 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합계를 고려합니다.
DeepSeek R1 V1에 대한 분당 교차 리전 모델 추론 요청 지원되는 각 리전: 200 아니요 DeepSeek R1 V1에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 리전 간 요청의 최대 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합계를 고려합니다.
Meta Llama 3.3 70B Instruct에 대한 분당 리전 간 모델 추론 요청 지원되는 각 리전: 800 아니요 Meta Llama 3.3 70B Instruct에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 리전 간 요청의 최대 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합계를 고려합니다.
Anthropic Claude 3.7 Sonnet V1에 대한 분당 교차 리전 모델 추론 토큰 지원되는 각 리전: 1,000,000 아니요 Anthropic Claude 3.7 Sonnet V1에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 리전 간 토큰의 최대 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합계를 고려합니다.
DeepSeek R1 V1에 대한 분당 교차 리전 모델 추론 토큰 지원되는 각 리전: 200,000개 아니요 DeepSeek R1 V1에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 리전 간 토큰의 최대 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합계를 고려합니다.
Meta Llama 3.3 70B Instruct에 대한 분당 교차 리전 모델 추론 토큰 지원되는 각 리전: 600,000 아니요 Meta Llama 3.3 70B Instruct에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 리전 간 토큰의 최대 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합계를 고려합니다.
계정당 사용자 지정 모델 지원되는 각 리전: 100 계정의 최대 사용자 지정 모델 수입니다.
지식 기반당 데이터 소스 지원되는 각 지역: 5개 아니요 지식 기반당 최대 데이터 소스 수입니다.
초당 DeleteAgent 요청 수 지원되는 각 리전: 2 아니요 초당 최대 DeleteAgent API 요청 수입니다.
초당 DeleteAgentActionGroup 요청 수 지원되는 각 리전: 2 아니요 초당 최대 DeleteAgentActionGroup API 요청 수입니다.
초당 DeleteAgentAlias 요청 수 지원되는 각 리전: 2 아니요 초당 최대 DeleteAgentAlias API 요청 수입니다.
초당 DeleteAgentVersion 요청 수 지원되는 각 리전: 2 아니요 초당 최대 DeleteAgentVersion API 요청 수입니다.
DeleteBlueprint - 초당 트랜잭션의 제한 지원되는 각 리전: 1 아니요 설명 없음
초당 DeleteDataSource 요청 수 지원되는 각 리전: 2 아니요 초당 최대 DeleteDataSource API 요청 수입니다.
초당 DeleteFlow 요청 수 지원되는 각 리전: 2 아니요 초당 최대 DeleteFlow 요청 수입니다.
초당 DeleteFlowAlias 요청 수 지원되는 각 리전: 2 아니요 초당 최대 DeleteFlowAlias 요청 수입니다.
초당 DeleteFlowVersion 요청 수 지원되는 각 리전: 2 아니요 초당 최대 DeleteFlowVersion 요청 수입니다.
초당 DeleteKnowledgeBase 요청 수 지원되는 각 리전: 2 아니요 초당 최대 DeleteKnowledgeBase API 요청 수입니다.
초당 DeletePrompt 요청 수 지원되는 각 리전: 2 아니요 초당 최대 DeletePrompt 요청 수입니다.
필드의 설명 길이(문자) 지원되는 각 리전: 300 아니요 설명 없음
초당 DisassociateAgentKnowledgeBase 요청 수 지원되는 각 리전: 4 아니요 초당 최대 DisassociateAgentKnowledgeBase API 요청 수입니다.
에이전트당 활성화된 작업 그룹 지원되는 각 리전: 11 에이전트에서 활성화할 수 있는 최대 작업 그룹 수입니다.
추론 프로파일당 엔드포인트 지원되는 각 지역: 5개 아니요 추론 프로파일의 최대 엔드포인트 수입니다. 엔드포인트는 모델에 대한 호출 요청이 전송되는 모델 및 리전에 의해 정의됩니다.
주제당 구문 예제 지원되는 각 지역: 5개 아니요 주제당 포함할 수 있는 최대 주제 예제 수
수집 작업당 추가 또는 업데이트할 파일 지원되는 각 리전: 5,000,000 아니요 수집 작업당 수집할 수 있는 신규 및 업데이트된 파일의 최대 수입니다.
수집 작업당 삭제할 파일 지원되는 각 리전: 5,000,000 아니요 수집 작업당 삭제할 수 있는 최대 파일 수입니다.
흐름당 흐름 별칭 지원되는 각 지역: 10개 아니요 최대 흐름 별칭 수입니다.
흐름당 흐름 버전 지원되는 각 지역: 10개 아니요 최대 흐름 버전 수입니다.
계정당 흐름 지원되는 각 리전: 100 계정당 최대 흐름 수입니다.
초당 GetAgent 요청 수 지원되는 각 리전: 15 아니요 초당 최대 GetAgent API 요청 수입니다.
초당 GetAgentActionGroup 요청 수 지원되는 각 지역: 20 아니요 초당 최대 GetAgentActionGroup API 요청 수입니다.
초당 GetAgentAlias 요청 수 지원되는 각 지역: 10개 아니요 초당 최대 GetAgentAlias API 요청 수입니다.
초당 GetAgentKnowledgeBase 요청 수 지원되는 각 리전: 15 아니요 초당 최대 GetAgentKnowledgeBase API 요청 수입니다.
초당 GetAgentVersion 요청 수 지원되는 각 지역: 10개 아니요 초당 최대 GetAgentVersion API 요청 수입니다.
GetBlueprint - 초당 트랜잭션의 제한 지원되는 각 지역: 5개 아니요 설명 없음
GetDataAutomationStatus - 초당 트랜잭션의 제한 지원되는 각 지역: 5개 아니요 설명 없음
초당 GetDataSource 요청 수 지원되는 각 지역: 10개 아니요 초당 최대 GetDataSource API 요청 수입니다.
초당 GetFlow 요청 수 지원되는 각 지역: 10개 아니요 초당 최대 GetFlow 요청 수입니다.
초당 GetFlowAlias 요청 수 지원되는 각 지역: 10개 아니요 초당 최대 GetFlowAlias 요청 수입니다.
초당 GetFlowVersion 요청 수 지원되는 각 지역: 10개 아니요 초당 최대 GetFlowVersion 요청 수입니다.
초당 GetIngestionJob 요청 수 지원되는 각 지역: 10개 아니요 초당 최대 GetIngestionJob API 요청 수입니다.
초당 GetKnowledgeBase 요청 수 지원되는 각 지역: 10개 아니요 초당 최대 GetKnowledgeBase API 요청 수입니다.
초당 GetPrompt 요청 수 지원되는 각 지역: 10개 아니요 초당 최대 GetPrompt 요청 수입니다.
계정당 가드레일 지원되는 각 리전: 100 아니요 계정의 최대 가드레일 수
계정당 가져온 모델 지원되는 각 리전: 3 계정에서 가져온 최대 모델 수입니다.
계정당 추론 프로필 지원되는 각 리전: 1,000 계정의 최대 추론 프로필 수입니다.
수집 작업 파일 크기 지원되는 각 리전: 50 아니요 수집 작업에서 파일의 최대 크기(MB)입니다.
수집 작업 크기 지원되는 각 리전: 100 아니요 수집 작업의 최대 크기(GB)입니다.
흐름당 입력 노드 수 지원되는 각 리전: 1 아니요 흐름 입력 노드의 최대 수입니다.
InvokeDataAutomationAsync - 오디오 - 최대 동시 작업 수 지원되는 각 리전: 20개 설명 없음
InvokeDataAutomationAsync - 문서 - 최대 동시 작업 수 지원되는 각 지역: 25 설명 없음
InvokeDataAutomationAsync - 이미지 - 최대 동시 작업 수 지원되는 각 리전: 20개 설명 없음
InvokeDataAutomationAsync - 최대 미해결 작업 수 지원되는 각 리전: 1,800 아니요 설명 없음
InvokeDataAutomationAsync - 초당 트랜잭션의 제한 지원되는 각 지역: 5개 아니요 설명 없음
InvokeDataAutomationAsync - 비디오 - 최대 동시 작업 수 지원되는 각 리전: 20개 설명 없음
흐름당 반복기 노드 지원되는 각 리전: 1 아니요 최대 반복기 노드 수입니다.
흐름당 지식 기반 노드 지원되는 각 지역: 10개 아니요 지식 기반 노드의 최대 수입니다.
계정당 지식 기반 지원되는 각 리전: 100 아니요 계정당 최대 지식 기반 수입니다.
흐름당 Lambda 함수 노드 지원되는 각 지역: 10개 아니요 Lambda 함수 노드의 최대 수입니다.
흐름당 Lex 노드 지원되는 각 지역: 5개 아니요 최대 Lex 노드 수입니다.
초당 ListAgentActionGroups 요청 수 지원되는 각 지역: 10개 아니요 초당 ListAgentActionGroups API 요청의 최대 수입니다.
초당 ListAgentAliases 요청 수 지원되는 각 지역: 10개 아니요 초당 ListAgentAliases API 요청의 최대 수입니다.
초당 ListAgentKnowledgeBases 요청 수 지원되는 각 지역: 10개 아니요 초당 ListAgentKnowledgeBases API 요청의 최대 수입니다.
초당 ListAgentVersions 요청 수 지원되는 각 지역: 10개 아니요 초당 ListAgentVersions API 요청의 최대 수입니다.
초당 ListAgents 요청 수 지원되는 각 지역: 10개 아니요 초당 ListAgents API 요청의 최대 수입니다.
ListBlueprint - 초당 트랜잭션의 제한 한도 지원되는 각 지역: 5개 아니요 설명 없음
초당 ListDataSources 요청 수 지원되는 각 지역: 10개 아니요 초당 ListDataSources API 요청의 최대 수입니다.
초당 ListFlowAliases 요청 수 지원되는 각 지역: 10개 아니요 초당 ListFlowAliases 요청의 최대 수입니다.
초당 ListFlowVersions 요청 수 지원되는 각 지역: 10개 아니요 초당 최대 ListFlowVersions 요청 수입니다.
초당 ListFlows 요청 수 지원되는 각 지역: 10개 아니요 초당 최대 ListFlows 요청 수입니다.
초당 ListIngestionJobs 요청 수 지원되는 각 지역: 10개 아니요 초당 ListIngestionJobs API 요청의 최대 수입니다.
초당 ListKnowledgeBases 요청 수 지원되는 각 지역: 10개 아니요 초당 ListKnowledgeBases API 요청의 최대 수입니다.
초당 ListPrompts 요청 수 지원되는 각 지역: 10개 아니요 초당 최대 ListPrompts 요청 수입니다.
최대 오디오 샘플 속도(Hz) 지원되는 각 리전: 48,000 아니요 설명 없음
프로젝트당 최대 청사진(문서) 지원되는 각 리전: 40개 아니요 설명 없음
프로젝트당 최대 청사진(이미지) 지원되는 각 리전: 1 아니요 설명 없음
최대 JSON 블루프린트 크기(문자) 지원되는 각 리전: 100,000개 아니요 설명 없음
최대 필드 계층 수준 지원되는 각 리전: 1 아니요 설명 없음
문서당 최대 페이지 수

us-east-1: 1,500

각각의 지원되는 다른 리전: 1,000

아니요 설명 없음
최대 해상도 지원되는 각 리전: 8,000 아니요 설명 없음
최대 오디오 파일 크기(MB) 지원되는 각 리전: 2,048개 아니요 설명 없음
최대 오디오 길이(분) 지원되는 각 리전: 240 아니요 설명 없음
최대 문서 파일 크기(MB) 지원되는 각 리전: 500개 아니요 설명 없음
최대 이미지 파일 크기(MB) 지원되는 각 지역: 5개 아니요 설명 없음
추출 사용자 지정 작업의 최대 입력 파일 크기 지원되는 각 리전: 2개기가바이트 아니요 추출 사용자 지정 작업의 최대 입력 파일 크기입니다.
추출 사용자 지정 작업의 최대 라인 길이 지원되는 각 리전: 16KB 아니요 추출 사용자 지정 작업에 대한 입력 파일의 최대 라인 길이입니다.
시작 추론 요청당 최대 블루프린트 수(문서) 지원되는 각 리전: 1 아니요 설명 없음
시작 추론 요청당 최대 블루프린트 수(이미지) 지원되는 각 리전: 1 아니요 설명 없음
블루프린트당 최대 목록 필드 수 지원되는 각 리전: 15 아니요 설명 없음
추출 사용자 지정 작업에 대한 최대 프롬프트 수 지원되는 각 리전: 15,000개 아니요 추출 사용자 지정 작업에 필요한 최대 프롬프트 수입니다.
Amazon Nova Micro V1 추출 사용자 지정 작업에 대한 최대 학생 모델 미세 조정 컨텍스트 길이 지원되는 각 리전: 32,000 아니요 Amazon Nova Micro V1 추출 사용자 지정 작업에 대한 최대 학생 모델 미세 조정 컨텍스트 길이입니다.
Amazon Nova V1 추출 사용자 지정 작업에 대한 최대 학생 모델 미세 조정 컨텍스트 길이 지원되는 각 리전: 32,000 아니요 Amazon Nova V1 추출 사용자 지정 작업에 대한 최대 학생 모델 미세 조정 컨텍스트 길이입니다.
Anthropic Claude 3 하이쿠 20240307 V1 추출 사용자 지정 작업에 대한 최대 학생 모델 미세 조정 컨텍스트 길이 지원되는 각 리전: 32,000 아니요 Anthropic Claude 3 하이쿠 20240307 V1 추출 사용자 지정 작업에 대한 최대 학생 모델 미세 조정 컨텍스트 길이입니다.
Llama 3.1 70B Instruct V1 distillation 사용자 지정 작업에 대한 최대 학생 모델 미세 조정 컨텍스트 길이 지원되는 각 리전: 16,000 아니요 Llama 3.1 70B Instruct V1 distillation 사용자 지정 작업에 대한 최대 학생 모델 미세 조정 컨텍스트 길이입니다.
Llama 3.1 8B Instruct V1 distillation 사용자 지정 작업에 대한 최대 학생 모델 미세 조정 컨텍스트 길이 지원되는 각 리전: 32,000 아니요 Llama 3.1 8B Instruct V1 distillation 사용자 지정 작업에 대한 최대 학생 모델 미세 조정 컨텍스트 길이입니다.
최대 비디오 파일 크기(MB) 지원되는 각 리전: 10,240 아니요 설명 없음
최대 비디오 길이(분) 지원되는 각 리전: 240 아니요 설명 없음
최소 오디오 샘플 속도(Hz) 지원되는 각 리전: 8,000 아니요 설명 없음
최소 오디오 길이(밀리초) 지원되는 각 리전: 500개 아니요 설명 없음
추출 사용자 지정 작업에 대한 최소 프롬프트 수 지원되는 각 리전: 100 아니요 추출 사용자 지정 작업에 필요한 최소 프롬프트 수입니다.
Claude 3 Haiku에 대한 배치 추론 작업당 최소 레코드 수 지원되는 각 리전: 100 아니요 Claude 3 Haiku에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다.
Claude 3 Opus에 대한 배치 추론 작업당 최소 레코드 수 지원되는 각 리전: 100 아니요 Claude 3 Opus에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다.
Claude 3 Sonnet에 대한 배치 추론 작업당 최소 레코드 수 지원되는 각 리전: 100 아니요 Claude 3 Sonnet에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다.
Claude 3.5 Haiku에 대한 배치 추론 작업당 최소 레코드 수 지원되는 각 리전: 100 아니요 Claude 3.5 Haiku에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다.
Claude 3.5 Sonnet에 대한 배치 추론 작업당 최소 레코드 수 지원되는 각 리전: 100 아니요 Claude 3.5 Sonnet에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다.
Claude 3.5 Sonnet v2에 대한 배치 추론 작업당 최소 레코드 수 지원되는 각 리전: 100 아니요 Claude 3.5 Sonnet v2에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다.
Llama 3.1 405B Instruct에 대한 배치 추론 작업당 최소 레코드 수 지원되는 각 리전: 100 아니요 Llama 3.1 405B Instruct에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다.
Llama 3.1 70B Instruct에 대한 배치 추론 작업당 최소 레코드 수 지원되는 각 리전: 100 아니요 Llama 3.1 70B Instruct에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다.
Llama 3.1 8B Instruct에 대한 배치 추론 작업당 최소 레코드 수 지원되는 각 리전: 100 아니요 Llama 3.1 8B Instruct에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다.
Llama 3.2 11B Instruct에 대한 배치 추론 작업당 최소 레코드 수 지원되는 각 리전: 100 아니요 Llama 3.2 11B Instruct에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다.
Llama 3.2 1B Instruct에 대한 배치 추론 작업당 최소 레코드 수 지원되는 각 리전: 100 아니요 배치 추론 작업 Llama 3.2 1B Instruct의 모든 입력 파일에 대한 최소 레코드 수입니다.
Llama 3.2 3B Instruct에 대한 배치 추론 작업당 최소 레코드 수 지원되는 각 리전: 100 아니요 Llama 3.2 3B Instruct에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다.
Llama 3.2 90B Instruct에 대한 배치 추론 작업당 최소 레코드 수 지원되는 각 리전: 100 아니요 Llama 3.2 90B Instruct에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다.
Llama 3.3 70B Instruct에 대한 배치 추론 작업당 최소 레코드 수 지원되는 각 리전: 100 아니요 Llama 3.3 70B Instruct에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다.
Mistral Large 2(24.07)에 대한 배치 추론 작업당 최소 레코드 수 지원되는 각 리전: 100 아니요 Mistral Large 2(24.07)에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다.
Mistral Small에 대한 배치 추론 작업당 최소 레코드 수 지원되는 각 리전: 100 아니요 Mistral Small에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다.
Nova Lite V1에 대한 배치 추론 작업당 최소 레코드 수 지원되는 각 리전: 100 아니요 Nova Lite V1에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다.
Nova Micro V1에 대한 배치 추론 작업당 최소 레코드 수 지원되는 각 리전: 100 아니요 Nova Micro V1에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다.
Nova Pro V1에 대한 배치 추론 작업당 최소 레코드 수 지원되는 각 리전: 100 아니요 Nova Pro V1에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다.
Titan Multimodal Embeddings G1에 대한 배치 추론 작업당 최소 레코드 수 지원되는 각 리전: 100 아니요 Titan Multimodal Embeddings G1에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다.
Titan Text Embeddings V2에 대한 배치 추론 작업당 최소 레코드 수 지원되는 각 리전: 100 아니요 Titan Text Embeddings V2에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다.
모델 단위 기본 모델 간 커밋 없는 프로비저닝된 처리량 지원되는 각 지역: 2 기본 모델의 커밋 없는 프로비저닝된 처리량에 배포할 수 있는 최대 모델 유닛 수
사용자 지정 모델 전반의 모델 단위 커밋 없는 프로비저닝된 처리량 지원되는 각 지역: 2 사용자 지정 모델의 커밋되지 않은 프로비저닝된 처리량에 배포할 수 있는 최대 모델 유닛 수
AI21 Labs Jurassic-2 Mid에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 AI21 Labs Jurassic-2 Mid에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
AI21 Labs Jurassic-2 Ultra에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 AI21 Labs Jurassic-2 Ultra에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Amazon Nova Canvas에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Amazon Nova Canvas의 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다.
Amazon Titan Embeddings G1 - 텍스트에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Amazon Titan Embeddings G1 - 텍스트에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Amazon Titan Image Generator G1에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Amazon Titan Image Generator G1에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다.
Amazon Titan Image Generator G2에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Amazon Titan Image Generator G2에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다.
Amazon Titan Lite V1 4K에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Amazon Titan Text Lite V1 4K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다.
Amazon Titan Multimodal Embeddings G1에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Amazon Titan Multimodal Embeddings G1에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Amazon Titan Text Embeddings V2에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Amazon Titan Text Embeddings V2에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다.
Amazon Titan Text G1 - Express 8K에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Amazon Titan Text G1 - Express 8K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Amazon Titan Text Premier V1 32K에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Amazon Titan Text Premier V1 32K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Anthropic Claude 3 Haiku 200K에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Anthropic Claude 3 Haiku 200K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Anthropic Claude 3 Haiku 48K에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Anthropic Claude 3 Haiku 48K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Anthropic Claude 3 Sonnet 200K에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Anthropic Claude 3 Sonnet 200K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Anthropic Claude 3 Sonnet 28K에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Anthropic Claude 3 Sonnet 28K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Anthropic Claude 3.5 Haiku 16K에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Anthropic Claude 3.5 Haiku 16K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Anthropic Claude 3.5 Haiku 200K에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Anthropic Claude 3.5 Haiku 200K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Anthropic Claude 3.5 Haiku 64K에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Anthropic Claude 3.5 Haiku 64K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Anthropic Claude 3.5 Sonnet 18K에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Anthropic Claude 3.5 Sonnet 18K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Anthropic Claude 3.5 Sonnet 200K에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Anthropic Claude 3.5 Sonnet 200K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Anthropic Claude 3.5 Sonnet 51K에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Anthropic Claude 3.5 Sonnet 51K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Anthropic Claude 3.5 Sonnet V2 18K에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Anthropic Claude 3.5 Sonnet V2 18K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Anthropic Claude 3.5 Sonnet V2 200K에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Anthropic Claude 3.5 Sonnet V2 200K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Anthropic Claude 3.5 Sonnet V2 51K에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Anthropic Claude 3.5 Sonnet V2 51K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Anthropic Claude Instant V1 100K에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Anthropic Claude Instant V1 100K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Anthropic Claude V2 100K에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Anthropic Claude V2 100K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Anthropic Claude V2 18K에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Anthropic Claude V2 18K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Anthropic Claude V2.1 18K에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Anthropic Claude V2.1 18K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Anthropic Claude V2.1 200K에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Anthropic Claude V2.1 200k에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Cohere Command에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Cohere Command에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다.
Cohere Command Light에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Cohere Command Light에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다.
Cohere Command R에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Cohere Command R 128k에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Cohere Command R Plus에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Cohere Command R Plus 128k에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다.
Cohere Embed English에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Cohere Embed English에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다.
Cohere Embed 다국어에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Cohere Embed Multilingual의 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
DeepSeek R1 Distill Llama 3.3 70B에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 DeepSeek R1 Distill Llama 3.3 70B에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Meta Llama 2 13B에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Meta Llama 2 13B에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Meta Llama 2 70B에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Meta Llama 2 70B에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다.
Meta Llama 2 Chat 13B에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Meta Llama 2 Chat 13B에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다.
Meta Llama 2 Chat 70B에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Meta Llama 2 Chat 70B에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Meta Llama 3 70B Instruct에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Meta Llama 3 70B Instruct에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Meta Llama 3 8B Instruct에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Meta Llama 3 8B Instruct에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Meta Llama 3.1 70B Instruct에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Meta Llama 3.1 70B Instruct에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Meta Llama 3.1 8B Instruct에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Meta Llama 3.1 8B Instruct에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Meta Llama 3.3 70B Instruct에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Meta Llama 3.3 70B Instruct에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Mistral Large 2407에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Mistral Large 2407에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Mistral Small의 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Mistral Small에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다.
Stability.ai Stable Diffusion XL 0.8에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수로, Stability.ai Stable Diffusion XL 0.8
Stability.ai Stable Diffusion XL 1.0용 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Stability.ai Stable Diffusion XL 1.0에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다.
Amazon Nova Micro용 128k 컨텍스트 길이 변형에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Amazon Nova Micro용 128k 컨텍스트 길이 변형에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수
Amazon Nova Lite용 24k 컨텍스트 길이 변형에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Amazon Nova Lite용 24k 컨텍스트 길이 변형에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수
Amazon Nova Micro용 24k 컨텍스트 길이 변형에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Amazon Nova Micro용 24k 컨텍스트 길이 변형에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수
Amazon Nova Pro용 24k 컨텍스트 길이 변형에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Amazon Nova Pro용 24k 컨텍스트 길이 변형에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수
Amazon Nova Lite용 300k 컨텍스트 길이 변형에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Amazon Nova Lite용 300k 컨텍스트 길이 변형에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수
Amazon Nova Pro용 300k 컨텍스트 길이 변형에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Amazon Nova Pro용 300k 컨텍스트 길이 변형에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 단위 수입니다.
기본 모델 Amazon Nova Canvas V1.0에 대해 생성된 프로비저닝된 처리량에 대한 커밋 없음 모델 단위 지원되는 각 리전: 1 아니요 약정 없이 기본 모델 Amazon Nova Canvas V1.0에 대해 생성된 프로비저닝된 처리량에 할당할 수 있는 최대 모델 단위 수입니다.
사용자 지정 모델 Amazon Nova Canvas V1 0에 대해 생성된 프로비저닝된 처리량에 대한 커밋 없음 모델 단위 지원되는 각 리전: 1 아니요 약정 없이 사용자 지정 모델 Amazon Nova Canvas V1 0에 대해 생성된 프로비저닝된 처리량에 할당할 수 있는 최대 모델 단위 수입니다.
동시 자동 모델 평가 작업 수 지원되는 각 지역: 20 아니요 현재 리전의이 계정에서 한 번에 지정할 수 있는 자동 모델 평가 작업의 최대 수입니다.
인간 작업자를 사용하는 동시 모델 평가 작업 수 지원되는 각 지역: 10개 아니요 현재 리전의이 계정에서 한 번에 지정할 수 있는 인간 작업자를 사용하는 모델 평가 작업의 최대 수입니다.
사용자 지정 지표 수 지원되는 각 지역: 10개 아니요 인간 작업자를 사용하는 모델 평가 작업에서 지정할 수 있는 사용자 지정 지표의 최대 수입니다.
인적 기반 모델 평가 작업의 사용자 지정 프롬프트 데이터 세트 수 지원되는 각 리전: 1 아니요 현재 리전의이 계정에서 인적 기반 모델 평가 작업에서 지정할 수 있는 사용자 지정 프롬프트 데이터 세트의 최대 수입니다.
계정당 사용자 지정 프롬프트 라우터 수 지원되는 각 리전: 500개 아니요 리전별 계정당 생성할 수 있는 사용자 지정 프롬프트 라우터의 최대 수입니다.
작업당 데이터 세트 수 지원되는 각 지역: 5개 아니요 자동 모델 평가 작업에서 지정할 수 있는 최대 데이터 세트 수입니다. 여기에는 사용자 지정 프롬프트 데이터 세트와 기본 제공 프롬프트 데이터 세트가 모두 포함됩니다.
평가 작업 수 지원되는 각 리전: 5,000개 아니요 현재 리전의이 계정에서 생성할 수 있는 최대 모델 평가 작업 수입니다.
데이터 세트당 지표 수 지원되는 각 리전: 3 아니요 자동화된 모델 평가 작업에서 데이터 세트당 지정할 수 있는 최대 지표 수입니다. 여기에는 사용자 지정 지표와 기본 제공 지표가 모두 포함됩니다.
인간 작업자를 사용하는 모델 평가 작업의 모델 수 지원되는 각 리전: 2 아니요 인간 작업자를 사용하는 모델 평가 작업에서 지정할 수 있는 최대 모델 수입니다.
자동 모델 평가 작업의 모델 수 지원되는 각 리전: 1 아니요 자동 모델 평가 작업에서 지정할 수 있는 최대 모델 수입니다.
사용자 지정 프롬프트 데이터 세트의 프롬프트 수 지원되는 각 리전: 1,000 아니요 사용자 지정 프롬프트 데이터 세트에 포함할 수 있는 최대 프롬프트 수입니다.
온디맨드 ApplyGuardrail 콘텐츠 필터 정책 초당 텍스트 단위

us-east-1: 200

us-west-2: 200

각각의 지원되는 다른 리전: 25

초당 콘텐츠 필터 정책에 대해 처리할 수 있는 최대 텍스트 단위 수
온디맨드 ApplyGuardrail 초당 거부된 주제 정책 텍스트 단위

us-east-1: 50

us-west-2: 50

각각의 지원되는 다른 리전: 25

거부된 주제 정책에 대해 초당 처리할 수 있는 최대 텍스트 단위 수
온디맨드 ApplyGuardrail 민감한 정보 필터 정책 초당 텍스트 단위

us-east-1: 200

us-west-2: 200

각각의 지원되는 다른 리전: 25

민감한 정보 필터 정책에 대해 초당 처리할 수 있는 최대 텍스트 단위 수
온디맨드 ApplyGuardrail Word 필터 정책 텍스트 단위/초

us-east-1: 200

us-west-2: 200

각각의 지원되는 다른 리전: 25

초당 Word 필터 정책에 대해 처리할 수 있는 최대 텍스트 단위 수입니다.
온디맨드 ApplyGuardrail 컨텍스트 근거 정책 초당 텍스트 단위 지원되는 각 리전: 106 초당 컨텍스트 근거 정책에 대해 처리할 수 있는 최대 텍스트 단위 수
초당 온디맨드 ApplyGuardrail 요청 수

us-east-1: 50

us-west-2: 50

각각의 지원되는 다른 리전: 25

초당 허용되는 최대 ApplyGuardrail API 호출 수
Amazon Nova Reel에 대한 온디맨드 InvokeModel 동시 요청 지원되는 각 지역: 10개 아니요 Amazon Nova Reel에 대한 모델 추론을 위해 제출할 수 있는 최대 동시 요청 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합계를 고려합니다.
AI21 Labs Jamba 1.5 Large에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 100 아니요 AI21 Labs Jamba 1.5 Large에 대해 1분 동안 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 Converse 및 InvokeModel에 대한 요청의 합계를 고려합니다.
AI21 Labs Jamba 1.5 Mini에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 100 아니요 AI21 Labs Jamba 1.5 Mini에 대해 1분 동안 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 Converse 및 InvokeModel에 대한 요청의 합계를 고려합니다.
AI21 Labs Jamba Instruct에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 100 아니요 AI21 Labs Jamba Instruct에 대해 1분 동안 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 Converse 및 InvokeModel에 대한 요청의 합계를 고려합니다.
AI21 Labs Jurassic-2 Mid에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 400 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 호출할 수 있는 최대 횟수입니다. 할당량은 AI21 Labs Jurassic-2 Mid에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
AI21 Labs Jurassic-2 Ultra에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 100 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 호출할 수 있는 최대 횟수입니다. 할당량은 AI21 Labs Jurassic-2 Ultra에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Amazon Nova Canvas에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 100 아니요 Amazon Nova Canvas에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 요청 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합계를 고려합니다.
Amazon Nova Lite에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 1,000 아니요 Amazon Nova Lite에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 요청 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합계를 고려합니다.
Amazon Nova Micro에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 1,000 아니요 Amazon Nova Micro에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 요청 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합계를 고려합니다.
Amazon Nova Pro에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 100 아니요 Amazon Nova Pro에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 요청 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합계를 고려합니다.
Amazon Rerank 1.0에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 200 아니요 Amazon Rerank 1.0에 대해 1분 동안 InvokeModel을 호출할 수 있는 최대 횟수입니다.
Amazon Titan Image Generator G1에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 60개 아니요 Amazon Titan Image Generator G1에 대해 1분 동안 InvokeModel을 호출할 수 있는 최대 횟수입니다.
Amazon Titan Image Generator G1 V2에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 60개 아니요 Amazon Titan Image Generator G V2에 대해 1분 동안 InvokeModel을 호출할 수 있는 최대 횟수입니다.
Amazon Titan Multimodal Embeddings G1에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 2,000 아니요 Amazon Titan Multimodal Embeddings G1에 대해 1분 동안 InvokeModel을 호출할 수 있는 최대 횟수입니다.
Amazon Titan Text Embeddings에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 2,000 아니요 Amazon Titan Text Embeddings에 대해 1분 동안 InvokeModel을 호출할 수 있는 최대 횟수
Amazon Titan Text Embeddings V2에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 2,000 아니요 Amazon Titan Text Embeddings V2에 대해 1분 동안 InvokeModel을 호출할 수 있는 최대 횟수
Amazon Titan Text Express에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 400 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 호출할 수 있는 최대 횟수입니다. 할당량은 Amazon Titan Text Express에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Amazon Titan Text Lite에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 800 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 호출할 수 있는 최대 횟수입니다. 할당량은 Amazon Titan Text Lite에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Amazon Titan Text Premier에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 100 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 호출할 수 있는 최대 횟수입니다. 할당량은 Amazon Titan Text Premier에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Anthropic Claude 3 Haiku에 대한 분당 온디맨드 InvokeModel 요청

us-east-1: 1,000

us-west-2: 1,000

ap-northeast-1: 200

ap-southeast-1: 200

지원되는 다른 각 리전: 400

아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 호출할 수 있는 최대 횟수입니다. 할당량은 Anthropic Claude 3 Haiku에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Anthropic Claude 3 Opus에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 50 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 호출할 수 있는 최대 횟수입니다. 할당량은 Anthropic Claude 3 Opus에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Anthropic Claude 3 Sonnet에 대한 분당 온디맨드 InvokeModel 요청

us-east-1: 500

us-west-2: 500

각각의 지원되는 다른 리전: 100

아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 호출할 수 있는 최대 횟수입니다. 할당량은 Anthropic Claude 3 Sonnet에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Anthropic Claude 3.5 Haiku에 대한 분당 온디맨드 InvokeModel 요청

us-west-1: 400

각각의 지원되는 다른 리전: 1,000

아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 호출할 수 있는 최대 횟수입니다. 할당량은 Anthropic Claude 3.5 Haiku에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Anthropic Claude 3.5 Sonnet에 대한 분당 온디맨드 InvokeModel 요청

us-east-1: 50

us-east-2: 50

us-west-2: 250

ap-northeast-2: 50

ap-south-1: 50

ap-southeast-2: 50

각각의 지원되는 다른 리전: 20

아니요 Anthropic Claude 3.5 Sonnet에 대해 1분 동안 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합계를 고려합니다.
Anthropic Claude 3.5 Sonnet V2에 대한 분당 온디맨드 InvokeModel 요청

us-west-2: 250

각각의 지원되는 다른 리전: 50회

아니요 Anthropic Claude 3.5 Sonnet V2에 대해 1분 동안 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합계를 고려합니다.
Anthropic Claude Instant에 대한 분당 온디맨드 InvokeModel 요청

us-east-1: 1,000

us-west-2: 1,000

지원되는 다른 각 리전: 400

아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 호출할 수 있는 최대 횟수입니다. 할당량은 Anthropic Claude Instant에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Anthropic Claude V2에 대한 분당 온디맨드 InvokeModel 요청

us-east-1: 500

us-west-2: 500

각각의 지원되는 다른 리전: 100

아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 호출할 수 있는 최대 횟수입니다. 할당량은 Anthropic Claude V2에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Cohere 명령에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 400 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 호출할 수 있는 최대 횟수입니다. 할당량은 Cohere Command에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Cohere Command Light에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 800 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 호출할 수 있는 최대 횟수입니다. 할당량은 Cohere Command Light에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Cohere Command R에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 400 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 호출할 수 있는 최대 횟수입니다. 할당량은 Cohere Command R 128k에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Cohere Command R Plus에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 400 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 호출할 수 있는 최대 횟수입니다. 할당량은 Cohere Command R Plus 128k에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Cohere 임베드 영어에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 2,000 아니요 Cohere Embed English에 대해 1분 동안 InvokeModel을 호출할 수 있는 최대 횟수입니다.
Cohere 임베드 다국어에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 2,000 아니요 Cohere Embed Multilingual에 대해 1분 동안 InvokeModel을 호출할 수 있는 최대 횟수입니다.
Cohere Rerank 3.5에 대한 분당 온디맨드 InvokeModel 요청 각 지원되는 리전: 250명 아니요 Cohere Rerank 3.5에 대해 1분 동안 InvokeModel을 호출할 수 있는 최대 횟수입니다.
Meta Llama 2 13B에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 800 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 호출할 수 있는 최대 횟수입니다. 할당량은 Meta Llama 2 13B에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Meta Llama 2 70B에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 400 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 호출할 수 있는 최대 횟수입니다. 할당량은 Meta Llama 2 70B에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Meta Llama 2 Chat 13B에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 800 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 호출할 수 있는 최대 횟수입니다. 할당량은 Meta Llama 2 Chat 13B에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Meta Llama 2 Chat 70B에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 400 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 호출할 수 있는 최대 횟수입니다. 할당량은 Meta Llama 2 Chat 70B에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Meta Llama 3 70B Instruct에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 400 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 호출할 수 있는 최대 횟수입니다. 할당량은 Meta Llama 3 70B Instruct에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Meta Llama 3 8B Instruct에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 800 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 호출할 수 있는 최대 횟수입니다. 할당량은 Meta Llama 3 8B Instruct에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Mistral 7B Instruct에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 800 아니요 Mistral mistral-7b-instruct-v0에 대해 1분 동안 InvokeModel을 호출할 수 있는 최대 횟수
Mistral AI Mistral Small에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 400 아니요 Mistral AI Mistral Small에 대해 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 호출할 수 있는 최대 횟수
Mistral Large에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 400 아니요 Mistral mistral-large-2402-v1에 대해 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 호출할 수 있는 최대 횟수
Mistral Mixtral 8x7b Instruct에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 400 아니요 Mistral mixtral-8x7b-v0에 대해 1분 동안 InvokeModel을 호출할 수 있는 최대 횟수
Stability.ai Stable Diffusion 3 Large에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 15 아니요 1분 동안 Stability.ai Stable Diffusion 3 Large에 대해 InvokeModel을 호출할 수 있는 최대 횟수입니다.
Stability.ai Stable Diffusion 3 Medium에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 60개 아니요 1분 동안 Stability.ai:// Stable Diffusion 3 Medium에 대해 InvokeModel을 호출할 수 있는 최대 횟수
Stability.ai Stable Diffusion 3.5 Large에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 15 아니요 할당량은 Stability.ai Stable Diffusion 3.5 Large에 대한 InvokeModel, InvokeModelWithResponseStream, Converse 및 ConverseStream에 대한 요청의 합계를 고려합니다.
Stability.ai Stable Diffusion XL 0.8에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 60개 아니요 1분 동안 Stability.ai:// Stable Diffusion XL 0.8에 대해 InvokeModel을 호출할 수 있는 최대 횟수
Stability.ai Stable Diffusion XL 1.0에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 60개 아니요 1분 동안 Stability.ai:// Stable Diffusion XL 1.0에 대해 InvokeModel을 호출할 수 있는 최대 횟수
Stability.ai Stable Image Core에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 90 아니요 1분 동안 Stability.ai:// Stable Image Core에 대해 InvokeModel을 호출할 수 있는 최대 횟수입니다.
Stability.ai Stable Image Ultra에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 지역: 10개 아니요 1분 동안 Stability.ai:// Stable Image Ultra에 대해 InvokeModel을 호출할 수 있는 최대 횟수입니다.
AI21 Labs Jamba 1.5 Large에 대한 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 아니요 AI21 Labs Jamba 1.5 Large에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 Converse 및 InvokeModel에 대한 토큰의 합계를 고려합니다.
AI21 Labs Jamba 1.5 Mini에 대한 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 아니요 AI21 Labs Jamba 1.5 Mini에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 Converse 및 InvokeModel에 대한 토큰의 합계를 고려합니다.
AI21 Labs Jamba Instruct에 대한 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 아니요 AI21 Labs Jamba Instruct에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 Converse 및 InvokeModel의 토큰 합계를 고려합니다.
AI21 Labs Jurassic-2 Mid에 대한 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 아니요 AI21 Labs Jurassic-2 Mid에 대해 1분 동안 InvokeModel을 통해 제공할 수 있는 최대 토큰 수입니다.
AI21 Labs Jurassic-2 Ultra에 대한 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 아니요 AI21 Labs Jurassic-2 Ultra에 대해 1분 동안 InvokeModel을 통해 제공할 수 있는 최대 토큰 수입니다.
Amazon Nova Lite의 분당 온디맨드 InvokeModel 토큰 지원되는 각 리전: 2,000,000 아니요 Amazon Nova Lite에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합계를 고려합니다.
Amazon Nova Micro의 분당 온디맨드 InvokeModel 토큰 지원되는 각 리전: 2,000,000 아니요 Amazon Nova Micro에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합계를 고려합니다.
Amazon Nova Pro의 분당 온디맨드 InvokeModel 토큰 지원되는 각 리전: 400,000 아니요 Amazon Nova Pro에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합계를 고려합니다.
Amazon Titan Image Generator G1에 대한 분당 온디맨드 InvokeModel 토큰 지원되는 각 리전: 2,000 아니요 Amazon Titan Image Generator G1에 대해 1분 동안 InvokeModel을 통해 제공할 수 있는 최대 토큰 수입니다.
Amazon Titan Image Generator G1 V2에 대한 분당 온디맨드 InvokeModel 토큰 지원되는 각 리전: 2,000 아니요 Amazon Titan Image Generator G1 V2에 대해 1분 동안 InvokeModel을 통해 제공할 수 있는 최대 토큰 수입니다. V2
Amazon Titan Multimodal Embeddings G1에 대한 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 아니요 Amazon Titan Multimodal Embeddings G1에 대해 1분 동안 InvokeModel을 통해 제공할 수 있는 최대 토큰 수입니다.
Amazon Titan Text Embeddings에 대한 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 아니요 Amazon Titan Text Embeddings에 대해 1분 동안 InvokeModel을 통해 제공할 수 있는 최대 토큰 수입니다.
Amazon Titan Text Embeddings V2에 대한 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 아니요 Amazon Titan Text Embeddings V2에 대해 1분 동안 InvokeModel을 통해 제공할 수 있는 최대 토큰 수입니다.
Amazon Titan Text Express의 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Amazon Titan Text Express에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Amazon Titan Text Lite에 대한 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Amazon Titan Text Lite에 대한 InvokeModel 토큰과 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Amazon Titan Text Premier의 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Amazon Titan Text Premier에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Anthropic Claude 3 Haiku의 분당 온디맨드 InvokeModel 토큰

us-east-1: 2,000,000

us-west-2: 2,000,000

ap-northeast-1: 200,000

ap-southeast-1: 200,000

지원되는 다른 각 리전: 300,000

아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Anthropic Claude 3 Haiku에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Anthropic Claude 3 Opus에 대한 분당 온디맨드 InvokeModel 토큰 지원되는 각 리전: 400,000 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Anthropic Claude 3 Opus에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Anthropic Claude 3 Sonnet에 대한 분당 온디맨드 InvokeModel 토큰

us-east-1: 1,000,000

us-west-2: 1,000,000

지원되는 다른 각 리전: 200,000

아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Anthropic Claude 3 Sonnet에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Anthropic Claude 3.5 Haiku에 대한 분당 온디맨드 InvokeModel 토큰

us-west-1: 300,000

지원되는 다른 각 리전: 2,000,000

아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Anthropic Claude 3.5 Haiku에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Anthropic Claude 3.5 Sonnet에 대한 분당 온디맨드 InvokeModel 토큰

us-east-1: 400,000

us-east-2: 400,000

us-west-2: 2,000,000

ap-northeast-2: 400,000

ap-south-1: 400,000

ap-southeast-2: 400,000

지원되는 다른 각 리전: 200,000

아니요 Anthropic Claude 3.5 Sonnet에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합계를 고려합니다.
Anthropic Claude 3.5 Sonnet V2에 대한 분당 온디맨드 InvokeModel 토큰

us-west-2: 2,000,000

지원되는 다른 각 리전: 400,000

아니요 Anthropic Claude 3.5 Sonnet V2에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합계를 고려합니다.
Anthropic Claude Instant에 대한 분당 온디맨드 InvokeModel 토큰

us-east-1: 1,000,000

us-west-2: 1,000,000

지원되는 다른 각 리전: 300,000

아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Anthropic Claude Instant에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Anthropic Claude V2에 대한 분당 온디맨드 InvokeModel 토큰

us-east-1: 500,000

us-west-2: 500,000

지원되는 다른 각 리전: 200,000

아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Anthropic Claude V2에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Cohere 명령에 대한 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Cohere Command에 대한 InvokeModel 토큰과 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Cohere Command Light에 대한 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 아니요 Cohere Command Light에 대해 1분 동안 InvokeModel을 통해 제공할 수 있는 최대 토큰 수입니다.
Cohere Command R에 대한 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Cohere Command R 128k에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Cohere Command R Plus의 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Cohere Command R Plus 128k에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Cohere 임베드 영어에 대한 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 아니요 Cohere Embed English에 대해 1분 동안 InvokeModel을 통해 제공할 수 있는 최대 토큰 수입니다.
Cohere 임베드 다국어에 대한 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 아니요 Cohere Embed Multilingual에 대해 1분 동안 InvokeModel을 통해 제공할 수 있는 최대 토큰 수입니다.
Meta Llama 2 13B에 대한 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Meta Llama 2 13B에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Meta Llama 2 70B에 대한 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Meta Llama 2 70B에 대한 InvokeModel 토큰과 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Meta Llama 2 Chat 13B에 대한 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Meta Llama 2 Chat 13B에 대한 InvokeModel 토큰과 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Meta Llama 2 Chat 70B에 대한 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Meta Llama 2 Chat 70B에 대한 InvokeModel 토큰과 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Meta Llama 3 70B Instruct에 대한 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Meta Llama 3 70B Instruct에 대한 InvokeModel 토큰과 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Meta Llama 3 8B Instruct에 대한 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Meta Llama 3 8B Instruct에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Mistral AI Mistral 7B Instruct에 대한 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Mistral AI Mistral 7B Instruct에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Mistral AI Mistral Large의 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Mistral AI Mistral Large에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Mistral AI Mistral Small의 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Mistral AI Mistral Small에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Mistral AI Mixtral 8X7BB Instruct에 대한 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Mistral mixtral-8x7b-instruct-v0에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Anthropic Claude 3.5 Haiku에 대한 분당 온디맨드 지연 시간 최적화 InvokeModel 요청 지원되는 각 리전: 100 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 호출할 수 있는 최대 횟수입니다. 이 할당량은 지연 시간 최적화가 구성된 경우 Anthropic Claude 3.5 Haiku에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Anthropic Claude 3.5 Haiku의 분당 온디맨드 지연 시간 최적화 InvokeModel 토큰 각각 지원되는 리전: 500,000 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream을 통해 제공할 수 있는 최대 토큰 수입니다. 이 할당량은 지연 시간 최적화가 구성된 경우 Anthropic Claude 3.5 Haiku에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Meta Llama 3.1 405B Instruct에 대한 분당 온디맨드 지연 시간 최적화 모델 추론 요청 지원되는 각 리전: 100 아니요 지연 시간 최적화가 구성된 경우 Meta Llama 3.1 405B Instruct에 대해 1분 동안 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및 ConverseStream에 대한 요청의 합계를 고려합니다.
Meta Llama 3.1 70B Instruct에 대한 분당 온디맨드 지연 시간 최적화 모델 추론 요청 지원되는 각 리전: 100 아니요 지연 시간 최적화가 구성된 경우 Meta Llama 3.1 70B Instruct에 대해 1분 동안 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및 ConverseStream에 대한 요청의 합계를 고려합니다.
Meta Llama 3.1 405B Instruct에 대한 분당 온디맨드 지연 시간 최적화 모델 추론 토큰 지원되는 각 리전: 40,000 아니요 지연 시간 최적화가 구성된 경우 Meta Llama 3.1 405B Instruct에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및 ConverseStream에 대한 토큰의 합계를 고려합니다.
Meta Llama 3.1 70b Instruct에 대한 분당 온디맨드 지연 시간 최적화 모델 추론 토큰 지원되는 각 리전: 40,000 아니요 지연 시간 최적화가 구성된 경우 Meta Llama 3.1 70b Instruct에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및 ConverseStream에 대한 토큰의 합계를 고려합니다.
Luma Ray V2에 대한 온디맨드 모델 추론 동시 요청 지원되는 각 리전: 1 아니요 Luma Ray V2에 대한 모델 추론을 위해 제출할 수 있는 최대 동시 요청 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합계를 고려합니다.
Meta Llama 3.1 405B Instruct에 대한 분당 온디맨드 모델 추론 요청 지원되는 각 리전: 200 아니요 Meta Llama 3.1 405B Instruct에 대해 1분 동안 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및 ConverseStream에 대한 요청의 합계를 고려합니다.
Meta Llama 3.1 70B Instruct에 대한 분당 온디맨드 모델 추론 요청 지원되는 각 리전: 400 아니요 Meta Llama 3.1 70B Instruct에 대해 1분 동안 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및 ConverseStream에 대한 요청의 합계를 고려합니다.
Meta Llama 3.1 8B Instruct에 대한 분당 온디맨드 모델 추론 요청 지원되는 각 리전: 800 아니요 Meta Llama 3.1 8B Instruct에 대해 1분 동안 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및 ConverseStream에 대한 요청의 합계를 고려합니다.
Meta Llama 3.2 11B Instruct에 대한 분당 온디맨드 모델 추론 요청 지원되는 각 리전: 400 아니요 Meta Llama 3.2 11B Instruct에 대해 1분 동안 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및 ConverseStream에 대한 요청의 합계를 고려합니다.
Meta Llama 3.2 1B Instruct에 대한 분당 온디맨드 모델 추론 요청 지원되는 각 리전: 800 아니요 Meta Llama 3.2 1B Instruct에 대해 1분 동안 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및 ConverseStream에 대한 요청의 합계를 고려합니다.
Meta Llama 3.2 3B Instruct에 대한 분당 온디맨드 모델 추론 요청 지원되는 각 리전: 800 아니요 Meta Llama 3.2 3B Instruct에 대해 1분 동안 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및 ConverseStream에 대한 요청의 합계를 고려합니다.
Meta Llama 3.2 90B Instruct에 대한 분당 온디맨드 모델 추론 요청 지원되는 각 리전: 400 아니요 Meta Llama 3.2 90B Instruct에 대해 1분 동안 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및 ConverseStream에 대한 요청의 합계를 고려합니다.
Meta Llama 3.3 70B Instruct에 대한 분당 온디맨드 모델 추론 요청 지원되는 각 리전: 400 아니요 Meta Llama 3.3 70B Instruct에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 요청의 최대 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합계를 고려합니다.
Mistral Large 2407에 대한 분당 온디맨드 모델 추론 요청 지원되는 각 리전: 400 아니요 Mistral Large 2407에 대해 1분 동안 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및 ConverseStream에 대한 요청의 합계를 고려합니다.
Meta Llama 3.1 8B Instruct에 대한 분당 온디맨드 모델 추론 토큰 지원되는 각 지역: 300,000 아니요 Meta Llama 3.1 8B Instruct에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및 ConverseStream에 대한 토큰의 합계를 고려합니다.
Meta Llama 3.2 11B Instruct에 대한 분당 온디맨드 모델 추론 토큰 지원되는 각 지역: 300,000 아니요 Meta Llama 3.2 11B Instruct에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및 ConverseStream에 대한 토큰의 합계를 고려합니다.
Meta Llama 3.2 1B Instruct에 대한 분당 온디맨드 모델 추론 토큰 지원되는 각 지역: 300,000 아니요 Meta Llama 3.2 1B Instruct에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및 ConverseStream에 대한 토큰의 합계를 고려합니다.
Meta Llama 3.2 3B Instruct에 대한 분당 온디맨드 모델 추론 토큰 지원되는 각 지역: 300,000 아니요 Meta Llama 3.2 3B Instruct에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및 ConverseStream에 대한 토큰의 합계를 고려합니다.
Meta Llama 3.2 90B Instruct에 대한 분당 온디맨드 모델 추론 토큰 지원되는 각 지역: 300,000 아니요 Meta Llama 3.2 90B Instruct에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및 ConverseStream에 대한 토큰의 합계를 고려합니다.
Meta Llama 3.3 70B Instruct에 대한 분당 온디맨드 모델 추론 토큰 지원되는 각 지역: 300,000 아니요 Meta Llama 3.3 70B Instruct에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 토큰의 최대 수입니다. 할당량은 Converse, ConverseStream, InvokeModel 및 InvokeModelWithResponseStream의 합계를 고려합니다.
Mistral Large 2407의 분당 온디맨드 모델 추론 토큰 지원되는 각 지역: 300,000 아니요 Mistral Large 2407에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및 ConverseStream에 대한 토큰의 합계를 고려합니다.
Meta Llama 3.1 405B Instruct용에 대한 분당 온디맨드 모델 추론 토큰 지원되는 각 리전: 400,000 아니요 Meta Llama 3.1 405B Instruct에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및 ConverseStream에 대한 토큰의 합계를 고려합니다.
Meta Llama 3.1 70B Instruct용에 대한 분당 온디맨드 모델 추론 토큰 지원되는 각 지역: 300,000 아니요 Meta Llama 3.1 70B Instruct에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및 ConverseStream에 대한 토큰의 합계를 고려합니다.
흐름당 출력 노드 지원되는 각 지역: 10개 아니요 최대 흐름 출력 노드 수입니다.
함수당 파라미터 지원되는 각 리전: 5 작업 그룹 함수에 포함할 수 있는 최대 파라미터 수입니다.
초당 PrepareAgent 요청 수 지원되는 각 리전: 2 아니요 초당 최대 PrepareAgent API 요청 수입니다.
초당 PrepareFlow 요청 수 지원되는 각 리전: 2 아니요 초당 최대 PrepareFlow 요청 수입니다.
흐름당 프롬프트 노드 수 지원되는 각 리전: 10 최대 프롬프트 노드 수입니다.
계정당 프롬프트 지원되는 각 지역: 50 최대 프롬프트 수입니다.
Claude 3 Haiku에 대한 배치 추론 작업당 레코드 지원되는 각 리전: 50,000 Claude 3 Haiku에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다.
Claude 3 Opus에 대한 배치 추론 작업당 레코드 지원되는 각 리전: 50,000 Claude 3 Opus에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다.
Claude 3 Sonnet에 대한 배치 추론 작업당 레코드 지원되는 각 리전: 50,000 Claude 3 Sonnet에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다.
Claude 3.5 Haiku에 대한 배치 추론 작업당 레코드 지원되는 각 리전: 50,000 Claude 3.5 Haiku에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다.
Claude 3.5 Sonnet에 대한 배치 추론 작업당 레코드 지원되는 각 리전: 50,000 Claude 3.5 Sonnet에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다.
Claude 3.5 Sonnet v2에 대한 배치 추론 작업당 레코드 지원되는 각 리전: 50,000 Claude 3.5 Sonnet v2에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다.
Llama 3.1 405B Instruct에 대한 배치 추론 작업당 레코드 지원되는 각 리전: 50,000 Llama 3.1 405B Instruct에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다.
Llama 3.1 70B Instruct에 대한 배치 추론 작업당 레코드 지원되는 각 리전: 50,000 Llama 3.1 70B Instruct에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다.
Llama 3.1 8B Instruct에 대한 배치 추론 작업당 레코드 지원되는 각 리전: 50,000 Llama 3.1 8B Instruct에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다.
Llama 3.2 11B Instruct에 대한 배치 추론 작업당 레코드 지원되는 각 리전: 50,000 Llama 3.2 11B Instruct에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다.
Llama 3.2 1B Instruct에 대한 배치 추론 작업당 레코드 지원되는 각 리전: 50,000 배치 추론 작업 Llama 3.2 1B Instruct의 모든 입력 파일에 대한 최대 레코드 수입니다.
Llama 3.2 3B Instruct에 대한 배치 추론 작업당 레코드 지원되는 각 리전: 50,000 Llama 3.2 3B Instruct에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다.
Llama 3.2 90B Instruct에 대한 배치 추론 작업당 레코드 지원되는 각 리전: 50,000 Llama 3.2 90B Instruct에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다.
Llama 3.3 70B Instruct에 대한 배치 추론 작업당 레코드 지원되는 각 리전: 50,000 Llama 3.3 70B Instruct에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다.
Mistral Large 2(24.07)에 대한 배치 추론 작업당 레코드 지원되는 각 리전: 50,000 Mistral Large 2(24.07)에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다.
Mistral Small에 대한 배치 추론 작업당 레코드 지원되는 각 리전: 50,000 Mistral Small에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다.
Nova Lite V1에 대한 배치 추론 작업당 레코드 지원되는 각 리전: 50,000 Nova Lite V1에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다.
Nova Micro V1에 대한 배치 추론 작업당 레코드 지원되는 각 리전: 50,000 Nova Micro V1에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다.
Nova Pro V1에 대한 배치 추론 작업당 레코드 지원되는 각 리전: 50,000 Nova Pro V1에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다.
Titan Multimodal Embeddings G1에 대한 배치 추론 작업당 레코드 지원되는 각 리전: 50,000 Titan Multimodal Embeddings G1에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다.
Titan Text Embeddings V2에 대한 배치 추론 작업당 레코드 지원되는 각 리전: 50,000 Titan Text Embeddings V2에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다.
Claude 3 Haiku에 대한 배치 추론 작업당 입력 파일당 레코드 지원되는 각 리전: 50,000 Claude 3 Haiku에 대한 배치 추론 작업의 입력 파일에 있는 최대 레코드 수입니다.
Claude 3 Opus에 대한 배치 추론 작업당 입력 파일당 레코드 지원되는 각 리전: 50,000 Claude 3 Opus에 대한 배치 추론 작업의 입력 파일에 있는 최대 레코드 수입니다.
Claude 3 Sonnet에 대한 배치 추론 작업당 입력 파일당 레코드 지원되는 각 리전: 50,000 Claude 3 Sonnet에 대한 배치 추론 작업의 입력 파일에 있는 최대 레코드 수입니다.
Claude 3.5 Haiku에 대한 배치 추론 작업당 입력 파일당 레코드 지원되는 각 리전: 50,000 Claude 3.5 Haiku에 대한 배치 추론 작업의 입력 파일에 있는 최대 레코드 수입니다.
Claude 3.5 Sonnet에 대한 배치 추론 작업당 입력 파일당 레코드 지원되는 각 리전: 50,000 Claude 3.5 Sonnet에 대한 배치 추론 작업의 입력 파일에 있는 최대 레코드 수입니다.
Claude 3.5 Sonnet v2에 대한 배치 추론 작업당 입력 파일당 레코드 지원되는 각 리전: 50,000 Claude 3.5 Sonnet v2에 대한 배치 추론 작업의 입력 파일에 있는 최대 레코드 수입니다.
Llama 3.1 405B Instruct에 대한 배치 추론 작업당 입력 파일당 레코드 지원되는 각 리전: 50,000 Llama 3.1 405B Instruct에 대한 배치 추론 작업의 입력 파일에 있는 최대 레코드 수입니다.
Llama 3.1 70B Instruct에 대한 배치 추론 작업당 입력 파일당 레코드 지원되는 각 리전: 50,000 Llama 3.1 70B Instruct에 대한 배치 추론 작업의 입력 파일에 있는 최대 레코드 수입니다.
Llama 3.1 8B Instruct에 대한 배치 추론 작업당 입력 파일당 레코드 지원되는 각 리전: 50,000 Llama 3.1 8B Instruct에 대한 배치 추론 작업의 입력 파일에 있는 최대 레코드 수입니다.
Llama 3.2 11B Instruct에 대한 배치 추론 작업당 입력 파일당 레코드 지원되는 각 리전: 50,000 Llama 3.2 11B Instruct에 대한 배치 추론 작업의 입력 파일에 있는 최대 레코드 수입니다.
Llama 3.2 1B Instruct에 대한 배치 추론 작업당 입력 파일당 레코드 지원되는 각 리전: 50,000 배치 추론 작업 Llama 3.2 1B Instruct의 입력 파일에 있는 최대 레코드 수입니다.
Llama 3.2 3B Instruct에 대한 배치 추론 작업당 입력 파일당 레코드 지원되는 각 리전: 50,000 Llama 3.2 3B Instruct에 대한 배치 추론 작업의 입력 파일에 있는 최대 레코드 수입니다.
Llama 3.2 90B Instruct에 대한 배치 추론 작업당 입력 파일당 레코드 지원되는 각 리전: 50,000 Llama 3.2 90B Instruct에 대한 배치 추론 작업의 입력 파일에 있는 최대 레코드 수입니다.
Llama 3.3 70B Instruct에 대한 배치 추론 작업당 입력 파일당 레코드 지원되는 각 리전: 50,000 Llama 3.3 70B Instruct에 대한 배치 추론 작업의 입력 파일에 있는 최대 레코드 수입니다.
Mistral Large 2(24.07)에 대한 배치 추론 작업당 입력 파일당 레코드 지원되는 각 리전: 50,000 Mistral Large 2(24.07)의 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다.
Mistral Small에 대한 배치 추론 작업당 입력 파일당 레코드 지원되는 각 리전: 50,000 Mistral Small에 대한 배치 추론 작업의 입력 파일에 있는 최대 레코드 수입니다.
Nova Lite V1에 대한 배치 추론 작업당 입력 파일당 레코드 지원되는 각 리전: 50,000 Nova Lite V1에 대한 배치 추론 작업의 입력 파일에 있는 최대 레코드 수입니다.
Nova Micro V1에 대한 배치 추론 작업당 입력 파일당 레코드 지원되는 각 리전: 50,000 Nova Micro V1에 대한 배치 추론 작업의 입력 파일에 있는 최대 레코드 수입니다.
Nova Pro V1에 대한 배치 추론 작업당 입력 파일당 레코드 지원되는 각 리전: 50,000 Nova Pro V1에 대한 배치 추론 작업의 입력 파일에 있는 최대 레코드 수입니다.
Titan Multimodal Embeddings G1에 대한 배치 추론 작업당 입력 파일당 레코드 지원되는 각 리전: 50,000 Titan Multimodal Embeddings G1에 대한 배치 추론 작업의 입력 파일에 있는 최대 레코드 수입니다.
Titan Text Embeddings V2에 대한 배치 추론 작업당 입력 파일당 레코드 지원되는 각 리전: 50,000 Titan Text Embeddings V2에 대한 배치 추론 작업의 입력 파일에 있는 최대 레코드 수입니다.
민감한 정보 필터의 정규식 엔터티 지원되는 각 지역: 10개 아니요 민감한 정보 정책에 포함할 수 있는 가드레일 필터 정규식의 최대 수
정규식 문자 길이 지원되는 각 리전: 500개 아니요 가드레일 필터 정규식의 최대 길이입니다.
초당 요청 검색 지원되는 각 지역: 5개 아니요 초당 최대 API 요청 검색 수입니다.
RetrieveAndGenerate 지원되는 각 지역: 5개 아니요 초당 최대 RetrieveAndGenerate API 요청 수입니다.
흐름당 S3 검색 노드 지원되는 각 지역: 10개 아니요 최대 S3 검색 노드 수입니다.
흐름당 S3 스토리지 노드 지원되는 각 지역: 10개 아니요 최대 S3 스토리지 노드 수입니다.
예약된 사용자 지정 작업 지원되는 각 리전: 2 아니요 예약된 사용자 지정 작업의 최대 수입니다.
프롬프트 크기 지원되는 각 리전: 4 아니요 사용자 지정 프롬프트 데이터 세트에서 개별 프롬프트의 최대 크기(KB)입니다.
초당 StartIngestionJob 요청 수 지원되는 각 리전: 0.1 아니요 초당 최대 StartIngestionJob API 요청 수입니다.
Claude 3 Haiku용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 20개 Claude 3 Haiku용 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Claude 3 Opus용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 20개 Claude 3 Opus의 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Claude 3 Sonnet용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 20개 Claude 3 Sonnet용 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Claude 3.5 Haiku용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 20개 Claude 3.5 Haiku용 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Claude 3.5 Sonnet용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 20개 Claude 3.5 Sonnet용 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Claude 3.5 Sonnet v2용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 20개 Claude 3.5 Sonnet v2용 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Llama 3.1 405B Instruct용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 20개 Llama 3.1 405B Instruct용 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Llama 3.1 70B Instruct용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 20개 Llama 3.1 70B Instruct용 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Llama 3.1 8B Instruct용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 20개 Llama 3.1 8B Instruct용 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Llama 3.2 11B Instruct용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 20개 Llama 3.2 11B Instruct용 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Llama 3.2 1B Instruct용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 20개 Llama 3.2 1B Instruct용 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Llama 3.2 3B Instruct용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 20개 Llama 3.2 3B Instruct용 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Llama 3.2 90B Instruct용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 20개 Llama 3.2 90B Instruct용 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Llama 3.3 70B Instruct용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 20개 Llama 3.3 70B Instruct용 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Mistral Large 2(24.07)용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 20개 Mistral Large 2(24.07)용 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Mistral Small용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 20개 Mistral Small용 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Nova Lite V1용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 20개 Nova Lite V1용 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Nova Micro V1용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 20개 Nova Micro V1용 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Nova Pro V1용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 20개 Nova Pro V1용 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Titan Multimodal Embeddings G1용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 20개 Titan Multimodal Embeddings G1의 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Titan Text Embeddings V2용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 20개 Titan Text Embeddings V2의 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Titan Multimodal Embeddings G1용 사용자 지정 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 3 아니요 Titan Multimodal Embeddings G1용 사용자 지정 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Titan Text Embeddings V2용 사용자 지정 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 3 아니요 Titan Text Embeddings V2용 사용자 지정 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수
Amazon Nova Lite 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 지원되는 각 리전: 20개,000 Amazon Nova Lite 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다.
Amazon Nova Micro 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 지원되는 각 리전: 20개,000 Amazon Nova Micro 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다.
Amazon Nova Pro 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 지원되는 각 리전: 10,000 Amazon Nova Pro 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다.
Claude 3 Haiku v1 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 지원되는 각 리전: 10,000 Claude 3 Haiku 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다.
Meta Llama 2 13B v1 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 지원되는 각 리전: 10,000 Meta Llama 2 13B 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 통합 수입니다.
Meta Llama 2 70B v1 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 지원되는 각 리전: 10,000 Meta Llama 2 70B 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다.
Meta Llama 3.1 70B Instruct v1 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 지원되는 각 리전: 10,000 Meta Llama 3.1 70B Instruct Fine-tuning 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다.
Meta Llama 3.1 8B Instruct v1 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 지원되는 각 리전: 10,000 Meta Llama 3.1 8B Instruct Fine-tuning 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다.
Titan Image Generator G1 V1 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 지원되는 각 리전: 10,000 Titan Image Generator 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다.
Titan Image Generator G1 V2 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 지원되는 각 리전: 10,000 Titan Image Generator V2 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다.
Titan Multimodal Embeddings G1 v1 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 지원되는 각 리전: 50,000 Titan 멀티모달 임베딩 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다.
Titan Text G1 - Express v1 지속적인 사전 훈련 작업에 대한 훈련 및 검증 레코드의 합계 지원되는 각 리전: 100,000 Titan Text Express 지속적인 사전 훈련 작업에 허용되는 훈련 및 검증 레코드의 최대 조합 수입니다.
Titan Text G1 - Express v1 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 지원되는 각 리전: 10,000 Titan Text Express 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다.
Titan Text G1 - Lite v1 지속적인 사전 훈련 작업에 대한 훈련 및 검증 레코드의 합계 지원되는 각 리전: 100,000 Titan Text Lite 지속적인 사전 훈련 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다.
Titan Text G1 - Lite v1 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 지원되는 각 리전: 10,000 Titan Text Lite 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다.
Titan Text G1 - Premier v1 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 지원되는 각 리전: 20개,000 Titan Text Premier 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다.
작업자의 작업 시간 지원되는 각 리전: 30개 아니요 작업자가 작업을 완료하는 데 필요한 최대 시간(일)입니다.
Bedrock 데이터 자동화 런타임의 제한 속도 제한: ListTagsForResource 지원되는 각 리전: 25개 아니요 현재 리전에서 계정당 초당 수행할 수 있는 Bedrock 데이터 자동화 런타임: ListTagsForResource 요청의 최대 수
Bedrock Data Automation 런타임의 제한 속도 제한: TagResource 지원되는 각 리전: 25개 아니요 현재 리전에서 계정당 초당 수행할 수 있는 Bedrock Data Automation 런타임 최대 요청 수: TagResource 요청 수
Bedrock Data Automation 런타임의 제한 속도 제한: UntagResource 지원되는 각 리전: 25개 아니요 현재 리전에서 계정당 초당 수행할 수 있는 Bedrock 데이터 자동화 런타임: UntagResource 요청의 최대 수
Bedrock 데이터 자동화의 제한 속도 제한: ListTagsForResource 지원되는 각 리전: 25개 아니요 현재 리전에서 계정당 초당 수행할 수 있는 Bedrock Data Automation: ListTagsForResource 요청의 최대 수
Bedrock 데이터 자동화의 제한 속도 제한: TagResource 지원되는 각 리전: 25개 아니요 현재 리전에서 계정당 초당 수행할 수 있는 Bedrock 데이터 자동화: TagResource 요청의 최대 수
Bedrock Data Automation의 제한 속도 제한: UntagResource 지원되는 각 리전: 25개 아니요 현재 리전에서 계정당 초당 수행할 수 있는 Bedrock Data Automation: UntagResource 요청의 최대 수
CreateBlueprint에 대한 제한 속도 제한 지원되는 각 지역: 5개 아니요 설명 없음
CreateBlueprintVersion에 대한 제한 속도 제한 지원되는 각 지역: 5개 아니요 설명 없음
CreateDataAutomationProject의 제한 속도 제한 지원되는 각 지역: 5개 아니요 설명 없음
DeleteBlueprint에 대한 제한 속도 제한 지원되는 각 지역: 5개 아니요 설명 없음
DeleteDataAutomationProject의 제한 속도 제한 지원되는 각 지역: 5개 아니요 설명 없음
GetBlueprint에 대한 제한 속도 제한 지원되는 각 지역: 5개 아니요 설명 없음
GetDataAutomationProject의 제한 속도 제한 지원되는 각 지역: 5개 아니요 설명 없음
GetDataAutomationStatus의 제한 속도 제한 지원되는 각 지역: 10개 아니요 설명 없음
InvokeDataAutomationAsync에 대한 제한 속도 제한 지원되는 각 지역: 10개 아니요 설명 없음
ListBlueprints의 제한 속도 제한 지원되는 각 지역: 5개 아니요 설명 없음
ListDataAutomationProjects의 제한 속도 제한 지원되는 각 지역: 5개 아니요 설명 없음
UpdateBlueprint에 대한 제한 속도 제한 지원되는 각 지역: 5개 아니요 설명 없음
UpdateDataAutomationProject의 제한 속도 제한 지원되는 각 지역: 5개 아니요 설명 없음
가드레일당 주제 지원되는 각 리전: 30개 아니요 가드레일 주제 정책에서 정의할 수 있는 최대 주제 수
흐름당 총 노드 수 지원되는 각 리전: 40개 아니요 흐름의 최대 노드 수입니다.
초당 UpdateAgent 요청 수 지원되는 각 리전: 4 아니요 초당 최대 UpdateAgent API 요청 수입니다.
초당 UpdateAgentActionGroup 요청 수 지원되는 각 리전: 6개 아니요 초당 최대 UpdateAgentActionGroup API 요청 수
초당 UpdateAgentAlias 요청 수 지원되는 각 리전: 2 아니요 초당 최대 UpdateAgentAlias API 요청 수입니다.
초당 UpdateAgentKnowledgeBase 요청 수 지원되는 각 리전: 4 아니요 초당 최대 UpdateAgentKnowledgeBase API 요청 수입니다.
UpdateBlueprint - 초당 트랜잭션의 제한 지원되는 각 리전: 1 아니요 설명 없음
초당 UpdateDataSource 요청 수 지원되는 각 리전: 2 아니요 초당 최대 UpdateDataSource API 요청 수입니다.
초당 UpdateFlow 요청 수 지원되는 각 리전: 2 아니요 초당 최대 UpdateFlow 요청 수입니다.
초당 UpdateFlowAlias 요청 수 지원되는 각 리전: 2 아니요 초당 최대 UpdateFlowAlias 요청 수입니다.
초당 UpdateKnowledgeBase 요청 수 지원되는 각 리전: 2 아니요 초당 최대 UpdateKnowledgeBase API 요청 수입니다.
초당 UpdatePrompt 요청 수 지원되는 각 리전: 2 아니요 초당 최대 UpdatePrompt 요청 수입니다.
사용자 쿼리 크기 지원되는 각 리전: 1,000 아니요 사용자 쿼리의 최대 크기(자)입니다.
초당 ValidateFlowDefinition 요청 수 지원되는 각 리전: 2 아니요 초당 최대 ValidateFlowDefinition 요청 수입니다.
가드레일당 버전 지원되는 각 지역: 20 아니요 가드레일이 가질 수 있는 최대 버전 수
프롬프트당 버전 지원되는 각 지역: 10개 아니요 프롬프트당 최대 버전 수입니다.
문자 단위의 단어 길이 지원되는 각 리전: 100 아니요 차단된 단어 목록에 있는 단어의 최대 길이입니다.
단어당 단어 정책 지원되는 각 리전: 10,000개 아니요 차단된 단어 목록에 포함할 수 있는 최대 단어 수

이 페이지에서

프라이버시사이트 이용 약관쿠키 기본 설정
© 2025, Amazon Web Services, Inc. 또는 계열사. All rights reserved.