기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.
Amazon Bedrock 엔드포인트 및 할당량
다음은 이 서비스에 대한 서비스 엔드포인트 및 서비스 할당량입니다. AWS 서비스에 프로그래밍 방식으로 연결하려면 엔드포인트를 사용합니다. 일부 AWS 서비스는 표준 AWS 엔드포인트 외에도 선택한 리전에서 FIPS 엔드포인트를 제공합니다. 자세한 내용은 AWS 서비스 엔드포인트 단원을 참조하십시오. 한도라고도 하는 서비스 할당량은 AWS 계정의 최대 서비스 리소스 또는 작업 수입니다. 자세한 내용은 AWS 서비스 할당량 단원을 참조하십시오.
Service 엔드포인트
Amazon Bedrock 컨트롤 플레인 APIs
다음 표에는 Amazon Bedrock이 모델 관리, 훈련 및 배포를 위해 지원하는 리전별 엔드포인트 목록이 나와 있습니다. Amazon Bedrock API 작업에 이러한 엔드포인트를 사용합니다.
리전 이름 | 지역 | 엔드포인트 | 프로토콜 |
---|---|---|---|
미국 동부(오하이오) | us-east-2 |
bedrock.us-east-2.amazonaws.com bedrock-fips.us-east-2.amazonaws.com |
HTTPS HTTPS |
미국 동부(버지니아 북부) | us-east-1 |
bedrock.us-east-1.amazonaws.com bedrock-fips.us-east-1.amazonaws.com |
HTTPS HTTPS |
미국 서부(오레곤) | us-west-2 |
bedrock.us-west-2.amazonaws.com bedrock-fips.us-west-2.amazonaws.com |
HTTPS HTTPS |
아시아 태평양(뭄바이) | ap-south-1 | bedrock.ap-south-1.amazonaws.com | HTTPS |
아시아 태평양(서울) | ap-northeast-2 | bedrock.ap-northeast-2.amazonaws.com | HTTPS |
아시아 태평양(싱가포르) | ap-southeast-1 | bedrock.ap-southeast-1.amazonaws.com | HTTPS |
아시아 태평양(시드니) | ap-southeast-2 | bedrock.ap-southeast-2.amazonaws.com | HTTPS |
아시아 태평양(도쿄) | ap-northeast-1 | bedrock.ap-northeast-1.amazonaws.com | HTTPS |
캐나다(중부) | ca-central-1 |
bedrock.ca-central-1.amazonaws.com bedrock-fips.ca-central-1.amazonaws.com |
HTTPS HTTPS |
유럽(프랑크푸르트) | eu-central-1 | bedrock.eu-central-1.amazonaws.com | HTTPS |
유럽(아일랜드) | eu-west-1 | bedrock.eu-west-1.amazonaws.com | HTTPS |
유럽(런던) | eu-west-2 | bedrock.eu-west-2.amazonaws.com | HTTPS |
유럽(파리) | eu-west-3 | bedrock.eu-west-3.amazonaws.com | HTTPS |
유럽(취리히) | eu-central-2 | bedrock.eu-central-2.amazonaws.com | HTTPS |
남아메리카(상파울루) | sa-east-1 | bedrock.sa-east-1.amazonaws.com | HTTPS |
AWS GovCloud (미국 동부) | us-gov-east-1 |
bedrock.us-gov-east-1.amazonaws.com bedrock-fips.us-gov-east-1.amazonaws.com |
HTTPS HTTPS |
AWS GovCloud (미국 서부) | us-gov-west-1 |
bedrock.us-gov-west-1.amazonaws.com bedrock-fips.us-gov-west-1.amazonaws.com |
HTTPS HTTPS |
Amazon Bedrock 런타임 APIs
다음 표에는 Amazon Bedrock에서 호스팅되는 모델에 대한 추론 요청을 하기 위해 Amazon Bedrock이 지원하는 리전별 엔드포인트 목록이 나와 있습니다. Amazon Bedrock 런타임 API 작업에 이러한 엔드포인트를 사용합니다.
리전 이름 | 지역 | 엔드포인트 | 프로토콜 |
---|---|---|---|
미국 동부(오하이오) | us-east-2 |
bedrock-runtime.us-east-2.amazonaws.com bedrock-runtime-fips.us-east-2.amazonaws.com |
HTTPS HTTPS |
미국 동부(버지니아 북부) | us-east-1 |
bedrock-runtime.us-east-1.amazonaws.com bedrock-runtime-fips.us-east-1.amazonaws.com |
HTTPS HTTPS |
미국 서부(오레곤) | us-west-2 |
bedrock-runtime.us-west-2.amazonaws.com bedrock-runtime-fips.us-west-2.amazonaws.com |
HTTPS HTTPS |
아시아 태평양(뭄바이) | ap-south-1 | bedrock-runtime.ap-south-1.amazonaws.com | HTTPS |
아시아 태평양(서울) | ap-northeast-2 | bedrock-runtime.ap-northeast-2.amazonaws.com | HTTPS |
아시아 태평양(싱가포르) | ap-southeast-1 | bedrock-runtime.ap-southeast-1.amazonaws.com | HTTPS |
아시아 태평양(시드니) | ap-southeast-2 | bedrock-runtime.ap-southeast-2.amazonaws.com | HTTPS |
아시아 태평양(도쿄) | ap-northeast-1 | bedrock-runtime.ap-northeast-1.amazonaws.com | HTTPS |
캐나다(중부) | ca-central-1 |
bedrock-runtime.ca-central-1.amazonaws.com bedrock-runtime-fips.ca-central-1.amazonaws.com |
HTTPS HTTPS |
유럽(프랑크푸르트) | eu-central-1 | bedrock-runtime.eu-central-1.amazonaws.com | HTTPS |
유럽(아일랜드) | eu-west-1 | bedrock-runtime.eu-west-1.amazonaws.com | HTTPS |
유럽(런던) | eu-west-2 | bedrock-runtime.eu-west-2.amazonaws.com | HTTPS |
유럽(파리) | eu-west-3 | bedrock-runtime.eu-west-3.amazonaws.com | HTTPS |
유럽(취리히) | eu-central-2 | bedrock-runtime.eu-central-2.amazonaws.com | HTTPS |
남아메리카(상파울루) | sa-east-1 | bedrock-runtime.sa-east-1.amazonaws.com | HTTPS |
AWS GovCloud (미국 동부) | us-gov-east-1 |
bedrock-runtime.us-gov-east-1.amazonaws.com bedrock-runtime-fips.us-gov-east-1.amazonaws.com |
HTTPS HTTPS |
AWS GovCloud (미국 서부) | us-gov-west-1 |
bedrock-runtime.us-gov-west-1.amazonaws.com bedrock-runtime-fips.us-gov-west-1.amazonaws.com |
HTTPS HTTPS |
Amazon Bedrock용 에이전트 빌드 시간 APIs
다음 표에는 Agents for Amazon Bedrock이 에이전트 및 지식 기반을 생성하고 관리하기 위해 지원하는 리전별 엔드포인트 목록이 나와 있습니다. Amazon Bedrock용 에이전트 API 작업에 이러한 엔드포인트를 사용합니다.
리전 이름 | 지역 | 엔드포인트 | 프로토콜 |
---|---|---|---|
미국 동부(버지니아 북부) | us-east-1 | bedrock-agent.us-east-1.amazonaws.com | HTTPS |
bedrock-agent-fips.us-east-1.amazonaws.com | HTTPS | ||
미국 서부(오리건) | us-west-2 | bedrock-agent.us-west-2.amazonaws.com | HTTPS |
bedrock-agent-fips.us-west-2.amazonaws.com | HTTPS | ||
아시아 태평양(싱가포르) | ap-southeast-1 | bedrock-agent.ap-southeast-1.amazonaws.com | HTTPS |
아시아 태평양(시드니) | ap-southeast-2 | bedrock-agent.ap-southeast-2.amazonaws.com | HTTPS |
아시아 태평양(도쿄) | ap-northeast-1 | bedrock-agent.ap-northeast-1.amazonaws.com | HTTPS |
캐나다(중부) | ca-central-1 | bedrock-agent.ca-central-1.amazonaws.com | HTTPS |
유럽(프랑크푸르트) | eu-central-1 | bedrock-agent.eu-central-1.amazonaws.com | HTTPS |
유럽(아일랜드) | eu-west-1 | bedrock-agent.eu-west-1.amazonaws.com | HTTPS |
유럽(런던) | eu-west-2 | bedrock-agent.eu-west-2.amazonaws.com | HTTPS |
유럽(파리) | eu-west-3 | bedrock-agent.eu-west-3.amazonaws.com | HTTPS |
아시아 태평양(뭄바이) | ap-south-1 | bedrock-agent.ap-south-1.amazonaws.com | HTTPS |
남아메리카(상파울루) | sa-east-1 | bedrock-agent.sa-east-1.amazonaws.com | HTTPS |
Amazon Bedrock 런타임 에이전트 APIs
다음 표에는 에이전트 호출 및 지식 기반 쿼리를 위해 Amazon Bedrock용 에이전트가 지원하는 리전별 엔드포인트 목록이 나와 있습니다. Amazon Bedrock 런타임 API 작업용 에이전트에 이러한 엔드포인트를 사용합니다.
리전 이름 | 지역 | 엔드포인트 | 프로토콜 |
---|---|---|---|
미국 동부(버지니아 북부) | us-east-1 | bedrock-agent-runtime.us-east-1.amazonaws.com | HTTPS |
bedrock-agent-runtime-fips.us-east-1.amazonaws.com | HTTPS | ||
미국 서부(오리건) | us-west-2 | bedrock-agent-runtime.us-west-2.amazonaws.com | HTTPS |
bedrock-agent-runtime-fips.us-west-2.amazonaws.com | HTTPS | ||
아시아 태평양(싱가포르) | ap-southeast-1 | bedrock-agent-runtime.ap-southeast-1.amazonaws.com | HTTPS |
아시아 태평양(시드니) | ap-southeast-2 | bedrock-agent-runtime.ap-southeast-2.amazonaws.com | HTTPS |
아시아 태평양(도쿄) | ap-northeast-1 | bedrock-agent-runtime.ap-northeast-1.amazonaws.com | HTTPS |
캐나다(중부) | ca-central-1 | bedrock-agent-runtime.ca-central-1.amazonaws.com | HTTPS |
유럽(프랑크푸르트) | eu-central-1 | bedrock-agent-runtime.eu-central-1.amazonaws.com | HTTPS |
유럽(파리) | eu-west-3 | bedrock-agent-runtime.eu-west-3.amazonaws.com | HTTPS |
유럽(아일랜드) | eu-west-1 | bedrock-agent-runtime.eu-west-1.amazonaws.com | HTTPS |
유럽(런던) | eu-west-2 | bedrock-agent-runtime.eu-west-2.amazonaws.com | HTTPS |
아시아 태평양(뭄바이) | ap-south-1 | bedrock-agent-runtime.ap-south-1.amazonaws.com | HTTPS |
남아메리카(상파울루) | sa-east-1 | bedrock-agent-runtime.sa-east-1.amazonaws.com | HTTPS |
Service quotas
조정 가능한 값이 예로 표시되고 아니요로 표시된 할당량 모두에 대해 할당량 증가를 요청하는 방법에 대한 지침은 Amazon Bedrock 할당량 증가 요청을 참조하세요. https://docs.aws.amazon.com/bedrock/latest/userguide/quotas.html#quotas-increase 다음 표에는 Amazon Bedrock의 할당량 목록이 나와 있습니다.
명칭 | 기본값 | 조정 가능 | 설명 |
---|---|---|---|
APIs 에이전트당 | 지원되는 각 리전: 11 | 예 |
에이전트에 추가할 수 APIs 있는 최대 수입니다. |
에이전트당 작업 그룹 | 지원되는 각 리전: 20개 | 예 |
에이전트에 추가할 수 있는 최대 작업 그룹 수입니다. |
흐름당 에이전트 노드 수 | 지원되는 각 지역: 10개 | No | 최대 에이전트 노드 수입니다. |
계정당 에이전트 | 지원되는 각 리전: 200 | 예 |
한 계정의 최대 에이전트 수입니다. |
AssociateAgentKnowledgeBase 초당 요청 수 | 지원되는 각 리전: 6개 | No | 초당 최대 요청 수입니다 AssociateAgentKnowledgeBase API. |
에이전트당 연결된 별칭 | 지원되는 각 지역: 10개 | No | 에이전트와 연결할 수 있는 최대 별칭 수입니다. |
에이전트당 관련 지식 기반 | 지원되는 각 지역: 2 | 예 |
에이전트와 연결할 수 있는 최대 지식 기반 수입니다. |
배치 추론 입력 파일 크기 | 지원되는 각 리전: 1,073,741,824 | 예 |
배치 추론을 위해 제출된 단일 파일의 최대 크기(바이트)입니다. |
Claude 3 Haiku의 배치 추론 입력 파일 크기(GB) | 각 지원되는 지역: 1 | 예 |
Claude 3 Haiku에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB). |
Claude 3 Opus의 배치 추론 입력 파일 크기(GB) | 각 지원되는 지역: 1 | 예 |
Claude 3 Opus에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB). |
Claude 3 Sonnet의 배치 추론 입력 파일 크기(GB) | 각 지원되는 지역: 1 | 예 |
Claude 3 Sonnet에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB). |
Claude 3.5 Haiku의 배치 추론 입력 파일 크기(GB) | 각 지원되는 지역: 1 | 예 |
Claude 3.5 Haiku에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB). |
Claude 3.5 Sonnet의 배치 추론 입력 파일 크기(GB) | 각 지원되는 지역: 1 | 예 |
Claude 3.5 Sonnet에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB). |
Claude 3.5 Sonnet v2의 배치 추론 입력 파일 크기(GB) | 각 지원되는 지역: 1 | 예 |
Claude 3.5 Sonnet v2에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB). |
Llama 3.1 405B Instruct의 배치 추론 입력 파일 크기(GB) | 각 지원되는 지역: 1 | 예 |
Llama 3.1 405B Instruct에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB). |
Llama 3.1 70B Instruct의 배치 추론 입력 파일 크기(GB) | 각 지원되는 지역: 1 | 예 |
Llama 3.1 70B Instruct에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB). |
Llama 3.1 8B Instruct의 배치 추론 입력 파일 크기(GB) | 각 지원되는 지역: 1 | 예 |
Llama 3.1 8B Instruct에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB). |
Llama 3.2 11B Instruct의 배치 추론 입력 파일 크기(GB) | 각 지원되는 지역: 1 | 예 |
Llama 3.2 11B Instruct에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB). |
Llama 3.2 1B Instruct의 배치 추론 입력 파일 크기(GB) | 각 지원되는 지역: 1 | 예 |
배치 추론 Llama 3.2 1B Instruct용으로 제출된 단일 파일의 최대 크기(GB). |
Llama 3.2 3B Instruct의 배치 추론 입력 파일 크기(GB) | 각 지원되는 지역: 1 | 예 |
Llama 3.2 3B Instruct에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB). |
Llama 3.2 90B Instruct의 배치 추론 입력 파일 크기(GB) | 각 지원되는 지역: 1 | 예 |
Llama 3.2 90B Instruct에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB). |
Mistral Large 2(24.07)의 배치 추론 입력 파일 크기(GB) | 각 지원되는 지역: 1 | 예 |
Mistral Large 2(24.07)에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB). |
Mistral Small의 배치 추론 입력 파일 크기(GB) | 각 지원되는 지역: 1 | 예 |
Mistral Small에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB). |
Nova Lite V1의 배치 추론 입력 파일 크기(GB) | 각 지원되는 지역: 1 | 예 |
Nova Lite V1에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB). |
Nova Micro V1의 배치 추론 입력 파일 크기(GB) | 각 지원되는 지역: 1 | 예 |
Nova Micro V1에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB). |
Nova Pro V1의 배치 추론 입력 파일 크기(GB) | 각 지원되는 지역: 1 | 예 |
Nova Pro V1의 배치 추론을 위해 제출된 단일 파일(GB)의 최대 크기입니다. |
Titan Multimodal Embeddings G1의 배치 추론 입력 파일 크기(GB) | 각 지원되는 지역: 1 | 예 |
Titan Multimodal Embeddings G1에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB). |
Titan Text Embeddings V2의 배치 추론 입력 파일 크기(GB) | 각 지원되는 지역: 1 | 예 |
Titan Text Embeddings V2에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB). |
배치 추론 작업 크기 | 지원되는 각 리전: 5,368,709,120 | 예 |
배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(바이트)입니다. |
Claude 3 Haiku의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 예 |
Claude 3 Haiku의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
Claude 3 Opus의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 예 |
Claude 3 Opus의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
Claude 3 Sonnet의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 예 |
Claude 3 Sonnet의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
Claude 3.5 Haiku의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 예 |
Claude 3.5 Haiku의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
Claude 3.5 Sonnet의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 예 |
Claude 3.5 Sonnet의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
Claude 3.5 Sonnet v2의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 예 |
Claude 3.5 Sonnet v2의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB). |
Llama 3.1 405B Instruct의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 예 |
Llama 3.1 405B Instruct의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
Llama 3.1 70B Instruct의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 예 |
Llama 3.1 70B Instruct의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
Llama 3.1 8B Instruct의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 예 |
Llama 3.1 8B Instruct의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
Llama 3.2 11B Instruct의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 예 |
Llama 3.2 11B Instruct의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
Llama 3.2 1B Instruct의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 예 |
Llama 3.2 1B Instruct의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
Llama 3.2 3B Instruct의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 예 |
Llama 3.2 3B Instruct의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
Llama 3.2 90B Instruct의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 예 |
Llama 3.2 90B Instruct의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
Mistral Large 2(24.07)의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 예 |
Mistral Large 2(24.07)의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB). |
Mistral Small의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 예 |
Mistral Small의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
Nova Lite V1의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 예 |
Nova Lite V1의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
Nova Micro V1의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 예 |
Nova Micro V1의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
Nova Pro V1의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 100 | 예 |
Nova Pro V1의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
Titan Multimodal Embeddings G1의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 예 |
Titan Multimodal Embeddings G1의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
Titan Text Embeddings V2의 배치 추론 작업 크기(GB) | 지원되는 각 리전: 5 | 예 |
Titan Text Embeddings V2의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다. |
에이전트의 문자 지침 | 지원되는 각 리전: 8,000 | 예 |
에이전트에 대한 지침의 최대 문자 수입니다. |
흐름당 수집기 노드 수 | 지원되는 각 리전: 1 | No | 최대 수집기 노드 수입니다. |
계정당 동시 수집 작업 | 지원되는 각 지역: 5개 | No | 계정에서 동시에 실행할 수 있는 최대 수집 작업 수입니다. |
데이터 소스당 동시 수집 작업 | 지원되는 각 리전: 1 | No | 데이터 소스에 대해 동시에 실행할 수 있는 최대 수집 작업 수입니다. |
지식 기반당 동시 수집 작업 | 지원되는 각 리전: 1 | No | 지식 기반에 대해 동시에 실행할 수 있는 최대 수집 작업 수입니다. |
동시 모델 가져오기 작업 | 지원되는 각 리전: 1 | No | 동시에 진행 중인 최대 모델 가져오기 작업 수입니다. |
흐름당 조건 노드 수 | 지원되는 각 지역: 5개 | No | 최대 조건 노드 수입니다. |
조건 노드당 조건 | 지원되는 각 지역: 5개 | No | 조건 노드당 최대 조건 수입니다. |
텍스트 단위의 컨텍스트 접지 쿼리 길이 | 지원되는 각 리전: 1 | No | 컨텍스트 접지를 위한 쿼리의 텍스트 단위 최대 길이입니다. |
텍스트 단위의 컨텍스트 접지 응답 길이 | 지원되는 각 지역: 5개 | No | 컨텍스트 접지에 대한 응답의 텍스트 단위 최대 길이입니다. |
텍스트 단위의 컨텍스트 접지 소스 길이 |
us-east-1: 100 us-west-2: 100 각각의 지원되는 다른 리전: 50 |
No | 컨텍스트 접지를 위한 접지 소스의 텍스트 단위 최대 길이 |
CreateAgent 초당 요청 수 | 지원되는 각 리전: 6개 | No | 초당 최대 요청 수입니다 CreateAgent API. |
CreateAgentActionGroup 초당 요청 수 | 지원되는 각 리전: 12 | No | 초당 최대 요청 수입니다 CreateAgentActionGroup API. |
CreateAgentAlias 초당 요청 수 | 지원되는 각 리전: 2 | No | 초당 최대 요청 수입니다 CreateAgentAlias API. |
CreateDataSource 초당 요청 수 | 지원되는 각 리전: 2 | No | 초당 최대 요청 수입니다 CreateDataSource API. |
CreateFlow 초당 요청 수 | 지원되는 각 리전: 2 | No | 초당 최대 CreateFlow 요청 수입니다. |
CreateFlowAlias 초당 요청 수 | 지원되는 각 리전: 2 | No | 초당 최대 CreateFlowAlias 요청 수입니다. |
CreateFlowVersion 초당 요청 수 | 지원되는 각 리전: 2 | No | 초당 최대 CreateFlowVersion 요청 수입니다. |
CreateKnowledgeBase 초당 요청 수 | 지원되는 각 리전: 2 | No | 초당 최대 요청 수입니다 CreateKnowledgeBase API. |
CreatePrompt 초당 요청 수 | 지원되는 각 리전: 2 | No | 초당 최대 CreatePrompt 요청 수입니다. |
CreatePromptVersion 초당 요청 수 | 지원되는 각 리전: 2 | No | 초당 최대 CreatePromptVersion 요청 수입니다. |
Amazon Nova Lite에 대한 분당 리전 간 InvokeModel 요청 | 지원되는 각 리전: 2,000 | No | Amazon Nova Lite에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 요청 수입니다. 할당량은 Converse ConverseStream, InvokeModel and의 합계를 고려합니다 InvokeModelWithResponseStream. |
Amazon Nova Micro에 대한 분당 리전 간 InvokeModel 요청 | 지원되는 각 리전: 2,000 | No | Amazon Nova Micro에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 요청 수입니다. 할당량은 Converse ConverseStream, InvokeModel and의 합계를 고려합니다 InvokeModelWithResponseStream. |
Amazon Nova Pro에 대한 분당 리전 간 InvokeModel 요청 수 | 지원되는 각 리전: 200 | No | Amazon Nova Pro에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 요청 수입니다. 할당량은 Converse ConverseStream, InvokeModel and의 합계를 고려합니다 InvokeModelWithResponseStream. |
Anthropic Claude 3.5 Haiku에 대한 분당 리전 간 InvokeModel 요청 | 지원되는 각 리전: 2,000 | No | 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 호출할 수 있는 최대 횟수입니다. 할당량은 Anthropic Claude 3.5 Haiku에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다. |
Amazon Nova Lite의 분당 리전 간 InvokeModel 토큰 수 | 지원되는 각 리전: 4,000,000 | No | Amazon Nova Lite에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 Converse ConverseStream, InvokeModel and의 합계를 고려합니다 InvokeModelWithResponseStream. |
Amazon Nova Micro의 분당 리전 간 InvokeModel 토큰 수 | 지원되는 각 리전: 4,000,000 | No | Amazon Nova Micro에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 Converse ConverseStream, InvokeModel and의 합계를 고려합니다 InvokeModelWithResponseStream. |
Amazon Nova Pro의 분당 리전 간 InvokeModel 토큰 수 | 지원되는 각 리전: 800,000 | No | Amazon Nova Pro에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 Converse ConverseStream, InvokeModel and의 합계를 고려합니다 InvokeModelWithResponseStream. |
Anthropic Claude 3.5 Haiku의 분당 리전 간 InvokeModel 토큰 수 | 지원되는 각 리전: 4,000,000 | No | 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Anthropic Claude 3.5 Haiku에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다. |
Meta Llama 3.3 70B Instruct에 대한 분당 리전 간 모델 추론 요청 | 지원되는 각 리전: 800 | No | Meta Llama 3.3 70B Instruct에 대해 1분 내에 모델 추론을 위해 제출할 수 있는 리전 간 요청의 최대 수입니다. 할당량은 Converse ConverseStream, InvokeModel and의 합계를 고려합니다 InvokeModelWithResponseStream. |
Meta Llama 3.3 70B Instruct에 대한 분당 리전 간 모델 추론 토큰 | 지원되는 각 리전: 600,000 | No | Meta Llama 3.3 70B Instruct에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 리전 간 토큰의 최대 수입니다. 할당량은 Converse ConverseStream, InvokeModel and의 합계를 고려합니다 InvokeModelWithResponseStream. |
계정당 사용자 지정 모델 | 지원되는 각 리전: 100 | 예 |
계정의 최대 사용자 지정 모델 수입니다. |
지식 기반당 데이터 소스 | 지원되는 각 지역: 5개 | No | 지식 기반당 최대 데이터 소스 수입니다. |
DeleteAgent 초당 요청 수 | 지원되는 각 리전: 2 | No | 초당 최대 요청 수입니다 DeleteAgent API. |
DeleteAgentActionGroup 초당 요청 수 | 지원되는 각 리전: 2 | No | 초당 최대 요청 수입니다 DeleteAgentActionGroup API. |
DeleteAgentAlias 초당 요청 수 | 지원되는 각 리전: 2 | No | 초당 최대 요청 수입니다 DeleteAgentAlias API. |
DeleteAgentVersion 초당 요청 수 | 지원되는 각 리전: 2 | No | 초당 최대 요청 수입니다 DeleteAgentVersion API. |
DeleteDataSource 초당 요청 수 | 지원되는 각 리전: 2 | No | 초당 최대 요청 수입니다 DeleteDataSource API. |
DeleteFlow 초당 요청 수 | 지원되는 각 리전: 2 | No | 초당 최대 DeleteFlow 요청 수입니다. |
DeleteFlowAlias 초당 요청 수 | 지원되는 각 리전: 2 | No | 초당 최대 DeleteFlowAlias 요청 수입니다. |
DeleteFlowVersion 초당 요청 수 | 지원되는 각 리전: 2 | No | 초당 최대 DeleteFlowVersion 요청 수입니다. |
DeleteKnowledgeBase 초당 요청 수 | 지원되는 각 리전: 2 | No | 초당 최대 요청 수입니다 DeleteKnowledgeBase API. |
DeletePrompt 초당 요청 수 | 지원되는 각 리전: 2 | No | 초당 최대 DeletePrompt 요청 수입니다. |
DisassociateAgentKnowledgeBase 초당 요청 수 | 지원되는 각 리전: 4 | No | 초당 최대 요청 수입니다 DisassociateAgentKnowledgeBase API. |
에이전트당 활성화된 작업 그룹 | 지원되는 각 리전: 11 | 예 |
에이전트에서 활성화할 수 있는 최대 작업 그룹 수입니다. |
추론 프로파일당 엔드포인트 | 지원되는 각 지역: 5개 | No | 추론 프로파일의 최대 엔드포인트 수입니다. 엔드포인트는 모델에 대한 호출 요청이 전송되는 모델 및 리전에 의해 정의됩니다. |
주제별 예제 문구 | 지원되는 각 지역: 5개 | No | 주제당 포함할 수 있는 최대 주제 예제 수 |
수집 작업당 추가 또는 업데이트할 파일 | 지원되는 각 리전: 5,000,000 | No | 수집 작업당 수집할 수 있는 새 파일과 업데이트된 파일의 최대 수입니다. |
수집 작업당 삭제할 파일 | 지원되는 각 리전: 5,000,000 | No | 수집 작업당 삭제할 수 있는 최대 파일 수입니다. |
흐름당 흐름 별칭 | 지원되는 각 지역: 10개 | No | 최대 흐름 별칭 수입니다. |
흐름당 흐름 버전 | 지원되는 각 지역: 10개 | No | 최대 흐름 버전 수입니다. |
계정당 흐름 | 지원되는 각 리전: 100 | 예 |
계정당 최대 흐름 수입니다. |
GetAgent 초당 요청 수 | 지원되는 각 리전: 15 | No | 초당 최대 요청 수입니다 GetAgent API. |
GetAgentActionGroup 초당 요청 수 | 지원되는 각 지역: 20 | No | 초당 최대 요청 수입니다 GetAgentActionGroup API. |
GetAgentAlias 초당 요청 수 | 지원되는 각 지역: 10개 | No | 초당 최대 요청 수입니다 GetAgentAlias API. |
GetAgentKnowledgeBase 초당 요청 수 | 지원되는 각 리전: 15 | No | 초당 최대 요청 수입니다 GetAgentKnowledgeBase API. |
GetAgentVersion 초당 요청 수 | 지원되는 각 지역: 10개 | No | 초당 최대 요청 수입니다 GetAgentVersion API. |
GetDataSource 초당 요청 수 | 지원되는 각 지역: 10개 | No | 초당 최대 요청 수입니다 GetDataSource API. |
GetFlow 초당 요청 수 | 지원되는 각 지역: 10개 | No | 초당 최대 GetFlow 요청 수입니다. |
GetFlowAlias 초당 요청 수 | 지원되는 각 지역: 10개 | No | 초당 최대 GetFlowAlias 요청 수입니다. |
GetFlowVersion 초당 요청 수 | 지원되는 각 지역: 10개 | No | 초당 최대 GetFlowVersion 요청 수입니다. |
GetIngestionJob 초당 요청 수 | 지원되는 각 지역: 10개 | No | 초당 최대 요청 수입니다 GetIngestionJob API. |
GetKnowledgeBase 초당 요청 수 | 지원되는 각 지역: 10개 | No | 초당 최대 요청 수입니다 GetKnowledgeBase API. |
GetPrompt 초당 요청 수 | 지원되는 각 지역: 10개 | No | 초당 최대 GetPrompt 요청 수입니다. |
계정당 가드레일 | 지원되는 각 리전: 100 | No | 계정의 최대 가드레일 수 |
계정당 가져온 모델 | 지원되는 각 리전: 3 | 예 |
계정에서 가져온 최대 모델 수입니다. |
계정당 추론 프로필 | 지원되는 각 리전: 1,000 | 예 |
계정의 최대 추론 프로필 수입니다. |
수집 작업 파일 크기 | 지원되는 각 리전: 50 | No | 수집 작업에서 파일의 최대 크기(MB)입니다. |
수집 작업 크기 | 지원되는 각 리전: 100 | No | 수집 작업의 최대 크기(GB)입니다. |
흐름당 입력 노드 수 | 지원되는 각 리전: 1 | No | 흐름 입력 노드의 최대 수입니다. |
흐름당 반복자 노드 수 | 지원되는 각 리전: 1 | No | 최대 반복자 노드 수입니다. |
흐름당 지식 기반 노드 | 지원되는 각 지역: 10개 | No | 지식 기반 노드의 최대 수입니다. |
계정당 지식 기반 | 지원되는 각 리전: 100 | No | 계정당 최대 지식 기반 수입니다. |
흐름당 Lambda 함수 노드 | 지원되는 각 지역: 10개 | No | Lambda 함수 노드의 최대 수입니다. |
흐름당 Lex 노드 | 지원되는 각 지역: 5개 | No | 최대 Lex 노드 수입니다. |
ListAgentActionGroups 초당 요청 수 | 지원되는 각 지역: 10개 | No | 초당 최대 요청 수입니다 ListAgentActionGroups API. |
ListAgentAliases 초당 요청 수 | 지원되는 각 지역: 10개 | No | 초당 최대 요청 수입니다 ListAgentAliases API. |
ListAgentKnowledgeBases 초당 요청 수 | 지원되는 각 지역: 10개 | No | 초당 최대 요청 수입니다 ListAgentKnowledgeBases API. |
ListAgentVersions 초당 요청 수 | 지원되는 각 지역: 10개 | No | 초당 최대 요청 수입니다 ListAgentVersions API. |
ListAgents 초당 요청 수 | 지원되는 각 지역: 10개 | No | 초당 최대 요청 수입니다 ListAgents API. |
ListDataSources 초당 요청 수 | 지원되는 각 지역: 10개 | No | 초당 최대 요청 수입니다 ListDataSources API. |
ListFlowAliases 초당 요청 수 | 지원되는 각 지역: 10개 | No | 초당 최대 ListFlowAliases 요청 수입니다. |
ListFlowVersions 초당 요청 수 | 지원되는 각 지역: 10개 | No | 초당 최대 ListFlowVersions 요청 수입니다. |
ListFlows 초당 요청 수 | 지원되는 각 지역: 10개 | No | 초당 최대 ListFlows 요청 수입니다. |
ListIngestionJobs 초당 요청 수 | 지원되는 각 지역: 10개 | No | 초당 최대 요청 수입니다 ListIngestionJobs API. |
ListKnowledgeBases 초당 요청 수 | 지원되는 각 지역: 10개 | No | 초당 최대 요청 수입니다 ListKnowledgeBases API. |
ListPrompts 초당 요청 수 | 지원되는 각 지역: 10개 | No | 초당 최대 ListPrompts 요청 수입니다. |
증류 사용자 지정 작업에 대한 최대 입력 파일 크기 | 지원되는 각 리전: 2개기가바이트 | No | 증류 사용자 지정 작업에 대한 최대 입력 파일 크기입니다. |
증류 사용자 지정 작업의 최대 라인 길이 | 지원되는 각 리전: 16KB | No | 증류 사용자 지정 작업에 대한 입력 파일의 최대 줄 길이입니다. |
증류 사용자 지정 작업에 대한 최대 프롬프트 수 | 지원되는 각 리전: 15,000개 | No | 증류 사용자 지정 작업에 필요한 최대 프롬프트 수입니다. |
Amazon Nova Micro V1 증류 사용자 지정 작업에 대한 최대 학생 모델 미세 조정 컨텍스트 길이 | 지원되는 각 리전: 32,000개 | No | Amazon Nova Micro V1 증류 사용자 지정 작업에 대한 최대 학생 모델 미세 조정 컨텍스트 길이입니다. |
Amazon Nova V1 증류 사용자 지정 작업에 대한 최대 학생 모델 미세 조정 컨텍스트 길이 | 지원되는 각 리전: 32,000개 | No | Amazon Nova V1 증류 사용자 지정 작업에 대한 최대 학생 모델 미세 조정 컨텍스트 길이입니다. |
Amazon Olympus 1 lite V1 증류 사용자 지정 작업에 대한 최대 학생 모델 미세 조정 컨텍스트 길이 | 지원되는 각 리전: 32,000개 | No | Amazon Olympus 1 lite V1 증류 사용자 지정 작업에 대한 최대 학생 모델 미세 조정 컨텍스트 길이입니다. |
Amazon Olympus 마이크로 증류 사용자 지정 작업에 대한 최대 학생 모델 미세 조정 컨텍스트 길이 | 지원되는 각 리전: 32,000개 | No | Amazon Olympus 마이크로 V1 증류 사용자 지정 작업에 대한 최대 학생 모델 미세 조정 컨텍스트 길이입니다. |
Anthropic Claude 3 haiku 20240307 V1 증류 사용자 지정 작업에 대한 최대 학생 모델 미세 조정 컨텍스트 길이 | 지원되는 각 리전: 32,000개 | No | Anthropic Claude 3 haiku 20240307 V1 증류 사용자 지정 작업에 대한 최대 학생 모델 미세 조정 컨텍스트 길이입니다. |
Llama 3.1 70B Instruct V1 증류 사용자 지정 작업에 대한 최대 학생 모델 미세 조정 컨텍스트 길이 | 지원되는 각 리전: 16,000 | No | Llama 3.1 70B Instruct V1 증류 사용자 지정 작업에 대한 최대 학생 모델 미세 조정 컨텍스트 길이입니다. |
Llama 3.1 8B Instruct V1 증류 사용자 지정 작업에 대한 최대 학생 모델 미세 조정 컨텍스트 길이 | 지원되는 각 리전: 32,000개 | No | Llama 3.1 8B Instruct V1 증류 사용자 지정 작업에 대한 최대 학생 모델 미세 조정 컨텍스트 길이입니다. |
증류 사용자 지정 작업에 대한 최소 프롬프트 수 | 지원되는 각 리전: 100 | No | 증류 사용자 지정 작업에 필요한 최소 프롬프트 수입니다. |
Claude 3 Haiku에 대한 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 예 |
Claude 3 Haiku에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다. |
Claude 3 Opus에 대한 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 예 |
Claude 3 Opus에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다. |
Claude 3 Sonnet에 대한 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 예 |
Claude 3 Sonnet에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다. |
Claude 3.5 Haiku에 대한 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 예 |
Claude 3.5 Haiku에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다. |
Claude 3.5 Sonnet에 대한 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 예 |
Claude 3.5 Sonnet에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다. |
Claude 3.5 Sonnet v2에 대한 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 예 |
Claude 3.5 Sonnet v2에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다. |
Llama 3.1 405B Instruct에 대한 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 예 |
Llama 3.1 405B Instruct에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다. |
Llama 3.1 70B Instruct에 대한 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 예 |
Llama 3.1 70B Instruct에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다. |
Llama 3.1 8B Instruct에 대한 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 예 |
Llama 3.1 8B Instruct에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다. |
Llama 3.2 11B Instruct에 대한 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 예 |
Llama 3.2 11B Instruct에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다. |
Llama 3.2 1B Instruct에 대한 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 예 |
배치 추론 작업 Llama 3.2 1B Instruct의 모든 입력 파일에 대한 최소 레코드 수입니다. |
Llama 3.2 3B Instruct에 대한 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 예 |
Llama 3.2 3B Instruct에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다. |
Llama 3.2 90B Instruct에 대한 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 예 |
Llama 3.2 90B Instruct에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다. |
Mistral Large 2(24.07)에 대한 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 예 |
Mistral Large 2(24.07)에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다. |
Mistral Small에 대한 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 예 |
Mistral Small에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다. |
Nova Lite V1에 대한 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 예 |
Nova Lite V1에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다. |
Nova Micro V1에 대한 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 예 |
Nova Micro V1에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다. |
Nova Pro V1에 대한 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 예 |
Nova Pro V1에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다. |
Titan Multimodal Embeddings G1에 대한 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 예 |
Titan Multimodal Embeddings G1에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다. |
Titan Text Embeddings V2에 대한 배치 추론 작업당 최소 레코드 수 | 지원되는 각 리전: 100 | 예 |
Titan Text Embeddings V2에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다. |
기본 모델 간 모델 유닛 커밋 없음 프로비저닝된 처리량 | 지원되는 각 지역: 2 | 예 |
기본 모델의 커밋 없는 프로비저닝된 처리량에 배포할 수 있는 최대 모델 유닛 수 |
사용자 지정 모델 전반의 모델 유닛 커밋 없음 프로비저닝된 처리량 | 지원되는 각 지역: 2 | 예 |
사용자 지정 모델의 커밋 없는 프로비저닝된 처리량에 분산할 수 있는 최대 모델 유닛 수 |
AI21 Labs Jurassic-2 Mid에 대해 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
AI21 Labs Jurassic-2 Mid에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다. |
AI21 Labs Jurassic-2 Ultra에 대해 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
AI21 Labs Jurassic-2 Ultra에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다. |
Amazon Nova Lite용 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Amazon Nova Lite의 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다. |
Amazon Nova Micro용 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Amazon Nova Micro용 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다. |
Amazon Nova Pro에 대해 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Amazon Nova Pro의 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다. |
Amazon Titan Embeddings G1 - 텍스트에 대해 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Amazon Titan Embeddings G1 - 텍스트에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다. |
Amazon Titan Image Generator G1에 대해 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Amazon Titan Image Generator G1에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다. |
Amazon Titan Image Generator G2에 대해 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Amazon Titan Image Generator G2에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다. |
Amazon Titan Lite V1 4K에 대해 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Amazon Titan Text Lite V1 4K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다. |
Amazon Titan 멀티모달 임베딩 G1에 대해 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Amazon Titan Multimodal Embeddings G1에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다. |
Amazon Titan Text Embeddings V2에 대해 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Amazon Titan Text Embeddings V2에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다. |
Amazon Titan Text G1 - Express 8K에 대해 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Amazon Titan Text G1 - Express 8K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다. |
Amazon Titan Text Premier V1 32K에 대해 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Amazon Titan Text Premier V1 32K의 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다. |
Anthropic Claude 3 Haiku 200K에 대해 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Anthropic Claude 3 Haiku 200K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다. |
Anthropic Claude 3 Haiku 48K에 대해 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Anthropic Claude 3 Haiku 48K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다. |
Anthropic Claude 3 Sonnet 200K에 대해 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Anthropic Claude 3 Sonnet 200K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다. |
Anthropic Claude 3 Sonnet 28K에 대해 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Anthropic Claude 3 Sonnet 28K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다. |
Anthropic Claude 3.5 Haiku 16K에 대해 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Anthropic Claude 3.5 Haiku 16K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다. |
Anthropic Claude 3.5 Haiku 200K에 대해 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Anthropic Claude 3.5 Haiku 200K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다. |
Anthropic Claude 3.5 Haiku 64K에 대해 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Anthropic Claude 3.5 Haiku 64K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다. |
Anthropic Claude 3.5 Sonnet 18K에 대해 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Anthropic Claude 3.5 Sonnet 18K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다. |
Anthropic Claude 3.5 Sonnet 200K에 대해 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Anthropic Claude 3.5 Sonnet 200K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다. |
Anthropic Claude 3.5 Sonnet 51K에 대해 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Anthropic Claude 3.5 Sonnet 51K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다. |
Anthropic Claude 3.5 Sonnet V2 18K에 대해 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Anthropic Claude 3.5 Sonnet V2 18K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다. |
Anthropic Claude 3.5 Sonnet V2 200K에 대해 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Anthropic Claude 3.5 Sonnet V2 200K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다. |
Anthropic Claude 3.5 Sonnet V2 51K에 대해 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Anthropic Claude 3.5 Sonnet V2 51K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다. |
Anthropic Claude Instant V1 100K에 대해 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Anthropic Claude Instant V1 100K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다. |
Anthropic Claude V2 100K에 대해 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Anthropic Claude V2 100K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다. |
Anthropic Claude V2 18K에 대해 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Anthropic Claude V2 18K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다. |
Anthropic Claude V2.1 18K에 대해 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Anthropic Claude V2.1 18K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다. |
Anthropic Claude V2.1 200K에 대해 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Anthropic Claude V2.1 200k에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다. |
Cohere Command에 대해 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Cohere Command에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다. |
Cohere Command Light에 대해 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Cohere Command Light에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다. |
Cohere Command R에 대해 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Cohere Command R 128k에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다. |
Cohere Command R Plus에 대해 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Cohere Command R Plus 128k에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다. |
Cohere Embed English에 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Cohere Embed English에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다. |
Cohere Embed 다국어 프로비저닝 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Cohere Embed 다국어에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다. |
Meta Llama 2 13B에 대해 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Meta Llama 2 13B에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다. |
Meta Llama 2 70B에 대해 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Meta Llama 2 70B에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다. |
Meta Llama 2 Chat 13B에 대해 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Meta Llama 2 Chat 13B에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다. |
Meta Llama 2 Chat 70B에 대해 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Meta Llama 2 Chat 70B에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다. |
Meta Llama 3 70B Instruct에 대해 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Meta Llama 3 70B Instruct에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다. |
Meta Llama 3 8B Instruct에 대해 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Meta Llama 3 8B Instruct에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다. |
Meta Llama 3.1 70B Instruct에 대해 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Meta Llama 3.1 70B Instruct에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다. |
Meta Llama 3.1 8B Instruct에 대해 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Meta Llama 3.1 8B Instruct에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다. |
Mistral Large 2407에 대해 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Mistral Large 2407의 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다. |
Mistral Small에 대해 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Mistral Small에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다. |
Stability.ai Stable Diffusion XL 0.8에 대해 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Stability.ai Stable Diffusion XL 0.8에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수 |
Stability.ai Stable Diffusion XL 1.0에 대해 프로비저닝된 모델당 모델 단위 | 지원되는 각 리전: 0 | 예 |
Stability.ai Stable Diffusion XL 1.0에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다. |
동시 자동 모델 평가 작업 수 | 지원되는 각 지역: 20 | No | 현재 리전의이 계정에서 한 번에 지정할 수 있는 자동 모델 평가 작업의 최대 수입니다. |
인적 작업자를 사용하는 동시 모델 평가 작업 수 | 지원되는 각 지역: 10개 | No | 현재 리전의이 계정에서 한 번에 지정할 수 있는 인적 작업자를 사용하는 모델 평가 작업의 최대 수입니다. |
사용자 지정 지표 수 | 지원되는 각 지역: 10개 | No | 인적 작업자를 사용하는 모델 평가 작업에서 지정할 수 있는 사용자 지정 지표의 최대 수입니다. |
인적 기반 모델 평가 작업의 사용자 지정 프롬프트 데이터 세트 수 | 지원되는 각 리전: 1 | No | 현재 리전의이 계정에서 인적 기반 모델 평가 작업에서 지정할 수 있는 사용자 지정 프롬프트 데이터 세트의 최대 수입니다. |
작업당 데이터 세트 수 | 지원되는 각 지역: 5개 | No | 자동 모델 평가 작업에서 지정할 수 있는 최대 데이터 세트 수입니다. 여기에는 사용자 지정 프롬프트 데이터 세트와 기본 제공 프롬프트 데이터 세트가 모두 포함됩니다. |
평가 작업 수 | 지원되는 각 리전: 5,000개 | No | 현재 리전의이 계정에서 생성할 수 있는 최대 모델 평가 작업 수입니다. |
데이터 세트당 지표 수 | 지원되는 각 리전: 3 | No | 자동화된 모델 평가 작업에서 데이터 세트당 지정할 수 있는 최대 지표 수입니다. 여기에는 사용자 지정 지표와 기본 제공 지표가 모두 포함됩니다. |
인간 작업자를 사용하는 모델 평가 작업의 모델 수 | 지원되는 각 리전: 2 | No | 인간 작업자를 사용하는 모델 평가 작업에서 지정할 수 있는 최대 모델 수입니다. |
자동화된 모델 평가 작업의 모델 수 | 지원되는 각 리전: 1 | No | 자동 모델 평가 작업에서 지정할 수 있는 최대 모델 수입니다. |
사용자 지정 프롬프트 데이터 세트의 프롬프트 수 | 지원되는 각 리전: 1,000 | No | 사용자 지정 프롬프트 데이터 세트에 포함될 수 있는 최대 프롬프트 수입니다. |
온디맨드 ApplyGuardrail 콘텐츠 필터 정책 초당 텍스트 단위 | 지원되는 각 지역: 25 | 예 |
초당 콘텐츠 필터 정책에 대해 처리할 수 있는 최대 텍스트 단위 수 |
온디맨드 ApplyGuardrail 거부 주제 정책 초당 텍스트 단위 | 지원되는 각 지역: 25 | 예 |
거부된 주제 정책에 대해 초당 처리할 수 있는 최대 텍스트 단위 수 |
온디맨드 ApplyGuardrail 민감한 정보 필터 정책 텍스트 단위/초 | 지원되는 각 지역: 25 | 예 |
민감한 정보 필터 정책에 대해 초당 처리할 수 있는 최대 텍스트 단위 수 |
온디맨 ApplyGuardrail 드 Word 필터 정책 텍스트 단위/초 | 지원되는 각 지역: 25 | 예 |
Word 필터 정책에 대해 초당 처리할 수 있는 최대 텍스트 단위 수입니다. |
온디맨드 ApplyGuardrail 컨텍스트 접지 정책 텍스트 단위/초 |
us-east-1: 106 us-west-2: 106 지원되는 다른 각 리전: 53 |
예 |
초당 컨텍스트 접지 정책에 대해 처리할 수 있는 최대 텍스트 단위 수 |
초당 온디맨드 ApplyGuardrail 요청 수 | 지원되는 각 지역: 25 | 예 |
초당 허용되는 최대 호출 수 ApplyGuardrail API |
Amazon Nova Reel에 대한 온디맨드 InvokeModel 동시 요청 | 지원되는 각 지역: 10개 | No | Amazon Nova Reel에 대한 모델 추론을 위해 제출할 수 있는 최대 동시 요청 수입니다. 할당량은 Converse ConverseStream, InvokeModel and의 합계를 고려합니다 InvokeModelWithResponseStream. |
AI21 Labs Jamba 1.5 Large에 대한 분당 온디맨드 InvokeModel 요청 | 지원되는 각 리전: 100 | No | AI21 Labs Jamba 1.5 Large에 대해 1분 동안 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 Converse 및에 대한 요청의 합계를 고려합니다. InvokeModel |
AI21 Labs Jamba 1.5 Mini에 대한 분당 온디맨드 InvokeModel 요청 | 지원되는 각 리전: 100 | No | AI21 Labs Jamba 1.5 Mini에 대해 1분 동안 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 Converse 및에 대한 요청의 합계를 고려합니다. InvokeModel |
AI21 Labs Jamba Instruct에 대한 분당 온디맨드 InvokeModel 요청 | 지원되는 각 리전: 100 | No | AI21 Labs Jamba Instruct에 대해 1분 동안 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 Converse 및에 대한 요청의 합계를 고려합니다. InvokeModel |
AI21 Labs Jurassic-2 Mid에 대한 분당 온디맨드 InvokeModel 요청 | 지원되는 각 리전: 400 | No | 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 호출할 수 있는 최대 횟수입니다. 할당량은 AI21 Labs Jurassic-2 Mid에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다. |
AI21 Labs Jurassic-2 Ultra에 대한 분당 온디맨드 InvokeModel 요청 | 지원되는 각 리전: 100 | No | 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 호출할 수 있는 최대 횟수입니다. 할당량은 AI21 Labs Jurassic-2 Ultra에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다. |
Amazon Nova Canvas에 대한 분당 온디맨드 InvokeModel 요청 | 지원되는 각 리전: 100 | No | Amazon Nova Canvas에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 요청 수입니다. 할당량은 Converse ConverseStream, InvokeModel and의 합계를 고려합니다 InvokeModelWithResponseStream. |
Amazon Nova Lite에 대한 분당 온디맨드 InvokeModel 요청 | 지원되는 각 리전: 1,000 | No | Amazon Nova Lite에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 요청 수입니다. 할당량은 Converse ConverseStream, InvokeModel and의 합계를 고려합니다 InvokeModelWithResponseStream. |
Amazon Nova Micro에 대한 분당 온디맨드 InvokeModel 요청 | 지원되는 각 리전: 1,000 | No | Amazon Nova Micro에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 요청 수입니다. 할당량은 Converse ConverseStream, InvokeModel and의 합계를 고려합니다 InvokeModelWithResponseStream. |
Amazon Nova Pro에 대한 분당 온디맨드 InvokeModel 요청 | 지원되는 각 리전: 100 | No | Amazon Nova Pro에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 요청 수입니다. 할당량은 Converse ConverseStream, InvokeModel and의 합계를 고려합니다 InvokeModelWithResponseStream. |
Amazon Titan Image Generator G1에 대한 분당 온디맨드 InvokeModel 요청 | 지원되는 각 리전: 60개 | No | Amazon Titan Image Generator G1에 대해 1분 InvokeModel 에 호출할 수 있는 최대 횟수입니다. |
Amazon Titan Image Generator G1 V2에 대한 분당 온디맨드 InvokeModel 요청 | 지원되는 각 리전: 60개 | No | Amazon Titan Image Generator G V2에 대해 1분 InvokeModel 에 호출할 수 있는 최대 횟수입니다. |
Amazon Titan 멀티모달 임베딩 G1에 대한 분당 온디맨드 InvokeModel 요청 | 지원되는 각 리전: 2,000 | No | Amazon Titan Multimodal Embeddings G1에 대해 1분 InvokeModel 동안 호출할 수 있는 최대 횟수입니다. |
Amazon Titan 텍스트 임베딩에 대한 분당 온디맨드 InvokeModel 요청 | 지원되는 각 리전: 2,000 | No | Amazon Titan 텍스트 임베딩에 대해 1분 InvokeModel 에 호출할 수 있는 최대 횟수 |
Amazon Titan Text Embeddings V2에 대한 분당 온디맨드 InvokeModel 요청 | 지원되는 각 리전: 2,000 | No | Amazon Titan Text Embeddings V2에 대해 1분 InvokeModel 에 호출할 수 있는 최대 횟수 |
Amazon Titan Text Express에 대한 분당 온디맨드 InvokeModel 요청 | 지원되는 각 리전: 400 | No | 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 호출할 수 있는 최대 횟수입니다. 할당량은 Amazon Titan Text Express에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다. |
Amazon Titan Text Lite에 대한 분당 온디맨드 InvokeModel 요청 | 지원되는 각 리전: 800 | No | 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 호출할 수 있는 최대 횟수입니다. 할당량은 Amazon Titan Text Lite에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다. |
Amazon Titan Text Premier에 대한 분당 온디맨드 InvokeModel 요청 | 지원되는 각 리전: 100 | No | 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 호출할 수 있는 최대 횟수입니다. 할당량은 Amazon Titan Text Premier에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다. |
Anthropic Claude 3 Haiku에 대한 분당 온디맨드 InvokeModel 요청 |
us-east-1: 1,000 us-west-2: 1,000 ap-northeast-1: 200 ap-southeast-1: 200 지원되는 다른 각 리전: 400 |
No | 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 호출할 수 있는 최대 횟수입니다. 할당량은 Anthropic Claude 3 Haiku에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다. |
Anthropic Claude 3 Opus에 대한 분당 온디맨드 InvokeModel 요청 | 지원되는 각 리전: 50 | No | 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 호출할 수 있는 최대 횟수입니다. 할당량은 Anthropic Claude 3 Opus에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다. |
Anthropic Claude 3 Sonnet에 대한 분당 온디맨드 InvokeModel 요청 |
us-east-1: 500 us-west-2: 500 각각의 지원되는 다른 리전: 100 |
No | 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 호출할 수 있는 최대 횟수입니다. 할당량은 Anthropic Claude 3 Sonnet에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다. |
Anthropic Claude 3.5 Haiku에 대한 분당 온디맨드 InvokeModel 요청 |
us-east-1: 1,000 us-west-2: 1,000 지원되는 다른 각 리전: 400 |
No | 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 호출할 수 있는 최대 횟수입니다. 할당량은 Anthropic Claude 3.5 Haiku에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다. |
Anthropic Claude 3.5 Sonnet에 대한 분당 온디맨드 InvokeModel 요청 |
us-east-1: 50 us-east-2: 50 us-west-2: 250 ap-northeast-2: 50 ap-south-1: 50 ap-southeast-2: 50 각각의 지원되는 다른 리전: 20 |
No | Anthropic Claude 3.5 Sonnet에 대해 1분 동안 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 Converse ConverseStream, InvokeModel and의 합계를 고려합니다 InvokeModelWithResponseStream. |
Anthropic Claude 3.5 Sonnet V2에 대한 분당 온디맨드 InvokeModel 요청 |
us-west-2: 250 각각의 지원되는 다른 리전: 50회 |
No | Anthropic Claude 3.5 Sonnet V2에 대해 1분 동안 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 Converse ConverseStream, InvokeModel and의 합계를 고려합니다 InvokeModelWithResponseStream. |
Anthropic Claude Instant에 대한 분당 온디맨드 InvokeModel 요청 |
us-east-1: 1,000 us-west-2: 1,000 지원되는 다른 각 리전: 400 |
No | 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 호출할 수 있는 최대 횟수입니다. 할당량은 Anthropic Claude Instant에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다. |
Anthropic Claude V2에 대한 분당 온디맨드 InvokeModel 요청 |
us-east-1: 500 us-west-2: 500 각각의 지원되는 다른 리전: 100 |
No | 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 호출할 수 있는 최대 횟수입니다. 할당량은 Anthropic Claude V2에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다. |
Cohere 명령에 대한 분당 온디맨드 InvokeModel 요청 | 지원되는 각 리전: 400 | No | 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 호출할 수 있는 최대 횟수입니다. 할당량은 Cohere Command에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다. |
Cohere Command Light에 대한 분당 온디맨드 InvokeModel 요청 | 지원되는 각 리전: 800 | No | 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 호출할 수 있는 최대 횟수입니다. 할당량은 Cohere Command Light에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다. |
Cohere Command R에 대한 분당 온디맨드 InvokeModel 요청 | 지원되는 각 리전: 400 | No | 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 호출할 수 있는 최대 횟수입니다. 할당량은 Cohere Command R 128k에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다. |
Cohere Command R Plus에 대한 분당 온디맨드 InvokeModel 요청 | 지원되는 각 리전: 400 | No | 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 호출할 수 있는 최대 횟수입니다. 할당량은 Cohere Command R Plus 128k에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다. |
Cohere Embed English에 대한 분당 온디맨드 InvokeModel 요청 | 지원되는 각 리전: 2,000 | No | Cohere Embed English에 대해 1분 InvokeModel 동안 호출할 수 있는 최대 횟수입니다. |
Cohere Embed 다국어에 대한 분당 온디맨드 InvokeModel 요청 | 지원되는 각 리전: 2,000 | No | Cohere Embed 다국어에 대해 1분 InvokeModel 에 호출할 수 있는 최대 횟수입니다. |
Meta Llama 2 13B에 대한 분당 온디맨드 InvokeModel 요청 | 지원되는 각 리전: 800 | No | 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 호출할 수 있는 최대 횟수입니다. 할당량은 Meta Llama 2 13B에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다. |
Meta Llama 2 70B에 대한 분당 온디맨드 InvokeModel 요청 | 지원되는 각 리전: 400 | No | 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 호출할 수 있는 최대 횟수입니다. 할당량은 Meta Llama 2 70B에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다. |
Meta Llama 2 Chat 13B에 대한 분당 온디맨드 InvokeModel 요청 | 지원되는 각 리전: 800 | No | 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 호출할 수 있는 최대 횟수입니다. 할당량은 Meta Llama 2 Chat 13B에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다. |
Meta Llama 2 Chat 70B에 대한 분당 온디맨드 InvokeModel 요청 | 지원되는 각 리전: 400 | No | 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 호출할 수 있는 최대 횟수입니다. 할당량은 Meta Llama 2 Chat 70B에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다. |
Meta Llama 3 70B Instruct에 대한 분당 온디맨드 InvokeModel 요청 | 지원되는 각 리전: 400 | No | 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 호출할 수 있는 최대 횟수입니다. 할당량은 Meta Llama 3 70B Instruct에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다. |
Meta Llama 3 8B Instruct에 대한 분당 온디맨드 InvokeModel 요청 | 지원되는 각 리전: 800 | No | 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 호출할 수 있는 최대 횟수입니다. 할당량은 Meta Llama 3 8B Instruct에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다. |
Mistral 7B Instruct에 대한 분당 온디맨드 InvokeModel 요청 | 지원되는 각 리전: 800 | No | Mistral mistral-7b-instruct-v0에 대해 1분 InvokeModel 동안 호출할 수 있는 최대 횟수 |
Mistral AI Mistral Small에 대한 분당 온디맨드 InvokeModel 요청 | 지원되는 각 리전: 400 | No | Mistral AI Mistral Small에 대해 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 호출할 수 있는 최대 횟수 |
Mistral Large에 대한 분당 온디맨드 InvokeModel 요청 | 지원되는 각 리전: 400 | No | Mistral mistral-large-2402-v1에 대해 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 호출할 수 있는 최대 횟수 |
Mistral Mixtral 8x7b Instruct에 대한 분당 온디맨드 InvokeModel 요청 | 지원되는 각 리전: 400 | No | Mistral mixtral-8x7b-v0에 대해 1분 InvokeModel 동안 호출할 수 있는 최대 횟수 |
Stability.ai Stable Diffusion 3 Large에 대한 분당 온디맨드 InvokeModel 요청 | 지원되는 각 리전: 15 | No | Stability.ai Stable Diffusion 3 Large에 대해 1분 InvokeModel 에 호출할 수 있는 최대 횟수입니다. |
Stability.ai Stable Diffusion 3 Medium에 대한 분당 온디맨드 InvokeModel 요청 | 지원되는 각 리전: 60개 | No | Stability.ai Stable Diffusion 3 Medium에 대해 1분 InvokeModel 에 호출할 수 있는 최대 횟수 |
Stability.ai Stable Diffusion 3.5 Large에 대한 분당 온디맨드 InvokeModel 요청 | 지원되는 각 리전: 15 | No | 할당량은 InvokeModelStability.ai Stable Diffusion 3.5 Large에 ConverseStream 대한 InvokeModelWithResponseStream요청, Converse 및 요청의 합계를 고려합니다. |
Stability.ai Stable Diffusion XL 0.8에 대한 분당 온디맨드 InvokeModel 요청 | 지원되는 각 리전: 60개 | No | Stability.ai Stable Diffusion XL 0.8에 대해 1분 InvokeModel 동안 호출할 수 있는 최대 횟수 |
Stability.ai Stable Diffusion XL 1.0에 대한 분당 온디맨드 InvokeModel 요청 | 지원되는 각 리전: 60개 | No | Stability.ai Stable Diffusion XL 1.0에 대해 1분 InvokeModel 에 호출할 수 있는 최대 횟수 |
Stability.ai Stable Image Core에 대한 분당 온디맨드 InvokeModel 요청 | 지원되는 각 리전: 90 | No | Stability.ai Stable Image Core에 대해 1분 InvokeModel 에 호출할 수 있는 최대 횟수입니다. |
Stability.ai Stable Image Ultra에 대한 분당 온디맨드 InvokeModel 요청 | 지원되는 각 지역: 10개 | No | Stability.ai Stable Image Ultra에 대해 1분 InvokeModel 에 호출할 수 있는 최대 횟수입니다. |
AI21 Labs Jamba 1.5 Large의 분당 온디맨드 InvokeModel 토큰 | 지원되는 각 지역: 300,000 | No | AI21 Labs Jamba 1.5 Large에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 Converse 및에 대한 토큰의 합계를 고려합니다 InvokeModel. |
AI21 Labs Jamba 1.5 Mini의 분당 온디맨드 InvokeModel 토큰 | 지원되는 각 지역: 300,000 | No | AI21 Labs Jamba 1.5 Mini에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 Converse 및에 대한 토큰의 합계를 고려합니다 InvokeModel. |
AI21 Labs Jamba Instruct의 분당 온디맨드 InvokeModel 토큰 | 지원되는 각 지역: 300,000 | No | AI21 Labs Jamba Instruct에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 Converse 및에 대한 토큰의 합계를 고려합니다. InvokeModel |
AI21 Labs Jurassic-2 Mid의 분당 온디맨드 InvokeModel 토큰 | 지원되는 각 지역: 300,000 | No | AI21 Labs Jurassic-2 Mid에 대해 1분 InvokeModel 에 제공할 수 있는 최대 토큰 수입니다. |
AI21 Labs Jurassic-2 Ultra의 분당 온디맨드 InvokeModel 토큰 | 지원되는 각 지역: 300,000 | No | AI21 Labs Jurassic-2 Ultra에 대해 1분 InvokeModel 에 제공할 수 있는 최대 토큰 수입니다. |
Amazon Nova Lite의 분당 온디맨드 InvokeModel 토큰 | 지원되는 각 리전: 2,000,000 | No | Amazon Nova Lite에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 Converse ConverseStream, InvokeModel and의 합계를 고려합니다 InvokeModelWithResponseStream. |
Amazon Nova Micro의 분당 온디맨드 InvokeModel 토큰 수 | 지원되는 각 리전: 2,000,000 | No | Amazon Nova Micro에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 Converse ConverseStream, InvokeModel and의 합계를 고려합니다 InvokeModelWithResponseStream. |
Amazon Nova Pro의 분당 온디맨드 InvokeModel 토큰 수 | 지원되는 각 리전: 400,000 | No | Amazon Nova Pro에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 Converse ConverseStream, InvokeModel and의 합계를 고려합니다 InvokeModelWithResponseStream. |
Amazon Titan Image Generator G1의 분당 온디맨드 InvokeModel 토큰 | 지원되는 각 리전: 2,000 | No | Amazon Titan Image Generator G1에 대해 1분 InvokeModel 에 제공할 수 있는 최대 토큰 수입니다. |
Amazon Titan Image Generator G1 V2의 분당 온디맨드 InvokeModel 토큰 | 지원되는 각 리전: 2,000 | No | Amazon Titan Image Generator G1 V2에 대해 1분 InvokeModel 에 제공할 수 있는 최대 토큰 수입니다. |
Amazon Titan 멀티모달 임베딩 G1에 대한 분당 온디맨드 InvokeModel 토큰 | 지원되는 각 지역: 300,000 | No | Amazon Titan Multimodal Embeddings G1에 대해 1분 InvokeModel 에 제공할 수 있는 최대 토큰 수입니다. |
Amazon Titan 텍스트 임베딩에 대한 분당 온디맨드 InvokeModel 토큰 | 지원되는 각 지역: 300,000 | No | Amazon Titan 텍스트 임베딩에 대해 1분 InvokeModel 에 제공할 수 있는 최대 토큰 수입니다. |
Amazon Titan Text Embeddings V2에 대한 분당 온디맨드 InvokeModel 토큰 | 지원되는 각 지역: 300,000 | No | Amazon Titan Text Embeddings V2에 대해 1분 InvokeModel 에 제공할 수 있는 최대 토큰 수입니다. |
Amazon Titan Text Express의 분당 온디맨드 InvokeModel 토큰 | 지원되는 각 지역: 300,000 | No | 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Amazon Titan Text Express에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다. |
Amazon Titan Text Lite의 분당 온디맨드 InvokeModel 토큰 | 지원되는 각 지역: 300,000 | No | 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Amazon Titan Text Lite에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다. |
Amazon Titan Text Premier의 분당 온디맨드 InvokeModel 토큰 | 지원되는 각 지역: 300,000 | No | 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Amazon Titan Text Premier에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다. |
Anthropic Claude 3 Haiku의 분당 온디맨드 InvokeModel 토큰 수 |
us-east-1: 2,000,000 us-west-2: 2,000,000 ap-northeast-1: 200,000 ap-southeast-1: 200,000 지원되는 다른 각 리전: 300,000개 |
No | 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Anthropic Claude 3 Haiku에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다. |
Anthropic Claude 3 Opus에 대한 분당 온디맨드 InvokeModel 토큰 | 지원되는 각 리전: 400,000 | No | 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Anthropic Claude 3 Opus에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다. |
Anthropic Claude 3 Sonnet의 분당 온디맨드 InvokeModel 토큰 |
us-east-1: 1,000,000 us-west-2: 1,000,000 지원되는 다른 각 리전: 200,000개 |
No | 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Anthropic Claude 3 Sonnet에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다. |
Anthropic Claude 3.5 Haiku에 대한 분당 온디맨드 InvokeModel 토큰 |
us-east-1: 2,000,000 us-west-2: 2,000,000 지원되는 다른 각 리전: 300,000개 |
No | 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Anthropic Claude 3.5 Haiku에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다. |
Anthropic Claude 3.5 Sonnet의 분당 온디맨드 InvokeModel 토큰 |
us-east-1: 400,000 us-east-2: 400,000 us-west-2: 2,000,000 ap-northeast-2: 400,000 ap-south-1: 400,000 ap-southeast-2: 400,000 지원되는 다른 각 리전: 200,000개 |
No | Anthropic Claude 3.5 Sonnet에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 Converse ConverseStream, InvokeModel and의 합계를 고려합니다 InvokeModelWithResponseStream. |
Anthropic Claude 3.5 Sonnet V2의 분당 온디맨드 InvokeModel 토큰 수 |
us-west-2: 2,000,000 지원되는 다른 각 리전: 400,000개 |
No | Anthropic Claude 3.5 Sonnet V2에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 Converse ConverseStream, InvokeModel and의 합계를 고려합니다 InvokeModelWithResponseStream. |
Anthropic Claude Instant의 분당 온디맨드 InvokeModel 토큰 |
us-east-1: 1,000,000 us-west-2: 1,000,000 지원되는 다른 각 리전: 300,000개 |
No | 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Anthropic Claude Instant에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다. |
Anthropic Claude V2의 분당 온디맨드 InvokeModel 토큰 |
us-east-1: 500,000 us-west-2: 500,000 지원되는 다른 각 리전: 200,000개 |
No | 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Anthropic Claude V2에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다. |
Cohere Command에 대한 분당 온디맨드 InvokeModel 토큰 | 지원되는 각 지역: 300,000 | No | 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Cohere Command에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다. |
Cohere Command Light의 분당 온디맨드 InvokeModel 토큰 수 | 지원되는 각 지역: 300,000 | No | Cohere Command Light에 대해 1분 InvokeModel 동안 제공할 수 있는 최대 토큰 수입니다. |
Cohere Command R에 대한 분당 온디맨드 InvokeModel 토큰 | 지원되는 각 지역: 300,000 | No | 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Cohere Command R 128k에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다. |
Cohere Command R Plus의 분당 온디맨드 InvokeModel 토큰 | 지원되는 각 지역: 300,000 | No | 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Cohere Command R Plus 128k에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다. |
Cohere 임베드 영어의 분당 온디맨드 InvokeModel 토큰 | 지원되는 각 지역: 300,000 | No | Cohere Embed English에 대해 1분 InvokeModel 동안 제공할 수 있는 최대 토큰 수입니다. |
Cohere Embed 다국어에 대한 분당 온디맨드 InvokeModel 토큰 | 지원되는 각 지역: 300,000 | No | Cohere Embed 다국어에 대해 1분 InvokeModel 동안 제공할 수 있는 최대 토큰 수입니다. |
Meta Llama 2 13B에 대한 분당 온디맨드 InvokeModel 토큰 | 지원되는 각 지역: 300,000 | No | 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Meta Llama 2 13B에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다. |
Meta Llama 2 70B에 대한 분당 온디맨드 InvokeModel 토큰 | 지원되는 각 지역: 300,000 | No | 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Meta Llama 2 70B에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다. |
Meta Llama 2 Chat 13B의 분당 온디맨드 InvokeModel 토큰 수 | 지원되는 각 지역: 300,000 | No | 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Meta Llama 2 Chat 13B에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다. |
Meta Llama 2 Chat 70B의 분당 온디맨드 InvokeModel 토큰 수 | 지원되는 각 지역: 300,000 | No | 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Meta Llama 2 Chat 70B에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다. |
Meta Llama 3 70B Instruct에 대한 분당 온디맨드 InvokeModel 토큰 | 지원되는 각 지역: 300,000 | No | 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Meta Llama 3 70B Instruct에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다. |
Meta Llama 3 8B Instruct에 대한 분당 온디맨드 InvokeModel 토큰 | 지원되는 각 지역: 300,000 | No | 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Meta Llama 3 8B Instruct에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다. |
Mistral AI Mistral 7B Instruct에 대한 분당 온디맨드 InvokeModel 토큰 | 지원되는 각 지역: 300,000 | No | 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Mistral AI Mistral 7B Instruct에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다. |
Mistral AI Mistral Large의 분당 온디맨드 InvokeModel 토큰 | 지원되는 각 지역: 300,000 | No | 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Mistral AI Mistral Large에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다. |
Mistral AI Mistral Small의 분당 온디맨드 InvokeModel 토큰 | 지원되는 각 지역: 300,000 | No | 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Mistral AI Mistral Small에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다. |
Mistral AI Mixtral 8X7BB Instruct에 대한 분당 온디맨드 InvokeModel 토큰 | 지원되는 각 지역: 300,000 | No | 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Mistral mixtral-8x7b-instruct-v0에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다. |
Anthropic Claude 3.5 Haiku에 대한 분당 온디맨드 지연 시간 최적화 InvokeModel 요청 | 지원되는 각 리전: 100 | No | 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 호출할 수 있는 최대 횟수입니다. 지연 시간 최적화가 구성된 경우 할당량은 Anthropic Claude 3.5 Haiku에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다. |
Anthropic Claude 3.5 Haiku의 분당 온디맨드 지연 시간 최적화 InvokeModel 토큰 | 각각 지원되는 리전: 500,000 | No | 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 통해 제공할 수 있는 최대 토큰 수입니다. 지연 시간 최적화가 구성된 경우 할당량은 Anthropic Claude 3.5 Haiku에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다. |
Meta Llama 3.1 405B Instruct에 대한 분당 온디맨드 지연 시간 최적화 모델 추론 요청 | 지원되는 각 리전: 100 | No | 지연 시간 최적화가 구성된 경우 Meta Llama 3.1 405B Instruct에 대해 1분 내에 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및에 대한 요청의 합계를 고려합니다 ConverseStream. |
Meta Llama 3.1 70B Instruct에 대한 분당 온디맨드 지연 시간 최적화 모델 추론 요청 | 지원되는 각 리전: 100 | No | 지연 시간 최적화가 구성된 경우 Meta Llama 3.1 70B Instruct에 대해 1분 내에 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및에 대한 요청의 합계를 고려합니다 ConverseStream. |
Meta Llama 3.1 405B Instruct에 대한 분당 온디맨드 지연 시간 최적화 모델 추론 토큰 | 지원되는 각 리전: 40,000 | No | 지연 시간 최적화가 구성된 경우 Meta Llama 3.1 405B Instruct에 대해 1분 내에 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및에 대한 토큰의 합계를 고려합니다 ConverseStream. |
Meta Llama 3.1 70b Instruct에 대한 분당 온디맨드 지연 시간 최적화 모델 추론 토큰 | 지원되는 각 리전: 40,000 | No | 지연 시간 최적화가 구성된 경우 Meta Llama 3.1 70b Instruct에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및에 대한 토큰의 합계를 고려합니다 ConverseStream. |
Meta Llama 3.1 405B Instruct에 대한 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 200 | No | Meta Llama 3.1 405B Instruct에 대해 1분 동안 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및에 대한 요청의 합계를 고려합니다 ConverseStream. |
Meta Llama 3.1 70B Instruct에 대한 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 400 | No | Meta Llama 3.1 70B Instruct에 대해 1분 동안 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및에 대한 요청의 합계를 고려합니다 ConverseStream. |
Meta Llama 3.1 8B Instruct에 대한 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 800 | No | Meta Llama 3.1 8B Instruct에 대해 1분 동안 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및에 대한 요청의 합계를 고려합니다 ConverseStream. |
Meta Llama 3.2 11B Instruct에 대한 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 400 | No | Meta Llama 3.2 11B Instruct에 대해 1분 동안 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및에 대한 요청의 합계를 고려합니다 ConverseStream. |
Meta Llama 3.2 1B Instruct에 대한 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 800 | No | Meta Llama 3.2 1B Instruct에 대해 1분 동안 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및에 대한 요청의 합계를 고려합니다 ConverseStream. |
Meta Llama 3.2 3B Instruct에 대한 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 800 | No | Meta Llama 3.2 3B Instruct에 대해 1분 동안 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및에 대한 요청의 합계를 고려합니다 ConverseStream. |
Meta Llama 3.2 90B Instruct에 대한 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 400 | No | Meta Llama 3.2 90B Instruct에 대해 1분 동안 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및에 대한 요청의 합계를 고려합니다 ConverseStream. |
Meta Llama 3.3 70B Instruct에 대한 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 400 | No | Meta Llama 3.3 70B Instruct에 대해 1분 내에 모델 추론을 위해 제출할 수 있는 온디맨드 요청의 최대 수입니다. 할당량은 Converse ConverseStream, InvokeModel and의 합계를 고려합니다 InvokeModelWithResponseStream. |
Mistral Large 2407에 대한 분당 온디맨드 모델 추론 요청 | 지원되는 각 리전: 400 | No | Mistral Large 2407에 대해 1분 내에 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및에 대한 요청의 합계를 고려합니다. ConverseStream |
Meta Llama 3.1 8B Instruct에 대한 분당 온디맨드 모델 추론 토큰 | 지원되는 각 지역: 300,000 | No | Meta Llama 3.1 8B Instruct에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및에 대한 토큰의 합계를 고려합니다 ConverseStream. |
Meta Llama 3.2 11B Instruct에 대한 분당 온디맨드 모델 추론 토큰 | 지원되는 각 지역: 300,000 | No | Meta Llama 3.2 11B Instruct에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및에 대한 토큰의 합계를 고려합니다 ConverseStream. |
Meta Llama 3.2 1B Instruct에 대한 분당 온디맨드 모델 추론 토큰 | 지원되는 각 지역: 300,000 | No | Meta Llama 3.2 1B Instruct에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및에 대한 토큰의 합계를 고려합니다 ConverseStream. |
Meta Llama 3.2 3B Instruct에 대한 분당 온디맨드 모델 추론 토큰 | 지원되는 각 지역: 300,000 | No | Meta Llama 3.2 3B Instruct에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및에 대한 토큰의 합계를 고려합니다 ConverseStream. |
Meta Llama 3.2 90B Instruct에 대한 분당 온디맨드 모델 추론 토큰 | 지원되는 각 지역: 300,000 | No | Meta Llama 3.2 90B Instruct에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및에 대한 토큰의 합계를 고려합니다 ConverseStream. |
Meta Llama 3.3 70B Instruct에 대한 분당 온디맨드 모델 추론 토큰 | 지원되는 각 지역: 300,000 | No | Meta Llama 3.3 70B Instruct에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 토큰의 최대 수입니다. 할당량은 Converse ConverseStream, InvokeModel and의 합계를 고려합니다 InvokeModelWithResponseStream. |
Mistral Large 2407에 대한 분당 온디맨드 모델 추론 토큰 | 지원되는 각 지역: 300,000 | No | Mistral Large 2407에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및에 대한 토큰의 합계를 고려합니다. ConverseStream |
Meta Llama 3.1 405B Instruct에 대한 분당 온디맨드 모델 추론 토큰 | 지원되는 각 리전: 400,000 | No | Meta Llama 3.1 405B Instruct에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및에 대한 토큰의 합계를 고려합니다 ConverseStream. |
Meta Llama 3.1 70B Instruct에 대한 분당 온디맨드 모델 추론 토큰 | 지원되는 각 지역: 300,000 | No | Meta Llama 3.1 70B Instruct에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및에 대한 토큰의 합계를 고려합니다 ConverseStream. |
흐름당 출력 노드 수 | 지원되는 각 지역: 10개 | No | 최대 흐름 출력 노드 수입니다. |
함수당 파라미터 | 지원되는 각 리전: 5 | 예 |
작업 그룹 함수에 포함할 수 있는 최대 파라미터 수입니다. |
PrepareAgent 초당 요청 수 | 지원되는 각 리전: 2 | No | 초당 최대 요청 수입니다 PrepareAgent API. |
PrepareFlow 초당 요청 수 | 지원되는 각 리전: 2 | No | 초당 최대 PrepareFlow 요청 수입니다. |
흐름당 프롬프트 노드 수 | 지원되는 각 리전: 10 | 예 |
최대 프롬프트 노드 수입니다. |
계정당 프롬프트 | 지원되는 각 지역: 50 | 예 |
최대 프롬프트 수입니다. |
배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다. |
Claude 3 Haiku에 대한 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Claude 3 Haiku에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다. |
Claude 3 Opus에 대한 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Claude 3 Opus에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다. |
Claude 3 Sonnet에 대한 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Claude 3 Sonnet에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다. |
Claude 3.5 Haiku에 대한 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Claude 3.5 Haiku에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다. |
Claude 3.5 Sonnet에 대한 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Claude 3.5 Sonnet에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다. |
Claude 3.5 Sonnet v2에 대한 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Claude 3.5 Sonnet v2에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다. |
Llama 3.1 405B Instruct에 대한 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Llama 3.1 405B Instruct에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다. |
Llama 3.1 70B Instruct에 대한 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Llama 3.1 70B Instruct에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다. |
Llama 3.1 8B Instruct에 대한 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Llama 3.1 8B Instruct에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다. |
Llama 3.2 11B Instruct에 대한 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Llama 3.2 11B Instruct에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다. |
Llama 3.2 1B Instruct에 대한 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
배치 추론 작업 Llama 3.2 1B Instruct의 모든 입력 파일에 대한 최대 레코드 수입니다. |
Llama 3.2 3B Instruct에 대한 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Llama 3.2 3B Instruct에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다. |
Llama 3.2 90B Instruct에 대한 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Llama 3.2 90B Instruct에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다. |
Mistral Large 2에 대한 배치 추론 작업당 레코드 수(24.07) | 지원되는 각 리전: 50,000 | 예 |
Mistral Large 2(24.07)에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다. |
Mistral Small에 대한 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Mistral Small에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다. |
Nova Lite V1에 대한 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Nova Lite V1에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다. |
Nova Micro V1에 대한 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Nova Micro V1에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다. |
Nova Pro V1에 대한 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Nova Pro V1에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다. |
Titan Multimodal Embeddings G1에 대한 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Titan Multimodal Embeddings G1에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다. |
Titan Text Embeddings V2에 대한 배치 추론 작업당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Titan Text Embeddings V2에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다. |
배치 추론 작업당 입력 파일당 레코드 수 | 지원되는 각 리전: 50,000 | 예 |
배치 추론 작업의 입력 파일에 있는 최대 레코드 수입니다. |
Claude 3 Haiku에 대한 배치 추론 작업당 입력 파일당 레코드 수 | 지원되는 각 리전: 50,000 | 예 |
Claude 3 Haiku의 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
Claude 3 Opus에 대한 배치 추론 작업당 입력 파일당 레코드 | 지원되는 각 리전: 50,000 | 예 |
Claude 3 Opus의 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
Claude 3 Sonnet에 대한 배치 추론 작업당 입력 파일당 레코드 수 | 지원되는 각 리전: 50,000 | 예 |
Claude 3 Sonnet의 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
Claude 3.5 Haiku에 대한 배치 추론 작업당 입력 파일당 레코드 수 | 지원되는 각 리전: 50,000 | 예 |
Claude 3.5 Haiku의 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
Claude 3.5 Sonnet에 대한 배치 추론 작업당 입력 파일당 레코드 수 | 지원되는 각 리전: 50,000 | 예 |
Claude 3.5 Sonnet의 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
Claude 3.5 Sonnet v2에 대한 배치 추론 작업당 입력 파일당 레코드 수 | 지원되는 각 리전: 50,000 | 예 |
Claude 3.5 Sonnet v2의 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
Llama 3.1 405B Instruct에 대한 배치 추론 작업당 입력 파일당 레코드 수 | 지원되는 각 리전: 50,000 | 예 |
Llama 3.1 405B Instruct의 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
Llama 3.1 70B Instruct에 대한 배치 추론 작업당 입력 파일당 레코드 수 | 지원되는 각 리전: 50,000 | 예 |
Llama 3.1 70B Instruct의 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
Llama 3.1 8B Instruct에 대한 배치 추론 작업당 입력 파일당 레코드 수 | 지원되는 각 리전: 50,000 | 예 |
Llama 3.1 8B Instruct의 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
Llama 3.2 11B Instruct에 대한 배치 추론 작업당 입력 파일당 레코드 수 | 지원되는 각 리전: 50,000 | 예 |
Llama 3.2 11B Instruct의 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
Llama 3.2 1B Instruct에 대한 배치 추론 작업당 입력 파일당 레코드 수 | 지원되는 각 리전: 50,000 | 예 |
배치 추론 작업 Llama 3.2 1B Instruct의 입력 파일에 있는 최대 레코드 수입니다. |
Llama 3.2 3B Instruct에 대한 배치 추론 작업당 입력 파일당 레코드 수 | 지원되는 각 리전: 50,000 | 예 |
Llama 3.2 3B Instruct의 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
Llama 3.2 90B Instruct에 대한 배치 추론 작업당 입력 파일당 레코드 수 | 지원되는 각 리전: 50,000 | 예 |
Llama 3.2 90B Instruct의 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
Mistral Large 2(24.07)에 대한 배치 추론 작업당 입력 파일당 레코드 수 | 지원되는 각 리전: 50,000 | 예 |
Mistral Large 2(24.07)의 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
Mistral Small에 대한 배치 추론 작업당 입력 파일당 레코드 수 | 지원되는 각 리전: 50,000 | 예 |
Mistral Small의 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
Nova Lite V1에 대한 배치 추론 작업당 입력 파일당 레코드 수 | 지원되는 각 리전: 50,000 | 예 |
Nova Lite V1의 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
Nova Micro V1에 대한 배치 추론 작업당 입력 파일당 레코드 수 | 지원되는 각 리전: 50,000 | 예 |
Nova Micro V1의 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
Nova Pro V1에 대한 배치 추론 작업당 입력 파일당 레코드 수 | 지원되는 각 리전: 50,000 | 예 |
Nova Pro V1의 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
Titan Multimodal Embeddings G1에 대한 배치 추론 작업당 입력 파일당 레코드 수 | 지원되는 각 리전: 50,000 | 예 |
Titan Multimodal Embeddings G1에 대한 배치 추론 작업의 입력 파일에 있는 최대 레코드 수입니다. |
Titan Text Embeddings V2에 대한 배치 추론 작업당 입력 파일당 레코드 수 | 지원되는 각 리전: 50,000 | 예 |
Titan Text Embeddings V2의 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다. |
민감한 정보 필터의 정규식 엔터티 | 지원되는 각 지역: 10개 | No | 민감한 정보 정책에 포함할 수 있는 가드레일 필터 정규식의 최대 수 |
정규식 문자 길이 | 지원되는 각 리전: 500개 | No | 가드레일 필터 정규식의 최대 문자 길이 |
초당 요청 검색 | 지원되는 각 지역: 5개 | No | 초당 최대 검색 API 요청 수입니다. |
RetrieveAndGenerate 초당 요청 수 | 지원되는 각 지역: 5개 | No | 초당 최대 요청 수입니다 RetrieveAndGenerate API. |
흐름당 S3 검색 노드 수 | 지원되는 각 지역: 10개 | No | 최대 S3 검색 노드 수입니다. |
흐름당 S3 스토리지 노드 수 | 지원되는 각 지역: 10개 | No | S3 스토리지 노드의 최대 수입니다. |
예약된 사용자 지정 작업 | 지원되는 각 리전: 2 | No | 예약된 사용자 지정 작업의 최대 수입니다. |
프롬프트 크기 | 지원되는 각 리전: 4 | No | 개별 프롬프트의 최대 크기(KB)는 사용자 지정 프롬프트 데이터 세트입니다. |
StartIngestionJob 초당 요청 수 | 지원되는 각 리전: 0.1 | No | 초당 최대 요청 수입니다 StartIngestionJob API. |
기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 | 지원되는 각 리전: 20개 | 예 |
기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다. |
Claude 3 Haiku용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 | 지원되는 각 리전: 20개 | 예 |
Claude 3 Haiku의 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다. |
Claude 3 Opus용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 | 지원되는 각 리전: 20개 | 예 |
Claude 3 Opus의 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 최대 수입니다. |
Claude 3 Sonnet용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 | 지원되는 각 리전: 20개 | 예 |
Claude 3 Sonnet의 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다. |
Claude 3.5 Haiku용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 | 지원되는 각 리전: 20개 | 예 |
Claude 3.5 Haiku용 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다. |
Claude 3.5 Sonnet용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 | 지원되는 각 리전: 20개 | 예 |
Claude 3.5 Sonnet의 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다. |
Claude 3.5 Sonnet v2용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 | 지원되는 각 리전: 20개 | 예 |
Claude 3.5 Sonnet v2의 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다. |
Llama 3.1 405B Instruct용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 | 지원되는 각 리전: 20개 | 예 |
Llama 3.1 405B Instruct의 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다. |
Llama 3.1 70B Instruct용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 | 지원되는 각 리전: 20개 | 예 |
Llama 3.1 70B Instruct의 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다. |
Llama 3.1 8B Instruct용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 | 지원되는 각 리전: 20개 | 예 |
Llama 3.1 8B Instruct의 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다. |
Llama 3.2 11B Instruct용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 | 지원되는 각 리전: 20개 | 예 |
Llama 3.2 11B Instruct의 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다. |
Llama 3.2 1B Instruct용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 | 지원되는 각 리전: 20개 | 예 |
Llama 3.2 1B Instruct의 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다. |
Llama 3.2 3B Instruct용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 | 지원되는 각 리전: 20개 | 예 |
Llama 3.2 3B Instruct의 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다. |
Llama 3.2 90B Instruct용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 | 지원되는 각 리전: 20개 | 예 |
Llama 3.2 90B Instruct용 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다. |
Mistral Large 2(24.07)용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 | 지원되는 각 리전: 20개 | 예 |
Mistral Large 2(24.07)용 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다. |
Mistral Small용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 | 지원되는 각 리전: 20개 | 예 |
Mistral Small용 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다. |
Nova Lite V1의 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 | 지원되는 각 리전: 20개 | 예 |
Nova Lite V1의 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다. |
Nova Micro V1용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 | 지원되는 각 리전: 20개 | 예 |
Nova Micro V1용 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다. |
Nova Pro V1용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 | 지원되는 각 리전: 20개 | 예 |
Nova Pro V1의 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다. |
Titan Multimodal Embeddings G1용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 | 지원되는 각 리전: 20개 | 예 |
Titan Multimodal Embeddings G1의 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다. |
Titan Text Embeddings V2용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 | 지원되는 각 리전: 20개 | 예 |
Titan Text Embeddings V2의 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다. |
사용자 지정 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 | 지원되는 각 리전: 3 | 예 |
사용자 지정 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수 |
Claude 3 Haiku용 사용자 지정 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 | 지원되는 각 리전: 3 | 예 |
Claude 3 Haiku용 사용자 지정 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다. |
Claude 3 Opus에 대한 사용자 지정 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 | 지원되는 각 리전: 3 | 예 |
Claude 3 Opus에 대한 사용자 지정 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다. |
Claude 3 Sonnet용 사용자 지정 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 | 지원되는 각 리전: 3 | 예 |
Claude 3 Sonnet용 사용자 지정 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다. |
Claude 3.5 Haiku용 사용자 지정 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 | 지원되는 각 리전: 3 | 예 |
Claude 3.5 Haiku용 사용자 지정 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다. |
Claude 3.5 Sonnet용 사용자 지정 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 | 지원되는 각 리전: 3 | 예 |
Claude 3.5 Sonnet용 사용자 지정 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다. |
Claude 3.5 Sonnet v2에 대한 사용자 지정 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 | 지원되는 각 리전: 3 | 예 |
Claude 3.5 Sonnet v2에 대한 사용자 지정 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다. |
Llama 3.1 405B Instruct용 사용자 지정 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 | 지원되는 각 리전: 3 | 예 |
Llama 3.1 405B Instruct용 사용자 지정 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다. |
Llama 3.1 70B Instruct용 사용자 지정 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 | 지원되는 각 리전: 3 | 예 |
Llama 3.1 70B Instruct용 사용자 지정 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다. |
Llama 3.1 8B Instruct용 사용자 지정 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 | 지원되는 각 리전: 3 | 예 |
Llama 3.1 8B Instruct용 사용자 지정 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다. |
Llama 3.2 11B Instruct용 사용자 지정 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 | 지원되는 각 리전: 3 | 예 |
Llama 3.2 11B Instruct에 대한 사용자 지정 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다. |
Llama 3.2 1B Instruct용 사용자 지정 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 | 지원되는 각 리전: 3 | 예 |
Llama 3.2 1B Instruct용 사용자 지정 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다. |
Llama 3.2 3B Instruct용 사용자 지정 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 | 지원되는 각 리전: 3 | 예 |
Llama 3.2 3B Instruct용 사용자 지정 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다. |
Llama 3.2 90B Instruct용 사용자 지정 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 | 지원되는 각 리전: 3 | 예 |
Llama 3.2 90B Instruct용 사용자 지정 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다. |
Mistral Large 2(24.07)에 대한 사용자 지정 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 | 지원되는 각 리전: 3 | 예 |
Mistral Large 2(24.07)에 대한 사용자 지정 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다. |
Mistral Small용 사용자 지정 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 | 지원되는 각 리전: 3 | 예 |
Mistral Small용 사용자 지정 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다. |
Nova Lite V1에 대한 사용자 지정 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계입니다. | 지원되는 각 리전: 3 | 예 |
Nova Lite V1용 사용자 지정 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수 |
Nova Micro V1용 사용자 지정 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 | 지원되는 각 리전: 3 | 예 |
Nova Micro V1용 사용자 지정 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다. |
Nova Pro V1용 사용자 지정 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 | 지원되는 각 리전: 3 | 예 |
Nova Pro V1에 대한 사용자 지정 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다. |
Titan Multimodal Embeddings G1에 대한 사용자 지정 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 | 지원되는 각 리전: 3 | 예 |
Titan Multimodal Embeddings G1에 대한 사용자 지정 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다. |
Titan Text Embeddings V2에 대한 사용자 지정 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 | 지원되는 각 리전: 3 | 예 |
Titan Text Embeddings V2에 대한 사용자 지정 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수 |
Amazon Nova Lite 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 | 지원되는 각 리전: 20개,000 | 예 |
Amazon Nova Lite 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다. |
Amazon Nova Micro 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 | 지원되는 각 리전: 20개,000 | 예 |
Amazon Nova Micro 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다. |
Amazon Nova Pro 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 | 지원되는 각 리전: 10,000 | 예 |
Amazon Nova Pro 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다. |
Claude 3 Haiku v1 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 | 지원되는 각 리전: 10,000 | 예 |
Claude 3 Haiku 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다. |
Meta Llama 2 13B v1 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 | 지원되는 각 리전: 10,000 | 예 |
Meta Llama 2 13B 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다. |
Meta Llama 2 70B v1 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 | 지원되는 각 리전: 10,000 | 예 |
Meta Llama 2 70B 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다. |
Meta Llama 3.1 70B Instruct v1 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 | 지원되는 각 리전: 10,000 | 예 |
Meta Llama 3.1 70B Instruct 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다. |
Meta Llama 3.1 8B Instruct v1 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 | 지원되는 각 리전: 10,000 | 예 |
Meta Llama 3.1 8B Instruct 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다. |
Titan Image Generator G1 V1 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 | 지원되는 각 리전: 10,000 | 예 |
Titan Image Generator 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다. |
Titan Image Generator G1 V2 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 | 지원되는 각 리전: 10,000 | 예 |
Titan Image Generator V2 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다. |
Titan Multimodal Embeddings G1 v1 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 | 지원되는 각 리전: 50,000 | 예 |
Titan Multimodal Embeddings 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다. |
Titan Text G1 - Express v1 지속적인 사전 교육 작업에 대한 훈련 및 검증 레코드의 합계 | 지원되는 각 리전: 100,000 | 예 |
Titan Text Express 지속적인 사전 교육 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다. |
Titan Text G1 - Express v1 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 | 지원되는 각 리전: 10,000 | 예 |
Titan Text Express 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다. |
Titan Text G1 - Lite v1 지속적인 사전 교육 작업에 대한 훈련 및 검증 레코드의 합계 | 지원되는 각 리전: 100,000 | 예 |
Titan Text Lite 지속적인 사전 교육 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다. |
Titan Text G1 - Lite v1 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 | 지원되는 각 리전: 10,000 | 예 |
Titan Text Lite 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다. |
Titan Text G1 - Premier v1 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 | 지원되는 각 리전: 20개,000 | 예 |
Titan Text Premier 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다. |
작업자의 작업 시간 | 지원되는 각 리전: 30개 | No | 작업자가 작업을 완료하는 데 필요한 최대 시간(일)입니다. |
가드레일당 주제 | 지원되는 각 리전: 30개 | No | 가드레일 주제 정책에서 정의할 수 있는 최대 주제 수 |
흐름당 총 노드 수 | 지원되는 각 리전: 40개 | No | 흐름의 최대 노드 수입니다. |
UpdateAgent 초당 요청 수 | 지원되는 각 리전: 4 | No | 초당 최대 요청 수입니다 UpdateAgent API. |
UpdateAgentActionGroup 초당 요청 수 | 지원되는 각 리전: 6개 | No | 초당 최대 요청 수 UpdateAgentActionGroup API |
UpdateAgentAlias 초당 요청 수 | 지원되는 각 리전: 2 | No | 초당 최대 요청 수입니다 UpdateAgentAlias API. |
UpdateAgentKnowledgeBase 초당 요청 수 | 지원되는 각 리전: 4 | No | 초당 최대 요청 수입니다 UpdateAgentKnowledgeBase API. |
UpdateDataSource 초당 요청 수 | 지원되는 각 리전: 2 | No | 초당 최대 요청 수입니다 UpdateDataSource API. |
UpdateFlow 초당 요청 수 | 지원되는 각 리전: 2 | No | 초당 최대 UpdateFlow 요청 수입니다. |
UpdateFlowAlias 초당 요청 수 | 지원되는 각 리전: 2 | No | 초당 최대 UpdateFlowAlias 요청 수입니다. |
UpdateKnowledgeBase 초당 요청 수 | 지원되는 각 리전: 2 | No | 초당 최대 요청 수입니다 UpdateKnowledgeBase API. |
UpdatePrompt 초당 요청 수 | 지원되는 각 리전: 2 | No | 초당 최대 UpdatePrompt 요청 수입니다. |
사용자 쿼리 크기 | 지원되는 각 리전: 1,000 | No | 사용자 쿼리의 최대 크기(문자)입니다. |
ValidateFlowDefinition 초당 요청 수 | 지원되는 각 리전: 2 | No | 초당 최대 ValidateFlowDefinition 요청 수입니다. |
가드레일당 버전 | 지원되는 각 지역: 20 | No | 가드레일이 가질 수 있는 최대 버전 수 |
프롬프트당 버전 | 지원되는 각 지역: 10개 | No | 프롬프트당 최대 버전 수입니다. |
문자 단위의 단어 길이 | 지원되는 각 리전: 100 | No | 차단된 단어 목록에 있는 단어의 최대 길이입니다. |
단어당 단어 정책 | 지원되는 각 리전: 10,000개 | No | 차단된 단어 목록에 포함할 수 있는 최대 단어 수 |