Amazon Bedrock 엔드포인트 및 할당량 - AWS 일반 참조

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

Amazon Bedrock 엔드포인트 및 할당량

다음은 이 서비스에 대한 서비스 엔드포인트 및 서비스 할당량입니다. AWS 서비스에 프로그래밍 방식으로 연결하려면 엔드포인트를 사용합니다. 일부 AWS 서비스는 표준 AWS 엔드포인트 외에도 선택한 리전에서 FIPS 엔드포인트를 제공합니다. 자세한 내용은 AWS 서비스 엔드포인트 단원을 참조하십시오. 한도라고도 하는 서비스 할당량은 AWS 계정의 최대 서비스 리소스 또는 작업 수입니다. 자세한 내용은 AWS 서비스 할당량 단원을 참조하십시오.

Service 엔드포인트

Amazon Bedrock 컨트롤 플레인 APIs

다음 표에는 Amazon Bedrock이 모델 관리, 훈련 및 배포를 위해 지원하는 리전별 엔드포인트 목록이 나와 있습니다. Amazon Bedrock API 작업에 이러한 엔드포인트를 사용합니다.

리전 이름 지역 엔드포인트 프로토콜
미국 동부(오하이오) us-east-2

bedrock.us-east-2.amazonaws.com

bedrock-fips.us-east-2.amazonaws.com

HTTPS

HTTPS

미국 동부(버지니아 북부) us-east-1

bedrock.us-east-1.amazonaws.com

bedrock-fips.us-east-1.amazonaws.com

HTTPS

HTTPS

미국 서부(오레곤) us-west-2

bedrock.us-west-2.amazonaws.com

bedrock-fips.us-west-2.amazonaws.com

HTTPS

HTTPS

아시아 태평양(뭄바이) ap-south-1 bedrock.ap-south-1.amazonaws.com HTTPS
아시아 태평양(서울) ap-northeast-2 bedrock.ap-northeast-2.amazonaws.com HTTPS
아시아 태평양(싱가포르) ap-southeast-1 bedrock.ap-southeast-1.amazonaws.com HTTPS
아시아 태평양(시드니) ap-southeast-2 bedrock.ap-southeast-2.amazonaws.com HTTPS
아시아 태평양(도쿄) ap-northeast-1 bedrock.ap-northeast-1.amazonaws.com HTTPS
캐나다(중부) ca-central-1

bedrock.ca-central-1.amazonaws.com

bedrock-fips.ca-central-1.amazonaws.com

HTTPS

HTTPS

유럽(프랑크푸르트) eu-central-1 bedrock.eu-central-1.amazonaws.com HTTPS
유럽(아일랜드) eu-west-1 bedrock.eu-west-1.amazonaws.com HTTPS
유럽(런던) eu-west-2 bedrock.eu-west-2.amazonaws.com HTTPS
유럽(파리) eu-west-3 bedrock.eu-west-3.amazonaws.com HTTPS
유럽(취리히) eu-central-2 bedrock.eu-central-2.amazonaws.com HTTPS
남아메리카(상파울루) sa-east-1 bedrock.sa-east-1.amazonaws.com HTTPS
AWS GovCloud (미국 동부) us-gov-east-1

bedrock.us-gov-east-1.amazonaws.com

bedrock-fips.us-gov-east-1.amazonaws.com

HTTPS

HTTPS

AWS GovCloud (미국 서부) us-gov-west-1

bedrock.us-gov-west-1.amazonaws.com

bedrock-fips.us-gov-west-1.amazonaws.com

HTTPS

HTTPS

Amazon Bedrock 런타임 APIs

다음 표에는 Amazon Bedrock에서 호스팅되는 모델에 대한 추론 요청을 하기 위해 Amazon Bedrock이 지원하는 리전별 엔드포인트 목록이 나와 있습니다. Amazon Bedrock 런타임 API 작업에 이러한 엔드포인트를 사용합니다.

리전 이름 지역 엔드포인트 프로토콜
미국 동부(오하이오) us-east-2

bedrock-runtime.us-east-2.amazonaws.com

bedrock-runtime-fips.us-east-2.amazonaws.com

HTTPS

HTTPS

미국 동부(버지니아 북부) us-east-1

bedrock-runtime.us-east-1.amazonaws.com

bedrock-runtime-fips.us-east-1.amazonaws.com

HTTPS

HTTPS

미국 서부(오레곤) us-west-2

bedrock-runtime.us-west-2.amazonaws.com

bedrock-runtime-fips.us-west-2.amazonaws.com

HTTPS

HTTPS

아시아 태평양(뭄바이) ap-south-1 bedrock-runtime.ap-south-1.amazonaws.com HTTPS
아시아 태평양(서울) ap-northeast-2 bedrock-runtime.ap-northeast-2.amazonaws.com HTTPS
아시아 태평양(싱가포르) ap-southeast-1 bedrock-runtime.ap-southeast-1.amazonaws.com HTTPS
아시아 태평양(시드니) ap-southeast-2 bedrock-runtime.ap-southeast-2.amazonaws.com HTTPS
아시아 태평양(도쿄) ap-northeast-1 bedrock-runtime.ap-northeast-1.amazonaws.com HTTPS
캐나다(중부) ca-central-1

bedrock-runtime.ca-central-1.amazonaws.com

bedrock-runtime-fips.ca-central-1.amazonaws.com

HTTPS

HTTPS

유럽(프랑크푸르트) eu-central-1 bedrock-runtime.eu-central-1.amazonaws.com HTTPS
유럽(아일랜드) eu-west-1 bedrock-runtime.eu-west-1.amazonaws.com HTTPS
유럽(런던) eu-west-2 bedrock-runtime.eu-west-2.amazonaws.com HTTPS
유럽(파리) eu-west-3 bedrock-runtime.eu-west-3.amazonaws.com HTTPS
유럽(취리히) eu-central-2 bedrock-runtime.eu-central-2.amazonaws.com HTTPS
남아메리카(상파울루) sa-east-1 bedrock-runtime.sa-east-1.amazonaws.com HTTPS
AWS GovCloud (미국 동부) us-gov-east-1

bedrock-runtime.us-gov-east-1.amazonaws.com

bedrock-runtime-fips.us-gov-east-1.amazonaws.com

HTTPS

HTTPS

AWS GovCloud (미국 서부) us-gov-west-1

bedrock-runtime.us-gov-west-1.amazonaws.com

bedrock-runtime-fips.us-gov-west-1.amazonaws.com

HTTPS

HTTPS

Amazon Bedrock용 에이전트 빌드 시간 APIs

다음 표에는 Agents for Amazon Bedrock이 에이전트 및 지식 기반을 생성하고 관리하기 위해 지원하는 리전별 엔드포인트 목록이 나와 있습니다. Amazon Bedrock용 에이전트 API 작업에 이러한 엔드포인트를 사용합니다.

리전 이름 지역 엔드포인트 프로토콜
미국 동부(버지니아 북부) us-east-1 bedrock-agent.us-east-1.amazonaws.com HTTPS
bedrock-agent-fips.us-east-1.amazonaws.com HTTPS
미국 서부(오리건) us-west-2 bedrock-agent.us-west-2.amazonaws.com HTTPS
bedrock-agent-fips.us-west-2.amazonaws.com HTTPS
아시아 태평양(싱가포르) ap-southeast-1 bedrock-agent.ap-southeast-1.amazonaws.com HTTPS
아시아 태평양(시드니) ap-southeast-2 bedrock-agent.ap-southeast-2.amazonaws.com HTTPS
아시아 태평양(도쿄) ap-northeast-1 bedrock-agent.ap-northeast-1.amazonaws.com HTTPS
캐나다(중부) ca-central-1 bedrock-agent.ca-central-1.amazonaws.com HTTPS
유럽(프랑크푸르트) eu-central-1 bedrock-agent.eu-central-1.amazonaws.com HTTPS
유럽(아일랜드) eu-west-1 bedrock-agent.eu-west-1.amazonaws.com HTTPS
유럽(런던) eu-west-2 bedrock-agent.eu-west-2.amazonaws.com HTTPS
유럽(파리) eu-west-3 bedrock-agent.eu-west-3.amazonaws.com HTTPS
아시아 태평양(뭄바이) ap-south-1 bedrock-agent.ap-south-1.amazonaws.com HTTPS
남아메리카(상파울루) sa-east-1 bedrock-agent.sa-east-1.amazonaws.com HTTPS

Amazon Bedrock 런타임 에이전트 APIs

다음 표에는 에이전트 호출 및 지식 기반 쿼리를 위해 Amazon Bedrock용 에이전트가 지원하는 리전별 엔드포인트 목록이 나와 있습니다. Amazon Bedrock 런타임 API 작업용 에이전트에 이러한 엔드포인트를 사용합니다.

리전 이름 지역 엔드포인트 프로토콜
미국 동부(버지니아 북부) us-east-1 bedrock-agent-runtime.us-east-1.amazonaws.com HTTPS
bedrock-agent-runtime-fips.us-east-1.amazonaws.com HTTPS
미국 서부(오리건) us-west-2 bedrock-agent-runtime.us-west-2.amazonaws.com HTTPS
bedrock-agent-runtime-fips.us-west-2.amazonaws.com HTTPS
아시아 태평양(싱가포르) ap-southeast-1 bedrock-agent-runtime.ap-southeast-1.amazonaws.com HTTPS
아시아 태평양(시드니) ap-southeast-2 bedrock-agent-runtime.ap-southeast-2.amazonaws.com HTTPS
아시아 태평양(도쿄) ap-northeast-1 bedrock-agent-runtime.ap-northeast-1.amazonaws.com HTTPS
캐나다(중부) ca-central-1 bedrock-agent-runtime.ca-central-1.amazonaws.com HTTPS
유럽(프랑크푸르트) eu-central-1 bedrock-agent-runtime.eu-central-1.amazonaws.com HTTPS
유럽(파리) eu-west-3 bedrock-agent-runtime.eu-west-3.amazonaws.com HTTPS
유럽(아일랜드) eu-west-1 bedrock-agent-runtime.eu-west-1.amazonaws.com HTTPS
유럽(런던) eu-west-2 bedrock-agent-runtime.eu-west-2.amazonaws.com HTTPS
아시아 태평양(뭄바이) ap-south-1 bedrock-agent-runtime.ap-south-1.amazonaws.com HTTPS
남아메리카(상파울루) sa-east-1 bedrock-agent-runtime.sa-east-1.amazonaws.com HTTPS

Service quotas

조정 가능한 값이 예로 표시되고 아니요로 표시된 할당량 모두에 대해 할당량 증가를 요청하는 방법에 대한 지침은 Amazon Bedrock 할당량 증가 요청을 참조하세요. https://docs.aws.amazon.com/bedrock/latest/userguide/quotas.html#quotas-increase 다음 표에는 Amazon Bedrock의 할당량 목록이 나와 있습니다.

명칭 기본값 조정 가능 설명
APIs 에이전트당 지원되는 각 리전: 11 에이전트에 추가할 수 APIs 있는 최대 수입니다.
에이전트당 작업 그룹 지원되는 각 리전: 20개 에이전트에 추가할 수 있는 최대 작업 그룹 수입니다.
흐름당 에이전트 노드 수 지원되는 각 지역: 10개 No 최대 에이전트 노드 수입니다.
계정당 에이전트 지원되는 각 리전: 200 한 계정의 최대 에이전트 수입니다.
AssociateAgentKnowledgeBase 초당 요청 수 지원되는 각 리전: 6개 No 초당 최대 요청 수입니다 AssociateAgentKnowledgeBase API.
에이전트당 연결된 별칭 지원되는 각 지역: 10개 No 에이전트와 연결할 수 있는 최대 별칭 수입니다.
에이전트당 관련 지식 기반 지원되는 각 지역: 2 에이전트와 연결할 수 있는 최대 지식 기반 수입니다.
배치 추론 입력 파일 크기 지원되는 각 리전: 1,073,741,824 배치 추론을 위해 제출된 단일 파일의 최대 크기(바이트)입니다.
Claude 3 Haiku의 배치 추론 입력 파일 크기(GB) 각 지원되는 지역: 1 Claude 3 Haiku에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB).
Claude 3 Opus의 배치 추론 입력 파일 크기(GB) 각 지원되는 지역: 1 Claude 3 Opus에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB).
Claude 3 Sonnet의 배치 추론 입력 파일 크기(GB) 각 지원되는 지역: 1 Claude 3 Sonnet에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB).
Claude 3.5 Haiku의 배치 추론 입력 파일 크기(GB) 각 지원되는 지역: 1 Claude 3.5 Haiku에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB).
Claude 3.5 Sonnet의 배치 추론 입력 파일 크기(GB) 각 지원되는 지역: 1 Claude 3.5 Sonnet에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB).
Claude 3.5 Sonnet v2의 배치 추론 입력 파일 크기(GB) 각 지원되는 지역: 1 Claude 3.5 Sonnet v2에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB).
Llama 3.1 405B Instruct의 배치 추론 입력 파일 크기(GB) 각 지원되는 지역: 1 Llama 3.1 405B Instruct에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB).
Llama 3.1 70B Instruct의 배치 추론 입력 파일 크기(GB) 각 지원되는 지역: 1 Llama 3.1 70B Instruct에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB).
Llama 3.1 8B Instruct의 배치 추론 입력 파일 크기(GB) 각 지원되는 지역: 1 Llama 3.1 8B Instruct에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB).
Llama 3.2 11B Instruct의 배치 추론 입력 파일 크기(GB) 각 지원되는 지역: 1 Llama 3.2 11B Instruct에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB).
Llama 3.2 1B Instruct의 배치 추론 입력 파일 크기(GB) 각 지원되는 지역: 1 배치 추론 Llama 3.2 1B Instruct용으로 제출된 단일 파일의 최대 크기(GB).
Llama 3.2 3B Instruct의 배치 추론 입력 파일 크기(GB) 각 지원되는 지역: 1 Llama 3.2 3B Instruct에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB).
Llama 3.2 90B Instruct의 배치 추론 입력 파일 크기(GB) 각 지원되는 지역: 1 Llama 3.2 90B Instruct에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB).
Mistral Large 2(24.07)의 배치 추론 입력 파일 크기(GB) 각 지원되는 지역: 1 Mistral Large 2(24.07)에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB).
Mistral Small의 배치 추론 입력 파일 크기(GB) 각 지원되는 지역: 1 Mistral Small에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB).
Nova Lite V1의 배치 추론 입력 파일 크기(GB) 각 지원되는 지역: 1 Nova Lite V1에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB).
Nova Micro V1의 배치 추론 입력 파일 크기(GB) 각 지원되는 지역: 1 Nova Micro V1에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB).
Nova Pro V1의 배치 추론 입력 파일 크기(GB) 각 지원되는 지역: 1 Nova Pro V1의 배치 추론을 위해 제출된 단일 파일(GB)의 최대 크기입니다.
Titan Multimodal Embeddings G1의 배치 추론 입력 파일 크기(GB) 각 지원되는 지역: 1 Titan Multimodal Embeddings G1에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB).
Titan Text Embeddings V2의 배치 추론 입력 파일 크기(GB) 각 지원되는 지역: 1 Titan Text Embeddings V2에 대한 배치 추론을 위해 제출된 단일 파일의 최대 크기(GB).
배치 추론 작업 크기 지원되는 각 리전: 5,368,709,120 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(바이트)입니다.
Claude 3 Haiku의 배치 추론 작업 크기(GB) 지원되는 각 리전: 5 Claude 3 Haiku의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다.
Claude 3 Opus의 배치 추론 작업 크기(GB) 지원되는 각 리전: 5 Claude 3 Opus의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다.
Claude 3 Sonnet의 배치 추론 작업 크기(GB) 지원되는 각 리전: 5 Claude 3 Sonnet의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다.
Claude 3.5 Haiku의 배치 추론 작업 크기(GB) 지원되는 각 리전: 5 Claude 3.5 Haiku의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다.
Claude 3.5 Sonnet의 배치 추론 작업 크기(GB) 지원되는 각 리전: 5 Claude 3.5 Sonnet의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다.
Claude 3.5 Sonnet v2의 배치 추론 작업 크기(GB) 지원되는 각 리전: 5 Claude 3.5 Sonnet v2의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB).
Llama 3.1 405B Instruct의 배치 추론 작업 크기(GB) 지원되는 각 리전: 5 Llama 3.1 405B Instruct의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다.
Llama 3.1 70B Instruct의 배치 추론 작업 크기(GB) 지원되는 각 리전: 5 Llama 3.1 70B Instruct의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다.
Llama 3.1 8B Instruct의 배치 추론 작업 크기(GB) 지원되는 각 리전: 5 Llama 3.1 8B Instruct의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다.
Llama 3.2 11B Instruct의 배치 추론 작업 크기(GB) 지원되는 각 리전: 5 Llama 3.2 11B Instruct의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다.
Llama 3.2 1B Instruct의 배치 추론 작업 크기(GB) 지원되는 각 리전: 5 Llama 3.2 1B Instruct의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다.
Llama 3.2 3B Instruct의 배치 추론 작업 크기(GB) 지원되는 각 리전: 5 Llama 3.2 3B Instruct의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다.
Llama 3.2 90B Instruct의 배치 추론 작업 크기(GB) 지원되는 각 리전: 5 Llama 3.2 90B Instruct의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다.
Mistral Large 2(24.07)의 배치 추론 작업 크기(GB) 지원되는 각 리전: 5 Mistral Large 2(24.07)의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB).
Mistral Small의 배치 추론 작업 크기(GB) 지원되는 각 리전: 5 Mistral Small의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다.
Nova Lite V1의 배치 추론 작업 크기(GB) 지원되는 각 리전: 5 Nova Lite V1의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다.
Nova Micro V1의 배치 추론 작업 크기(GB) 지원되는 각 리전: 5 Nova Micro V1의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다.
Nova Pro V1의 배치 추론 작업 크기(GB) 지원되는 각 리전: 100 Nova Pro V1의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다.
Titan Multimodal Embeddings G1의 배치 추론 작업 크기(GB) 지원되는 각 리전: 5 Titan Multimodal Embeddings G1의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다.
Titan Text Embeddings V2의 배치 추론 작업 크기(GB) 지원되는 각 리전: 5 Titan Text Embeddings V2의 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(GB)입니다.
에이전트의 문자 지침 지원되는 각 리전: 8,000 에이전트에 대한 지침의 최대 문자 수입니다.
흐름당 수집기 노드 수 지원되는 각 리전: 1 No 최대 수집기 노드 수입니다.
계정당 동시 수집 작업 지원되는 각 지역: 5개 No 계정에서 동시에 실행할 수 있는 최대 수집 작업 수입니다.
데이터 소스당 동시 수집 작업 지원되는 각 리전: 1 No 데이터 소스에 대해 동시에 실행할 수 있는 최대 수집 작업 수입니다.
지식 기반당 동시 수집 작업 지원되는 각 리전: 1 No 지식 기반에 대해 동시에 실행할 수 있는 최대 수집 작업 수입니다.
동시 모델 가져오기 작업 지원되는 각 리전: 1 No 동시에 진행 중인 최대 모델 가져오기 작업 수입니다.
흐름당 조건 노드 수 지원되는 각 지역: 5개 No 최대 조건 노드 수입니다.
조건 노드당 조건 지원되는 각 지역: 5개 No 조건 노드당 최대 조건 수입니다.
텍스트 단위의 컨텍스트 접지 쿼리 길이 지원되는 각 리전: 1 No 컨텍스트 접지를 위한 쿼리의 텍스트 단위 최대 길이입니다.
텍스트 단위의 컨텍스트 접지 응답 길이 지원되는 각 지역: 5개 No 컨텍스트 접지에 대한 응답의 텍스트 단위 최대 길이입니다.
텍스트 단위의 컨텍스트 접지 소스 길이

us-east-1: 100

us-west-2: 100

각각의 지원되는 다른 리전: 50

No 컨텍스트 접지를 위한 접지 소스의 텍스트 단위 최대 길이
CreateAgent 초당 요청 수 지원되는 각 리전: 6개 No 초당 최대 요청 수입니다 CreateAgent API.
CreateAgentActionGroup 초당 요청 수 지원되는 각 리전: 12 No 초당 최대 요청 수입니다 CreateAgentActionGroup API.
CreateAgentAlias 초당 요청 수 지원되는 각 리전: 2 No 초당 최대 요청 수입니다 CreateAgentAlias API.
CreateDataSource 초당 요청 수 지원되는 각 리전: 2 No 초당 최대 요청 수입니다 CreateDataSource API.
CreateFlow 초당 요청 수 지원되는 각 리전: 2 No 초당 최대 CreateFlow 요청 수입니다.
CreateFlowAlias 초당 요청 수 지원되는 각 리전: 2 No 초당 최대 CreateFlowAlias 요청 수입니다.
CreateFlowVersion 초당 요청 수 지원되는 각 리전: 2 No 초당 최대 CreateFlowVersion 요청 수입니다.
CreateKnowledgeBase 초당 요청 수 지원되는 각 리전: 2 No 초당 최대 요청 수입니다 CreateKnowledgeBase API.
CreatePrompt 초당 요청 수 지원되는 각 리전: 2 No 초당 최대 CreatePrompt 요청 수입니다.
CreatePromptVersion 초당 요청 수 지원되는 각 리전: 2 No 초당 최대 CreatePromptVersion 요청 수입니다.
Amazon Nova Lite에 대한 분당 리전 간 InvokeModel 요청 지원되는 각 리전: 2,000 No Amazon Nova Lite에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 요청 수입니다. 할당량은 Converse ConverseStream, InvokeModel and의 합계를 고려합니다 InvokeModelWithResponseStream.
Amazon Nova Micro에 대한 분당 리전 간 InvokeModel 요청 지원되는 각 리전: 2,000 No Amazon Nova Micro에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 요청 수입니다. 할당량은 Converse ConverseStream, InvokeModel and의 합계를 고려합니다 InvokeModelWithResponseStream.
Amazon Nova Pro에 대한 분당 리전 간 InvokeModel 요청 수 지원되는 각 리전: 200 No Amazon Nova Pro에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 요청 수입니다. 할당량은 Converse ConverseStream, InvokeModel and의 합계를 고려합니다 InvokeModelWithResponseStream.
Anthropic Claude 3.5 Haiku에 대한 분당 리전 간 InvokeModel 요청 지원되는 각 리전: 2,000 No 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 호출할 수 있는 최대 횟수입니다. 할당량은 Anthropic Claude 3.5 Haiku에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Amazon Nova Lite의 분당 리전 간 InvokeModel 토큰 수 지원되는 각 리전: 4,000,000 No Amazon Nova Lite에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 Converse ConverseStream, InvokeModel and의 합계를 고려합니다 InvokeModelWithResponseStream.
Amazon Nova Micro의 분당 리전 간 InvokeModel 토큰 수 지원되는 각 리전: 4,000,000 No Amazon Nova Micro에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 Converse ConverseStream, InvokeModel and의 합계를 고려합니다 InvokeModelWithResponseStream.
Amazon Nova Pro의 분당 리전 간 InvokeModel 토큰 수 지원되는 각 리전: 800,000 No Amazon Nova Pro에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 Converse ConverseStream, InvokeModel and의 합계를 고려합니다 InvokeModelWithResponseStream.
Anthropic Claude 3.5 Haiku의 분당 리전 간 InvokeModel 토큰 수 지원되는 각 리전: 4,000,000 No 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Anthropic Claude 3.5 Haiku에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Meta Llama 3.3 70B Instruct에 대한 분당 리전 간 모델 추론 요청 지원되는 각 리전: 800 No Meta Llama 3.3 70B Instruct에 대해 1분 내에 모델 추론을 위해 제출할 수 있는 리전 간 요청의 최대 수입니다. 할당량은 Converse ConverseStream, InvokeModel and의 합계를 고려합니다 InvokeModelWithResponseStream.
Meta Llama 3.3 70B Instruct에 대한 분당 리전 간 모델 추론 토큰 지원되는 각 리전: 600,000 No Meta Llama 3.3 70B Instruct에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 리전 간 토큰의 최대 수입니다. 할당량은 Converse ConverseStream, InvokeModel and의 합계를 고려합니다 InvokeModelWithResponseStream.
계정당 사용자 지정 모델 지원되는 각 리전: 100 계정의 최대 사용자 지정 모델 수입니다.
지식 기반당 데이터 소스 지원되는 각 지역: 5개 No 지식 기반당 최대 데이터 소스 수입니다.
DeleteAgent 초당 요청 수 지원되는 각 리전: 2 No 초당 최대 요청 수입니다 DeleteAgent API.
DeleteAgentActionGroup 초당 요청 수 지원되는 각 리전: 2 No 초당 최대 요청 수입니다 DeleteAgentActionGroup API.
DeleteAgentAlias 초당 요청 수 지원되는 각 리전: 2 No 초당 최대 요청 수입니다 DeleteAgentAlias API.
DeleteAgentVersion 초당 요청 수 지원되는 각 리전: 2 No 초당 최대 요청 수입니다 DeleteAgentVersion API.
DeleteDataSource 초당 요청 수 지원되는 각 리전: 2 No 초당 최대 요청 수입니다 DeleteDataSource API.
DeleteFlow 초당 요청 수 지원되는 각 리전: 2 No 초당 최대 DeleteFlow 요청 수입니다.
DeleteFlowAlias 초당 요청 수 지원되는 각 리전: 2 No 초당 최대 DeleteFlowAlias 요청 수입니다.
DeleteFlowVersion 초당 요청 수 지원되는 각 리전: 2 No 초당 최대 DeleteFlowVersion 요청 수입니다.
DeleteKnowledgeBase 초당 요청 수 지원되는 각 리전: 2 No 초당 최대 요청 수입니다 DeleteKnowledgeBase API.
DeletePrompt 초당 요청 수 지원되는 각 리전: 2 No 초당 최대 DeletePrompt 요청 수입니다.
DisassociateAgentKnowledgeBase 초당 요청 수 지원되는 각 리전: 4 No 초당 최대 요청 수입니다 DisassociateAgentKnowledgeBase API.
에이전트당 활성화된 작업 그룹 지원되는 각 리전: 11 에이전트에서 활성화할 수 있는 최대 작업 그룹 수입니다.
추론 프로파일당 엔드포인트 지원되는 각 지역: 5개 No 추론 프로파일의 최대 엔드포인트 수입니다. 엔드포인트는 모델에 대한 호출 요청이 전송되는 모델 및 리전에 의해 정의됩니다.
주제별 예제 문구 지원되는 각 지역: 5개 No 주제당 포함할 수 있는 최대 주제 예제 수
수집 작업당 추가 또는 업데이트할 파일 지원되는 각 리전: 5,000,000 No 수집 작업당 수집할 수 있는 새 파일과 업데이트된 파일의 최대 수입니다.
수집 작업당 삭제할 파일 지원되는 각 리전: 5,000,000 No 수집 작업당 삭제할 수 있는 최대 파일 수입니다.
흐름당 흐름 별칭 지원되는 각 지역: 10개 No 최대 흐름 별칭 수입니다.
흐름당 흐름 버전 지원되는 각 지역: 10개 No 최대 흐름 버전 수입니다.
계정당 흐름 지원되는 각 리전: 100 계정당 최대 흐름 수입니다.
GetAgent 초당 요청 수 지원되는 각 리전: 15 No 초당 최대 요청 수입니다 GetAgent API.
GetAgentActionGroup 초당 요청 수 지원되는 각 지역: 20 No 초당 최대 요청 수입니다 GetAgentActionGroup API.
GetAgentAlias 초당 요청 수 지원되는 각 지역: 10개 No 초당 최대 요청 수입니다 GetAgentAlias API.
GetAgentKnowledgeBase 초당 요청 수 지원되는 각 리전: 15 No 초당 최대 요청 수입니다 GetAgentKnowledgeBase API.
GetAgentVersion 초당 요청 수 지원되는 각 지역: 10개 No 초당 최대 요청 수입니다 GetAgentVersion API.
GetDataSource 초당 요청 수 지원되는 각 지역: 10개 No 초당 최대 요청 수입니다 GetDataSource API.
GetFlow 초당 요청 수 지원되는 각 지역: 10개 No 초당 최대 GetFlow 요청 수입니다.
GetFlowAlias 초당 요청 수 지원되는 각 지역: 10개 No 초당 최대 GetFlowAlias 요청 수입니다.
GetFlowVersion 초당 요청 수 지원되는 각 지역: 10개 No 초당 최대 GetFlowVersion 요청 수입니다.
GetIngestionJob 초당 요청 수 지원되는 각 지역: 10개 No 초당 최대 요청 수입니다 GetIngestionJob API.
GetKnowledgeBase 초당 요청 수 지원되는 각 지역: 10개 No 초당 최대 요청 수입니다 GetKnowledgeBase API.
GetPrompt 초당 요청 수 지원되는 각 지역: 10개 No 초당 최대 GetPrompt 요청 수입니다.
계정당 가드레일 지원되는 각 리전: 100 No 계정의 최대 가드레일 수
계정당 가져온 모델 지원되는 각 리전: 3 계정에서 가져온 최대 모델 수입니다.
계정당 추론 프로필 지원되는 각 리전: 1,000 계정의 최대 추론 프로필 수입니다.
수집 작업 파일 크기 지원되는 각 리전: 50 No 수집 작업에서 파일의 최대 크기(MB)입니다.
수집 작업 크기 지원되는 각 리전: 100 No 수집 작업의 최대 크기(GB)입니다.
흐름당 입력 노드 수 지원되는 각 리전: 1 No 흐름 입력 노드의 최대 수입니다.
흐름당 반복자 노드 수 지원되는 각 리전: 1 No 최대 반복자 노드 수입니다.
흐름당 지식 기반 노드 지원되는 각 지역: 10개 No 지식 기반 노드의 최대 수입니다.
계정당 지식 기반 지원되는 각 리전: 100 No 계정당 최대 지식 기반 수입니다.
흐름당 Lambda 함수 노드 지원되는 각 지역: 10개 No Lambda 함수 노드의 최대 수입니다.
흐름당 Lex 노드 지원되는 각 지역: 5개 No 최대 Lex 노드 수입니다.
ListAgentActionGroups 초당 요청 수 지원되는 각 지역: 10개 No 초당 최대 요청 수입니다 ListAgentActionGroups API.
ListAgentAliases 초당 요청 수 지원되는 각 지역: 10개 No 초당 최대 요청 수입니다 ListAgentAliases API.
ListAgentKnowledgeBases 초당 요청 수 지원되는 각 지역: 10개 No 초당 최대 요청 수입니다 ListAgentKnowledgeBases API.
ListAgentVersions 초당 요청 수 지원되는 각 지역: 10개 No 초당 최대 요청 수입니다 ListAgentVersions API.
ListAgents 초당 요청 수 지원되는 각 지역: 10개 No 초당 최대 요청 수입니다 ListAgents API.
ListDataSources 초당 요청 수 지원되는 각 지역: 10개 No 초당 최대 요청 수입니다 ListDataSources API.
ListFlowAliases 초당 요청 수 지원되는 각 지역: 10개 No 초당 최대 ListFlowAliases 요청 수입니다.
ListFlowVersions 초당 요청 수 지원되는 각 지역: 10개 No 초당 최대 ListFlowVersions 요청 수입니다.
ListFlows 초당 요청 수 지원되는 각 지역: 10개 No 초당 최대 ListFlows 요청 수입니다.
ListIngestionJobs 초당 요청 수 지원되는 각 지역: 10개 No 초당 최대 요청 수입니다 ListIngestionJobs API.
ListKnowledgeBases 초당 요청 수 지원되는 각 지역: 10개 No 초당 최대 요청 수입니다 ListKnowledgeBases API.
ListPrompts 초당 요청 수 지원되는 각 지역: 10개 No 초당 최대 ListPrompts 요청 수입니다.
증류 사용자 지정 작업에 대한 최대 입력 파일 크기 지원되는 각 리전: 2개기가바이트 No 증류 사용자 지정 작업에 대한 최대 입력 파일 크기입니다.
증류 사용자 지정 작업의 최대 라인 길이 지원되는 각 리전: 16KB No 증류 사용자 지정 작업에 대한 입력 파일의 최대 줄 길이입니다.
증류 사용자 지정 작업에 대한 최대 프롬프트 수 지원되는 각 리전: 15,000개 No 증류 사용자 지정 작업에 필요한 최대 프롬프트 수입니다.
Amazon Nova Micro V1 증류 사용자 지정 작업에 대한 최대 학생 모델 미세 조정 컨텍스트 길이 지원되는 각 리전: 32,000개 No Amazon Nova Micro V1 증류 사용자 지정 작업에 대한 최대 학생 모델 미세 조정 컨텍스트 길이입니다.
Amazon Nova V1 증류 사용자 지정 작업에 대한 최대 학생 모델 미세 조정 컨텍스트 길이 지원되는 각 리전: 32,000개 No Amazon Nova V1 증류 사용자 지정 작업에 대한 최대 학생 모델 미세 조정 컨텍스트 길이입니다.
Amazon Olympus 1 lite V1 증류 사용자 지정 작업에 대한 최대 학생 모델 미세 조정 컨텍스트 길이 지원되는 각 리전: 32,000개 No Amazon Olympus 1 lite V1 증류 사용자 지정 작업에 대한 최대 학생 모델 미세 조정 컨텍스트 길이입니다.
Amazon Olympus 마이크로 증류 사용자 지정 작업에 대한 최대 학생 모델 미세 조정 컨텍스트 길이 지원되는 각 리전: 32,000개 No Amazon Olympus 마이크로 V1 증류 사용자 지정 작업에 대한 최대 학생 모델 미세 조정 컨텍스트 길이입니다.
Anthropic Claude 3 haiku 20240307 V1 증류 사용자 지정 작업에 대한 최대 학생 모델 미세 조정 컨텍스트 길이 지원되는 각 리전: 32,000개 No Anthropic Claude 3 haiku 20240307 V1 증류 사용자 지정 작업에 대한 최대 학생 모델 미세 조정 컨텍스트 길이입니다.
Llama 3.1 70B Instruct V1 증류 사용자 지정 작업에 대한 최대 학생 모델 미세 조정 컨텍스트 길이 지원되는 각 리전: 16,000 No Llama 3.1 70B Instruct V1 증류 사용자 지정 작업에 대한 최대 학생 모델 미세 조정 컨텍스트 길이입니다.
Llama 3.1 8B Instruct V1 증류 사용자 지정 작업에 대한 최대 학생 모델 미세 조정 컨텍스트 길이 지원되는 각 리전: 32,000개 No Llama 3.1 8B Instruct V1 증류 사용자 지정 작업에 대한 최대 학생 모델 미세 조정 컨텍스트 길이입니다.
증류 사용자 지정 작업에 대한 최소 프롬프트 수 지원되는 각 리전: 100 No 증류 사용자 지정 작업에 필요한 최소 프롬프트 수입니다.
Claude 3 Haiku에 대한 배치 추론 작업당 최소 레코드 수 지원되는 각 리전: 100 Claude 3 Haiku에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다.
Claude 3 Opus에 대한 배치 추론 작업당 최소 레코드 수 지원되는 각 리전: 100 Claude 3 Opus에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다.
Claude 3 Sonnet에 대한 배치 추론 작업당 최소 레코드 수 지원되는 각 리전: 100 Claude 3 Sonnet에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다.
Claude 3.5 Haiku에 대한 배치 추론 작업당 최소 레코드 수 지원되는 각 리전: 100 Claude 3.5 Haiku에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다.
Claude 3.5 Sonnet에 대한 배치 추론 작업당 최소 레코드 수 지원되는 각 리전: 100 Claude 3.5 Sonnet에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다.
Claude 3.5 Sonnet v2에 대한 배치 추론 작업당 최소 레코드 수 지원되는 각 리전: 100 Claude 3.5 Sonnet v2에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다.
Llama 3.1 405B Instruct에 대한 배치 추론 작업당 최소 레코드 수 지원되는 각 리전: 100 Llama 3.1 405B Instruct에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다.
Llama 3.1 70B Instruct에 대한 배치 추론 작업당 최소 레코드 수 지원되는 각 리전: 100 Llama 3.1 70B Instruct에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다.
Llama 3.1 8B Instruct에 대한 배치 추론 작업당 최소 레코드 수 지원되는 각 리전: 100 Llama 3.1 8B Instruct에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다.
Llama 3.2 11B Instruct에 대한 배치 추론 작업당 최소 레코드 수 지원되는 각 리전: 100 Llama 3.2 11B Instruct에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다.
Llama 3.2 1B Instruct에 대한 배치 추론 작업당 최소 레코드 수 지원되는 각 리전: 100 배치 추론 작업 Llama 3.2 1B Instruct의 모든 입력 파일에 대한 최소 레코드 수입니다.
Llama 3.2 3B Instruct에 대한 배치 추론 작업당 최소 레코드 수 지원되는 각 리전: 100 Llama 3.2 3B Instruct에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다.
Llama 3.2 90B Instruct에 대한 배치 추론 작업당 최소 레코드 수 지원되는 각 리전: 100 Llama 3.2 90B Instruct에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다.
Mistral Large 2(24.07)에 대한 배치 추론 작업당 최소 레코드 수 지원되는 각 리전: 100 Mistral Large 2(24.07)에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다.
Mistral Small에 대한 배치 추론 작업당 최소 레코드 수 지원되는 각 리전: 100 Mistral Small에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다.
Nova Lite V1에 대한 배치 추론 작업당 최소 레코드 수 지원되는 각 리전: 100 Nova Lite V1에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다.
Nova Micro V1에 대한 배치 추론 작업당 최소 레코드 수 지원되는 각 리전: 100 Nova Micro V1에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다.
Nova Pro V1에 대한 배치 추론 작업당 최소 레코드 수 지원되는 각 리전: 100 Nova Pro V1에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다.
Titan Multimodal Embeddings G1에 대한 배치 추론 작업당 최소 레코드 수 지원되는 각 리전: 100 Titan Multimodal Embeddings G1에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다.
Titan Text Embeddings V2에 대한 배치 추론 작업당 최소 레코드 수 지원되는 각 리전: 100 Titan Text Embeddings V2에 대한 배치 추론 작업의 모든 입력 파일에 대한 최소 레코드 수입니다.
기본 모델 간 모델 유닛 커밋 없음 프로비저닝된 처리량 지원되는 각 지역: 2 기본 모델의 커밋 없는 프로비저닝된 처리량에 배포할 수 있는 최대 모델 유닛 수
사용자 지정 모델 전반의 모델 유닛 커밋 없음 프로비저닝된 처리량 지원되는 각 지역: 2 사용자 지정 모델의 커밋 없는 프로비저닝된 처리량에 분산할 수 있는 최대 모델 유닛 수
AI21 Labs Jurassic-2 Mid에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 AI21 Labs Jurassic-2 Mid에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
AI21 Labs Jurassic-2 Ultra에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 AI21 Labs Jurassic-2 Ultra에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Amazon Nova Lite용 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Amazon Nova Lite의 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Amazon Nova Micro용 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Amazon Nova Micro용 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Amazon Nova Pro에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Amazon Nova Pro의 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Amazon Titan Embeddings G1 - 텍스트에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Amazon Titan Embeddings G1 - 텍스트에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Amazon Titan Image Generator G1에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Amazon Titan Image Generator G1에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Amazon Titan Image Generator G2에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Amazon Titan Image Generator G2에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Amazon Titan Lite V1 4K에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Amazon Titan Text Lite V1 4K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Amazon Titan 멀티모달 임베딩 G1에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Amazon Titan Multimodal Embeddings G1에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Amazon Titan Text Embeddings V2에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Amazon Titan Text Embeddings V2에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Amazon Titan Text G1 - Express 8K에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Amazon Titan Text G1 - Express 8K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Amazon Titan Text Premier V1 32K에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Amazon Titan Text Premier V1 32K의 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Anthropic Claude 3 Haiku 200K에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Anthropic Claude 3 Haiku 200K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Anthropic Claude 3 Haiku 48K에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Anthropic Claude 3 Haiku 48K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Anthropic Claude 3 Sonnet 200K에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Anthropic Claude 3 Sonnet 200K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Anthropic Claude 3 Sonnet 28K에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Anthropic Claude 3 Sonnet 28K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Anthropic Claude 3.5 Haiku 16K에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Anthropic Claude 3.5 Haiku 16K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Anthropic Claude 3.5 Haiku 200K에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Anthropic Claude 3.5 Haiku 200K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Anthropic Claude 3.5 Haiku 64K에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Anthropic Claude 3.5 Haiku 64K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Anthropic Claude 3.5 Sonnet 18K에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Anthropic Claude 3.5 Sonnet 18K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Anthropic Claude 3.5 Sonnet 200K에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Anthropic Claude 3.5 Sonnet 200K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Anthropic Claude 3.5 Sonnet 51K에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Anthropic Claude 3.5 Sonnet 51K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Anthropic Claude 3.5 Sonnet V2 18K에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Anthropic Claude 3.5 Sonnet V2 18K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Anthropic Claude 3.5 Sonnet V2 200K에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Anthropic Claude 3.5 Sonnet V2 200K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Anthropic Claude 3.5 Sonnet V2 51K에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Anthropic Claude 3.5 Sonnet V2 51K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Anthropic Claude Instant V1 100K에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Anthropic Claude Instant V1 100K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Anthropic Claude V2 100K에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Anthropic Claude V2 100K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Anthropic Claude V2 18K에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Anthropic Claude V2 18K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Anthropic Claude V2.1 18K에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Anthropic Claude V2.1 18K에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Anthropic Claude V2.1 200K에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Anthropic Claude V2.1 200k에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Cohere Command에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Cohere Command에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Cohere Command Light에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Cohere Command Light에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Cohere Command R에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Cohere Command R 128k에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Cohere Command R Plus에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Cohere Command R Plus 128k에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Cohere Embed English에 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Cohere Embed English에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Cohere Embed 다국어 프로비저닝 모델당 모델 단위 지원되는 각 리전: 0 Cohere Embed 다국어에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Meta Llama 2 13B에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Meta Llama 2 13B에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Meta Llama 2 70B에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Meta Llama 2 70B에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Meta Llama 2 Chat 13B에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Meta Llama 2 Chat 13B에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Meta Llama 2 Chat 70B에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Meta Llama 2 Chat 70B에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Meta Llama 3 70B Instruct에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Meta Llama 3 70B Instruct에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Meta Llama 3 8B Instruct에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Meta Llama 3 8B Instruct에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Meta Llama 3.1 70B Instruct에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Meta Llama 3.1 70B Instruct에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Meta Llama 3.1 8B Instruct에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Meta Llama 3.1 8B Instruct에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Mistral Large 2407에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Mistral Large 2407의 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Mistral Small에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Mistral Small에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Stability.ai Stable Diffusion XL 0.8에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Stability.ai Stable Diffusion XL 0.8에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수
Stability.ai Stable Diffusion XL 1.0에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Stability.ai Stable Diffusion XL 1.0에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
동시 자동 모델 평가 작업 수 지원되는 각 지역: 20 No 현재 리전의이 계정에서 한 번에 지정할 수 있는 자동 모델 평가 작업의 최대 수입니다.
인적 작업자를 사용하는 동시 모델 평가 작업 수 지원되는 각 지역: 10개 No 현재 리전의이 계정에서 한 번에 지정할 수 있는 인적 작업자를 사용하는 모델 평가 작업의 최대 수입니다.
사용자 지정 지표 수 지원되는 각 지역: 10개 No 인적 작업자를 사용하는 모델 평가 작업에서 지정할 수 있는 사용자 지정 지표의 최대 수입니다.
인적 기반 모델 평가 작업의 사용자 지정 프롬프트 데이터 세트 수 지원되는 각 리전: 1 No 현재 리전의이 계정에서 인적 기반 모델 평가 작업에서 지정할 수 있는 사용자 지정 프롬프트 데이터 세트의 최대 수입니다.
작업당 데이터 세트 수 지원되는 각 지역: 5개 No 자동 모델 평가 작업에서 지정할 수 있는 최대 데이터 세트 수입니다. 여기에는 사용자 지정 프롬프트 데이터 세트와 기본 제공 프롬프트 데이터 세트가 모두 포함됩니다.
평가 작업 수 지원되는 각 리전: 5,000개 No 현재 리전의이 계정에서 생성할 수 있는 최대 모델 평가 작업 수입니다.
데이터 세트당 지표 수 지원되는 각 리전: 3 No 자동화된 모델 평가 작업에서 데이터 세트당 지정할 수 있는 최대 지표 수입니다. 여기에는 사용자 지정 지표와 기본 제공 지표가 모두 포함됩니다.
인간 작업자를 사용하는 모델 평가 작업의 모델 수 지원되는 각 리전: 2 No 인간 작업자를 사용하는 모델 평가 작업에서 지정할 수 있는 최대 모델 수입니다.
자동화된 모델 평가 작업의 모델 수 지원되는 각 리전: 1 No 자동 모델 평가 작업에서 지정할 수 있는 최대 모델 수입니다.
사용자 지정 프롬프트 데이터 세트의 프롬프트 수 지원되는 각 리전: 1,000 No 사용자 지정 프롬프트 데이터 세트에 포함될 수 있는 최대 프롬프트 수입니다.
온디맨드 ApplyGuardrail 콘텐츠 필터 정책 초당 텍스트 단위 지원되는 각 지역: 25 초당 콘텐츠 필터 정책에 대해 처리할 수 있는 최대 텍스트 단위 수
온디맨드 ApplyGuardrail 거부 주제 정책 초당 텍스트 단위 지원되는 각 지역: 25 거부된 주제 정책에 대해 초당 처리할 수 있는 최대 텍스트 단위 수
온디맨드 ApplyGuardrail 민감한 정보 필터 정책 텍스트 단위/초 지원되는 각 지역: 25 민감한 정보 필터 정책에 대해 초당 처리할 수 있는 최대 텍스트 단위 수
온디맨 ApplyGuardrail 드 Word 필터 정책 텍스트 단위/초 지원되는 각 지역: 25 Word 필터 정책에 대해 초당 처리할 수 있는 최대 텍스트 단위 수입니다.
온디맨드 ApplyGuardrail 컨텍스트 접지 정책 텍스트 단위/초

us-east-1: 106

us-west-2: 106

지원되는 다른 각 리전: 53

초당 컨텍스트 접지 정책에 대해 처리할 수 있는 최대 텍스트 단위 수
초당 온디맨드 ApplyGuardrail 요청 수 지원되는 각 지역: 25 초당 허용되는 최대 호출 수 ApplyGuardrail API
Amazon Nova Reel에 대한 온디맨드 InvokeModel 동시 요청 지원되는 각 지역: 10개 No Amazon Nova Reel에 대한 모델 추론을 위해 제출할 수 있는 최대 동시 요청 수입니다. 할당량은 Converse ConverseStream, InvokeModel and의 합계를 고려합니다 InvokeModelWithResponseStream.
AI21 Labs Jamba 1.5 Large에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 100 No AI21 Labs Jamba 1.5 Large에 대해 1분 동안 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 Converse 및에 대한 요청의 합계를 고려합니다. InvokeModel
AI21 Labs Jamba 1.5 Mini에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 100 No AI21 Labs Jamba 1.5 Mini에 대해 1분 동안 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 Converse 및에 대한 요청의 합계를 고려합니다. InvokeModel
AI21 Labs Jamba Instruct에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 100 No AI21 Labs Jamba Instruct에 대해 1분 동안 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 Converse 및에 대한 요청의 합계를 고려합니다. InvokeModel
AI21 Labs Jurassic-2 Mid에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 400 No 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 호출할 수 있는 최대 횟수입니다. 할당량은 AI21 Labs Jurassic-2 Mid에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
AI21 Labs Jurassic-2 Ultra에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 100 No 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 호출할 수 있는 최대 횟수입니다. 할당량은 AI21 Labs Jurassic-2 Ultra에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Amazon Nova Canvas에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 100 No Amazon Nova Canvas에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 요청 수입니다. 할당량은 Converse ConverseStream, InvokeModel and의 합계를 고려합니다 InvokeModelWithResponseStream.
Amazon Nova Lite에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 1,000 No Amazon Nova Lite에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 요청 수입니다. 할당량은 Converse ConverseStream, InvokeModel and의 합계를 고려합니다 InvokeModelWithResponseStream.
Amazon Nova Micro에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 1,000 No Amazon Nova Micro에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 요청 수입니다. 할당량은 Converse ConverseStream, InvokeModel and의 합계를 고려합니다 InvokeModelWithResponseStream.
Amazon Nova Pro에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 100 No Amazon Nova Pro에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 요청 수입니다. 할당량은 Converse ConverseStream, InvokeModel and의 합계를 고려합니다 InvokeModelWithResponseStream.
Amazon Titan Image Generator G1에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 60개 No Amazon Titan Image Generator G1에 대해 1분 InvokeModel 에 호출할 수 있는 최대 횟수입니다.
Amazon Titan Image Generator G1 V2에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 60개 No Amazon Titan Image Generator G V2에 대해 1분 InvokeModel 에 호출할 수 있는 최대 횟수입니다.
Amazon Titan 멀티모달 임베딩 G1에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 2,000 No Amazon Titan Multimodal Embeddings G1에 대해 1분 InvokeModel 동안 호출할 수 있는 최대 횟수입니다.
Amazon Titan 텍스트 임베딩에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 2,000 No Amazon Titan 텍스트 임베딩에 대해 1분 InvokeModel 에 호출할 수 있는 최대 횟수
Amazon Titan Text Embeddings V2에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 2,000 No Amazon Titan Text Embeddings V2에 대해 1분 InvokeModel 에 호출할 수 있는 최대 횟수
Amazon Titan Text Express에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 400 No 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 호출할 수 있는 최대 횟수입니다. 할당량은 Amazon Titan Text Express에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Amazon Titan Text Lite에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 800 No 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 호출할 수 있는 최대 횟수입니다. 할당량은 Amazon Titan Text Lite에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Amazon Titan Text Premier에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 100 No 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 호출할 수 있는 최대 횟수입니다. 할당량은 Amazon Titan Text Premier에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Anthropic Claude 3 Haiku에 대한 분당 온디맨드 InvokeModel 요청

us-east-1: 1,000

us-west-2: 1,000

ap-northeast-1: 200

ap-southeast-1: 200

지원되는 다른 각 리전: 400

No 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 호출할 수 있는 최대 횟수입니다. 할당량은 Anthropic Claude 3 Haiku에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Anthropic Claude 3 Opus에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 50 No 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 호출할 수 있는 최대 횟수입니다. 할당량은 Anthropic Claude 3 Opus에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Anthropic Claude 3 Sonnet에 대한 분당 온디맨드 InvokeModel 요청

us-east-1: 500

us-west-2: 500

각각의 지원되는 다른 리전: 100

No 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 호출할 수 있는 최대 횟수입니다. 할당량은 Anthropic Claude 3 Sonnet에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Anthropic Claude 3.5 Haiku에 대한 분당 온디맨드 InvokeModel 요청

us-east-1: 1,000

us-west-2: 1,000

지원되는 다른 각 리전: 400

No 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 호출할 수 있는 최대 횟수입니다. 할당량은 Anthropic Claude 3.5 Haiku에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Anthropic Claude 3.5 Sonnet에 대한 분당 온디맨드 InvokeModel 요청

us-east-1: 50

us-east-2: 50

us-west-2: 250

ap-northeast-2: 50

ap-south-1: 50

ap-southeast-2: 50

각각의 지원되는 다른 리전: 20

No Anthropic Claude 3.5 Sonnet에 대해 1분 동안 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 Converse ConverseStream, InvokeModel and의 합계를 고려합니다 InvokeModelWithResponseStream.
Anthropic Claude 3.5 Sonnet V2에 대한 분당 온디맨드 InvokeModel 요청

us-west-2: 250

각각의 지원되는 다른 리전: 50회

No Anthropic Claude 3.5 Sonnet V2에 대해 1분 동안 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 Converse ConverseStream, InvokeModel and의 합계를 고려합니다 InvokeModelWithResponseStream.
Anthropic Claude Instant에 대한 분당 온디맨드 InvokeModel 요청

us-east-1: 1,000

us-west-2: 1,000

지원되는 다른 각 리전: 400

No 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 호출할 수 있는 최대 횟수입니다. 할당량은 Anthropic Claude Instant에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Anthropic Claude V2에 대한 분당 온디맨드 InvokeModel 요청

us-east-1: 500

us-west-2: 500

각각의 지원되는 다른 리전: 100

No 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 호출할 수 있는 최대 횟수입니다. 할당량은 Anthropic Claude V2에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Cohere 명령에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 400 No 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 호출할 수 있는 최대 횟수입니다. 할당량은 Cohere Command에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Cohere Command Light에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 800 No 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 호출할 수 있는 최대 횟수입니다. 할당량은 Cohere Command Light에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Cohere Command R에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 400 No 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 호출할 수 있는 최대 횟수입니다. 할당량은 Cohere Command R 128k에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Cohere Command R Plus에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 400 No 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 호출할 수 있는 최대 횟수입니다. 할당량은 Cohere Command R Plus 128k에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Cohere Embed English에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 2,000 No Cohere Embed English에 대해 1분 InvokeModel 동안 호출할 수 있는 최대 횟수입니다.
Cohere Embed 다국어에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 2,000 No Cohere Embed 다국어에 대해 1분 InvokeModel 에 호출할 수 있는 최대 횟수입니다.
Meta Llama 2 13B에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 800 No 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 호출할 수 있는 최대 횟수입니다. 할당량은 Meta Llama 2 13B에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Meta Llama 2 70B에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 400 No 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 호출할 수 있는 최대 횟수입니다. 할당량은 Meta Llama 2 70B에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Meta Llama 2 Chat 13B에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 800 No 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 호출할 수 있는 최대 횟수입니다. 할당량은 Meta Llama 2 Chat 13B에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Meta Llama 2 Chat 70B에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 400 No 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 호출할 수 있는 최대 횟수입니다. 할당량은 Meta Llama 2 Chat 70B에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Meta Llama 3 70B Instruct에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 400 No 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 호출할 수 있는 최대 횟수입니다. 할당량은 Meta Llama 3 70B Instruct에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Meta Llama 3 8B Instruct에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 800 No 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 호출할 수 있는 최대 횟수입니다. 할당량은 Meta Llama 3 8B Instruct에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Mistral 7B Instruct에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 800 No Mistral mistral-7b-instruct-v0에 대해 1분 InvokeModel 동안 호출할 수 있는 최대 횟수
Mistral AI Mistral Small에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 400 No Mistral AI Mistral Small에 대해 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 호출할 수 있는 최대 횟수
Mistral Large에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 400 No Mistral mistral-large-2402-v1에 대해 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 호출할 수 있는 최대 횟수
Mistral Mixtral 8x7b Instruct에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 400 No Mistral mixtral-8x7b-v0에 대해 1분 InvokeModel 동안 호출할 수 있는 최대 횟수
Stability.ai Stable Diffusion 3 Large에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 15 No Stability.ai Stable Diffusion 3 Large에 대해 1분 InvokeModel 에 호출할 수 있는 최대 횟수입니다.
Stability.ai Stable Diffusion 3 Medium에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 60개 No Stability.ai Stable Diffusion 3 Medium에 대해 1분 InvokeModel 에 호출할 수 있는 최대 횟수
Stability.ai Stable Diffusion 3.5 Large에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 15 No 할당량은 InvokeModelStability.ai Stable Diffusion 3.5 Large에 ConverseStream 대한 InvokeModelWithResponseStream요청, Converse 및 요청의 합계를 고려합니다.
Stability.ai Stable Diffusion XL 0.8에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 60개 No Stability.ai Stable Diffusion XL 0.8에 대해 1분 InvokeModel 동안 호출할 수 있는 최대 횟수
Stability.ai Stable Diffusion XL 1.0에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 60개 No Stability.ai Stable Diffusion XL 1.0에 대해 1분 InvokeModel 에 호출할 수 있는 최대 횟수
Stability.ai Stable Image Core에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 90 No Stability.ai Stable Image Core에 대해 1분 InvokeModel 에 호출할 수 있는 최대 횟수입니다.
Stability.ai Stable Image Ultra에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 지역: 10개 No Stability.ai Stable Image Ultra에 대해 1분 InvokeModel 에 호출할 수 있는 최대 횟수입니다.
AI21 Labs Jamba 1.5 Large의 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 No AI21 Labs Jamba 1.5 Large에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 Converse 및에 대한 토큰의 합계를 고려합니다 InvokeModel.
AI21 Labs Jamba 1.5 Mini의 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 No AI21 Labs Jamba 1.5 Mini에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 Converse 및에 대한 토큰의 합계를 고려합니다 InvokeModel.
AI21 Labs Jamba Instruct의 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 No AI21 Labs Jamba Instruct에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 Converse 및에 대한 토큰의 합계를 고려합니다. InvokeModel
AI21 Labs Jurassic-2 Mid의 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 No AI21 Labs Jurassic-2 Mid에 대해 1분 InvokeModel 에 제공할 수 있는 최대 토큰 수입니다.
AI21 Labs Jurassic-2 Ultra의 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 No AI21 Labs Jurassic-2 Ultra에 대해 1분 InvokeModel 에 제공할 수 있는 최대 토큰 수입니다.
Amazon Nova Lite의 분당 온디맨드 InvokeModel 토큰 지원되는 각 리전: 2,000,000 No Amazon Nova Lite에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 Converse ConverseStream, InvokeModel and의 합계를 고려합니다 InvokeModelWithResponseStream.
Amazon Nova Micro의 분당 온디맨드 InvokeModel 토큰 수 지원되는 각 리전: 2,000,000 No Amazon Nova Micro에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 Converse ConverseStream, InvokeModel and의 합계를 고려합니다 InvokeModelWithResponseStream.
Amazon Nova Pro의 분당 온디맨드 InvokeModel 토큰 수 지원되는 각 리전: 400,000 No Amazon Nova Pro에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 Converse ConverseStream, InvokeModel and의 합계를 고려합니다 InvokeModelWithResponseStream.
Amazon Titan Image Generator G1의 분당 온디맨드 InvokeModel 토큰 지원되는 각 리전: 2,000 No Amazon Titan Image Generator G1에 대해 1분 InvokeModel 에 제공할 수 있는 최대 토큰 수입니다.
Amazon Titan Image Generator G1 V2의 분당 온디맨드 InvokeModel 토큰 지원되는 각 리전: 2,000 No Amazon Titan Image Generator G1 V2에 대해 1분 InvokeModel 에 제공할 수 있는 최대 토큰 수입니다.
Amazon Titan 멀티모달 임베딩 G1에 대한 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 No Amazon Titan Multimodal Embeddings G1에 대해 1분 InvokeModel 에 제공할 수 있는 최대 토큰 수입니다.
Amazon Titan 텍스트 임베딩에 대한 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 No Amazon Titan 텍스트 임베딩에 대해 1분 InvokeModel 에 제공할 수 있는 최대 토큰 수입니다.
Amazon Titan Text Embeddings V2에 대한 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 No Amazon Titan Text Embeddings V2에 대해 1분 InvokeModel 에 제공할 수 있는 최대 토큰 수입니다.
Amazon Titan Text Express의 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 No 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Amazon Titan Text Express에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Amazon Titan Text Lite의 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 No 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Amazon Titan Text Lite에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Amazon Titan Text Premier의 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 No 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Amazon Titan Text Premier에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Anthropic Claude 3 Haiku의 분당 온디맨드 InvokeModel 토큰 수

us-east-1: 2,000,000

us-west-2: 2,000,000

ap-northeast-1: 200,000

ap-southeast-1: 200,000

지원되는 다른 각 리전: 300,000개

No 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Anthropic Claude 3 Haiku에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Anthropic Claude 3 Opus에 대한 분당 온디맨드 InvokeModel 토큰 지원되는 각 리전: 400,000 No 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Anthropic Claude 3 Opus에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Anthropic Claude 3 Sonnet의 분당 온디맨드 InvokeModel 토큰

us-east-1: 1,000,000

us-west-2: 1,000,000

지원되는 다른 각 리전: 200,000개

No 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Anthropic Claude 3 Sonnet에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Anthropic Claude 3.5 Haiku에 대한 분당 온디맨드 InvokeModel 토큰

us-east-1: 2,000,000

us-west-2: 2,000,000

지원되는 다른 각 리전: 300,000개

No 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Anthropic Claude 3.5 Haiku에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Anthropic Claude 3.5 Sonnet의 분당 온디맨드 InvokeModel 토큰

us-east-1: 400,000

us-east-2: 400,000

us-west-2: 2,000,000

ap-northeast-2: 400,000

ap-south-1: 400,000

ap-southeast-2: 400,000

지원되는 다른 각 리전: 200,000개

No Anthropic Claude 3.5 Sonnet에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 Converse ConverseStream, InvokeModel and의 합계를 고려합니다 InvokeModelWithResponseStream.
Anthropic Claude 3.5 Sonnet V2의 분당 온디맨드 InvokeModel 토큰 수

us-west-2: 2,000,000

지원되는 다른 각 리전: 400,000개

No Anthropic Claude 3.5 Sonnet V2에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 Converse ConverseStream, InvokeModel and의 합계를 고려합니다 InvokeModelWithResponseStream.
Anthropic Claude Instant의 분당 온디맨드 InvokeModel 토큰

us-east-1: 1,000,000

us-west-2: 1,000,000

지원되는 다른 각 리전: 300,000개

No 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Anthropic Claude Instant에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Anthropic Claude V2의 분당 온디맨드 InvokeModel 토큰

us-east-1: 500,000

us-west-2: 500,000

지원되는 다른 각 리전: 200,000개

No 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Anthropic Claude V2에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Cohere Command에 대한 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 No 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Cohere Command에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Cohere Command Light의 분당 온디맨드 InvokeModel 토큰 수 지원되는 각 지역: 300,000 No Cohere Command Light에 대해 1분 InvokeModel 동안 제공할 수 있는 최대 토큰 수입니다.
Cohere Command R에 대한 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 No 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Cohere Command R 128k에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Cohere Command R Plus의 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 No 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Cohere Command R Plus 128k에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Cohere 임베드 영어의 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 No Cohere Embed English에 대해 1분 InvokeModel 동안 제공할 수 있는 최대 토큰 수입니다.
Cohere Embed 다국어에 대한 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 No Cohere Embed 다국어에 대해 1분 InvokeModel 동안 제공할 수 있는 최대 토큰 수입니다.
Meta Llama 2 13B에 대한 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 No 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Meta Llama 2 13B에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Meta Llama 2 70B에 대한 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 No 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Meta Llama 2 70B에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Meta Llama 2 Chat 13B의 분당 온디맨드 InvokeModel 토큰 수 지원되는 각 지역: 300,000 No 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Meta Llama 2 Chat 13B에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Meta Llama 2 Chat 70B의 분당 온디맨드 InvokeModel 토큰 수 지원되는 각 지역: 300,000 No 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Meta Llama 2 Chat 70B에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Meta Llama 3 70B Instruct에 대한 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 No 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Meta Llama 3 70B Instruct에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Meta Llama 3 8B Instruct에 대한 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 No 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Meta Llama 3 8B Instruct에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Mistral AI Mistral 7B Instruct에 대한 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 No 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Mistral AI Mistral 7B Instruct에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Mistral AI Mistral Large의 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 No 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Mistral AI Mistral Large에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Mistral AI Mistral Small의 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 No 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Mistral AI Mistral Small에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Mistral AI Mixtral 8X7BB Instruct에 대한 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 No 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Mistral mixtral-8x7b-instruct-v0에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Anthropic Claude 3.5 Haiku에 대한 분당 온디맨드 지연 시간 최적화 InvokeModel 요청 지원되는 각 리전: 100 No 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 호출할 수 있는 최대 횟수입니다. 지연 시간 최적화가 구성된 경우 할당량은 Anthropic Claude 3.5 Haiku에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Anthropic Claude 3.5 Haiku의 분당 온디맨드 지연 시간 최적화 InvokeModel 토큰 각각 지원되는 리전: 500,000 No 1분 InvokeModelWithResponseStream 동안 InvokeModel 및를 통해 제공할 수 있는 최대 토큰 수입니다. 지연 시간 최적화가 구성된 경우 할당량은 Anthropic Claude 3.5 Haiku에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Meta Llama 3.1 405B Instruct에 대한 분당 온디맨드 지연 시간 최적화 모델 추론 요청 지원되는 각 리전: 100 No 지연 시간 최적화가 구성된 경우 Meta Llama 3.1 405B Instruct에 대해 1분 내에 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및에 대한 요청의 합계를 고려합니다 ConverseStream.
Meta Llama 3.1 70B Instruct에 대한 분당 온디맨드 지연 시간 최적화 모델 추론 요청 지원되는 각 리전: 100 No 지연 시간 최적화가 구성된 경우 Meta Llama 3.1 70B Instruct에 대해 1분 내에 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및에 대한 요청의 합계를 고려합니다 ConverseStream.
Meta Llama 3.1 405B Instruct에 대한 분당 온디맨드 지연 시간 최적화 모델 추론 토큰 지원되는 각 리전: 40,000 No 지연 시간 최적화가 구성된 경우 Meta Llama 3.1 405B Instruct에 대해 1분 내에 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및에 대한 토큰의 합계를 고려합니다 ConverseStream.
Meta Llama 3.1 70b Instruct에 대한 분당 온디맨드 지연 시간 최적화 모델 추론 토큰 지원되는 각 리전: 40,000 No 지연 시간 최적화가 구성된 경우 Meta Llama 3.1 70b Instruct에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및에 대한 토큰의 합계를 고려합니다 ConverseStream.
Meta Llama 3.1 405B Instruct에 대한 분당 온디맨드 모델 추론 요청 지원되는 각 리전: 200 No Meta Llama 3.1 405B Instruct에 대해 1분 동안 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및에 대한 요청의 합계를 고려합니다 ConverseStream.
Meta Llama 3.1 70B Instruct에 대한 분당 온디맨드 모델 추론 요청 지원되는 각 리전: 400 No Meta Llama 3.1 70B Instruct에 대해 1분 동안 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및에 대한 요청의 합계를 고려합니다 ConverseStream.
Meta Llama 3.1 8B Instruct에 대한 분당 온디맨드 모델 추론 요청 지원되는 각 리전: 800 No Meta Llama 3.1 8B Instruct에 대해 1분 동안 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및에 대한 요청의 합계를 고려합니다 ConverseStream.
Meta Llama 3.2 11B Instruct에 대한 분당 온디맨드 모델 추론 요청 지원되는 각 리전: 400 No Meta Llama 3.2 11B Instruct에 대해 1분 동안 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및에 대한 요청의 합계를 고려합니다 ConverseStream.
Meta Llama 3.2 1B Instruct에 대한 분당 온디맨드 모델 추론 요청 지원되는 각 리전: 800 No Meta Llama 3.2 1B Instruct에 대해 1분 동안 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및에 대한 요청의 합계를 고려합니다 ConverseStream.
Meta Llama 3.2 3B Instruct에 대한 분당 온디맨드 모델 추론 요청 지원되는 각 리전: 800 No Meta Llama 3.2 3B Instruct에 대해 1분 동안 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및에 대한 요청의 합계를 고려합니다 ConverseStream.
Meta Llama 3.2 90B Instruct에 대한 분당 온디맨드 모델 추론 요청 지원되는 각 리전: 400 No Meta Llama 3.2 90B Instruct에 대해 1분 동안 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및에 대한 요청의 합계를 고려합니다 ConverseStream.
Meta Llama 3.3 70B Instruct에 대한 분당 온디맨드 모델 추론 요청 지원되는 각 리전: 400 No Meta Llama 3.3 70B Instruct에 대해 1분 내에 모델 추론을 위해 제출할 수 있는 온디맨드 요청의 최대 수입니다. 할당량은 Converse ConverseStream, InvokeModel and의 합계를 고려합니다 InvokeModelWithResponseStream.
Mistral Large 2407에 대한 분당 온디맨드 모델 추론 요청 지원되는 각 리전: 400 No Mistral Large 2407에 대해 1분 내에 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및에 대한 요청의 합계를 고려합니다. ConverseStream
Meta Llama 3.1 8B Instruct에 대한 분당 온디맨드 모델 추론 토큰 지원되는 각 지역: 300,000 No Meta Llama 3.1 8B Instruct에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및에 대한 토큰의 합계를 고려합니다 ConverseStream.
Meta Llama 3.2 11B Instruct에 대한 분당 온디맨드 모델 추론 토큰 지원되는 각 지역: 300,000 No Meta Llama 3.2 11B Instruct에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및에 대한 토큰의 합계를 고려합니다 ConverseStream.
Meta Llama 3.2 1B Instruct에 대한 분당 온디맨드 모델 추론 토큰 지원되는 각 지역: 300,000 No Meta Llama 3.2 1B Instruct에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및에 대한 토큰의 합계를 고려합니다 ConverseStream.
Meta Llama 3.2 3B Instruct에 대한 분당 온디맨드 모델 추론 토큰 지원되는 각 지역: 300,000 No Meta Llama 3.2 3B Instruct에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및에 대한 토큰의 합계를 고려합니다 ConverseStream.
Meta Llama 3.2 90B Instruct에 대한 분당 온디맨드 모델 추론 토큰 지원되는 각 지역: 300,000 No Meta Llama 3.2 90B Instruct에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및에 대한 토큰의 합계를 고려합니다 ConverseStream.
Meta Llama 3.3 70B Instruct에 대한 분당 온디맨드 모델 추론 토큰 지원되는 각 지역: 300,000 No Meta Llama 3.3 70B Instruct에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 온디맨드 토큰의 최대 수입니다. 할당량은 Converse ConverseStream, InvokeModel and의 합계를 고려합니다 InvokeModelWithResponseStream.
Mistral Large 2407에 대한 분당 온디맨드 모델 추론 토큰 지원되는 각 지역: 300,000 No Mistral Large 2407에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및에 대한 토큰의 합계를 고려합니다. ConverseStream
Meta Llama 3.1 405B Instruct에 대한 분당 온디맨드 모델 추론 토큰 지원되는 각 리전: 400,000 No Meta Llama 3.1 405B Instruct에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및에 대한 토큰의 합계를 고려합니다 ConverseStream.
Meta Llama 3.1 70B Instruct에 대한 분당 온디맨드 모델 추론 토큰 지원되는 각 지역: 300,000 No Meta Llama 3.1 70B Instruct에 대해 1분 동안 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및에 대한 토큰의 합계를 고려합니다 ConverseStream.
흐름당 출력 노드 수 지원되는 각 지역: 10개 No 최대 흐름 출력 노드 수입니다.
함수당 파라미터 지원되는 각 리전: 5 작업 그룹 함수에 포함할 수 있는 최대 파라미터 수입니다.
PrepareAgent 초당 요청 수 지원되는 각 리전: 2 No 초당 최대 요청 수입니다 PrepareAgent API.
PrepareFlow 초당 요청 수 지원되는 각 리전: 2 No 초당 최대 PrepareFlow 요청 수입니다.
흐름당 프롬프트 노드 수 지원되는 각 리전: 10 최대 프롬프트 노드 수입니다.
계정당 프롬프트 지원되는 각 지역: 50 최대 프롬프트 수입니다.
배치 추론 작업당 레코드 지원되는 각 리전: 50,000 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다.
Claude 3 Haiku에 대한 배치 추론 작업당 레코드 지원되는 각 리전: 50,000 Claude 3 Haiku에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다.
Claude 3 Opus에 대한 배치 추론 작업당 레코드 지원되는 각 리전: 50,000 Claude 3 Opus에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다.
Claude 3 Sonnet에 대한 배치 추론 작업당 레코드 지원되는 각 리전: 50,000 Claude 3 Sonnet에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다.
Claude 3.5 Haiku에 대한 배치 추론 작업당 레코드 지원되는 각 리전: 50,000 Claude 3.5 Haiku에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다.
Claude 3.5 Sonnet에 대한 배치 추론 작업당 레코드 지원되는 각 리전: 50,000 Claude 3.5 Sonnet에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다.
Claude 3.5 Sonnet v2에 대한 배치 추론 작업당 레코드 지원되는 각 리전: 50,000 Claude 3.5 Sonnet v2에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다.
Llama 3.1 405B Instruct에 대한 배치 추론 작업당 레코드 지원되는 각 리전: 50,000 Llama 3.1 405B Instruct에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다.
Llama 3.1 70B Instruct에 대한 배치 추론 작업당 레코드 지원되는 각 리전: 50,000 Llama 3.1 70B Instruct에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다.
Llama 3.1 8B Instruct에 대한 배치 추론 작업당 레코드 지원되는 각 리전: 50,000 Llama 3.1 8B Instruct에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다.
Llama 3.2 11B Instruct에 대한 배치 추론 작업당 레코드 지원되는 각 리전: 50,000 Llama 3.2 11B Instruct에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다.
Llama 3.2 1B Instruct에 대한 배치 추론 작업당 레코드 지원되는 각 리전: 50,000 배치 추론 작업 Llama 3.2 1B Instruct의 모든 입력 파일에 대한 최대 레코드 수입니다.
Llama 3.2 3B Instruct에 대한 배치 추론 작업당 레코드 지원되는 각 리전: 50,000 Llama 3.2 3B Instruct에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다.
Llama 3.2 90B Instruct에 대한 배치 추론 작업당 레코드 지원되는 각 리전: 50,000 Llama 3.2 90B Instruct에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다.
Mistral Large 2에 대한 배치 추론 작업당 레코드 수(24.07) 지원되는 각 리전: 50,000 Mistral Large 2(24.07)에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다.
Mistral Small에 대한 배치 추론 작업당 레코드 지원되는 각 리전: 50,000 Mistral Small에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다.
Nova Lite V1에 대한 배치 추론 작업당 레코드 지원되는 각 리전: 50,000 Nova Lite V1에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다.
Nova Micro V1에 대한 배치 추론 작업당 레코드 지원되는 각 리전: 50,000 Nova Micro V1에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다.
Nova Pro V1에 대한 배치 추론 작업당 레코드 지원되는 각 리전: 50,000 Nova Pro V1에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다.
Titan Multimodal Embeddings G1에 대한 배치 추론 작업당 레코드 지원되는 각 리전: 50,000 Titan Multimodal Embeddings G1에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다.
Titan Text Embeddings V2에 대한 배치 추론 작업당 레코드 지원되는 각 리전: 50,000 Titan Text Embeddings V2에 대한 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다.
배치 추론 작업당 입력 파일당 레코드 수 지원되는 각 리전: 50,000 배치 추론 작업의 입력 파일에 있는 최대 레코드 수입니다.
Claude 3 Haiku에 대한 배치 추론 작업당 입력 파일당 레코드 수 지원되는 각 리전: 50,000 Claude 3 Haiku의 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다.
Claude 3 Opus에 대한 배치 추론 작업당 입력 파일당 레코드 지원되는 각 리전: 50,000 Claude 3 Opus의 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다.
Claude 3 Sonnet에 대한 배치 추론 작업당 입력 파일당 레코드 수 지원되는 각 리전: 50,000 Claude 3 Sonnet의 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다.
Claude 3.5 Haiku에 대한 배치 추론 작업당 입력 파일당 레코드 수 지원되는 각 리전: 50,000 Claude 3.5 Haiku의 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다.
Claude 3.5 Sonnet에 대한 배치 추론 작업당 입력 파일당 레코드 수 지원되는 각 리전: 50,000 Claude 3.5 Sonnet의 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다.
Claude 3.5 Sonnet v2에 대한 배치 추론 작업당 입력 파일당 레코드 수 지원되는 각 리전: 50,000 Claude 3.5 Sonnet v2의 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다.
Llama 3.1 405B Instruct에 대한 배치 추론 작업당 입력 파일당 레코드 수 지원되는 각 리전: 50,000 Llama 3.1 405B Instruct의 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다.
Llama 3.1 70B Instruct에 대한 배치 추론 작업당 입력 파일당 레코드 수 지원되는 각 리전: 50,000 Llama 3.1 70B Instruct의 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다.
Llama 3.1 8B Instruct에 대한 배치 추론 작업당 입력 파일당 레코드 수 지원되는 각 리전: 50,000 Llama 3.1 8B Instruct의 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다.
Llama 3.2 11B Instruct에 대한 배치 추론 작업당 입력 파일당 레코드 수 지원되는 각 리전: 50,000 Llama 3.2 11B Instruct의 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다.
Llama 3.2 1B Instruct에 대한 배치 추론 작업당 입력 파일당 레코드 수 지원되는 각 리전: 50,000 배치 추론 작업 Llama 3.2 1B Instruct의 입력 파일에 있는 최대 레코드 수입니다.
Llama 3.2 3B Instruct에 대한 배치 추론 작업당 입력 파일당 레코드 수 지원되는 각 리전: 50,000 Llama 3.2 3B Instruct의 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다.
Llama 3.2 90B Instruct에 대한 배치 추론 작업당 입력 파일당 레코드 수 지원되는 각 리전: 50,000 Llama 3.2 90B Instruct의 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다.
Mistral Large 2(24.07)에 대한 배치 추론 작업당 입력 파일당 레코드 수 지원되는 각 리전: 50,000 Mistral Large 2(24.07)의 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다.
Mistral Small에 대한 배치 추론 작업당 입력 파일당 레코드 수 지원되는 각 리전: 50,000 Mistral Small의 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다.
Nova Lite V1에 대한 배치 추론 작업당 입력 파일당 레코드 수 지원되는 각 리전: 50,000 Nova Lite V1의 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다.
Nova Micro V1에 대한 배치 추론 작업당 입력 파일당 레코드 수 지원되는 각 리전: 50,000 Nova Micro V1의 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다.
Nova Pro V1에 대한 배치 추론 작업당 입력 파일당 레코드 수 지원되는 각 리전: 50,000 Nova Pro V1의 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다.
Titan Multimodal Embeddings G1에 대한 배치 추론 작업당 입력 파일당 레코드 수 지원되는 각 리전: 50,000 Titan Multimodal Embeddings G1에 대한 배치 추론 작업의 입력 파일에 있는 최대 레코드 수입니다.
Titan Text Embeddings V2에 대한 배치 추론 작업당 입력 파일당 레코드 수 지원되는 각 리전: 50,000 Titan Text Embeddings V2의 배치 추론 작업에서 입력 파일의 최대 레코드 수입니다.
민감한 정보 필터의 정규식 엔터티 지원되는 각 지역: 10개 No 민감한 정보 정책에 포함할 수 있는 가드레일 필터 정규식의 최대 수
정규식 문자 길이 지원되는 각 리전: 500개 No 가드레일 필터 정규식의 최대 문자 길이
초당 요청 검색 지원되는 각 지역: 5개 No 초당 최대 검색 API 요청 수입니다.
RetrieveAndGenerate 초당 요청 수 지원되는 각 지역: 5개 No 초당 최대 요청 수입니다 RetrieveAndGenerate API.
흐름당 S3 검색 노드 수 지원되는 각 지역: 10개 No 최대 S3 검색 노드 수입니다.
흐름당 S3 스토리지 노드 수 지원되는 각 지역: 10개 No S3 스토리지 노드의 최대 수입니다.
예약된 사용자 지정 작업 지원되는 각 리전: 2 No 예약된 사용자 지정 작업의 최대 수입니다.
프롬프트 크기 지원되는 각 리전: 4 No 개별 프롬프트의 최대 크기(KB)는 사용자 지정 프롬프트 데이터 세트입니다.
StartIngestionJob 초당 요청 수 지원되는 각 리전: 0.1 No 초당 최대 요청 수입니다 StartIngestionJob API.
기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 20개 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Claude 3 Haiku용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 20개 Claude 3 Haiku의 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Claude 3 Opus용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 20개 Claude 3 Opus의 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 최대 수입니다.
Claude 3 Sonnet용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 20개 Claude 3 Sonnet의 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Claude 3.5 Haiku용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 20개 Claude 3.5 Haiku용 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Claude 3.5 Sonnet용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 20개 Claude 3.5 Sonnet의 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Claude 3.5 Sonnet v2용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 20개 Claude 3.5 Sonnet v2의 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Llama 3.1 405B Instruct용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 20개 Llama 3.1 405B Instruct의 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Llama 3.1 70B Instruct용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 20개 Llama 3.1 70B Instruct의 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Llama 3.1 8B Instruct용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 20개 Llama 3.1 8B Instruct의 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Llama 3.2 11B Instruct용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 20개 Llama 3.2 11B Instruct의 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Llama 3.2 1B Instruct용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 20개 Llama 3.2 1B Instruct의 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Llama 3.2 3B Instruct용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 20개 Llama 3.2 3B Instruct의 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Llama 3.2 90B Instruct용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 20개 Llama 3.2 90B Instruct용 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Mistral Large 2(24.07)용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 20개 Mistral Large 2(24.07)용 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Mistral Small용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 20개 Mistral Small용 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Nova Lite V1의 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 20개 Nova Lite V1의 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Nova Micro V1용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 20개 Nova Micro V1용 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Nova Pro V1용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 20개 Nova Pro V1의 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Titan Multimodal Embeddings G1용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 20개 Titan Multimodal Embeddings G1의 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Titan Text Embeddings V2용 기본 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 20개 Titan Text Embeddings V2의 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
사용자 지정 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 3 사용자 지정 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수
Claude 3 Haiku용 사용자 지정 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 3 Claude 3 Haiku용 사용자 지정 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Claude 3 Opus에 대한 사용자 지정 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 3 Claude 3 Opus에 대한 사용자 지정 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Claude 3 Sonnet용 사용자 지정 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 3 Claude 3 Sonnet용 사용자 지정 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Claude 3.5 Haiku용 사용자 지정 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 3 Claude 3.5 Haiku용 사용자 지정 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Claude 3.5 Sonnet용 사용자 지정 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 3 Claude 3.5 Sonnet용 사용자 지정 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Claude 3.5 Sonnet v2에 대한 사용자 지정 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 3 Claude 3.5 Sonnet v2에 대한 사용자 지정 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Llama 3.1 405B Instruct용 사용자 지정 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 3 Llama 3.1 405B Instruct용 사용자 지정 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Llama 3.1 70B Instruct용 사용자 지정 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 3 Llama 3.1 70B Instruct용 사용자 지정 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Llama 3.1 8B Instruct용 사용자 지정 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 3 Llama 3.1 8B Instruct용 사용자 지정 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Llama 3.2 11B Instruct용 사용자 지정 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 3 Llama 3.2 11B Instruct에 대한 사용자 지정 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Llama 3.2 1B Instruct용 사용자 지정 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 3 Llama 3.2 1B Instruct용 사용자 지정 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Llama 3.2 3B Instruct용 사용자 지정 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 3 Llama 3.2 3B Instruct용 사용자 지정 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Llama 3.2 90B Instruct용 사용자 지정 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 3 Llama 3.2 90B Instruct용 사용자 지정 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Mistral Large 2(24.07)에 대한 사용자 지정 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 3 Mistral Large 2(24.07)에 대한 사용자 지정 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Mistral Small용 사용자 지정 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 3 Mistral Small용 사용자 지정 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Nova Lite V1에 대한 사용자 지정 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계입니다. 지원되는 각 리전: 3 Nova Lite V1용 사용자 지정 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수
Nova Micro V1용 사용자 지정 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 3 Nova Micro V1용 사용자 지정 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Nova Pro V1용 사용자 지정 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 3 Nova Pro V1에 대한 사용자 지정 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Titan Multimodal Embeddings G1에 대한 사용자 지정 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 3 Titan Multimodal Embeddings G1에 대한 사용자 지정 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
Titan Text Embeddings V2에 대한 사용자 지정 모델을 사용하여 진행 중인 배치 추론 작업과 제출된 배치 추론 작업의 합계 지원되는 각 리전: 3 Titan Text Embeddings V2에 대한 사용자 지정 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수
Amazon Nova Lite 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 지원되는 각 리전: 20개,000 Amazon Nova Lite 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다.
Amazon Nova Micro 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 지원되는 각 리전: 20개,000 Amazon Nova Micro 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다.
Amazon Nova Pro 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 지원되는 각 리전: 10,000 Amazon Nova Pro 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다.
Claude 3 Haiku v1 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 지원되는 각 리전: 10,000 Claude 3 Haiku 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다.
Meta Llama 2 13B v1 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 지원되는 각 리전: 10,000 Meta Llama 2 13B 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다.
Meta Llama 2 70B v1 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 지원되는 각 리전: 10,000 Meta Llama 2 70B 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다.
Meta Llama 3.1 70B Instruct v1 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 지원되는 각 리전: 10,000 Meta Llama 3.1 70B Instruct 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다.
Meta Llama 3.1 8B Instruct v1 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 지원되는 각 리전: 10,000 Meta Llama 3.1 8B Instruct 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다.
Titan Image Generator G1 V1 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 지원되는 각 리전: 10,000 Titan Image Generator 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다.
Titan Image Generator G1 V2 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 지원되는 각 리전: 10,000 Titan Image Generator V2 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다.
Titan Multimodal Embeddings G1 v1 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 지원되는 각 리전: 50,000 Titan Multimodal Embeddings 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다.
Titan Text G1 - Express v1 지속적인 사전 교육 작업에 대한 훈련 및 검증 레코드의 합계 지원되는 각 리전: 100,000 Titan Text Express 지속적인 사전 교육 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다.
Titan Text G1 - Express v1 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 지원되는 각 리전: 10,000 Titan Text Express 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다.
Titan Text G1 - Lite v1 지속적인 사전 교육 작업에 대한 훈련 및 검증 레코드의 합계 지원되는 각 리전: 100,000 Titan Text Lite 지속적인 사전 교육 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다.
Titan Text G1 - Lite v1 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 지원되는 각 리전: 10,000 Titan Text Lite 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다.
Titan Text G1 - Premier v1 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 지원되는 각 리전: 20개,000 Titan Text Premier 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다.
작업자의 작업 시간 지원되는 각 리전: 30개 No 작업자가 작업을 완료하는 데 필요한 최대 시간(일)입니다.
가드레일당 주제 지원되는 각 리전: 30개 No 가드레일 주제 정책에서 정의할 수 있는 최대 주제 수
흐름당 총 노드 수 지원되는 각 리전: 40개 No 흐름의 최대 노드 수입니다.
UpdateAgent 초당 요청 수 지원되는 각 리전: 4 No 초당 최대 요청 수입니다 UpdateAgent API.
UpdateAgentActionGroup 초당 요청 수 지원되는 각 리전: 6개 No 초당 최대 요청 수 UpdateAgentActionGroup API
UpdateAgentAlias 초당 요청 수 지원되는 각 리전: 2 No 초당 최대 요청 수입니다 UpdateAgentAlias API.
UpdateAgentKnowledgeBase 초당 요청 수 지원되는 각 리전: 4 No 초당 최대 요청 수입니다 UpdateAgentKnowledgeBase API.
UpdateDataSource 초당 요청 수 지원되는 각 리전: 2 No 초당 최대 요청 수입니다 UpdateDataSource API.
UpdateFlow 초당 요청 수 지원되는 각 리전: 2 No 초당 최대 UpdateFlow 요청 수입니다.
UpdateFlowAlias 초당 요청 수 지원되는 각 리전: 2 No 초당 최대 UpdateFlowAlias 요청 수입니다.
UpdateKnowledgeBase 초당 요청 수 지원되는 각 리전: 2 No 초당 최대 요청 수입니다 UpdateKnowledgeBase API.
UpdatePrompt 초당 요청 수 지원되는 각 리전: 2 No 초당 최대 UpdatePrompt 요청 수입니다.
사용자 쿼리 크기 지원되는 각 리전: 1,000 No 사용자 쿼리의 최대 크기(문자)입니다.
ValidateFlowDefinition 초당 요청 수 지원되는 각 리전: 2 No 초당 최대 ValidateFlowDefinition 요청 수입니다.
가드레일당 버전 지원되는 각 지역: 20 No 가드레일이 가질 수 있는 최대 버전 수
프롬프트당 버전 지원되는 각 지역: 10개 No 프롬프트당 최대 버전 수입니다.
문자 단위의 단어 길이 지원되는 각 리전: 100 No 차단된 단어 목록에 있는 단어의 최대 길이입니다.
단어당 단어 정책 지원되는 각 리전: 10,000개 No 차단된 단어 목록에 포함할 수 있는 최대 단어 수