Amazon Bedrock 엔드포인트 및 할당량 - AWS 일반 참조

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

Amazon Bedrock 엔드포인트 및 할당량

다음은 이 서비스에 대한 서비스 엔드포인트 및 서비스 할당량입니다. AWS 서비스에 프로그래밍 방식으로 연결하려면 엔드포인트를 사용합니다. 표준 AWS 엔드포인트 외에도 일부 AWS 서비스는 선택한 리전에서 FIPS 엔드포인트를 제공합니다. 자세한 내용은 AWS 서비스 엔드포인트 단원을 참조하십시오. 한도라고도 하는 서비스 할당량은 AWS 계정의 최대 서비스 리소스 또는 작업 수입니다. 자세한 내용은 AWS 서비스 할당량 단원을 참조하십시오.

참고

AWS 에서는 애플리케이션 내에서 리전 STS 엔드포인트를 사용하고 글로벌(레거시) STS 엔드포인트를 사용하지 않는 것이 좋습니다. 리전 STS 엔드포인트는 지연 시간을 줄이고, 중복성을 구축하고, 세션 토큰 유효성을 높입니다. 리전 STS 엔드포인트를 사용하도록 애플리케이션을 구성하는 방법에 대한 자세한 내용은 AWS SDKs 및 도구 참조 가이드AWS STS 리전화된 엔드포인트를 참조하세요. 이 엔드포인트의 사용을 모니터링하는 방법을 포함하여 글로벌(레거시) AWS STS 엔드포인트에 대한 자세한 내용은 AWS 보안 블로그리전 AWS STS 엔드포인트 사용 방법을 참조하세요.

서비스 엔드포인트

Amazon Bedrock 제어 영역 APIs

다음 표에는 Amazon Bedrock이 모델 관리, 훈련 및 배포를 위해 지원하는 리전별 엔드포인트 목록이 나와 있습니다. Amazon Bedrock API 작업에 이러한 엔드포인트를 사용합니다.

리전 이름 지역 엔드포인트 프로토콜
미국 동부(오하이오) us-east-2

bedrock.us-east-2.amazonaws.com

bedrock-fips.us-east-2.amazonaws.com

HTTPS

HTTPS

미국 동부(버지니아 북부) us-east-1

bedrock.us-east-1.amazonaws.com

bedrock-fips.us-east-1.amazonaws.com

HTTPS

HTTPS

미국 서부(오레곤) us-west-2

bedrock.us-west-2.amazonaws.com

bedrock-fips.us-west-2.amazonaws.com

HTTPS

HTTPS

아시아 태평양(뭄바이) ap-south-1 bedrock.ap-south-1.amazonaws.com HTTPS
아시아 태평양(서울) ap-northeast-2 bedrock.ap-northeast-2.amazonaws.com HTTPS
아시아 태평양(싱가포르) ap-southeast-1 bedrock.ap-southeast-1.amazonaws.com HTTPS
아시아 태평양(시드니) ap-southeast-2 bedrock.ap-southeast-2.amazonaws.com HTTPS
아시아 태평양(도쿄) ap-northeast-1 bedrock.ap-northeast-1.amazonaws.com HTTPS
캐나다(중부) ca-central-1

bedrock.ca-central-1.amazonaws.com

bedrock-fips.ca-central-1.amazonaws.com

HTTPS

HTTPS

유럽(프랑크푸르트) eu-central-1 bedrock.eu-central-1.amazonaws.com HTTPS
유럽(아일랜드) eu-west-1 bedrock.eu-west-1.amazonaws.com HTTPS
유럽(런던) eu-west-2 bedrock.eu-west-2.amazonaws.com HTTPS
유럽(파리) eu-west-3 bedrock.eu-west-3.amazonaws.com HTTPS
남아메리카(상파울루) sa-east-1 bedrock.sa-east-1.amazonaws.com HTTPS
AWS GovCloud (미국 서부) us-gov-west-1

bedrock.us-gov-west-1.amazonaws.com

bedrock-fips.us-gov-west-1.amazonaws.com

HTTPS

HTTPS

Amazon Bedrock 런타임 APIs

다음 표에는 Amazon Bedrock에서 호스팅되는 모델에 대한 추론 요청을 수행하는 데 Amazon Bedrock이 지원하는 리전별 엔드포인트 목록이 나와 있습니다. Amazon Bedrock 런타임 API 작업에 이러한 엔드포인트를 사용합니다.

리전 이름 지역 엔드포인트 프로토콜
미국 동부(오하이오) us-east-2

bedrock-runtime.us-east-2.amazonaws.com

bedrock-runtime-fips.us-east-2.amazonaws.com

HTTPS

HTTPS

미국 동부(버지니아 북부) us-east-1

bedrock-runtime.us-east-1.amazonaws.com

bedrock-runtime-fips.us-east-1.amazonaws.com

HTTPS

HTTPS

미국 서부(오레곤) us-west-2

bedrock-runtime.us-west-2.amazonaws.com

bedrock-runtime-fips.us-west-2.amazonaws.com

HTTPS

HTTPS

아시아 태평양(뭄바이) ap-south-1 bedrock-runtime.ap-south-1.amazonaws.com HTTPS
아시아 태평양(서울) ap-northeast-2 bedrock-runtime.ap-northeast-2.amazonaws.com HTTPS
아시아 태평양(싱가포르) ap-southeast-1 bedrock-runtime.ap-southeast-1.amazonaws.com HTTPS
아시아 태평양(시드니) ap-southeast-2 bedrock-runtime.ap-southeast-2.amazonaws.com HTTPS
아시아 태평양(도쿄) ap-northeast-1 bedrock-runtime.ap-northeast-1.amazonaws.com HTTPS
캐나다(중부) ca-central-1

bedrock-runtime.ca-central-1.amazonaws.com

bedrock-runtime-fips.ca-central-1.amazonaws.com

HTTPS

HTTPS

유럽(프랑크푸르트) eu-central-1 bedrock-runtime.eu-central-1.amazonaws.com HTTPS
유럽(아일랜드) eu-west-1 bedrock-runtime.eu-west-1.amazonaws.com HTTPS
유럽(런던) eu-west-2 bedrock-runtime.eu-west-2.amazonaws.com HTTPS
유럽(파리) eu-west-3 bedrock-runtime.eu-west-3.amazonaws.com HTTPS
남아메리카(상파울루) sa-east-1 bedrock-runtime.sa-east-1.amazonaws.com HTTPS
AWS GovCloud (미국 서부) us-gov-west-1

bedrock-runtime.us-gov-west-1.amazonaws.com

bedrock-runtime-fips.us-gov-west-1.amazonaws.com

HTTPS

HTTPS

Amazon Bedrock용 에이전트 빌드 시간 APIs

다음 표에는 Agents for Amazon Bedrock이 에이전트 및 지식 기반을 생성하고 관리하기 위해 지원하는 리전별 엔드포인트 목록이 나와 있습니다. Amazon Bedrock API 작업용 에이전트 에 이러한 엔드포인트를 사용합니다.

리전 이름 지역 엔드포인트 프로토콜
미국 동부(버지니아 북부) us-east-1 bedrock-agent.us-east-1.amazonaws.com HTTPS
bedrock-agent-fips.us-east-1.amazonaws.com HTTPS
미국 서부(오레곤) us-west-2 bedrock-agent.us-west-2.amazonaws.com HTTPS
bedrock-agent-fips.us-west-2.amazonaws.com HTTPS
아시아 태평양(싱가포르) ap-southeast-1 bedrock-agent.ap-southeast-1.amazonaws.com HTTPS
아시아 태평양(시드니) ap-southeast-2 bedrock-agent.ap-southeast-2.amazonaws.com HTTPS
아시아 태평양(도쿄) ap-northeast-1 bedrock-agent.ap-northeast-1.amazonaws.com HTTPS
캐나다(중부) ca-central-1 bedrock-agent.ca-central-1.amazonaws.com HTTPS
유럽(프랑크푸르트) eu-central-1 bedrock-agent.eu-central-1.amazonaws.com HTTPS
유럽(아일랜드) eu-west-1 bedrock-agent.eu-west-1.amazonaws.com HTTPS
유럽(런던) eu-west-2 bedrock-agent.eu-west-2.amazonaws.com HTTPS
유럽(파리) eu-west-3 bedrock-agent.eu-west-3.amazonaws.com HTTPS
아시아 태평양(뭄바이) ap-south-1 bedrock-agent.ap-south-1.amazonaws.com HTTPS
남아메리카(상파울루) sa-east-1 bedrock-agent.sa-east-1.amazonaws.com HTTPS

Amazon Bedrock 런타임 에이전트 APIs

다음 표에는 에이전트 호출 및 지식 기반 쿼리를 위해 Agents for Amazon Bedrock에서 지원하는 리전별 엔드포인트 목록이 나와 있습니다. Amazon Bedrock 런타임 API 작업용 에이전트 에 이러한 엔드포인트를 사용합니다.

리전 이름 지역 엔드포인트 프로토콜
미국 동부(버지니아 북부) us-east-1 bedrock-agent-runtime.us-east-1.amazonaws.com HTTPS
bedrock-agent-runtime-fips.us-east-1.amazonaws.com HTTPS
미국 서부(오레곤) us-west-2 bedrock-agent-runtime.us-west-2.amazonaws.com HTTPS
bedrock-agent-runtime-fips.us-west-2.amazonaws.com HTTPS
아시아 태평양(싱가포르) ap-southeast-1 bedrock-agent-runtime.ap-southeast-1.amazonaws.com HTTPS
아시아 태평양(시드니) ap-southeast-2 bedrock-agent-runtime.ap-southeast-2.amazonaws.com HTTPS
아시아 태평양(도쿄) ap-northeast-1 bedrock-agent-runtime.ap-northeast-1.amazonaws.com HTTPS
캐나다(중부) ca-central-1 bedrock-agent-runtime.ca-central-1.amazonaws.com HTTPS
유럽(프랑크푸르트) eu-central-1 bedrock-agent-runtime.eu-central-1.amazonaws.com HTTPS
유럽(파리) eu-west-3 bedrock-agent-runtime.eu-west-3.amazonaws.com HTTPS
유럽(아일랜드) eu-west-1 bedrock-agent-runtime.eu-west-1.amazonaws.com HTTPS
유럽(런던) eu-west-2 bedrock-agent-runtime.eu-west-2.amazonaws.com HTTPS
아시아 태평양(뭄바이) ap-south-1 bedrock-agent-runtime.ap-south-1.amazonaws.com HTTPS
남아메리카(상파울루) sa-east-1 bedrock-agent-runtime.sa-east-1.amazonaws.com HTTPS

Service quotas

조정 가능한 값이 로 표시되고 아니요로 표시된 할당량에 대한 할당량 증가를 요청하는 방법에 대한 지침은 Amazon Bedrock 할당량 증가 요청 섹션을 참조하세요. https://docs.aws.amazon.com/bedrock/latest/userguide/quotas.html#quotas-increase 다음 표에는 Amazon Bedrock의 할당량 목록이 나와 있습니다.

명칭 기본값 조정 가능 설명
APIs 에이전트당 지원되는 각 리전: 11 에이전트에 추가할 수 APIs 있는 최대 수입니다.
에이전트당 작업 그룹 지원되는 각 리전: 20개 에이전트에 추가할 수 있는 최대 작업 그룹 수입니다.
흐름당 에이전트 노드 수 지원되는 각 지역: 10개 아니요 최대 에이전트 노드 수입니다.
계정당 에이전트 지원되는 각 지역: 50 한 계정의 최대 에이전트 수입니다.
AssociateAgentKnowledgeBase 초당 요청 수 지원되는 각 리전: 6개 아니요 초당 최대 요청 수 AssociateAgentKnowledgeBase API입니다.
에이전트당 연결된 별칭 지원되는 각 지역: 10개 아니요 에이전트와 연결할 수 있는 최대 별칭 수입니다.
에이전트당 관련 지식 기반 지원되는 각 지역: 2 에이전트와 연결할 수 있는 최대 지식 기반 수입니다.
배치 추론 입력 파일 크기 지원되는 각 리전: 1,073,741,824 배치 추론을 위해 제출된 단일 파일의 최대 크기(바이트)입니다.
배치 추론 작업 크기 지원되는 각 리전: 5,368,709,120 배치 추론 작업에 포함된 모든 입력 파일의 최대 누적 크기(바이트)입니다.
에이전트의 문자 지침 지원되는 각 리전: 4,000 에이전트에 대한 지침의 최대 문자 수입니다.
흐름당 수집기 노드 수 지원되는 각 리전: 1 아니요 최대 수집기 노드 수입니다.
계정당 동시 수집 작업 지원되는 각 지역: 5개 아니요 계정에서 동시에 실행할 수 있는 최대 수집 작업 수입니다.
데이터 소스당 동시 수집 작업 지원되는 각 리전: 1 아니요 데이터 소스에 대해 동시에 실행할 수 있는 최대 수집 작업 수입니다.
지식 기반당 동시 수집 작업 지원되는 각 리전: 1 아니요 지식 기반에 대해 동시에 실행할 수 있는 최대 수집 작업 수입니다.
동시 모델 가져오기 작업 지원되는 각 리전: 1 아니요 동시에 진행 중인 모델 가져오기 작업의 최대 수입니다.
흐름당 조건 노드 수 지원되는 각 지역: 5개 아니요 최대 조건 노드 수입니다.
조건 노드당 조건 지원되는 각 지역: 5개 아니요 조건 노드당 최대 조건 수입니다.
텍스트 단위의 컨텍스트 접지 쿼리 길이 지원되는 각 리전: 1 아니요 컨텍스트 접지를 위한 쿼리의 텍스트 단위 최대 길이입니다.
텍스트 단위의 컨텍스트 접지 응답 길이 지원되는 각 지역: 5개 아니요 컨텍스트 접지에 대한 응답의 텍스트 단위 최대 길이입니다.
텍스트 단위의 컨텍스트 접지 소스 길이

us-east-1: 100

us-west-2: 100

각각의 지원되는 다른 리전: 50

아니요 컨텍스트 접지를 위한 접지 소스의 텍스트 단위 최대 길이
CreateAgent 초당 요청 수 지원되는 각 리전: 6개 아니요 초당 최대 요청 수 CreateAgent API입니다.
CreateAgentActionGroup 초당 요청 수 지원되는 각 리전: 12 아니요 초당 최대 요청 수 CreateAgentActionGroup API입니다.
CreateAgentAlias 초당 요청 수 지원되는 각 리전: 2 아니요 초당 최대 요청 수 CreateAgentAlias API입니다.
CreateDataSource 초당 요청 수 지원되는 각 리전: 2 아니요 초당 최대 요청 수 CreateDataSource API입니다.
CreateFlow 초당 요청 수 지원되는 각 리전: 2 아니요 초당 최대 CreateFlow 요청 수입니다.
CreateFlowAlias 초당 요청 수 지원되는 각 리전: 2 아니요 초당 최대 CreateFlowAlias 요청 수입니다.
CreateFlowVersion 초당 요청 수 지원되는 각 리전: 2 아니요 초당 최대 CreateFlowVersion 요청 수입니다.
CreateKnowledgeBase 초당 요청 수 지원되는 각 리전: 2 아니요 초당 최대 요청 수 CreateKnowledgeBase API입니다.
CreatePrompt 초당 요청 수 지원되는 각 리전: 2 아니요 초당 최대 CreatePrompt 요청 수입니다.
CreatePromptVersion 초당 요청 수 지원되는 각 리전: 2 아니요 초당 최대 CreatePromptVersion 요청 수입니다.
계정당 사용자 지정 모델 지원되는 각 리전: 100 계정의 최대 사용자 지정 모델 수입니다.
지식 기반당 데이터 소스 지원되는 각 지역: 5개 아니요 지식 기반당 최대 데이터 소스 수입니다.
DeleteAgent 초당 요청 수 지원되는 각 리전: 2 아니요 초당 최대 요청 수 DeleteAgent API입니다.
DeleteAgentActionGroup 초당 요청 수 지원되는 각 리전: 2 아니요 초당 최대 요청 수 DeleteAgentActionGroup API입니다.
DeleteAgentAlias 초당 요청 수 지원되는 각 리전: 2 아니요 초당 최대 요청 수 DeleteAgentAlias API입니다.
DeleteAgentVersion 초당 요청 수 지원되는 각 리전: 2 아니요 초당 최대 요청 수 DeleteAgentVersion API입니다.
DeleteDataSource 초당 요청 수 지원되는 각 리전: 2 아니요 초당 최대 요청 수 DeleteDataSource API입니다.
DeleteFlow 초당 요청 수 지원되는 각 리전: 2 아니요 초당 최대 DeleteFlow 요청 수입니다.
DeleteFlowAlias 초당 요청 수 지원되는 각 리전: 2 아니요 초당 최대 DeleteFlowAlias 요청 수입니다.
DeleteFlowVersion 초당 요청 수 지원되는 각 리전: 2 아니요 초당 최대 DeleteFlowVersion 요청 수입니다.
DeleteKnowledgeBase 초당 요청 수 지원되는 각 리전: 2 아니요 초당 최대 요청 수 DeleteKnowledgeBase API입니다.
DeletePrompt 초당 요청 수 지원되는 각 리전: 2 아니요 초당 최대 DeletePrompt 요청 수입니다.
DisassociateAgentKnowledgeBase 초당 요청 수 지원되는 각 리전: 4 아니요 초당 최대 요청 수 DisassociateAgentKnowledgeBase API입니다.
에이전트당 활성화된 작업 그룹 지원되는 각 리전: 11 에이전트에서 활성화할 수 있는 최대 작업 그룹 수입니다.
추론 프로파일당 엔드포인트 수 지원되는 각 지역: 5개 아니요 추론 프로파일의 최대 엔드포인트 수입니다. 엔드포인트는 모델에 대한 호출 요청이 전송되는 모델 및 리전에 의해 정의됩니다.
주제별 예제 문구 지원되는 각 지역: 5개 아니요 주제당 포함할 수 있는 최대 주제 예제 수
수집 작업당 추가 또는 업데이트할 파일 지원되는 각 리전: 5,000,000 아니요 수집 작업당 수집할 수 있는 새 파일과 업데이트된 파일의 최대 수입니다.
수집 작업당 삭제할 파일 지원되는 각 리전: 5,000,000 아니요 수집 작업당 삭제할 수 있는 최대 파일 수입니다.
흐름당 흐름 별칭 지원되는 각 지역: 10개 아니요 최대 흐름 별칭 수입니다.
흐름당 흐름 버전 지원되는 각 지역: 10개 아니요 최대 흐름 버전 수입니다.
계정당 흐름 지원되는 각 리전: 100 계정당 최대 흐름 수입니다.
GetAgent 초당 요청 수 지원되는 각 리전: 15 아니요 초당 최대 요청 수 GetAgent API입니다.
GetAgentActionGroup 초당 요청 수 지원되는 각 지역: 20 아니요 초당 최대 요청 수 GetAgentActionGroup API입니다.
GetAgentAlias 초당 요청 수 지원되는 각 지역: 10개 아니요 초당 최대 요청 수 GetAgentAlias API입니다.
GetAgentKnowledgeBase 초당 요청 수 지원되는 각 리전: 15 아니요 초당 최대 요청 수 GetAgentKnowledgeBase API입니다.
GetAgentVersion 초당 요청 수 지원되는 각 지역: 10개 아니요 초당 최대 요청 수 GetAgentVersion API입니다.
GetDataSource 초당 요청 수 지원되는 각 지역: 10개 아니요 초당 최대 요청 수 GetDataSource API입니다.
GetFlow 초당 요청 수 지원되는 각 지역: 10개 아니요 초당 최대 GetFlow 요청 수입니다.
GetFlowAlias 초당 요청 수 지원되는 각 지역: 10개 아니요 초당 최대 GetFlowAlias 요청 수입니다.
GetFlowVersion 초당 요청 수 지원되는 각 지역: 10개 아니요 초당 최대 GetFlowVersion 요청 수입니다.
GetIngestionJob 초당 요청 수 지원되는 각 지역: 10개 아니요 초당 최대 요청 수 GetIngestionJob API입니다.
GetKnowledgeBase 초당 요청 수 지원되는 각 지역: 10개 아니요 초당 최대 요청 수 GetKnowledgeBase API입니다.
GetPrompt 초당 요청 수 지원되는 각 지역: 10개 아니요 초당 최대 GetPrompt 요청 수입니다.
계정당 가드레일 수 지원되는 각 리전: 100 아니요 계정의 최대 가드레일 수
계정당 가져온 모델 지원되는 각 리전: 3 계정에서 가져온 최대 모델 수입니다.
계정당 추론 프로필 지원되는 각 지역: 50 계정의 최대 추론 프로파일 수입니다.
수신 작업 파일 크기 지원되는 각 리전: 50 아니요 수집 작업에서 파일의 최대 크기(MB)입니다.
수집 작업 크기 지원되는 각 리전: 100 아니요 수집 작업의 최대 크기(GB)입니다.
흐름당 입력 노드 수 지원되는 각 리전: 1 아니요 최대 흐름 입력 노드 수입니다.
흐름당 반복기 노드 수 지원되는 각 리전: 1 아니요 최대 반복자 노드 수입니다.
흐름당 지식 기반 노드 지원되는 각 지역: 10개 아니요 지식 기반 노드의 최대 수입니다.
계정당 지식 기반 지원되는 각 리전: 100 아니요 계정당 최대 지식 기반 수입니다.
흐름당 Lambda 함수 노드 수 지원되는 각 지역: 10개 아니요 Lambda 함수 노드의 최대 수입니다.
흐름당 Lex 노드 수 지원되는 각 지역: 5개 아니요 최대 Lex 노드 수입니다.
ListAgentActionGroups 초당 요청 수 지원되는 각 지역: 10개 아니요 초당 최대 요청 수 ListAgentActionGroups API입니다.
ListAgentAliases 초당 요청 수 지원되는 각 지역: 10개 아니요 초당 최대 요청 수 ListAgentAliases API입니다.
ListAgentKnowledgeBases 초당 요청 수 지원되는 각 지역: 10개 아니요 초당 최대 요청 수 ListAgentKnowledgeBases API입니다.
ListAgentVersions 초당 요청 수 지원되는 각 지역: 10개 아니요 초당 최대 요청 수 ListAgentVersions API입니다.
ListAgents 초당 요청 수 지원되는 각 지역: 10개 아니요 초당 최대 요청 수 ListAgents API입니다.
ListDataSources 초당 요청 수 지원되는 각 지역: 10개 아니요 초당 최대 요청 수 ListDataSources API입니다.
ListFlowAliases 초당 요청 수 지원되는 각 지역: 10개 아니요 초당 최대 ListFlowAliases 요청 수입니다.
ListFlowVersions 초당 요청 수 지원되는 각 지역: 10개 아니요 초당 최대 ListFlowVersions 요청 수입니다.
ListFlows 초당 요청 수 지원되는 각 지역: 10개 아니요 초당 최대 ListFlows 요청 수입니다.
ListIngestionJobs 초당 요청 수 지원되는 각 지역: 10개 아니요 초당 최대 요청 수 ListIngestionJobs API입니다.
ListKnowledgeBases 초당 요청 수 지원되는 각 지역: 10개 아니요 초당 최대 요청 수 ListKnowledgeBases API입니다.
ListPrompts 초당 요청 수 지원되는 각 지역: 10개 아니요 초당 최대 ListPrompts 요청 수입니다.
기본 모델 전반의 모델 유닛 커밋 없는 프로비저닝된 처리량 지원되는 각 지역: 2 기본 모델의 커밋 없는 프로비저닝된 처리량에 배포할 수 있는 최대 모델 유닛 수
사용자 지정 모델 전반의 모델 유닛 커밋 없는 프로비저닝된 처리량 지원되는 각 지역: 2 사용자 지정 모델의 커밋 없는 프로비저닝된 처리량에 분산할 수 있는 모델 유닛의 최대 수
AI21 Labs Jurassic-2 Mid에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 AI21 Labs Jurassic-2 Mid에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
AI21 Labs Jurassic-2 Ultra에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 AI21 Labs Jurassic-2 Ultra에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Amazon Titan Embeddings G1 - 텍스트에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Amazon Titan Embeddings G1 - 텍스트에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Amazon Titan Image Generator G1에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Amazon Titan Image Generator G1에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Amazon Titan Image Generator G2에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Amazon Titan Image Generator G2에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Amazon Titan Lite V1 4K에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Amazon Titan Text Lite V1 4K 에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Amazon Titan 멀티모달 임베딩 G1에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Amazon Titan Multimodal Embeddings G1에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Amazon Titan Text Embeddings V2에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Amazon Titan Text Embeddings V2에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Amazon Titan Text G1 - Express 8K에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Amazon Titan Text G1 - Express 8K 에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Amazon Titan Text Premier V1 32K에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Amazon Titan Text Premier V1 32K 에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Anthropic Claude 3 Haiku 200K에 대해 프로비저닝된 모델당 모델 유닛 지원되는 각 리전: 0 Anthropic Claude 3 Haiku 200K.
Anthropic Claude 3 Haiku 48K에 대해 프로비저닝된 모델당 모델 유닛 지원되는 각 리전: 0 Anthropic Claude 3 Haiku 48K 에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Anthropic Claude 3 Sonnet 200K에 대해 프로비저닝된 모델당 모델 유닛 지원되는 각 리전: 0 Anthropic Claude 3 Sonnet 200K 에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Anthropic Claude 3 Sonnet 28K에 대해 프로비저닝된 모델당 모델 유닛 지원되는 각 리전: 0 Anthropic Claude 3 Sonnet 28K 에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Anthropic Claude 3.5 Sonnet 18K에 대해 프로비저닝된 모델당 모델 유닛 지원되는 각 리전: 0 Anthropic Claude 3.5 Sonnet 18K 에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Anthropic Claude 3.5 Sonnet 200K에 대해 프로비저닝된 모델당 모델 유닛 지원되는 각 리전: 0 Anthropic Claude 3.5 Sonnet 200K 에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Anthropic Claude 3.5 Sonnet 51K에 대해 프로비저닝된 모델당 모델 유닛 지원되는 각 리전: 0 Anthropic Claude 3.5 Sonnet 51K 에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Anthropic Claude Instant V1 100K에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Anthropic Claude Instant V1 100K 에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Anthropic Claude V2 100K에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Anthropic Claude V2 100K 에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Anthropic Claude V2 18K에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Anthropic Claude V2 18K 에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Anthropic Claude V2.1 18K에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Anthropic Claude V2.1 18K 에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Anthropic Claude V2.1 200K에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Anthropic Claude V2.1 200k에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Cohere Command에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Cohere Command에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Cohere Command Light에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Cohere Command Light에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Cohere Command R에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Cohere Command R 128k에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Cohere Command R Plus에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Cohere Command R Plus 128k에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Cohere Embed English에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Cohere Embed English에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Cohere Embed 다국어 프로비저닝 모델당 모델 단위 지원되는 각 리전: 0 Cohere Embed Multilingual의 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Meta Llama 2 13B에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Meta Llama 2 13B 에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Meta Llama 2 70B에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Meta Llama 2 70B 에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Meta Llama 2 Chat 13B에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Meta Llama 2 Chat 13B 에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Meta Llama 2 Chat 70B에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Meta Llama 2 Chat 70B 에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Meta Llama 3 70B Instruct에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Meta Llama 3 70B Instruct에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Meta Llama 3 8B Instruct에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Meta Llama 3 8B Instruct에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Meta Llama 3.1 70B Instruct에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Meta Llama 3.1 70B Instruct에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Meta Llama 3.1 8B Instruct에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Meta Llama 3.1 8B Instruct에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Mistral Large 2407에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Mistral Large 2407에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Mistral Small에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Mistral Small에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
Stability.ai Stable Diffusion XL 0.8에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Stability.ai Stable Diffusion XL 0.8에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수
Stability.ai Stable Diffusion XL 1.0에 대해 프로비저닝된 모델당 모델 단위 지원되는 각 리전: 0 Stability.ai Stable Diffusion XL 1.0에 대해 프로비저닝된 모델에 할당할 수 있는 최대 모델 유닛 수입니다.
동시 자동 모델 평가 작업 수 지원되는 각 지역: 20 아니요 현재 리전의 이 계정에서 한 번에 지정할 수 있는 자동 모델 평가 작업의 최대 수입니다.
인간 작업자를 사용하는 동시 모델 평가 작업 수 지원되는 각 지역: 10개 아니요 현재 리전의 이 계정에서 한 번에 지정할 수 있는 인적 작업자를 사용하는 모델 평가 작업의 최대 수입니다.
사용자 지정 지표 수 지원되는 각 지역: 10개 아니요 인적 작업자를 사용하는 모델 평가 작업에서 지정할 수 있는 사용자 지정 지표의 최대 수입니다.
인간 기반 모델 평가 작업의 사용자 지정 프롬프트 데이터 세트 수 지원되는 각 리전: 1 아니요 현재 리전의 이 계정에서 인간 기반 모델 평가 작업에서 지정할 수 있는 사용자 지정 프롬프트 데이터 세트의 최대 수입니다.
작업당 데이터 세트 수 지원되는 각 지역: 5개 아니요 자동 모델 평가 작업에서 지정할 수 있는 최대 데이터 세트 수입니다. 여기에는 사용자 지정 및 기본 제공 프롬프트 데이터 세트가 모두 포함됩니다.
평가 작업 수 지원되는 각 리전: 5,000개 아니요 현재 리전의 이 계정에서 생성할 수 있는 모델 평가 작업의 최대 수입니다.
데이터 세트당 지표 수 지원되는 각 리전: 3 아니요 자동화된 모델 평가 작업에서 데이터 세트당 지정할 수 있는 최대 지표 수입니다. 여기에는 사용자 지정 지표와 기본 제공 지표가 모두 포함됩니다.
인간 작업자를 사용하는 모델 평가 작업의 모델 수 지원되는 각 리전: 2 아니요 인간 작업자를 사용하는 모델 평가 작업에서 지정할 수 있는 최대 모델 수입니다.
자동 모델 평가 작업의 모델 수 지원되는 각 리전: 1 아니요 자동 모델 평가 작업에서 지정할 수 있는 최대 모델 수입니다.
사용자 지정 프롬프트 데이터 세트의 프롬프트 수 지원되는 각 리전: 1,000 아니요 사용자 지정 프롬프트 데이터 세트에 포함할 수 있는 최대 프롬프트 수입니다.
온디맨드 ApplyGuardrail 콘텐츠 필터 정책 텍스트 단위/초 지원되는 각 리전: 25개 아니요 초당 콘텐츠 필터 정책에 대해 처리할 수 있는 최대 텍스트 단위 수
온디맨드 ApplyGuardrail 거부된 주제 정책 텍스트 단위/초 지원되는 각 리전: 25개 아니요 거부된 주제 정책에 대해 초당 처리할 수 있는 최대 텍스트 단위 수
온디맨드 ApplyGuardrail 민감 정보 필터 정책 텍스트 단위/초 지원되는 각 리전: 25개 아니요 민감한 정보 필터 정책에 대해 초당 처리할 수 있는 최대 텍스트 단위 수
온디맨 ApplyGuardrail 드 Word 필터 정책 텍스트 단위/초 지원되는 각 리전: 25개 아니요 초당 Word 필터 정책에 대해 처리할 수 있는 최대 텍스트 단위 수입니다.
온디맨드 ApplyGuardrail 상황별 접지 정책 텍스트 단위/초

us-east-1: 106

us-west-2: 106

지원되는 다른 각 리전: 53

아니요 초당 상황별 접지 정책에 대해 처리할 수 있는 최대 텍스트 단위 수
초당 온디맨드 ApplyGuardrail 요청 수 지원되는 각 리전: 25개 아니요 초당 허용되는 최대 통화 수 ApplyGuardrail API
AI21 Labs Jamba 1.5에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 100 아니요 AI21 Labs Jamba 1.5에 대해 1분 내에 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 Converse 및 에 대한 요청의 합계를 고려합니다. InvokeModel
AI21 Labs Jamba Instruct에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 100 아니요 AI21 Labs Jamba Instruct에 대해 1분 내에 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 Converse 및 에 대한 요청의 합계를 고려합니다. InvokeModel
AI21 Labs Jamba Large 1.5에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 100 아니요 AI21 Labs Jamba Large 1.5에 대해 1분 내에 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 Converse 및 에 대한 요청의 합계를 고려합니다. InvokeModel
AI21 Labs Jurassic-2 Mid에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 400 아니요 1분 InvokeModelWithResponseStream 동안 InvokeModel 및 를 호출할 수 있는 최대 횟수입니다. 할당량은 AI21 Labs Jurassic-2 Mid에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
AI21 Labs Jurassic-2 Ultra에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 100 아니요 1분 InvokeModelWithResponseStream 동안 InvokeModel 및 를 호출할 수 있는 최대 횟수입니다. 할당량은 AI21 Labs Jurassic-2 Ultra에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Amazon Titan Image Generator G1에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 60개 아니요 Amazon Titan Image Generator G1에 대해 1분 InvokeModel 에 호출할 수 있는 최대 횟수입니다.
Amazon Titan Image Generator G1 V2에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 60개 아니요 Amazon Titan Image Generator G V2에 대해 1분 InvokeModel 에 호출할 수 있는 최대 횟수입니다.
Amazon Titan Multimodal Embeddings G1에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 2,000 아니요 Amazon Titan Multimodal Embeddings G1에 대해 1분 InvokeModel 에 호출할 수 있는 최대 횟수입니다.
Amazon Titan 텍스트 임베딩에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 2,000 아니요 Amazon Titan 텍스트 임베딩에 대해 1분 InvokeModel 에 호출할 수 있는 최대 횟수
Amazon Titan Text Embeddings V2에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 2,000 아니요 Amazon Titan Text Embeddings V2에 대해 1분 InvokeModel 에 호출할 수 있는 최대 횟수
Amazon Titan Text Express에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 400 아니요 1분 InvokeModelWithResponseStream 동안 InvokeModel 및 를 호출할 수 있는 최대 횟수입니다. 할당량은 Amazon Titan Text Express에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Amazon Titan Text Lite에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 800 아니요 1분 InvokeModelWithResponseStream 동안 InvokeModel 및 를 호출할 수 있는 최대 횟수입니다. 할당량은 Amazon Titan Text Lite에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Amazon Titan Text Premier에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 100 아니요 1분 InvokeModelWithResponseStream 동안 InvokeModel 및 를 호출할 수 있는 최대 횟수입니다. 할당량은 Amazon Titan Text Premier에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Anthropic Claude 3 Haiku에 대한 분당 온디맨드 InvokeModel 요청

us-east-1: 1,000

us-west-2: 1,000

ap-northeast-1: 200

ap-southeast-1: 200

지원되는 다른 각 리전: 400

아니요 1분 InvokeModelWithResponseStream 동안 InvokeModel 및 를 호출할 수 있는 최대 횟수입니다. 할당량은 Anthropic Claude 3 Haiku에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Anthropic Claude 3 Opus에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 50 아니요 1분 InvokeModelWithResponseStream 동안 InvokeModel 및 를 호출할 수 있는 최대 횟수입니다. 할당량은 Anthropic Claude 3 Opus에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Anthropic Claude 3 Sonnet에 대한 분당 온디맨드 InvokeModel 요청

us-east-1: 500

us-west-2: 500

각각의 지원되는 다른 리전: 100

아니요 1분 InvokeModelWithResponseStream 동안 InvokeModel 및 를 호출할 수 있는 최대 횟수입니다. 할당량은 Anthropic Claude 3 Sonnet에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Anthropic Claude 3.5 Sonnet에 대한 분당 온디맨드 InvokeModel 요청

us-east-1: 50

us-east-2: 50

us-west-2: 250

ap-northeast-2: 50

ap-southeast-2: 50

각각의 지원되는 다른 리전: 20

아니요 Anthropic Claude 3.5 Sonnet에 대해 1분 내에 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 Converse ConverseStream, InvokeModel 및 의 합계를 고려합니다 InvokeModelWithResponseStream.
Anthropic Claude 3.5 Sonnet V2에 대한 분당 온디맨드 InvokeModel 요청 각 지원되는 리전: 250명 아니요 Anthropic Claude 3.5 Sonnet V2에 대해 1분 내에 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 Converse ConverseStream, InvokeModel 및 의 합계를 고려합니다 InvokeModelWithResponseStream.
Anthropic Claude Instant에 대한 분당 온디맨드 InvokeModel 요청

us-east-1: 1,000

us-west-2: 1,000

지원되는 다른 각 리전: 400

아니요 1분 InvokeModelWithResponseStream 동안 InvokeModel 및 를 호출할 수 있는 최대 횟수입니다. 할당량은 Anthropic Claude Instant에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Anthropic Claude V2에 대한 분당 온디맨드 InvokeModel 요청

us-east-1: 500

us-west-2: 500

각각의 지원되는 다른 리전: 100

아니요 1분 InvokeModelWithResponseStream 동안 InvokeModel 및 를 호출할 수 있는 최대 횟수입니다. 할당량은 Anthropic Claude V2에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Cohere 명령에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 400 아니요 1분 InvokeModelWithResponseStream 동안 InvokeModel 및 를 호출할 수 있는 최대 횟수입니다. 할당량은 Cohere Command에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Cohere Command Light에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 800 아니요 1분 InvokeModelWithResponseStream 동안 InvokeModel 및 를 호출할 수 있는 최대 횟수입니다. 할당량은 Cohere Command Light에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Cohere Command R에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 400 아니요 1분 InvokeModelWithResponseStream 동안 InvokeModel 및 를 호출할 수 있는 최대 횟수입니다. 할당량은 Cohere Command R 128k에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Cohere Command R Plus에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 400 아니요 1분 InvokeModelWithResponseStream 동안 InvokeModel 및 를 호출할 수 있는 최대 횟수입니다. 할당량은 Cohere Command R Plus 128k에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Cohere Embed English에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 2,000 아니요 Cohere Embed English에 대해 1분 InvokeModel 에 호출할 수 있는 최대 횟수입니다.
Cohere Embed 다국어에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 2,000 아니요 Cohere Embed Multilingual에 대해 1분 InvokeModel 에 호출할 수 있는 최대 횟수입니다.
Meta Llama 2 13B에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 800 아니요 1분 InvokeModelWithResponseStream 동안 InvokeModel 및 를 호출할 수 있는 최대 횟수입니다. 할당량은 Meta Llama 2 13B 에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Meta Llama 2 70B에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 400 아니요 1분 InvokeModelWithResponseStream 동안 InvokeModel 및 를 호출할 수 있는 최대 횟수입니다. 할당량은 Meta Llama 2 70B 에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Meta Llama 2 Chat 13B에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 800 아니요 1분 InvokeModelWithResponseStream 동안 InvokeModel 및 를 호출할 수 있는 최대 횟수입니다. 할당량은 Meta Llama 2 Chat 13B 에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Meta Llama 2 Chat 70B에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 400 아니요 1분 InvokeModelWithResponseStream 동안 InvokeModel 및 를 호출할 수 있는 최대 횟수입니다. 할당량은 Meta Llama 2 Chat 70B 에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Meta Llama 3 70B Instruct에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 400 아니요 1분 InvokeModelWithResponseStream 동안 InvokeModel 및 를 호출할 수 있는 최대 횟수입니다. 할당량은 Meta Llama 3 70B Instruct에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Meta Llama 3 8B Instruct에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 800 아니요 1분 InvokeModelWithResponseStream 동안 InvokeModel 및 를 호출할 수 있는 최대 횟수입니다. 할당량은 Meta Llama 3 8B Instruct에 대한 InvokeModel 및 InvokeModelWithResponseStream 요청의 합계를 고려합니다.
Mistral 7B Instruct에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 800 아니요 Mistral mistral-7b-instruct-v0에 대해 1분 InvokeModel 에 호출할 수 있는 최대 횟수
Mistral AI Mistral Small에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 400 아니요 Mistral AI Mistral Small의 InvokeModel 경우 1분 InvokeModelWithResponseStream 에 호출할 수 있는 최대 횟수
Mistral Large에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 400 아니요 Mistral mistral-large-2402-v1에 대해 InvokeModel 1분 InvokeModelWithResponseStream 내에 및 를 호출할 수 있는 최대 횟수
Mistral Mixtral 8x7b Instruct에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 400 아니요 Mistral mixtral-8x7b-v0에 대해 1분 InvokeModel 에 호출할 수 있는 최대 횟수
Stability.ai Stable Diffusion 3 Large에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 15 아니요 Stability.ai Stable Diffusion 3 Large에 대해 1분 InvokeModel 에 호출할 수 있는 최대 횟수입니다.
Stability.ai Stable Diffusion 3 Medium에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 60개 아니요 Stability.ai Stable Diffusion 3 Medium에 대해 1분 InvokeModel 에 호출할 수 있는 최대 횟수
Stability.ai Stable Diffusion XL 0.8에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 60개 아니요 Stability.ai Stable Diffusion XL 0.8에 대해 1분 InvokeModel 에 호출할 수 있는 최대 횟수
Stability.ai Stable Diffusion XL 1.0에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 60개 아니요 Stability.ai Stable Diffusion XL 1.0에 대해 1분 InvokeModel 에 호출할 수 있는 최대 횟수
Stability.ai Stable Image Core에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 리전: 90 아니요 Stability.ai Stable Image Core에 대해 1분 InvokeModel 에 호출할 수 있는 최대 횟수입니다.
Stability.ai Stable Image Ultra에 대한 분당 온디맨드 InvokeModel 요청 지원되는 각 지역: 10개 아니요 Stability.ai Stable Image Ultra에 대해 1분 InvokeModel 에 호출할 수 있는 최대 횟수입니다.
AI21 Labs Jamba 1.5에 대한 분당 온디맨드 InvokeModel 토큰. 지원되는 각 지역: 300,000 아니요 AI21 Labs Jamba 1.5에 대해 1분 내에 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 Converse 및 에 대한 토큰의 합계를 고려합니다 InvokeModel.
AI21 Labs Jamba Instruct의 분당 온디맨드 InvokeModel 토큰 수 지원되는 각 지역: 300,000 아니요 AI21 Labs Jamba Instruct에 대해 1분 내에 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 Converse 및 에 대한 토큰의 합계를 고려합니다. InvokeModel
AI21 Labs Jamba Large 1.5에 대한 분당 온디맨드 InvokeModel 토큰. 지원되는 각 지역: 300,000 아니요 AI21 Labs Jamba Large 1.5에 대해 1분 내에 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 Converse 및 에 대한 토큰의 합계를 고려합니다 InvokeModel.
AI21 Labs Jurassic-2 Mid의 분당 온디맨드 InvokeModel 토큰 수 지원되는 각 지역: 300,000 아니요 AI21 Labs Jurassic-2 Mid에 대해 1분 InvokeModel 에 제공할 수 있는 최대 토큰 수입니다.
AI21 Labs Jurassic-2 Ultra의 분당 온디맨드 InvokeModel 토큰 수 지원되는 각 지역: 300,000 아니요 AI21 Labs Jurassic-2 Ultra에 대해 1분 InvokeModel 에 제공할 수 있는 최대 토큰 수입니다.
Amazon Titan Image Generator G1의 분당 온디맨드 InvokeModel 토큰 지원되는 각 리전: 2,000 아니요 Amazon Titan Image Generator G1에 대해 1분 InvokeModel 에 제공할 수 있는 최대 토큰 수입니다.
Amazon Titan Image Generator G1 V2의 분당 온디맨드 InvokeModel 토큰 수 지원되는 각 리전: 2,000 아니요 Amazon Titan Image Generator G1 V2에 대해 1분 InvokeModel 에 제공할 수 있는 최대 토큰 수입니다. V2
Amazon Titan 멀티모달 임베딩 G1에 대한 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 아니요 Amazon Titan Multimodal Embeddings G1에 대해 1분 InvokeModel 에 제공할 수 있는 최대 토큰 수입니다.
Amazon Titan 텍스트 임베딩에 대한 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 아니요 Amazon Titan 텍스트 임베딩에 대해 1분 InvokeModel 에 제공할 수 있는 최대 토큰 수입니다.
Amazon Titan Text Embeddings V2에 대한 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 아니요 Amazon Titan Text Embeddings V2에 대해 1분 InvokeModel 에 제공할 수 있는 최대 토큰 수입니다.
Amazon Titan Text Express의 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream 를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Amazon Titan Text Express에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Amazon Titan Text Lite의 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream 를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Amazon Titan Text Lite에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Amazon Titan Text Premier의 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream 를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Amazon Titan Text Premier에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Anthropic Claude 3 Haiku의 분당 온디맨드 InvokeModel 토큰 수

us-east-1: 2,000,000

us-west-2: 2,000,000

ap-northeast-1: 200,000

ap-southeast-1: 200,000

지원되는 다른 각 리전: 300,000개

아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream 를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Anthropic Claude 3 Haiku에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Anthropic Claude 3 Opus에 대한 분당 온디맨드 InvokeModel 토큰 지원되는 각 리전: 400,000 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream 를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Anthropic Claude 3 Opus에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Anthropic Claude 3 Sonnet의 분당 온디맨드 InvokeModel 토큰 수

us-east-1: 1,000,000

us-west-2: 1,000,000

지원되는 다른 각 리전: 200,000개

아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream 를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Anthropic Claude 3 Sonnet에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Anthropic Claude 3.5 Sonnet에 대한 분당 온디맨드 InvokeModel 토큰

us-east-1: 400,000

us-east-2: 400,000

us-west-2: 2,000,000

ap-northeast-2: 400,000

ap-southeast-2: 400,000

지원되는 다른 각 리전: 200,000개

아니요 Anthropic Claude 3.5 Sonnet에 대해 1분 내에 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 Converse ConverseStream, InvokeModel 및 의 합계를 고려합니다 InvokeModelWithResponseStream.
Anthropic Claude 3.5 Sonnet V2에 대한 분당 온디맨드 InvokeModel 토큰 수

us-west-2: 2,000,000

지원되는 다른 각 리전: 400,000개

아니요 Anthropic Claude 3.5 Sonnet V2에 대해 1분 내에 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 Converse ConverseStream, InvokeModel 및 의 합계를 고려합니다 InvokeModelWithResponseStream.
Anthropic Claude Instant에 대한 분당 온디맨드 InvokeModel 토큰

us-east-1: 1,000,000

us-west-2: 1,000,000

지원되는 다른 각 리전: 300,000개

아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream 를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Anthropic Claude Instant에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Anthropic Claude V2의 분당 온디맨드 InvokeModel 토큰 수

us-east-1: 500,000

us-west-2: 500,000

지원되는 다른 각 리전: 200,000개

아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream 를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Anthropic Claude V2에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Cohere Command에 대한 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream 를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Cohere 명령에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Cohere Command Light에 대한 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 아니요 Cohere Command Light에 대해 1분 InvokeModel 동안 제공할 수 있는 최대 토큰 수입니다.
Cohere Command R의 분당 온디맨드 InvokeModel 토큰 수 지원되는 각 지역: 300,000 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream 를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Cohere Command R 128k에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Cohere Command R Plus의 분당 온디맨드 InvokeModel 토큰 수 지원되는 각 지역: 300,000 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream 를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Cohere Command R Plus 128k에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Cohere Embed English의 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 아니요 Cohere Embed English에 대해 1분 InvokeModel 동안 제공할 수 있는 최대 토큰 수입니다.
Cohere Embed 다국어에 대한 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 아니요 Cohere Embed Multilingual에 대해 1분 InvokeModel 에 제공할 수 있는 최대 토큰 수입니다.
Meta Llama 2 13B에 대한 분당 온디맨드 InvokeModel 토큰 수 지원되는 각 지역: 300,000 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream 를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Meta Llama 2 13B 에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Meta Llama 2 70B에 대한 분당 온디맨드 InvokeModel 토큰 수 지원되는 각 지역: 300,000 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream 를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Meta Llama 2 70B 에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Meta Llama 2 Chat 13B에 대한 분당 온디맨드 InvokeModel 토큰 수 지원되는 각 지역: 300,000 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream 를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Meta Llama 2 Chat 13B 에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Meta Llama 2 Chat 70B에 대한 분당 온디맨드 InvokeModel 토큰 수 지원되는 각 지역: 300,000 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream 를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Meta Llama 2 Chat 70B 에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Meta Llama 3 70B Instruct에 대한 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream 를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Meta Llama 3 70B Instruct에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Meta Llama 3 8B Instruct의 분당 온디맨드 InvokeModel 토큰 수 지원되는 각 지역: 300,000 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream 를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Meta Llama 3 8B Instruct에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Mistral AI Mistral 7B Instruct에 대한 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream 를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Mistral AI Mistral 7B Instruct에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Mistral AI Mistral Large의 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream 를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Mistral AI Mistral Large에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Mistral AI Mistral Small에 대한 분당 온디맨드 InvokeModel 토큰 지원되는 각 지역: 300,000 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream 를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Mistral AI Mistral Small에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Mistral AI Mixtral 8X7BB Instruct의 분당 온디맨드 InvokeModel 토큰 수 지원되는 각 지역: 300,000 아니요 1분 동안 InvokeModel 및 InvokeModelWithResponseStream 를 통해 제공할 수 있는 최대 토큰 수입니다. 할당량은 Mistral mixtral-8x7b-instruct-v0에 대한 InvokeModel 및 InvokeModelWithResponseStream 토큰의 합계를 고려합니다.
Meta Llama 3.1 405B Instruct에 대한 분당 온디맨드 모델 추론 요청 지원되는 각 리전: 200 아니요 Meta Llama 3.1 405B Instruct에 대해 1분 내에 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및 에 대한 요청의 합계를 고려합니다 ConverseStream.
Meta Llama 3.1 70B Instruct에 대한 분당 온디맨드 모델 추론 요청 지원되는 각 리전: 400 아니요 Meta Llama 3.1 70B Instruct에 대해 1분 내에 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및 에 대한 요청의 합계를 고려합니다 ConverseStream.
Meta Llama 3.1 8B Instruct에 대한 분당 온디맨드 모델 추론 요청 지원되는 각 리전: 800 아니요 Meta Llama 3.1 8B Instruct에 대해 1분 내에 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및 에 대한 요청의 합계를 고려합니다 ConverseStream.
Meta Llama 3.2 11B Instruct에 대한 분당 온디맨드 모델 추론 요청 지원되는 각 리전: 400 아니요 Meta Llama 3.2 11B Instruct에 대해 1분 내에 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및 에 대한 요청의 합계를 고려합니다 ConverseStream.
Meta Llama 3.2 1B Instruct에 대한 분당 온디맨드 모델 추론 요청 지원되는 각 리전: 800 아니요 Meta Llama 3.2 1B Instruct에 대해 1분 내에 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및 에 대한 요청의 합계를 고려합니다 ConverseStream.
Meta Llama 3.2 3B Instruct에 대한 분당 온디맨드 모델 추론 요청 지원되는 각 리전: 800 아니요 Meta Llama 3.2 3B Instruct에 대해 1분 내에 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및 에 대한 요청의 합계를 고려합니다 ConverseStream.
Meta Llama 3.2 90B Instruct에 대한 분당 온디맨드 모델 추론 요청 지원되는 각 리전: 400 아니요 Meta Llama 3.2 90B Instruct에 대해 1분 내에 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및 에 대한 요청의 합계를 고려합니다 ConverseStream.
Mistral Large 2407에 대한 분당 온디맨드 모델 추론 요청 지원되는 각 리전: 400 아니요 Mistral Large 2407에 대해 1분 내에 모델 추론을 호출할 수 있는 최대 횟수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및 에 대한 요청의 합계를 고려합니다. ConverseStream
Meta Llama 3.1 8B Instruct에 대한 분당 온디맨드 모델 추론 토큰 지원되는 각 지역: 300,000 아니요 Meta Llama 3.1 8B Instruct에 대해 1분 내에 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및 에 대한 토큰의 합계를 고려합니다 ConverseStream.
Meta Llama 3.2 11B Instruct에 대한 분당 온디맨드 모델 추론 토큰 지원되는 각 지역: 300,000 아니요 Meta Llama 3.2 11B Instruct에 대해 1분 내에 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및 에 대한 토큰의 합계를 고려합니다 ConverseStream.
Meta Llama 3.2 1B Instruct에 대한 분당 온디맨드 모델 추론 토큰 지원되는 각 지역: 300,000 아니요 Meta Llama 3.2 1B Instruct에 대해 1분 내에 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및 에 대한 토큰의 합계를 고려합니다 ConverseStream.
Meta Llama 3.2 3B Instruct에 대한 분당 온디맨드 모델 추론 토큰 지원되는 각 지역: 300,000 아니요 Meta Llama 3.2 3B Instruct에 대해 1분 내에 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및 에 대한 토큰의 합계를 고려합니다 ConverseStream.
Meta Llama 3.2 90B Instruct에 대한 분당 온디맨드 모델 추론 토큰 지원되는 각 지역: 300,000 아니요 Meta Llama 3.2 90B Instruct에 대해 1분 내에 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및 에 대한 토큰의 합계를 고려합니다 ConverseStream.
Mistral Large 2407에 대한 분당 온디맨드 모델 추론 토큰 지원되는 각 지역: 300,000 아니요 Mistral Large 2407에 대해 1분 내에 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및 에 대한 토큰의 합계를 고려합니다. ConverseStream
Meta Llama 3.1 405B Instruct에 대한 분당 온디맨드 모델 추론 토큰 지원되는 각 리전: 400,000 아니요 Meta Llama 3.1 405B Instruct에 대해 1분 내에 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및 에 대한 토큰의 합계를 고려합니다 ConverseStream.
Meta Llama 3.1 70B Instruct에 대한 분당 온디맨드 모델 추론 토큰 지원되는 각 지역: 300,000 아니요 Meta Llama 3.1 70B Instruct에 대해 1분 내에 모델 추론을 위해 제출할 수 있는 최대 토큰 수입니다. 할당량은 InvokeModel, InvokeModelWithResponseStream, Converse 및 에 대한 토큰의 합계를 고려합니다 ConverseStream.
흐름당 출력 노드 수 지원되는 각 지역: 10개 아니요 최대 흐름 출력 노드 수입니다.
함수당 파라미터 지원되는 각 리전: 5 작업 그룹 함수에 포함할 수 있는 최대 파라미터 수입니다.
PrepareAgent 초당 요청 수 지원되는 각 리전: 2 아니요 초당 최대 요청 수 PrepareAgent API입니다.
PrepareFlow 초당 요청 수 지원되는 각 리전: 2 아니요 초당 최대 PrepareFlow 요청 수입니다.
흐름당 프롬프트 노드 수 지원되는 각 리전: 10 최대 프롬프트 노드 수입니다.
계정당 프롬프트 수 지원되는 각 지역: 50 최대 프롬프트 수입니다.
배치 추론 작업당 레코드 수 지원되는 각 리전: 50,000 배치 추론 작업의 모든 입력 파일에 대한 최대 레코드 수입니다.
배치 추론 작업당 입력 파일당 레코드 수 지원되는 각 리전: 50,000 배치 추론 작업의 입력 파일에 있는 최대 레코드 수입니다.
민감한 정보 필터의 Regex 엔터티 지원되는 각 지역: 10개 아니요 워드 정책에 포함할 수 있는 가드레일 필터 정규식의 최대 수
자 단위의 정규식 길이 지원되는 각 리전: 500개 아니요 가드레일 필터 정규식의 최대 길이, 문자 단위
초당 요청 검색 지원되는 각 지역: 5개 아니요 초당 최대 검색 API 요청 수입니다.
RetrieveAndGenerate 초당 요청 수 지원되는 각 지역: 5개 아니요 초당 최대 요청 수 RetrieveAndGenerate API입니다.
흐름당 S3 검색 노드 수 지원되는 각 지역: 10개 아니요 최대 S3 검색 노드 수입니다.
흐름당 S3 스토리지 노드 수 지원되는 각 지역: 10개 아니요 최대 S3 스토리지 노드 수입니다.
예약된 사용자 지정 작업 지원되는 각 리전: 2 아니요 예약된 사용자 지정 작업의 최대 수입니다.
프롬프트 크기 지원되는 각 리전: 4 아니요 개별 프롬프트의 최대 크기(KB)는 사용자 지정 프롬프트 데이터 세트입니다.
StartIngestionJob 초당 요청 수 지원되는 각 리전: 0.1 아니요 초당 최대 요청 수 StartIngestionJob API입니다.
기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 합계 지원되는 각 리전: 10 기본 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수입니다.
사용자 지정 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 합계 지원되는 각 리전: 3 사용자 지정 모델을 사용하여 진행 중 및 제출된 배치 추론 작업의 최대 수
Claude 3 Haiku v1 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 지원되는 각 리전: 10,000 Claude 3 Haiku 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다.
Meta Llama 2 13B v1 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 지원되는 각 리전: 10,000 Meta Llama 2 13B 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 통합 수입니다.
Meta Llama 2 70B v1 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 지원되는 각 리전: 10,000 Meta Llama 2 70B 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 통합 수입니다.
Meta Llama 3.1 70B Instruct v1 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 지원되는 각 리전: 10,000 Meta Llama 3.1 70B Instruct Fine-tuning 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다.
Meta Llama 3.1 8B Instruct v1 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 지원되는 각 리전: 10,000 Meta Llama 3.1 8B Instruct Fine-tuning 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다.
Titan Image Generator G1 V1 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 지원되는 각 리전: 10,000 Titan Image Generator 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다.
Titan Image Generator G1 V2 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 지원되는 각 리전: 10,000 Titan Image Generator V2 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다.
Titan Multimodal Embeddings G1 v1 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 지원되는 각 리전: 50,000 Titan Multimodal Embeddings 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다.
Titan Text G1 - Express v1 지속적인 사전 교육 작업에 대한 훈련 및 검증 레코드의 합계 지원되는 각 리전: 100,000 Titan Text Express 지속적인 사전 교육 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다.
Titan Text G1 - Express v1 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 지원되는 각 리전: 10,000 Titan Text Express 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다.
Titan Text G1 - Lite v1 지속적인 사전 교육 작업에 대한 훈련 및 검증 레코드의 합계 지원되는 각 리전: 100,000 Titan Text Lite 지속적인 사전 훈련 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다.
Titan Text G1 - Lite v1 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 지원되는 각 리전: 10,000 Titan Text Lite 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 통합 수입니다.
Titan Text G1 - Premier v1 미세 조정 작업에 대한 훈련 및 검증 레코드의 합계 지원되는 각 리전: 20개,000 Titan Text Premier 미세 조정 작업에 허용되는 훈련 및 검증 레코드의 최대 합계 수입니다.
작업자의 작업 시간 지원되는 각 리전: 30개 아니요 작업자가 작업을 완료해야 하는 최대 시간(일)입니다.
가드레일당 주제 지원되는 각 리전: 30개 아니요 가드레일 주제 정책에서 정의할 수 있는 최대 주제 수
흐름당 총 노드 수 지원되는 각 리전: 40개 아니요 흐름의 최대 노드 수입니다.
UpdateAgent 초당 요청 수 지원되는 각 리전: 4 아니요 초당 최대 요청 수 UpdateAgent API입니다.
UpdateAgentActionGroup 초당 요청 수 지원되는 각 리전: 6개 아니요 초당 최대 요청 수 UpdateAgentActionGroup API
UpdateAgentAlias 초당 요청 수 지원되는 각 리전: 2 아니요 초당 최대 요청 수 UpdateAgentAlias API입니다.
UpdateAgentKnowledgeBase 초당 요청 수 지원되는 각 리전: 4 아니요 초당 최대 요청 수 UpdateAgentKnowledgeBase API입니다.
UpdateDataSource 초당 요청 수 지원되는 각 리전: 2 아니요 초당 최대 요청 수 UpdateDataSource API입니다.
UpdateFlow 초당 요청 수 지원되는 각 리전: 2 아니요 초당 최대 UpdateFlow 요청 수입니다.
UpdateFlowAlias 초당 요청 수 지원되는 각 리전: 2 아니요 초당 최대 UpdateFlowAlias 요청 수입니다.
UpdateKnowledgeBase 초당 요청 수 지원되는 각 리전: 2 아니요 초당 최대 요청 수 UpdateKnowledgeBase API입니다.
UpdatePrompt 초당 요청 수 지원되는 각 리전: 2 아니요 초당 최대 UpdatePrompt 요청 수입니다.
사용자 쿼리 크기 지원되는 각 리전: 1,000 아니요 사용자 쿼리의 최대 크기(자)입니다.
ValidateFlowDefinition 초당 요청 수 지원되는 각 리전: 2 아니요 초당 최대 ValidateFlowDefinition 요청 수입니다.
가드레일당 버전 지원되는 각 지역: 20 아니요 가드레일이 가질 수 있는 최대 버전 수
프롬프트당 버전 지원되는 각 지역: 10개 아니요 프롬프트당 최대 버전 수입니다.
문자 단위의 단어 길이 지원되는 각 리전: 100 아니요 차단된 단어 목록에 있는 단어의 최대 길이입니다.
단어당 단어 정책 지원되는 각 리전: 10,000개 아니요 차단된 단어 목록에 포함할 수 있는 최대 단어 수