기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.
데이터세트 준비
모델 사용자 지정 작업을 시작하기 전에 훈련 데이터세트는 반드시 준비해야 합니다. 검증 데이터세트 지원 여부와 훈련 및 검증 데이터세트의 형식은 다음 요인에 따라 달라집니다.
미세 조정 및 지속적인 사전 훈련 데이터 형식에 대한 모델 지원
다음 테이블에는 각 모델에 지원되는 미세 조정 및 지속적인 사전 훈련 데이터 형식에 대한 세부 정보가 나와 있습니다.
모델 이름 |
미세 조정: 텍스트 투 텍스트 |
미세 조정: 텍스트 투 이미지 및 이미지 투 임베딩 |
미세 조정: Text+Image-to-Text 및 Text+Video-to-Text |
지속적인 사전 훈련: 텍스트 투 텍스트 |
미세 조정: 단일 턴 메시징 |
미세 조정: 멀티 턴 메시징 |
Amazon Nova Pro |
예 |
예 |
예 |
아니요 |
예 |
예 |
Amazon Nova Lite |
예 |
예 |
예 |
아니요 |
예 |
예 |
Amazon Nova Micro |
예 |
아니요 |
아니요 |
아니요 |
예 |
예 |
Amazon Titan Text G1 - Express |
예 |
아니요 |
아니요 |
예 |
아니요 |
No |
Amazon Titan Text G1 - Lite |
예 |
아니요 |
아니요 |
예 |
아니요 |
No |
Amazon Titan Text Premier |
예 |
아니요 |
아니요 |
아니요 |
아니요 |
No |
Amazon Titan Image Generator G1 V1 |
예 |
예 |
아니요 |
아니요 |
아니요 |
No |
Amazon Titan Multimodal Embeddings G1 |
예 |
예 |
아니요 |
아니요 |
아니요 |
아니요 |
Anthropic Claude 3 Haiku |
아니요 |
아니요 |
아니요 |
아니요 |
예 |
예 |
Cohere Command |
예 |
아니요 |
아니요 |
아니요 |
아니요 |
아니요 |
Cohere Command Light |
예 |
아니요 |
아니요 |
아니요 |
아니요 |
No |
Meta Llama 2 13B |
예 |
아니요 |
아니요 |
아니요 |
아니요 |
No |
Meta Llama 2 70B |
예 |
아니요 |
아니요 |
아니요 |
아니요 |
No |
다양한 모델을 사용자 지정하는 데 사용되는 훈련 및 검증 데이터세트에 적용되는 기본 할당량을 확인하려면 AWS 일반 참조의 Amazon Bedrock endpoints and quotas에서 Sum of training and validation records를 참조하세요.
사용자 지정 모델을 위한 훈련 및 검증 데이터세트 준비
사용자 지정 모델에 대한 훈련 및 검증 데이터세트를 준비하려면 각 라인이 레코드에 해당하는 JSON 객체인 .jsonl
파일을 만듭니다. 만든 파일은 선택한 사용자 지정 방법 및 모델의 형식을 준수해야 하며, 파일의 레코드는 크기 요구 사항을 준수해야 합니다.
형식은 사용자 지정 방법과 모델의 입력 및 출력 양식에 따라 달라집니다. 원하는 방법의 탭을 선택한 다음 다음 단계를 따릅니다.
- Fine-tuning: Text-to-text
-
텍스트 투 텍스트 모델의 경우, 훈련 데이터세트를 준비하고 필요한 경우 검증 데이터세트를 준비합니다. 각 JSON 객체는 prompt
및 completion
필드를 모두 포함하는 샘플입니다. 토큰 개수의 근사치로 토큰당 6자를 사용합니다. 형식은 다음과 같습니다.
{"prompt": "<prompt1>", "completion": "<expected generated text>"}
{"prompt": "<prompt2>", "completion": "<expected generated text>"}
{"prompt": "<prompt3>", "completion": "<expected generated text>"}
다음은 질문-응답 태스크의 예제 항목입니다.
{"prompt": "what is AWS", "completion": "it's Amazon Web Services"}
- Fine-tuning: Text-to-image & Image-to-embeddings
-
텍스트 투 이미지 또는 이미지 투 임베딩 모델의 경우, 훈련 데이터세트를 준비합니다. 검증 데이터세트는 지원되지 않습니다. 각 JSON 객체는 image-ref
, 이미지용 Amazon S3 URI, 이미지용 프롬프트가 될 수 있는 caption
이 포함된 샘플입니다.
이미지는 JPEG 또는 PNG 형식이어야 합니다.
{"image-ref": "s3://bucket/path/to/image001.png", "caption": "<prompt text>"}
{"image-ref": "s3://bucket/path/to/image002.png", "caption": "<prompt text>"}
{"image-ref": "s3://bucket/path/to/image003.png", "caption": "<prompt text>"}
예시는 다음과 같습니다.
{"image-ref": "s3://amzn-s3-demo-bucket/my-pets/cat.png", "caption": "an orange cat with white spots"}
Amazon Bedrock이 이미지 파일에 액세스하도록 허용하려면, 사용자가 설정했거나 콘솔에서 자동으로 설정된 Amazon Bedrock 모델 사용자 지정 서비스 역할에 대한 (S3의 훈련 및 검증 파일에 액세스하고 S3에 출력 파일을 쓸 수 있는 권한 섹션과 유사한) IAM 정책을 추가합니다. 훈련 데이터 세트에 제공하는 Amazon S3 경로는 정책에서 지정하는 폴더에 있어야 합니다.
- Continued Pre-training: Text-to-text
-
텍스트 투 텍스트 모델에 대한 지속적인 사전 훈련을 수행하려면 훈련 데이터세트를 준비하고 필요한 경우 검증 데이터세트를 준비합니다. 지속적인 사전 훈련에는 레이블이 지정되지 않은 데이터가 포함되므로 각 JSON 라인은 input
필드만 포함하는 샘플입니다. 토큰 개수의 근사치로 토큰당 6자를 사용합니다. 형식은 다음과 같습니다.
{"input": "<input text>"}
{"input": "<input text>"}
{"input": "<input text>"}
다음은 훈련 데이터에 포함될 수 있는 예제 항목입니다.
{"input": "AWS stands for Amazon Web Services"}
- Fine-tuning: Single-turn messaging
-
단일 턴 메시징 형식을 사용하여 텍스트 투 텍스트 모델을 미세 조정하려면 훈련 데이터세트를 준비하고 필요한 경우 검증 데이터세트를 준비합니다. 두 데이터 파일 모두 JSONL 형식이어야 합니다. 각 라인은 json 형식으로 전체 데이터 샘플을 지정하며, 각 데이터 샘플은 한 줄로 포맷되어야 합니다(각 샘플 내에서 모든 '\n' 제거). 1개의 라인에 여러 개의 데이터 샘플이 있거나 데이터 샘플이 여러 줄로 분할된 경우 작동하지 않습니다.
필드
규칙
-
messages
배열에는 2개의 메시지가 포함되어야 합니다.
-
첫 번째 메시지에는 사용자의 role
이 있어야 합니다.
-
마지막 메시지에는 어시스턴트의 role
이 있어야 합니다.
{"system": "<system message>","messages":[{"role": "user", "content": "<user query>"},{"role": "assistant", "content": "<expected generated text>"}]}
예제
{"system": "You are an helpful assistant.","messages":[{"role": "user", "content": "what is AWS"},{"role": "assistant", "content": "it's Amazon Web Services."}]}
- Fine-tuning: Multi-turn messaging
-
멀티 턴 메시징 형식을 사용하여 텍스트 투 텍스트 모델을 미세 조정하려면 훈련 데이터세트를 준비하고 필요한 경우 검증 데이터세트를 준비합니다. 두 데이터 파일 모두 JSONL 형식이어야 합니다. 각 라인은 json 형식으로 전체 데이터 샘플을 지정하며, 각 데이터 샘플은 한 줄로 포맷되어야 합니다(각 샘플 내에서 모든 '\n' 제거). 1개의 라인에 여러 개의 데이터 샘플이 있거나 데이터 샘플이 여러 줄로 분할된 경우 작동하지 않습니다.
필드
규칙
-
messages
배열에는 최소 2개의 메시지가 포함되어야 합니다.
-
첫 번째 메시지에는 사용자의 role
이 있어야 합니다.
-
마지막 메시지에는 어시스턴트의 role
이 있어야 합니다.
-
메시지는 user
및 assistant
역할을 번갈아 사용해야 합니다.
{"system": "<system message>","messages":[{"role": "user", "content": "<user query 1>"},{"role": "assistant", "content": "<expected generated text 1>"}, {"role": "user", "content": "<user query 2>"},{"role": "assistant", "content": "<expected generated text 2>"}]}
예제
{"system": "system message","messages":[{"role": "user", "content": "Hello there."},{"role": "assistant", "content": "Hi, how can I help you?"},{"role": "user", "content": "what are LLMs?"},{"role": "assistant", "content": "LLM means large language model."},]}
- Distillation
-
모델 추출 작업에 대한 훈련 및 검증 데이터 세트를 준비하려면 섹션을 참조하세요Amazon Bedrock 모델 디스털레이션을 위한 사전 조건.
탭을 선택하여 모델의 훈련 및 검증 데이터세트에 대한 요구 사항을 확인합니다.
- Amazon Nova
-
모델 |
최소 샘플 |
최대 샘플 수 |
컨텍스트 길이 |
Amazon Nova Micro |
100 |
2만 |
32k |
Amazon Nova Lite |
8 |
20k(문서의 경우 10k) |
32k |
Amazon Nova Pro |
100 |
1만 |
32k |
이미지 및 비디오 제약 조건
최대 이미지 파일 크기 |
10MB |
최대 비디오 수 |
샘플당 1개 |
최대 비디오 길이 또는 기간 |
90초 |
최대 비디오 파일 크기 |
50MB |
지원되는 이미지 형식 |
PNG, JPEG, GIF, WEBP |
지원되는 비디오 형식 |
MOV, MKV, MP4, WEBM |
- Amazon Titan Text Premier
-
설명 |
최대(미세 조정) |
배치 크기가 1인 경우 입력 및 출력 토큰의 합계 |
4,096 |
배치 크기가 2, 3 또는 4인 경우 입력 및 출력 토큰의 합계 |
N/A |
데이터 세트 내 샘플당 문자 할당량 |
토큰 할당량 x 6 |
훈련 데이터 세트 파일 크기 |
1GB |
검증 데이터 세트 파일 크기 |
100MB |
- Amazon Titan Text G1 - Express
-
설명 |
최대(지속적인 사전 훈련) |
최대(미세 조정) |
배치 크기가 1인 경우 입력 및 출력 토큰의 합계 |
4,096 |
4,096 |
배치 크기가 2, 3 또는 4인 경우 입력 및 출력 토큰의 합계 |
2,048 |
2,048 |
데이터 세트 내 샘플당 문자 할당량 |
토큰 할당량 x 6 |
토큰 할당량 x 6 |
훈련 데이터 세트 파일 크기 |
10GB |
1GB |
검증 데이터 세트 파일 크기 |
100MB |
100MB |
- Amazon Titan Text G1 - Lite
-
설명 |
최대(지속적인 사전 훈련) |
최대(미세 조정) |
배치 크기가 1 또는 2인 경우 입력 및 출력 토큰의 합계 |
4,096 |
4,096 |
배치 크기가 3, 4, 5, 또는 6인 경우 입력 및 출력 토큰의 합계 |
2,048 |
2,048 |
데이터 세트 내 샘플당 문자 할당량 |
토큰 할당량 x 6 |
토큰 할당량 x 6 |
훈련 데이터 세트 파일 크기 |
10GB |
1GB |
검증 데이터 세트 파일 크기 |
100MB |
100MB |
- Amazon Titan Image Generator G1 V1
-
설명 |
최소(미세 조정) |
최대(미세 조정) |
훈련 샘플의 텍스트 프롬프트 길이(글자 수 기준) |
3 |
1,024 |
훈련 데이터세트의 레코드 |
5 |
10,000개 |
입력 이미지 크기 |
0 |
50MB |
입력 이미지 높이(픽셀) |
512 |
4,096 |
입력 이미지 너비(픽셀) |
512 |
4,096 |
입력 이미지 총 픽셀 |
0 |
12,582,912 |
입력 이미지 종횡비 |
1:4 |
4:1 |
- Amazon Titan Multimodal Embeddings G1
-
설명 |
최소(미세 조정) |
최대(미세 조정) |
훈련 샘플의 텍스트 프롬프트 길이(글자 수 기준) |
0 |
2,560 |
훈련 데이터세트의 레코드 |
1,000 |
500,000 |
입력 이미지 크기 |
0 |
5MB |
입력 이미지 높이(픽셀) |
128 |
4096 |
입력 이미지 너비(픽셀) |
128 |
4096 |
입력 이미지 총 픽셀 |
0 |
12,528,912 |
입력 이미지 종횡비 |
1:4 |
4:1 |
- Cohere Command
-
설명 |
최대(미세 조정) |
입력 토큰 |
4,096 |
출력 토큰 |
2,048 |
데이터 세트 내 샘플당 문자 할당량 |
토큰 할당량 x 6 |
훈련 데이터세트의 레코드 |
10,000개 |
검증 데이터세트의 레코드 |
1,000 |
- Meta Llama 2
-
설명 |
최대(미세 조정) |
입력 토큰 |
4,096 |
출력 토큰 |
2,048 |
데이터 세트 내 샘플당 문자 할당량 |
토큰 할당량 x 6 |
- Meta Llama 3.1
-
설명 |
최대(미세 조정) |
입력 토큰 |
16,000 |
출력 토큰 |
16,000 |
데이터 세트 내 샘플당 문자 할당량 |
토큰 할당량 x 6 |
Amazon Nova 데이터 준비 지침은 Amazon Nova에 대한 데이터 준비 지침을 참조하세요.