기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.
Meta Llama 3.1 8B 및 70B 모델은 모델 사용자 지정을 위해 다음과 같은 하이퍼파라미터를 지원합니다. 자세한 내용은 모델을 사용자 지정하여 사용 사례에 맞게 성능 개선 섹션을 참조하세요.
미세 조정 Meta Llama 모델에 대한 자세한 내용은 https://ai.meta.com/llama/get-started/#fine-tuning
참고
epochCount
할당량은 조정이 가능합니다.
하이퍼파라미터(콘솔) | 하이퍼파라미터(API) | 정의 | 최소 | Maximum | Default |
---|---|---|---|---|---|
에포크 | epochCount | 전체 훈련 데이터 세트를 통한 반복 횟수 | 1 | 10 | 5 |
배치 크기 | batchSize | 모델 파라미터를 업데이트하기 전에 처리된 샘플 수 | 1 | 1 | 1 |
학습률 | learningRate | 각 배치 이후 모델 파라미터가 업데이트되는 비율 | 5.00E-6 | 0.1 | 1.00E-4 |