기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.
모델 튜닝 BlazingText
하이퍼파라미터 튜닝이라고도 하는 자동 모델 튜닝은 데이터 세트에 대한 광범위한 하이퍼파라미터를 테스트하는 여러 작업을 실행하여 최적의 모델 버전을 찾습니다. 튜닝 가능한 하이퍼파라미터, 각 하이퍼파라미터에 대한 값 범위 및 목표 지표를 선택합니다. 알고리즘에서 계산하는 지표 중에서 목표 지표를 선택합니다. 자동 모델 튜닝은 선택한 하이퍼파라미터를 검색하여 목표 지표를 최적화하는 모델을 만드는 값 조합을 찾습니다.
모델 튜닝에 대한 추가 정보는 를 사용하여 자동 모델 튜닝을 수행하십시오. SageMaker 단원을 참조하십시오.
알고리즘으로 계산된 지표 BlazingText
BlazingText Word2Vec 알고리즘 (skipgram
cbow
, 및 batch_skipgram
모드) 은 훈련 중 단일 지표에 대해 보고합니다. train:mean_rho
이 지표는 WS-353 단어 유사성 데이터 세트
또한 BlazingText 텍스트 분류 알고리즘 (supervised
모드) 은 훈련 중 단일 지표에 대해 보고합니다. validation:accuracy
텍스트 분류 알고리즘에 대한 하이퍼파라미터 값을 튜닝할 때 이러한 지표를 목표값으로 사용합니다.
지표 이름 | 설명 | 최적화 방향 |
---|---|---|
train:mean_rho |
WS-353 단어 유사성 데이터 세트 |
최대화 |
validation:accuracy |
사용자 지정 검증 데이터 세트에 대한 분류 정확성 |
최대화 |
조정 가능한 하이퍼파라미터 BlazingText
Word2Vec 알고리즘의 튜닝 가능한 하이퍼파라미터
다음 하이퍼파라미터를 사용하여 Amazon SageMaker BlazingText Word2Vec 모델을 조정합니다. Word2Vec 목표 지표에 가장 큰 영향을 미치는 하이퍼파라미터는 mode
, learning_rate
, window_size
, vector_dim
및 negative_samples
입니다.
파라미터 이름 | 파라미터 유형 | 권장 범위 또는 값 |
---|---|---|
batch_size |
|
[8-32] |
epochs |
|
[5-15] |
learning_rate |
|
MinValue: 0.005,: 0.01 MaxValue |
min_count |
|
[0-100] |
mode |
|
[ |
negative_samples |
|
[5-25] |
sampling_threshold |
|
MinValue: 0.0001,: 0.001 MaxValue |
vector_dim |
|
[32-300] |
window_size |
|
[1-10] |
텍스트 분류 알고리즘의 튜닝 가능한 하이퍼파라미터
다음 하이퍼파라미터를 사용하여 Amazon SageMaker BlazingText 텍스트 분류 모델을 조정합니다.
파라미터 이름 | 파라미터 유형 | 권장 범위 또는 값 |
---|---|---|
buckets |
|
[1000000-10000000] |
epochs |
|
[5-15] |
learning_rate |
|
MinValue: 0.005,: 0.01 MaxValue |
min_count |
|
[0-100] |
vector_dim |
|
[32-300] |
word_ngrams |
|
[1-3] |