쿠키 기본 설정 선택

당사는 사이트와 서비스를 제공하는 데 필요한 필수 쿠키 및 유사한 도구를 사용합니다. 고객이 사이트를 어떻게 사용하는지 파악하고 개선할 수 있도록 성능 쿠키를 사용해 익명의 통계를 수집합니다. 필수 쿠키는 비활성화할 수 없지만 '사용자 지정' 또는 ‘거부’를 클릭하여 성능 쿠키를 거부할 수 있습니다.

사용자가 동의하는 경우 AWS와 승인된 제3자도 쿠키를 사용하여 유용한 사이트 기능을 제공하고, 사용자의 기본 설정을 기억하고, 관련 광고를 비롯한 관련 콘텐츠를 표시합니다. 필수가 아닌 모든 쿠키를 수락하거나 거부하려면 ‘수락’ 또는 ‘거부’를 클릭하세요. 더 자세한 내용을 선택하려면 ‘사용자 정의’를 클릭하세요.

BlazingText 하이퍼파라미터

포커스 모드
BlazingText 하이퍼파라미터 - Amazon SageMaker AI

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

CreateTrainingJob 요청을 사용하여 훈련 작업을 시작할 때 훈련 알고리즘을 지정합니다. 알고리즘별 하이퍼파라미터를 문자열-문자열 맵으로 지정할 수 있습니다. BlazingText 알고리즘에 대한 하이퍼파라미터는 사용하는 Word2Vec(비지도) 및 Text Classification(지도) 모드에 따라 다릅니다.

Word2Vec 하이퍼파라미터

다음 표에는 Amazon SageMaker AI에서 제공하는 BlazingText Word2Vec 훈련 알고리즘의 하이퍼파라미터가 나열되어 있습니다.

파라미터 이름 설명
mode

훈련에 사용되는 Word2vec 아키텍처.

필수

유효값: batch_skipgram, skipgram 또는 cbow

batch_size

modebatch_skipgram으로 설정된 경우 각 배치의 크기. 10부터 20 사이의 숫자를 설정합니다.

선택 사항

유효한 값: 양수

기본값: 11

buckets

형태소(subword)에 사용할 해시 버킷 수입니다.

선택 사항

유효한 값: 양수

기본값: 2000000

epochs

훈련 데이터의 완료 통과 횟수.

선택 사항

유효한 값: 양수

기본값: 5

evaluation

훈련된 모델이 WordSimilarity-353 테스트를 사용하여 평가되는지 여부.

선택 사항

유효한 값: (부울) True 또는 False

기본 값: True

learning_rate

파라미터 업데이트에 사용되는 단계 크기입니다.

선택 사항

유효한 값: 양의 부동 소수점

기본값: 0.05

min_char

형태소/문자 n-gram에 사용할 최소 문자 수입니다.

선택 사항

유효한 값: 양수

기본값: 3

min_count

min_count회 미만으로 표시되는 단어는 삭제됩니다.

선택 사항

유효한 값: 음수가 아닌 정수

기본값: 5

max_char

형태소/문자 n-gram에 사용할 최대 문자 수입니다.

선택 사항

유효한 값: 양수

기본값: 6

negative_samples

네거티브 샘플 공유 전략을 위한 네거티브 샘플 수입니다.

선택 사항

유효한 값: 양수

기본값: 5

sampling_threshold

단어 발생에 대한 임곗값입니다. 훈련 데이터에 보다 높은 빈도로 나타나고 무작위로 다운 샘플링되는 단어입니다.

선택 사항

유효한 값: 양의 분수값. 권장되는 범위는 (0, 1e-3]입니다.

기본값: 0.0001

subwords

형태소(subword) 임베딩 학습 여부

선택 사항

유효한 값: (부울) True 또는 False

기본 값: False

vector_dim

알고리즘이 학습하는 단어 벡터의 차원.

선택 사항

유효한 값: 양수

기본 값: 100

window_size

컨텍스트 창의 크기. 컨텍스트 창은 훈련에 사용되는 대상 단어 주변의 단어 수입니다.

선택 사항

유효한 값: 양수

기본값: 5

텍스트 분류 하이퍼파라미터

다음 표에는 Amazon SageMaker AI에서 제공하는 텍스트 분류 훈련 알고리즘의 하이퍼파라미터가 나열되어 있습니다.

참고

일부 파라미터가 텍스트 분류 및 Word2Vec 모드 간에 공통되긴 하지만 컨텍스트에 따라 의미가 다를 수 있습니다.

파라미터 이름 설명
mode

훈련 모드

필수

유효값: supervised

buckets

word n-gram에 사용할 해시 버킷 수입니다.

선택 사항

유효한 값: 양수

기본값: 2000000

early_stopping

epoch의 patience 수 이후 검증 정확성이 개선되지 않는 경우 훈련을 중지할지 여부 초기 중지를 사용하는 경우 검증 채널이 필수 항목이라는 점에 유의하세요.

선택 사항

유효한 값: (부울) True 또는 False

기본 값: False

epochs

훈련 데이터에 통해 과정을 이수한 최대 횟수입니다.

선택 사항

유효한 값: 양수

기본값: 5

learning_rate

파라미터 업데이트에 사용되는 단계 크기입니다.

선택 사항

유효한 값: 양의 부동 소수점

기본값: 0.05

min_count

min_count회 미만으로 표시되는 단어는 삭제됩니다.

선택 사항

유효한 값: 음수가 아닌 정수

기본값: 5

min_epochs

조기 중지 로직을 호출하기 전 훈련할 최소 epoch 수입니다.

선택 사항

유효한 값: 양수

기본값: 5

patience

검증 세트에 대해 개선이 이루어지지 않는 경우 조기 중지를 적용하기 전에 대기할 epoch 수입니다. early_stoppingTrue인 경우에만 사용됩니다.

선택 사항

유효한 값: 양수

기본값: 4

vector_dim

임베딩 계층의 차원입니다.

선택 사항

유효한 값: 양수

기본 값: 100

word_ngrams

사용할 word n-gram 특징의 수입니다.

선택 사항

유효한 값: 양수

기본값: 2

프라이버시사이트 이용 약관쿠키 기본 설정
© 2025, Amazon Web Services, Inc. 또는 계열사. All rights reserved.