기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.
Object2Vec 하이퍼파라미터
CreateTrainingJob
요청에서 훈련 알고리즘을 지정합니다. 알고리즘별 하이퍼파라미터를 맵으로 string-to-string 지정할 수도 있습니다. 다음 표에는 Object2Vec 훈련 알고리즘의 하이퍼파라미터가 나와 있습니다.
파라미터 이름 | 설명 |
---|---|
enc0_max_seq_len |
enc0 인코더에 대한 최대 시퀀스 길이. 필수 유효한 값: 1 ≤ 정수 ≤ 5000 |
enc0_vocab_size |
enc0 토큰의 어휘 크기. 필수 유효한 값: 2 ≤ 정수 ≤ 3000000 |
bucket_width |
버킷팅이 활성화된 경우 데이터 시퀀스 길이 간에 허용되는 차이. 버킷팅을 활성화하려면 이 파라미터에 0이 아닌 값을 지정합니다. 선택 사항 유효한 값: 0 ≤ 정수 ≤ 100 기본값: 0(버킷팅 없음) |
comparator_list |
두 임베딩을 비교하는 방식을 사용자 지정하는 데 사용되는 목록. Object2Vec 비교기 연산자 계층은 두 인코더 모두로부터 임베딩을 입력으로 취하여 단일 벡터를 출력합니다. 이 벡터는 하위 벡터의 결합입니다. 선택 사항 유효한 값: 세가지 바이너리 연산자
기본 값: |
dropout |
네트워크 계층에 대한 드롭아웃 비율. 드롭아웃은 공동 의존 뉴런을 잘라내 과적합을 줄이는, 신경망에 사용되는 정규화의 한 가지 형태입니다. 선택 사항 유효한 값: 0.0 ≤ 부동 소수점 ≤ 1.0 기본 값: 0.0 |
early_stopping_patience |
조기 중지 전에 허용되는 개선 없는 연속 epoch 수가 적용됩니다. 개선은 선택 사항 유효한 값: 1 ≤ 정수 ≤ 5 기본값: 3 |
early_stopping_tolerance |
선택 사항 유효한 값: 0.000001 ≤ 부동 소수점 ≤ 0.1 기본 값: 0.01 |
enc_dim |
임베딩 계층의 출력 차원 선택 사항 유효한 값: 4 ≤ 정수 ≤ 10000 기본값: 4096 |
enc0_network |
enc0 인코더의 네트워크 모델 선택 사항 유효값:
기본 값: |
enc0_cnn_filter_width |
컨볼루션 신경망(CNN) enc0 인코더의 필터 너비입니다. 조건 유효한 값: 1 ≤ 정수 ≤ 9 기본값: 3 |
enc0_freeze_pretrained_embedding |
사전 훈련된 임베딩 가중치로 enc0을 동결할지 여부 조건 유효한 값: 기본 값: |
enc0_layers |
enc0 인코더의 계층 수. 조건 유효한 값:
기본 값: |
enc0_pretrained_embedding_file |
보조 데이터 채널 내 사전 훈련된 enc0 토큰 임베딩 파일의 파일 이름 조건 유효한 값: 영숫자 문자, 밑줄 또는 마침표가 포함된 문자열. [A-Za-z0-9\.\_] 기본값: ""(빈 문자열) |
enc0_token_embedding_dim |
enc0 토큰 임베딩 계층의 출력 차원 조건 유효한 값: 2 ≤ 정수 ≤ 1000 기본값: 300 |
enc0_vocab_file |
사전 훈련된 enc0 토큰 임베딩 벡터를 숫자 어휘 에 매핑하기 위한 어휘 파일입니다IDs. 조건 유효한 값: 영숫자 문자, 밑줄 또는 마침표가 포함된 문자열. [A-Za-z0-9\.\_] 기본값: ""(빈 문자열) |
enc1_network |
enc1 인코더의 네트워크 모델. enc1 인코더가 동일한 네트워크 모델을 enc0으로 사용하기 원할 경우(하이퍼파라미터 값을 포함) 값을 참고enc0 및 enc1 인코더 네트워크가 대칭 아키텍처를 갖는 경우에도 이들 네트워크의 파라미터 값을 공유할 수 없습니다. 선택 사항 유효한 값:
기본 값: |
enc1_cnn_filter_width |
CNN enc1 인코더의 필터 너비입니다. 조건 유효한 값: 1 ≤ 정수 ≤ 9 기본값: 3 |
enc1_freeze_pretrained_embedding |
사전 훈련된 임베딩 가중치로 enc1을 동결할지 여부 조건 유효한 값: 기본 값: |
enc1_layers |
enc1 인코더의 계층 수 조건 유효한 값:
기본 값: |
enc1_max_seq_len |
enc1 인코더에 대한 최대 시퀀스 길이. 조건 유효한 값: 1 ≤ 정수 ≤ 5000 |
enc1_pretrained_embedding_file |
보조 데이터 채널 내 사전 훈련된 enc1 토큰 임베딩 파일의 이름 조건 유효한 값: 영숫자 문자, 밑줄 또는 마침표가 포함된 문자열. [A-Za-z0-9\.\_] 기본값: ""(빈 문자열) |
enc1_token_embedding_dim |
enc1 토큰 임베딩 계층의 출력 차원 조건 유효한 값: 2 ≤ 정수 ≤ 1000 기본값: 300 |
enc1_vocab_file |
사전 훈련된 enc1 토큰 임베딩을 어휘 에 매핑하기 위한 어휘 파일입니다IDs. 조건 유효한 값: 영숫자 문자, 밑줄 또는 마침표가 포함된 문자열. [A-Za-z0-9\.\_] 기본값: ""(빈 문자열) |
enc1_vocab_size |
enc0 토큰의 어휘 크기. 조건 유효한 값: 2 ≤ 정수 ≤ 3000000 |
epochs |
훈련을 위해 실행할 epoch 수 선택 사항 유효한 값: 1 ≤ 정수 ≤ 100 기본값: 30 |
learning_rate |
훈련에 대한 학습률 선택 사항 유효한 값: 1.0E-6 ≤ 부동 소수점 ≤ 1.0 기본값: 0.0004 |
mini_batch_size |
훈련 중 선택 사항 유효한 값: 1 ≤ 정수 ≤ 10000 기본 값: 32 |
mlp_activation |
다중 계층 인식(MLP) 계층의 활성화 함수 유형입니다. 선택 사항 유효값:
기본 값: |
mlp_dim |
MLP 계층의 출력 차원입니다. 선택 사항 유효한 값: 2 ≤ 정수 ≤ 10000 기본값: 512 |
mlp_layers |
네트워크의 MLP 계층 수입니다. 선택 사항 유효한 값: 0 ≤ 정수 ≤ 10 기본값: 2 |
negative_sampling_rate |
사용자가 제공하는 양수 샘플 대비 알고리즘 훈련을 촉진하기 위해 생성되는 음수 샘플의 비율. 음수 샘플은 실제 발생할 가능성이 없는 데이터를 나타내며 훈련에서 음수로 레이블이 지정됩니다. 이들은 모델이 관찰되는 양수 샘플과 그렇지 않은 음수 샘플을 구별하는 훈련을 촉진합니다. 훈련에 사용되는 양수 샘플 대비 음수 샘플의 비율을 지정하려면 값을 양의 정수로 설정합니다. 예를 들어 모든 샘플이 양수인 입력 데이터에 대해 알고리즘을 훈련할 때 선택 사항 유효한 값: 0 ≤ 정수 기본값: 0(끄기) |
num_classes |
분류 훈련을 위한 클래스 수. Amazon SageMaker은 회귀 문제에 대해 이 하이퍼파라미터를 무시합니다. 선택 사항 유효한 값: 2 ≤ 정수 ≤ 30 기본값: 2 |
optimizer |
옵티마이저 유형. 선택 사항 유효한 값:
기본 값: |
output_layer |
작업이 회귀 또는 분류인지 지정하는 출력 계층의 유형. 선택 사항 유효한 값:
기본 값: |
tied_token_embedding_weight |
두 인코더 모두에 공유 임베딩 계층을 사용할지 여부. 두 인코더 모두의 입력이 동일한 토큰 수준 단위를 사용하는 경우 공유 토큰 임베딩 계층을 사용합니다. 예를 들어 문서 모음의 경우 한 인코더는 문장을 인코딩하고 다른 인코더는 전체 문서를 인코딩할 경우 공유 토큰 임베딩 계층을 사용할 수 있습니다. 문장과 문서 모두 동일한 어휘의 단어로 구성되기 때문입니다. 선택 사항 유효한 값: 기본 값: |
token_embedding_storage_type |
훈련 중 사용되는 그래디언트 업데이트의 모드:
선택 사항 유효한 값: 기본 값: |
weight_decay |
최적화에 사용되는 가중치 감소 파라미터 선택 사항 유효한 값: 0 ≤ 부동 소수점 ≤ 10000 가본값: 0(감퇴 없음) |