Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Kerangka Kerja yang Didukung Wilayah AWS, Jenis Instance, dan Model yang Diuji
penting
Amazon Web Services (AWS) mengumumkan bahwa tidak akan ada rilis baru atau versi SageMaker Training Compiler. Anda dapat terus menggunakan SageMaker Training Compiler melalui AWS Deep Learning Containers (DLCs) for SageMaker Training yang ada. Penting untuk dicatat bahwa meskipun yang ada DLCs tetap dapat diakses, mereka tidak akan lagi menerima tambalan atau pembaruan AWS, sesuai dengan Kebijakan Dukungan Framework AWS Deep Learning Containers.
Sebelum menggunakan SageMaker Training Compiler, periksa apakah kerangka kerja pilihan Anda didukung, jenis instans tersedia di AWS akun Anda, dan AWS akun Anda ada di salah satu yang didukung Wilayah AWS.
catatan
SageMaker Training Compiler tersedia dalam SageMaker SDK Python v2.70.0 atau yang lebih baru.
Kerangka Kerja yang Didukung
SageMaker Training Compiler mendukung kerangka pembelajaran mendalam berikut dan tersedia melalui AWS Deep Learning Containers.
Topik
PyTorch
Kerangka Kerja | Versi kerangka kerja | Wadah Pembelajaran Mendalam URI | Dapat diperpanjang untuk kustomisasi Docker |
---|---|---|---|
PyTorch | PyTorch v1.13.1 | 763104351884.dkr.ecr.<region> .amazonaws.com/:1.12.0-gpu-py38-cu113-ubuntu20.04-sagemaker pytorch-trcomp-training |
Tidak |
PyTorch v1.12.0 | 763104351884.dkr.ecr.<region> .amazonaws.com/:1.13.1-gpu-py39-cu117-ubuntu20.04-sagemaker pytorch-trcomp-training |
Tidak | |
PyTorch dengan Hugging Face Transformers |
Transformer v4.21.1 PyTorch v1.11.0 |
763104351884.dkr.ecr. |
Tidak |
Transformer v4.17.0 PyTorch v1.10.2 |
763104351884.dkr.ecr. |
Tidak | |
Transformer v4.11.0 PyTorch v1.9.0 |
763104351884.dkr.ecr. |
Tidak |
TensorFlow
Kerangka Kerja | Versi kerangka kerja | Wadah Pembelajaran Mendalam URI | Dapat diperpanjang untuk kustomisasi Docker |
---|---|---|---|
TensorFlow |
TensorFlow v2.11.0 |
763104351884.dkr.ecr. |
Ya |
TensorFlow v2.10.0 |
763104351884.dkr.ecr. |
Ya | |
TensorFlow v2.9.1 |
763104351884.dkr.ecr. |
Ya | |
TensorFlow dengan Hugging Face Transformers |
Transformer v4.17.0 TensorFlow v2.6.3 |
763104351884.dkr.ecr. |
Tidak |
Transformer v4.11.0 TensorFlow v2.5.1 |
763104351884.dkr.ecr. |
Tidak |
Untuk informasi selengkapnya, lihat Gambar yang Tersedia
Wilayah AWS
SageMaker Training Compiler Containers
Tipe Instans Yang Didukung
SageMaker Training Compiler diuji dan mendukung jenis instans ML berikut.
-
Instans P4
-
Instans P3
-
Instans G4dn
-
Instans G5
Untuk spesifikasi jenis instans, lihat bagian Komputasi Akselerasi di halaman Jenis EC2 Instans Amazon
Jika Anda menemukan pesan galat yang mirip dengan berikut ini, ikuti petunjuk di Minta peningkatan kuota layanan untuk SageMaker sumber daya.
ResourceLimitExceeded: An error occurred (ResourceLimitExceeded) when calling the CreateTrainingJob operation: The account-level service limit 'ml.p3dn.24xlarge for training job usage' is 0 Instances, with current utilization of 0 Instances and a request delta of 1 Instances. Please contact AWS support to request an increase for this limit.
Model yang Diuji
Tabel berikut mencakup daftar model yang telah diuji dengan SageMaker Training Compiler. Sebagai referensi, ukuran batch terbesar yang dapat dimasukkan ke dalam memori juga disertakan bersama parameter pelatihan lainnya. SageMaker Training Compiler dapat mengubah jejak memori dari proses pelatihan model; sebagai hasilnya, ukuran batch yang lebih besar sering dapat digunakan selama proses pelatihan, yang selanjutnya mengurangi total waktu pelatihan. Dalam beberapa kasus, SageMaker Training Compiler secara cerdas mempromosikan caching yang mengarah pada penurunan ukuran batch terbesar yang dapat muat di file. GPU Anda harus menyetel ulang hyperparameters model Anda dan menemukan ukuran batch yang optimal untuk casing Anda. Untuk menghemat waktu, gunakan tabel referensi berikut untuk mencari ukuran batch yang bisa menjadi titik awal yang baik untuk kasus penggunaan Anda.
catatan
Ukuran batch adalah ukuran batch lokal yang sesuai dengan masing-masing individu GPU dalam jenis instance masing-masing. Anda juga harus menyesuaikan tingkat pembelajaran saat mengubah ukuran batch.
Model pemrosesan bahasa alami (NLP)
Model-model berikut diuji untuk pekerjaan pelatihan untuk semua kombinasi simpul tunggal dan multi-node dengan GPU inti tunggal atau multi dan Presisi Campuran Otomatis (AMP) seperti yang ditunjukkan.
Simpul tunggal/multi-simpul tunggal/multi- GPU GPU | ||||||
---|---|---|---|---|---|---|
Model | Set data | Jenis instans | presisi | Panjang Urutan | Ukuran Batch untuk kerangka kerja asli | Ukuran Batch untuk SageMaker Training Compiler |
albert-base-v2 | wikitext-2-raw-v1 | g4dn.16xlarge | mengapung16 | 128 | 80 | 192 |
albert-base-v2 | wikitext-2-raw-v1 | g5.4xlarge | mengapung16 | 128 | 128 | 332 |
albert-base-v2 | wikitext-2-raw-v1 | p3.2xlarge | mengapung16 | 128 | 80 | 224 |
bert-base-uncased | wikitext-2-raw-v1 | g5.4xlarge | mengapung16 | 128 | 160 | 288 |
dasar camembert | wikitext-2-raw-v1 | g5.4xlarge | mengapung16 | 128 | 160 | 280 |
distilbert-base-uncased | wikitext-2-raw-v1 | g5.4xlarge | mengapung16 | 128 | 240 | 472 |
distilgpt2 | wikitext-2-raw-v1 | g4dn.16xlarge | mengapung16 | 128 | 77 | 128 |
distilgpt2 | wikitext-2-raw-v1 | g5.4xlarge | mengapung16 | 128 | 138 | 390 |
distilgpt2 | wikitext-2-raw-v1 | p3.2xlarge | mengapung16 | 128 | 96 | 256 |
distilroberta-basis | wikitext-2-raw-v1 | g4dn.16xlarge | mengapung16 | 128 | 96 | 192 |
distilroberta-basis | wikitext-2-raw-v1 | g5.4xlarge | mengapung16 | 128 | 171 | 380 |
distilroberta-basis | wikitext-2-raw-v1 | p3.2xlarge | mengapung16 | 128 | 112 | 256 |
gpt2 | wikitext-2-raw-v1 | g4dn.16xlarge | mengapung16 | 128 | 52 | 152 |
gpt2 | wikitext-2-raw-v1 | g5.4xlarge | mengapung16 | 128 | 84 | 240 |
gpt2 | wikitext-2-raw-v1 | p3.2xlarge | mengapung16 | 128 | 58 | 164 |
microsoft/deberta-basis | wikitext-2-raw-v1 | g4dn.16xlarge | mengapung16 | 128 | 48 | 128 |
microsoft/deberta-basis | wikitext-2-raw-v1 | g5.4xlarge | mengapung16 | 128 | 84 | 207 |
microsoft/deberta-basis | wikitext-2-raw-v1 | p3.2xlarge | mengapung16 | 128 | 53 | 133 |
roberta-basis | wikitext-2-raw-v1 | g5.4xlarge | mengapung16 | 128 | 125 | 224 |
xlm-roberta-base | wikitext-2-raw-v1 | g4dn.16xlarge | mengapung16 | 128 | 16 | 31 |
xlm-roberta-base | wikitext-2-raw-v1 | p3.2xlarge | mengapung16 | 128 | 18 | 50 |
xlnet-base-cased | wikitext-2-raw-v1 | g5.4xlarge | mengapung16 | 128 | 128 | 240 |
bert-base-uncased | wikitext-103-v1 | g5.48xlarge | mengapung16 | 512 | 29 | 50 |
distilbert-base-uncased | wikitext-103-v1 | g5.48xlarge | mengapung16 | 512 | 45 | 64 |
gpt2 | wikitext-103-v1 | g5.48xlarge | mengapung16 | 512 | 18 | 45 |
roberta-basis | wikitext-103-v1 | g5.48xlarge | mengapung16 | 512 | 23 | 44 |
gpt2 | wikitext-103-v1 | p4d.24xlarge | mengapung16 | 512 | 36 | 64 |
Model Computer Vision (CV)
Diuji menggunakan TensorFlowModel Garden
Tunggal/multi-node tunggal/multi- GPU | |||||
---|---|---|---|---|---|
Model | Set data | Jenis instans | presisi | Ukuran Batch untuk kerangka kerja asli | Ukuran Batch untuk SageMaker Training Compiler |
ResNet152 | makanan101 | g4dn.16xlarge | mengapung16 | 128 | 144 |
ResNet152 | makanan101 | g5.4xlarge | mengapung16 | 128 | 192 |
ResNet152 | makanan101 | p3.2xlarge | mengapung16 | 152 | 156 |
VIt | makanan101 | g4dn.16xlarge | mengapung16 | 512 | 512 |
VIt | makanan101 | g5.4xlarge | mengapung16 | 992 | 768 |
VIt | makanan101 | p3.2xlarge | mengapung16 | 848 | 768 |
Model pemrosesan bahasa alami (NLP)
Model-model berikut diuji untuk pekerjaan pelatihan untuk semua kombinasi simpul tunggal dan multi-node dengan GPU inti tunggal atau multi dan Presisi Campuran Otomatis (AMP) seperti yang ditunjukkan.
Simpul tunggal/multi-simpul tunggal/multi- GPU GPU | ||||||
---|---|---|---|---|---|---|
Model | Set data | Jenis instans | presisi | Panjang Urutan | Ukuran Batch untuk kerangka kerja asli | Ukuran Batch untuk SageMaker Training Compiler |
albert-base-v2 | wikitext-2-raw-v1 | ml.g5.2xbesar | mengapung16 | 128 | 128 | 248 |
bert-base-uncased | wikitext-2-raw-v1 | ml.g5.2xbesar | mengapung16 | 128 | 160 | 288 |
dasar camembert | wikitext-2-raw-v1 | ml.g5.2xbesar | mengapung16 | 128 | 160 | 279 |
dasar camembert | wikitext-2-raw-v1 | ml.p3.2xlarge | mengapung16 | 128 | 105 | 164 |
distilgpt2 | wikitext-2-raw-v1 | ml.g5.2xbesar | mengapung16 | 128 | 136 | 256 |
distilgpt2 | wikitext-2-raw-v1 | ml.p3.2xlarge | mengapung16 | 128 | 80 | 118 |
gpt2 | wikitext-2-raw-v1 | ml.g5.2xbesar | mengapung16 | 128 | 84 | 240 |
gpt2 | wikitext-2-raw-v1 | ml.p3.2xlarge | mengapung16 | 128 | 80 | 119 |
microsoft/deberta-basis | wikitext-2-raw-v1 | ml.g5.2xbesar | mengapung16 | 128 | 93 | 197 |
microsoft/deberta-basis | wikitext-2-raw-v1 | ml.p3.2xlarge | mengapung16 | 128 | 113 | 130 |
roberta-basis | wikitext-2-raw-v1 | ml.g5.2xbesar | mengapung16 | 128 | 125 | 224 |
roberta-basis | wikitext-2-raw-v1 | ml.p3.2xlarge | mengapung16 | 128 | 78 | 112 |
xlnet-base-cased | wikitext-2-raw-v1 | ml.g5.2xbesar | mengapung16 | 128 | 138 | 240 |
bert-base-uncased | wikitext-103-v1 | ml.p4d.24xlarge | mengapung16 | 512 | 52 | |
distilbert-base-uncased | wikitext-103-v1 | ml.p4d.24xlarge | mengapung16 | 512 | 160 | |
gpt2 | wikitext-103-v1 | ml.p4d.24xlarge | mengapung16 | 512 | 25 | |
roberta-basis | wikitext-103-v1 | ml.p4d.24xlarge | mengapung16 | 512 | 64 |
Model Computer Vision (CV)
Diuji menggunakan TensorFlowModel Garden
Tunggal/multi-node tunggal/multi- GPU | |||||
---|---|---|---|---|---|
Model | Set data | Jenis instans | presisi | Ukuran Batch untuk kerangka kerja asli | Ukuran Batch untuk SageMaker Training Compiler |
Topeng RCNN - ResNet 50- FPN | COCO-2017 | ml.g5.2xbesar | mengapung16 | 6 | 8 |
Topeng RCNN - ResNet 50- FPN | COCO-2017 | ml.p3.2xlarge | mengapung16 | 4 | 6 |
ResNet50 | ImageNet | ml.g5.2xbesar | mengapung16 | 192 | 256 |
ResNet50 | ImageNet | ml.p3.2xlarge | mengapung16 | 256 | 256 |
ResNet101 | ImageNet | ml.g5.2xbesar | mengapung16 | 128 | 256 |
ResNet101 | ImageNet | ml.p3.2xlarge | mengapung16 | 128 | 128 |
ResNet152 | ImageNet | ml.g5.2xbesar | mengapung16 | 128 | 224 |
ResNet152 | ImageNet | ml.p3.2xlarge | mengapung16 | 128 | 128 |
VisionTransformer | ImageNet | ml.g5.2xbesar | mengapung16 | 112 | 144 |
VisionTransformer | ImageNet | ml.p3.2xlarge | mengapung16 | 96 | 128 |
Model Pemrosesan Bahasa Alami (NLP)
Diuji menggunakan model TransformerSequence_Len=128
dan Automatic Mixed Precision (AMP) seperti yang ditunjukkan.
Tunggal/multi-node tunggal/multi- GPU | |||||
---|---|---|---|---|---|
Model | Set data | Jenis instans | presisi | Ukuran Batch untuk kerangka kerja asli | Ukuran Batch untuk SageMaker Training Compiler |
albert-base-v2 | wikitext-2-raw-v1 | ml.g5.2xbesar | mengapung16 | 160 | 197 |
albert-base-v2 | wikitext-2-raw-v1 | ml.p3.2xlarge | mengapung16 | 95 | 127 |
bert-base-uncased | wikitext-2-raw-v1 | ml.g5.2xbesar | mengapung16 | 160 | 128 |
bert-base-uncased | wikitext-2-raw-v1 | ml.p3.2xlarge | mengapung16 | 104 | 111 |
bert-large-uncased | wikitext-2-raw-v1 | ml.g5.2xbesar | mengapung16 | 65 | 48 |
bert-large-uncased | wikitext-2-raw-v1 | ml.p3.2xlarge | mengapung16 | 40 | 35 |
dasar camembert | wikitext-2-raw-v1 | ml.g5.2xbesar | mengapung16 | 128 | 162 |
dasar camembert | wikitext-2-raw-v1 | ml.p3.2xlarge | mengapung16 | 105 | 111 |
distilbert-base-uncased | wikitext-2-raw-v1 | ml.g5.2xbesar | mengapung16 | 256 | 264 |
distilbert-base-uncased | wikitext-2-raw-v1 | ml.p3.2xlarge | mengapung16 | 128 | 169 |
gpt2 | wikitext-2-raw-v1 | ml.g5.2xbesar | mengapung16 | 128 | 120 |
gpt2 | wikitext-2-raw-v1 | ml.p3.2xlarge | mengapung16 | 80 | 83 |
jplu/ tf-xlm-roberta-base | wikitext-2-raw-v1 | ml.g5.2xbesar | mengapung16 | 32 | 32 |
jplu/ tf-xlm-roberta-base | wikitext-2-raw-v1 | ml.p3.2xlarge | mengapung16 | 32 | 36 |
microsoft/mpnet-basis | wikitext-2-raw-v1 | ml.g5.2xbesar | mengapung16 | 144 | 160 |
microsoft/mpnet-basis | wikitext-2-raw-v1 | ml.p3.2xlarge | mengapung16 | 106 | 110 |
roberta-basis | wikitext-2-raw-v1 | ml.g5.2xbesar | mengapung16 | 128 | 128 |
roberta-basis | wikitext-2-raw-v1 | ml.p3.2xlarge | mengapung16 | 72 | 98 |
albert-base-v2 | wikitext-2-raw-v1 | ml.g5.48xbesar | mengapung16 | 128 | 192 |
albert-base-v2 | wikitext-2-raw-v1 | ml.p3.16xlarge | mengapung16 | 95 | 96 |
distilbert-base-uncased | wikitext-2-raw-v1 | ml.g5.48xbesar | mengapung16 | 256 | 256 |
distilbert-base-uncased | wikitext-2-raw-v1 | ml.p3.16xlarge | mengapung16 | 140 | 184 |
google/ electra-small-discriminator | wikitext-2-raw-v1 | ml.g5.48xbesar | mengapung16 | 256 | 384 |
google/ electra-small-discriminator | wikitext-2-raw-v1 | ml.p3.16xlarge | mengapung16 | 256 | 268 |
gpt2 | wikitext-2-raw-v1 | ml.g5.48xbesar | mengapung16 | 116 | 116 |
gpt2 | wikitext-2-raw-v1 | ml.p3.16xlarge | mengapung16 | 85 | 83 |
gpt2 | wikitext-2-raw-v1 | ml.p4d.24xlarge | mengapung16 | 94 | 110 |
microsoft/mpnet-basis | wikitext-2-raw-v1 | ml.g5.48xbesar | mengapung16 | 187 | 164 |
microsoft/mpnet-basis | wikitext-2-raw-v1 | ml.p3.16xlarge | mengapung16 | 106 | 111 |
Model Computer Vision (CV)
Diuji menggunakan TensorFlowModel Garden
Single-node tunggal/multi- GPU GPU | |||||
---|---|---|---|---|---|
Model | Set data | Jenis instans | presisi | Ukuran Batch untuk kerangka kerja asli | Ukuran Batch untuk SageMaker Training Compiler |
DetectionTransformer- ResNet 50 | COCO-2017 | ml.g4dn.2xbesar | mengapung32 | 2 | 4 |
DetectionTransformer- ResNet 50 | COCO-2017 | ml.g5.2xbesar | mengapung32 | 3 | 6 |
DetectionTransformer- ResNet 50 | COCO-2017 | ml.p3.2xlarge | mengapung32 | 2 | 4 |
Topeng RCNN - ResNet 50- FPN | COCO-2017 | ml.g4dn.2xbesar | mengapung16 | 4 | 6 |
Topeng RCNN - ResNet 50- FPN | COCO-2017 | ml.g5.2xbesar | mengapung16 | 6 | 8 |
Topeng RCNN - ResNet 50- FPN | COCO-2017 | ml.g5.48xbesar | mengapung16 | 48 | 64 |
Topeng RCNN - ResNet 50- FPN | COCO-2017 | ml.p3.2xlarge | mengapung16 | 4 | 6 |
ResNet50 | ImageNet | ml.g4dn.2xbesar | mengapung16 | 224 | 256 |
ResNet50 | ImageNet | ml.g5.2xbesar | mengapung16 | 192 | 160 |
ResNet50 | ImageNet | ml.g5.48xbesar | mengapung16 | 2048 | 2048 |
ResNet50 | ImageNet | ml.p3.2xlarge | mengapung16 | 224 | 160 |
ResNet101 | ImageNet | ml.g4dn.2xbesar | mengapung16 | 160 | 128 |
ResNet101 | ImageNet | ml.g5.2xbesar | mengapung16 | 192 | 256 |
ResNet101 | ImageNet | ml.g5.48xbesar | mengapung16 | 2048 | 2048 |
ResNet101 | ImageNet | ml.p3.2xlarge | mengapung16 | 160 | 224 |
ResNet152 | ImageNet | ml.g4dn.2xbesar | mengapung16 | 128 | 128 |
ResNet152 | ImageNet | ml.g5.2xbesar | mengapung16 | 192 | 224 |
ResNet152 | ImageNet | ml.g5.48xbesar | mengapung16 | 1536 | 1792 |
ResNet152 | ImageNet | ml.p3.2xlarge | mengapung16 | 128 | 160 |
VisionTransformer | ImageNet | ml.g4dn.2xbesar | mengapung16 | 80 | 128 |
VisionTransformer | ImageNet | ml.g5.2xbesar | mengapung16 | 112 | 144 |
VisionTransformer | ImageNet | ml.g5.48xbesar | mengapung16 | 896 | 1152 |
VisionTransformer | ImageNet | ml.p3.2xlarge | mengapung16 | 80 | 128 |
Model Pemrosesan Bahasa Alami (NLP)
Diuji menggunakan model TransformerSequence_Len=128
dan Automatic Mixed Precision (AMP) seperti yang ditunjukkan.
Single-node tunggal/multi- GPU GPU | |||||
---|---|---|---|---|---|
Model | Set data | Jenis instans | presisi | Ukuran Batch untuk kerangka kerja asli | Ukuran Batch untuk SageMaker Training Compiler |
albert-base-v2 | wikitext-2-raw-v1 | g4dn.16xlarge | mengapung16 | 128 | 112 |
albert-base-v2 | wikitext-2-raw-v1 | p3.2xlarge | mengapung16 | 128 | 128 |
albert-base-v2 | wikitext-2-raw-v1 | p3.8xlarge | mengapung16 | 128 | 135 |
albert-base-v2 | wikitext-2-raw-v1 | g5.4xlarge | mengapung16 | 128 | 191 |
bert-base-uncased | wikitext-2-raw-v1 | g4dn.16xlarge | mengapung16 | 64 | 94 |
bert-base-uncased | wikitext-2-raw-v1 | p3.2xlarge | mengapung16 | 96 | 101 |
bert-base-uncased | wikitext-2-raw-v1 | p3.8xlarge | mengapung16 | 96 | 96 |
bert-base-uncased | wikitext-2-raw-v1 | g5.4xlarge | mengapung16 | 128 | 128 |
bert-large-uncased | wikitext-2-raw-v1 | g4dn.16xlarge | mengapung16 | 35 | 21 |
bert-large-uncased | wikitext-2-raw-v1 | p3.2xlarge | mengapung16 | 39 | 26 |
bert-large-uncased | wikitext-2-raw-v1 | g5.4xlarge | mengapung16 | 60 | 50 |
dasar camembert | wikitext-2-raw-v1 | g4dn.16xlarge | mengapung16 | 96 | 90 |
dasar camembert | wikitext-2-raw-v1 | p3.2xlarge | mengapung16 | 96 | 98 |
dasar camembert | wikitext-2-raw-v1 | p3.8xlarge | mengapung16 | 96 | 96 |
dasar camembert | wikitext-2-raw-v1 | g5.4xlarge | mengapung16 | 128 | 128 |
distilbert-base-uncased | wikitext-2-raw-v1 | g4dn.16xlarge | mengapung16 | 256 | 160 |
distilbert-base-uncased | wikitext-2-raw-v1 | p3.2xlarge | mengapung16 | 128 | 176 |
distilbert-base-uncased | wikitext-2-raw-v1 | p3.8xlarge | mengapung16 | 128 | 160 |
distilbert-base-uncased | wikitext-2-raw-v1 | g5.4xlarge | mengapung16 | 256 | 258 |
google_ electra-small-discriminator | wikitext-2-raw-v1 | g4dn.16xlarge | mengapung16 | 256 | 216 |
google_ electra-small-discriminator | wikitext-2-raw-v1 | p3.2xlarge | mengapung16 | 256 | 230 |
google_ electra-small-discriminator | wikitext-2-raw-v1 | p3.8xlarge | mengapung16 | 256 | 224 |
google_ electra-small-discriminator | wikitext-2-raw-v1 | g5.4xlarge | mengapung16 | 256 | 320 |
gpt2 | wikitext-2-raw-v1 | g4dn.16xlarge | mengapung16 | 80 | 64 |
gpt2 | wikitext-2-raw-v1 | p3.2xlarge | mengapung16 | 80 | 77 |
gpt2 | wikitext-2-raw-v1 | p3.8xlarge | mengapung16 | 80 | 72 |
gpt2 | wikitext-2-raw-v1 | g5.4xlarge | mengapung16 | 128 | 120 |
jplu_ tf-xlm-roberta-base | wikitext-2-raw-v1 | g4dn.16xlarge | mengapung16 | 28 | 24 |
jplu_ tf-xlm-roberta-base | wikitext-2-raw-v1 | p3.2xlarge | mengapung16 | 32 | 24 |
jplu_ tf-xlm-roberta-base | wikitext-2-raw-v1 | p3.8xlarge | mengapung16 | 32 | 26 |
jplu_ tf-xlm-roberta-base | wikitext-2-raw-v1 | g5.4xlarge | mengapung16 | 66 | 52 |
microsoft_mpnet-basis | wikitext-2-raw-v1 | g4dn.16xlarge | mengapung16 | 96 | 92 |
microsoft_mpnet-basis | wikitext-2-raw-v1 | p3.2xlarge | mengapung16 | 96 | 101 |
microsoft_mpnet-basis | wikitext-2-raw-v1 | p3.8xlarge | mengapung16 | 96 | 101 |
microsoft_mpnet-basis | wikitext-2-raw-v1 | g5.4xlarge | mengapung16 | 128 | 152 |
roberta-basis | wikitext-2-raw-v1 | g4dn.16xlarge | mengapung16 | 64 | 72 |
roberta-basis | wikitext-2-raw-v1 | p3.2xlarge | mengapung16 | 64 | 84 |
roberta-basis | wikitext-2-raw-v1 | p3.8xlarge | mengapung16 | 64 | 86 |
roberta-basis | wikitext-2-raw-v1 | g5.4xlarge | mengapung16 | 128 | 128 |
Diuji menggunakan TensorFlowModel Garden
Single-node tunggal/multi- GPU GPU | ||||
---|---|---|---|---|
Model | Set data | Jenis instans | Ukuran Batch untuk kerangka kerja asli | Ukuran Batch untuk SageMaker Training Compiler |
ResNet50 | ImageNet | ml.g4dn.2xbesar | 192 | 256* |
ResNet101 | ImageNet | ml.g4dn.2xbesar | 128 | 160 |
ml.g5.2xbesar | 224 | 256* | ||
ml.p3.16xlarge | 1536 | 1792 | ||
ResNet152 | ImageNet | ml.g5.2xbesar | 192 | 224 |
ml.p3.2xlarge | 160 | 160 | ||
ml.p3.16xlarge | 1024 | 1280 | ||
VisionTransformer | ImageNet | ml.g4dn.2xbesar | 80 | 128* |
ml.g5.2xbesar | 112 | 128* | ||
ml.p3.2xlarge | 56 | 128* | ||
ml.p3.16xlarge | 640 | 1024* | ||
DetectionTransformer- ResNet 50 | COCO-2017 | ml.g4dn.2xbesar | 2 | 2 |
ml.g5.2xbesar | 3 | 6 | ||
ml.p3.2xlarge | 2 | 4 | ||
ml.p3.16xlarge | 8 | 32 | ||
Topeng RCNN - ResNet 50- FPN | COCO-2017 | ml.g4dn.2xbesar | 4 | 4 |
ml.g5.2xbesar | 6 | 8 | ||
ml.p3.2xlarge | 4 | 6 |
* Ukuran batch yang ditandai dengan simbol tanda bintang (*) menunjukkan ukuran batch terbesar yang diuji oleh tim pengembang SageMaker Training Compiler. Untuk sel yang ditandai, instance mungkin dapat menyesuaikan ukuran batch yang lebih besar dari yang ditunjukkan.
Diuji dengan Sequence_Len=512
dan Presisi Campuran Otomatis (AMP).
Single-node tunggal- GPU | |||||
---|---|---|---|---|---|
Model | Set data | Jenis instans | Jumlah instans | Ukuran Batch untuk kerangka kerja asli | Ukuran Batch untuk Training Compiler |
albert-base-v2 | wikitext-2 | ml.g4dn.2xbesar | 1 | 14 | 28 |
ml.g5.2xbesar | 1 | 18 | 40 | ||
ml.p3.2xlarge | 1 | 14 | 32 | ||
bert-base-cased | wikitext-2 | ml.g4dn.2xbesar | 1 | 12 | 24 |
ml.g5.2xbesar | 1 | 28 | 44 | ||
ml.p3.2xlarge | 1 | 16 | 20 | ||
dasar camembert | wikitext-2 | ml.g4dn.2xbesar | 1 | 16 | 28 |
ml.g5.2xbesar | 1 | 24 | 40 | ||
ml.p3.2xlarge | 1 | 16 | 24 | ||
distilbert-base-uncased | wikitext-2 | ml.g4dn.2xbesar | 1 | 28 | 52 |
ml.g5.2xbesar | 1 | 40 | 76 | ||
ml.p3.2xlarge | 1 | 32 | 48 | ||
wikitext-103-v1 | ml.p4d.24xlarge | 4 | 82 | 160 | |
distilgpt2 | wikitext-2 | ml.g4dn.2xbesar | 1 | 6 | 18 |
ml.g5.2xbesar | 1 | 12 | 28 | ||
ml.p3.2xlarge | 1 | 6 | 16 | ||
distilroberta-basis | wikitext-2 | ml.g4dn.2xbesar | 1 | 20 | 40 |
ml.g5.2xbesar | 1 | 28 | 56 | ||
ml.p3.2xlarge | 1 | 24 | 40 | ||
Eleutherai/GPT-neo-125m | wikitext-2 | ml.g4dn.2xbesar | 1 | 4 | 8 |
ml.g5.2xbesar | 1 | 6 | 14 | ||
ml.p3.2xlarge | 1 | 4 | 10 | ||
gpt2 | wikitext-2 | ml.g4dn.2xbesar | 1 | 4 | 8 |
ml.g5.2xbesar | 1 | 6 | 16 | ||
ml.p3.2xlarge | 1 | 4 | 10 | ||
wikitext-103-v1 | ml.p4d.24xlarge | 4 | 13 | 25 | |
roberta-basis | wikitext-2 | ml.g4dn.2xbesar | 1 | 12 | 20 |
ml.g5.2xbesar | 1 | 24 | 36 | ||
ml.p3.2xlarge | 1 | 12 | 20 | ||
wikitext-103-v1 | ml.p4d.24xlarge | 4 | 36 | 64 | |
xlnet-base-cased | wikitext-2 | ml.g4dn.2xbesar | 1 | 2 | 6 |
ml.g5.2xbesar | 1 | 2 | 10 | ||
ml.p3.2xlarge | 1 | 2 | 8 | ||
bert-base-uncased | wikitext-103-v1 | ml.p4d.24xlarge | 2 | 32 | 64 |
4 | 32 | 64 | |||
8 | 32 | 64 | |||
16 | 32 | 64 | |||
roberta-besar | wikitext-103-v1 | ml.p4d.24xlarge | 4 | 16 | 24 |
microsoft/deberta-v3-basis | wikitext-103-v1 | ml.p4d.24xlarge | 16 | 9 | 23 |
Diuji dengan Sequence_Len=512
dan Presisi Campuran Otomatis (AMP).
Single-node tunggal- GPU | |||
---|---|---|---|
Model | Jenis instans | Ukuran Batch untuk kerangka kerja asli | Ukuran Batch untuk Training Compiler |
albert-base-v2 | ml.p3.2xlarge | 14 | 28 |
ml.g4dn.2xbesar | 14 | 24 | |
bert-base-cased | ml.p3.2xlarge | 16 | 24 |
ml.g4dn.2xbesar | 12 | 24 | |
bert-base-uncased | ml.p3.2xlarge | 16 | 24 |
ml.g4dn.2xbesar | 12 | 28 | |
dasar camembert | ml.p3.2xlarge | 12 | 24 |
ml.g4dn.2xbesar | 12 | 28 | |
distilbert-base-uncased | ml.p3.2xlarge | 28 | 48 |
ml.g4dn.2xbesar | 24 | 52 | |
distilgpt2 | ml.p3.2xlarge | 6 | 12 |
ml.g4dn.2xbesar | 6 | 14 | |
distilroberta-basis | ml.p3.2xlarge | 20 | 40 |
ml.g4dn.2xbesar | 12 | 40 | |
Eleutherai/GPT-neo-125m | ml.p3.2xlarge | 2 | 10 |
ml.g4dn.2xbesar | 2 | 8 | |
facebook/bart-base | ml.p3.2xlarge | 2 | 6 |
ml.g4dn.2xbesar | 2 | 6 | |
gpt2 | ml.p3.2xlarge | 4 | 8 |
ml.g4dn.2xbesar | 2 | 8 | |
roberta-basis | ml.p3.2xlarge | 12 | 20 |
ml.g4dn.2xbesar | 12 | 20 | |
xlnet-base-cased | ml.p3.2xlarge | 2 | 8 |
ml.g4dn.2xbesar | 4 | 6 |
Diuji dengan Sequence_Len=512
dan Presisi Campuran Otomatis (AMP).
Single-node tunggal- GPU | |||
---|---|---|---|
Model | Jenis instans | Ukuran Batch untuk asli | Ukuran Batch untuk Training Compiler |
albert-base-v2 | ml.p3.2xlarge | 12 | 32 |
bert-base-cased | ml.p3.2xlarge | 14 | 24 |
bert-base-chinese | ml.p3.2xlarge | 16 | 24 |
bert-base-multilingual-cased | ml.p3.2xlarge | 4 | 16 |
bert-base-multilingual-uncased | ml.p3.2xlarge | 8 | 16 |
bert-base-uncased | ml.p3.2xlarge | 12 | 24 |
cl-tohoku/ -kata-masking bert-base-japanese-whole | ml.p3.2xlarge | 12 | 24 |
cl-tohoku/ bert-base-japanese | ml.p3.2xlarge | 12 | 24 |
distilbert-base-uncased | ml.p3.2xlarge | 28 | 32 |
distilbert-base-uncased-finetuned-sst-2-bahasa Inggris | ml.p3.2xlarge | 28 | 32 |
distilgpt2 | ml.p3.2xlarge | 16 | 32 |
facebook/bart-base | ml.p3.2xlarge | 4 | 8 |
gpt2 | ml.p3.2xlarge | 6 | 20 |
iniLMvNreimers/m 2-L6-H384-suling-dari-R -Besar oBERTa | ml.p3.2xlarge | 20 | 32 |
roberta-basis | ml.p3.2xlarge | 12 | 20 |
Multi simpul tunggal GPU | |||
---|---|---|---|
Model | Jenis instans | Ukuran Batch untuk asli | Ukuran Batch untuk Training Compiler |
bert-base-chinese | ml.p3.8xlarge | 16 | 26 |
bert-base-multilingual-cased | ml.p3.8xlarge | 6 | 16 |
bert-base-multilingual-uncased | ml.p3.8xlarge | 6 | 16 |
bert-base-uncased | ml.p3.8xlarge | 14 | 24 |
distilbert-base-uncased | ml.p3.8xlarge | 14 | 32 |
distilgpt2 | ml.p3.8xlarge | 6 | 32 |
facebook/bart-base | ml.p3.8xlarge | 8 | 16 |
gpt2 | ml.p3.8xlarge | 8 | 20 |
roberta-basis | ml.p3.8xlarge | 12 | 20 |
Diuji dengan Sequence_Len=128
dan Presisi Campuran Otomatis (AMP).
Model | Jenis instans | Ukuran Batch untuk kerangka kerja asli | Ukuran Batch untuk Training Compiler |
---|---|---|---|
albert-base-v2 | ml.g4dn.16xlarge | 136 | 208 |
albert-base-v2 | ml.g5.4xbesar | 219 | 312 |
albert-base-v2 | ml.p3.2xlarge | 152 | 208 |
albert-base-v2 | ml.p3.8xlarge | 152 | 192 |
bert-base-uncased | ml.g4dn.16xlarge | 120 | 101 |
bert-base-uncased | ml.g5.4xbesar | 184 | 160 |
bert-base-uncased | ml.p3.2xlarge | 128 | 108 |
bert-large-uncased | ml.g4dn.16xlarge | 37 | 28 |
bert-large-uncased | ml.g5.4xbesar | 64 | 55 |
bert-large-uncased | ml.p3.2xlarge | 40 | 32 |
dasar camembert | ml.g4dn.16xlarge | 96 | 100 |
dasar camembert | ml.g5.4xbesar | 190 | 160 |
dasar camembert | ml.p3.2xlarge | 129 | 108 |
dasar camembert | ml.p3.8xlarge | 128 | 104 |
distilbert-base-uncased | ml.g4dn.16xlarge | 210 | 160 |
distilbert-base-uncased | ml.g5.4xbesar | 327 | 288 |
distilbert-base-uncased | ml.p3.2xlarge | 224 | 196 |
distilbert-base-uncased | ml.p3.8xlarge | 192 | 182 |
google_ electra-small-discriminator | ml.g4dn.16xlarge | 336 | 288 |
google_ electra-small-discriminator | ml.g5.4xbesar | 504 | 384 |
google_ electra-small-discriminator | ml.p3.2xlarge | 352 | 323 |
gpt2 | ml.g4dn.16xlarge | 89 | 64 |
gpt2 | ml.g5.4xbesar | 140 | 146 |
gpt2 | ml.p3.2xlarge | 94 | 96 |
gpt2 | ml.p3.8xlarge | 96 | 88 |
jplu_ tf-xlm-roberta-base | ml.g4dn.16xlarge | 52 | 16 |
jplu_ tf-xlm-roberta-base | ml.g5.4xbesar | 64 | 44 |
microsoft_mpnet-basis | ml.g4dn.16xlarge | 120 | 100 |
microsoft_mpnet-basis | ml.g5.4xbesar | 192 | 160 |
microsoft_mpnet-basis | ml.p3.2xlarge | 128 | 104 |
microsoft_mpnet-basis | ml.p3.8xlarge | 130 | 92 |
roberta-basis | ml.g4dn.16xlarge | 108 | 64 |
roberta-basis | ml.g5.4xbesar | 176 | 142 |
roberta-basis | ml.p3.2xlarge | 118 | 100 |
roberta-basis | ml.p3.8xlarge | 112 | 88 |
Diuji dengan Sequence_Len=128
dan Presisi Campuran Otomatis (AMP).
Single-node tunggal- GPU | |||
---|---|---|---|
Model | Jenis instans | Ukuran Batch untuk asli | Ukuran Batch untuk Training Compiler |
albert-base-v2 | ml.p3.2xlarge | 128 | 128 |
bart-dasar | ml.p3.2xlarge | 12 | 64 |
bart-besar | ml.p3.2xlarge | 4 | 28 |
bert-base-cased | ml.p3.2xlarge | 16 | 128 |
bert-base-chinese | ml.p3.2xlarge | 16 | 128 |
bert-base-multilingual-cased | ml.p3.2xlarge | 12 | 64 |
bert-base-multilingual-uncased | ml.p3.2xlarge | 16 | 96 |
bert-base-uncased | ml.p3.2xlarge | 16 | 96 |
bert-large-uncased | ml.p3.2xlarge | 4 | 24 |
cl-tohoku/ bert-base-japanese | ml.p3.2xlarge | 16 | 128 |
cl-tohoku/ -kata-masking bert-base-japanese-whole | ml.p3.2xlarge | 16 | 128 |
distilbert-base-sst2 | ml.p3.2xlarge | 32 | 128 |
distilbert-base-uncased | ml.p3.2xlarge | 32 | 128 |
distilgpt2 | ml.p3.2xlarge | 32 | 128 |
gpt2 | ml.p3.2xlarge | 12 | 64 |
gpt2-besar | ml.p3.2xlarge | 2 | 24 |
jplu/ tf-xlm-roberta-base | ml.p3.2xlarge | 12 | 32 |
roberta-basis | ml.p3.2xlarge | 4 | 64 |
roberta-besar | ml.p3.2xlarge | 4 | 64 |
t5-dasar | ml.p3.2xlarge | 64 | 64 |
t5-kecil | ml.p3.2xlarge | 128 | 128 |