Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Prepara ed esegui un lavoro di formazione con SageMaker Profiler
La configurazione per l'esecuzione di un processo di formazione con SageMaker Profiler prevede due passaggi: adattare lo script di formazione e configurare il SageMaker training job launcher.
Argomenti
Passaggio 1: adattare lo script di formazione utilizzando i moduli SageMaker Profiler Python
Per iniziare a registrare l'esecuzione del kernel GPUs mentre il processo di formazione è in esecuzione, modifica lo script di addestramento utilizzando i moduli Profiler Python. SageMaker Importa la libreria e aggiungi i metodi start_profiling()
e stop_profiling()
per definire l’inizio e la fine della profilazione. È inoltre possibile utilizzare annotazioni personalizzate opzionali per aggiungere evidenziatori nello script di addestramento per visualizzare le attività hardware durante particolari operazioni in ogni fase.
Nota che gli annotatori estraggono le operazioni da. GPUs Per le operazioni di profilatura inCPUs, non è necessario aggiungere annotazioni aggiuntive. CPUla profilazione viene attivata anche quando specifichi la configurazione di profilazione, nella quale ti eserciterai. Fase 2: Creare uno stimatore del SageMaker framework e attivare Profiler SageMaker
Nota
La profilazione di un intero processo di addestramento non è l'uso più efficiente delle risorse. Consigliamo di profilare al massimo 300 fasi di un processo di addestramento.
Importante
La release del 14 dicembre 2023 comporta una modifica sostanziale. Il nome del pacchetto SageMaker Profiler Python viene modificato smppy
da a. smprof
Questo è efficace nei SageMaker Framework Containers
Se si utilizza una delle versioni precedenti dei SageMaker Framework Containerssmppy
Se non siete sicuri della versione o del nome del pacchetto da utilizzare, sostituite l'istruzione import del pacchetto SageMaker Profiler con il seguente frammento di codice.
try: import smprof except ImportError: # backward-compatability for TF 2.11 and PT 1.13.1 images import smppy as smprof
Approccio 1. Usa il gestore di contesto smprof.annotate
per annotare funzioni complete
È possibile racchiudere funzioni complete con il gestore di contesto. smprof.annotate()
Questo wrapper è consigliato se si desidera creare profili per funzioni anziché per righe di codice. Lo script di esempio seguente mostra come implementare il gestore di contesto per racchiudere il ciclo di addestramento e le funzioni complete in ogni iterazione.
import smprof SMProf = smprof.SMProfiler.instance() config = smprof.Config() config.profiler = { "EnableCuda": "1", } SMProf.configure(config) SMProf.start_profiling() for epoch in range(args.epochs): if world_size > 1: sampler.set_epoch(epoch) tstart = time.perf_counter() for i, data in enumerate(trainloader, 0): with smprof.annotate(
"step_"+str(i)
): inputs, labels = data inputs = inputs.to("cuda", non_blocking=True) labels = labels.to("cuda", non_blocking=True) optimizer.zero_grad() with smprof.annotate("Forward"
): outputs = net(inputs) with smprof.annotate("Loss"
): loss = criterion(outputs, labels) with smprof.annotate("Backward"
): loss.backward() with smprof.annotate("Optimizer"
): optimizer.step() SMProf.stop_profiling()
Approccio 2. Usa smprof.annotation_begin()
e smprof.annotation_end()
per annotare una riga di codice specifica nelle funzioni
Inoltre, puoi definire annotazioni per profilare righe di codice specifiche. È possibile impostare il punto di inizio e il punto di fine esatti della profilazione a livello di singole righe di codice, non in base alle funzioni. Ad esempio, nello script seguente, step_annotator
viene definito all'inizio di ogni iterazione e termina alla fine dell'iterazione. Nel frattempo, vengono definiti altri annotatori dettagliati per ciascuna operazione, i quali racchiudono le operazioni di destinazione durante ogni iterazione.
import smprof SMProf = smprof.SMProfiler.instance() config = smprof.Config() config.profiler = { "EnableCuda": "1", } SMProf.configure(config) SMProf.start_profiling() for epoch in range(args.epochs): if world_size > 1: sampler.set_epoch(epoch) tstart = time.perf_counter() for i, data in enumerate(trainloader, 0): step_annotator = smprof.annotation_begin(
"step_" + str(i)
) inputs, labels = data inputs = inputs.to("cuda", non_blocking=True) labels = labels.to("cuda", non_blocking=True) optimizer.zero_grad() forward_annotator = smprof.annotation_begin("Forward"
) outputs = net(inputs) smprof.annotation_end(forward_annotator) loss_annotator = smprof.annotation_begin("Loss"
) loss = criterion(outputs, labels) smprof.annotation_end(loss_annotator) backward_annotator = smprof.annotation_begin("Backward"
) loss.backward() smprof.annotation_end(backward_annotator) optimizer_annotator = smprof.annotation_begin("Optimizer"
) optimizer.step() smprof.annotation_end(optimizer_annotator) smprof.annotation_end(step_annotator) SMProf.stop_profiling()
Dopo aver annotato e configurato i moduli di avvio del profiler, salvate lo script da inviare utilizzando un SageMaker training job launcher nel passaggio 2 successivo. L’utilità di avvio di esempio presuppone che lo script di addestramento sia denominato train_with_profiler_demo.py
.
Fase 2: Creare uno stimatore del SageMaker framework e attivare Profiler SageMaker
La procedura seguente mostra come preparare uno stimatore di SageMaker framework per l'addestramento utilizzando SageMaker PythonSDK.
-
Configura un oggetto
profiler_config
utilizzando i moduliProfilerConfig
eProfiler
nel modo seguentefrom sagemaker import ProfilerConfig, Profiler profiler_config = ProfilerConfig( profile_params = Profiler(cpu_profiling_duration=3600) )
Di seguito è riportata la descrizione del modulo
Profiler
e il relativo argomento.-
Profiler
: Il modulo per attivare SageMaker Profiler con il job di formazione.-
cpu_profiling_duration
(int): specifica la durata in secondi per la profilazione. CPUs L’impostazione predefinita è 3600 secondi.
-
-
-
Crea uno stimatore di SageMaker framework con l'
profiler_config
oggetto creato nel passaggio precedente. Il codice seguente mostra un esempio di creazione di uno PyTorch stimatore. Se volete creare uno TensorFlow stimatore, importatesagemaker.tensorflow.TensorFlow
invece e specificate una delle TensorFlowversioni supportate da SageMaker Profiler. Per ulteriori informazioni sui framework e i tipi di istanza supportati, consulta SageMaker immagini del framework preinstallate con Profiler SageMaker .import sagemaker from sagemaker.pytorch import PyTorch estimator = PyTorch( framework_version="
2.0.0
", role=sagemaker.get_execution_role(), entry_point="train_with_profiler_demo.py
", # your training job entry point source_dir=source_dir
, # source directory for your training script output_path=output_path
, base_job_name="sagemaker-profiler-demo
", hyperparameters=hyperparameters
, # if any instance_count=1
, # Recommended to test with < 8 instance_type=ml.p4d.24xlarge
, profiler_config=profiler_config
) -
Avvia il processo di addestramento eseguendo il metodo
fit
. Conwait=False
, puoi silenziare i registri dei processi di addestramento e lasciarli funzionare in background.estimator.fit(wait=False)
Durante l'esecuzione del processo di addestramento o dopo il completamento del processo, puoi passare all'argomento successivo in Apri l'applicazione SageMaker Profiler UI e iniziare a esplorare e visualizzare i profili salvati.
Se desideri accedere direttamente ai dati del profilo salvati nel bucket Amazon S3, usa lo script seguente per recuperare l'S3. URI
import os # This is an ad-hoc function to get the S3 URI # to where the profile output data is saved def get_detailed_profiler_output_uri(estimator): config_name = None for processing in estimator.profiler_rule_configs: params = processing.get("RuleParameters", dict()) rule = config_name = params.get("rule_to_invoke", "") if rule == "DetailedProfilerProcessing": config_name = processing.get("RuleConfigurationName") break return os.path.join( estimator.output_path, estimator.latest_training_job.name, "rule-output", config_name, ) print( f"Profiler output S3 bucket: ", get_detailed_profiler_output_uri(estimator) )
(Facoltativo) Installa il pacchetto SageMaker Profiler Python
Per utilizzare SageMaker Profiler su PyTorch immagini del TensorFlow framework non elencate o su un contenitore Docker personalizzato per la formazione, puoi installare SageMaker Profiler utilizzando uno dei. SageMaker immagini del framework preinstallate con Profiler SageMaker SageMaker File binari del pacchetto Python di Profiler
Opzione 1: installa il pacchetto SageMaker Profiler durante l'avvio di un processo di formazione
Se desideri utilizzare SageMaker Profiler per lavori di formazione utilizzando TensorFlow immagini PyTorch o immagini non elencateSageMaker immagini del framework preinstallate con Profiler SageMaker , crea un requirements.txt file e posizionalo nel percorso specificato per il source_dir parametro dello stimatore del SageMaker framework nel Passaggio 2. Per ulteriori informazioni sulla configurazione di un requirements.txt
file in generale, vedere Uso di librerie di terze partirequirements.txt
file, aggiungi uno dei percorsi dei bucket S3 per. SageMaker File binari del pacchetto Python di Profiler
# requirements.txt https://smppy.s3.amazonaws.com/
tensorflow/cu112/smprof-0.3.332-cp39-cp39-linux_x86_64.whl
Opzione 2: installa il pacchetto SageMaker Profiler nei tuoi contenitori Docker personalizzati
Se utilizzi un contenitore Docker personalizzato per la formazione, aggiungine uno SageMaker File binari del pacchetto Python di Profiler al tuo Dockerfile.
# Install the smprof package version compatible with your CUDA version RUN pip install https://smppy.s3.amazonaws.com/
tensorflow/cu112/smprof-0.3.332-cp39-cp39-linux_x86_64.whl
Per indicazioni sulla gestione di un contenitore Docker personalizzato per la formazione SageMaker in generale, vedi Adattamento del tuo contenitore di formazione.