Opzioni disponibili - Amazon SageMaker AI

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Opzioni disponibili

La tabella seguente mostra tutte le opzioni disponibili che è possibile utilizzare per personalizzare il lavoro del notebook, indipendentemente dal fatto che si esegua Notebook Job in Studio, in un ambiente Jupyter locale o utilizzando Python. SageMaker SDK La tabella include il tipo di opzione personalizzata, una descrizione, linee guida aggiuntive su come utilizzare l'opzione, un nome di campo per l'opzione in Studio (se disponibile) e il nome del parametro per la fase di lavoro del notebook in SageMaker Python SDK (se disponibile).

Per alcune opzioni, puoi anche preimpostare valori predefiniti personalizzati in modo da non doverli specificare ogni volta che configuri un lavoro su notebook. Per Studio, queste opzioni sono Role, Input folder, Output folder e KMSKey ID e sono specificate nella tabella seguente. Se si preimpostano impostazioni predefinite personalizzate per queste opzioni, questi campi vengono precompilati nel modulo Create Job quando si crea il lavoro su notebook. Per informazioni dettagliate su come creare impostazioni predefinite personalizzate in ambienti Studio e Jupyter locali, consulta. Configurazione delle opzioni predefinite per i notebook locali

L' SageMaker intelligenza artificiale offre SDK anche la possibilità di impostare impostazioni predefinite intelligenti in modo da non dover specificare questi parametri quando si crea un. NotebookJobStep Questi parametri sonorole,s3_root_uri,s3_kms_key,volume_kms_key, subnetssecurity_group_ids, e sono specificati nella tabella seguente. Per informazioni su come impostare impostazioni predefinite intelligenti, vedere. Imposta le opzioni predefinite

Opzione personalizzata Descrizione Linee guida specifiche per Studio Linee guida per l'ambiente Jupyter locale SageMaker Linee guida Python SDK
Nome processo Il nome del tuo lavoro come dovrebbe apparire nella dashboard di Notebook Jobs. Nome del campo Job. Come per Studio. Parametronotebook_job_name. L'impostazione predefinita è None.
Immagine L'immagine del container utilizzata per eseguire il notebook in modo non interattivo sul tipo di elaborazione scelto. Immagine del campo. L'impostazione predefinita di questo campo è l'immagine corrente del notebook. Se necessario, modifica questo campo dal valore predefinito a un valore personalizzato. Se Studio non è in grado di dedurre questo valore, nel modulo viene visualizzato un errore di convalida che richiede di specificarlo. Questa immagine può essere un'bring-your-own immagine personalizzata o un'immagine Amazon SageMaker AI disponibile. Per un elenco delle immagini SageMaker AI disponibili supportate dallo scheduler del notebook, consultaImmagini Amazon SageMaker AI disponibili per l'uso con Studio Classic. Immagine del campo. Questo campo richiede un'immagine Docker in grado ECR URI di eseguire il notebook fornito sul tipo di elaborazione selezionato. Per impostazione predefinita, l'estensione scheduler utilizza un'immagine SageMaker AI Docker basata su Python 2.0 predefinita. Questa è l'immagine ufficiale di Python 3.8 DockerHub con boto3 AWS CLI e il kernel Python 3. Puoi anche fornire qualsiasi immagine ECR URI che soddisfi le specifiche dell'immagine personalizzata del notebook. Per informazioni dettagliate, consultare Specifiche delle immagini SageMaker AI personalizzate. Questa immagine dovrebbe contenere tutti i kernel e le librerie necessari per l'esecuzione del notebook. Campo obbligatorio. Parametroimage_uri. URIposizione di un'immagine Docker su. ECR È possibile utilizzare immagini di SageMaker distribuzione specifiche o immagini personalizzate basate su tali immagini, oppure un'immagine personalizzata preinstallata con le dipendenze dei job del notebook che soddisfino requisiti aggiuntivi. Per informazioni dettagliate, consultare Vincoli di immagine per i lavori su notebook AI SageMaker Python SDK.
Tipo di istanza Il tipo di EC2 istanza da utilizzare per eseguire il processo del notebook. Il job notebook utilizza un SageMaker Training Job come livello di elaborazione, quindi il tipo di istanza specificato deve essere un tipo di istanza supportato da SageMaker Training. Tipo di Field Compute. L'impostazione predefinita è ml.m5.large. Come per Studio. Parametroinstance_type. L'impostazione predefinita è ml.m5.large.
Kernel Il kernel Jupyter utilizzato per eseguire il processo relativo al notebook. Campo Kernel. L'impostazione predefinita di questo campo è il kernel corrente del notebook. Se necessario, modifica questo campo dal valore predefinito a un valore personalizzato. Se Studio non è in grado di dedurre questo valore, nel modulo viene visualizzato un errore di convalida che richiede di specificarlo. Campo Kernel. Questo kernel dovrebbe essere presente nell'immagine e seguire le specifiche del kernel Jupyter. Questo campo è impostato per impostazione predefinita sul kernel Python3 che si trova nell'immagine AI di base di Python 2.0. SageMaker Se necessario, modifica questo campo a un valore personalizzato. Campo obbligatorio. Parametro. kernel_name Questo kernel dovrebbe essere presente nell'immagine e seguire le specifiche del kernel Jupyter. Per vedere gli identificatori del kernel per la tua immagine, vedi ()LINK.
SageMaker Sessione AI La sessione SageMaker AI sottostante a cui vengono delegate le chiamate di servizio SageMaker AI. N/D N/D Parametrosagemaker_session. Se non specificato, ne viene creato uno utilizzando una catena di configurazione predefinita.
Ruolo ARN Il ruolo Amazon Resource Name (ARN) utilizzato con il lavoro notebook. Ruolo sul campoARN. Il valore predefinito di questo campo è il ruolo di esecuzione di Studio. Se necessario, modifica questo campo a un valore personalizzato.
Nota

Se Studio non è in grado di dedurre questo valore, il ARN campo Ruolo è vuoto. In questo caso, inserisci ARN quello che desideri utilizzare.

Ruolo del campoARN. Il valore predefinito di questo campo è qualsiasi ruolo preceduto da SagemakerJupyterScheduler. Se hai più ruoli con il prefisso, l'estensione ne sceglie uno. Se necessario, modifica questo campo a un valore personalizzato. Per questo campo, puoi impostare i tuoi valori predefiniti utente che vengono precompilati ogni volta che crei una nuova definizione di processo. Per informazioni dettagliate, consultare Configurazione delle opzioni predefinite per i notebook locali. Parametrorole. Il valore predefinito è il IAM ruolo SageMaker AI predefinito se SDK è in esecuzione su notebook o SageMaker notebook da studio. SageMaker Altrimenti, ValueError lancia un. Consente impostazioni predefinite intelligenti.
Notebook di input Il nome del notebook che si prevede di eseguire. Campo obbligatorio. File di input del campo. Come per Studio. .Parametro obbligatorio. input_notebook
Cartella di input La cartella che contiene i tuoi input. Gli input di processo, incluso il notebook di input e gli eventuali script di avvio o inizializzazione opzionali, vengono inseriti in questa cartella. Cartella Field Input. Se non fornisci una cartella, il pianificatore crea un bucket Amazon S3 predefinito per i tuoi input. Come per Studio. Per questo campo, puoi impostare i tuoi valori predefiniti utente che vengono precompilati ogni volta che crei una nuova definizione di processo. Per informazioni dettagliate, consultare Configurazione delle opzioni predefinite per i notebook locali. N/A. La cartella di input viene inserita nella posizione specificata dal parametro. s3_root_uri
Cartella di output La cartella che contiene i tuoi output. Gli output di processo, inclusi il notebook di output e i log, vengono inseriti in questa cartella. Cartella Field Output. Se non specifichi una cartella, il pianificatore crea un bucket Amazon S3 predefinito per i tuoi output. Come per Studio. Per questo campo, puoi impostare i tuoi valori predefiniti utente che vengono precompilati ogni volta che crei una nuova definizione di processo. Per informazioni dettagliate, consultare Configurazione delle opzioni predefinite per i notebook locali. N/A. La cartella di output viene inserita nella posizione specificata dal parametro. s3_root_uri
Parametri Un dizionario di variabili e valori da passare al tuo notebook job. Parametri del campo. È necessario parametrizzare il notebook per accettare i parametri. Come per Studio. Parametro. parameters È necessario parametrizzare il notebook per accettare i parametri.
Dipendenze aggiuntive (file o cartelle) L'elenco delle dipendenze tra file o cartelle caricate dal notebook job nella cartella staged s3. Non supportato. Non supportato. Parametro. additional_dependencies Il notebook job carica queste dipendenze in una cartella staged di S3 in modo che possano essere utilizzate durante l'esecuzione.
Radice S3 URI La cartella che contiene i tuoi input. Gli input di processo, incluso il notebook di input e gli eventuali script di avvio o inizializzazione opzionali, vengono inseriti in questa cartella. N/A. Usa la cartella di input e la cartella di output. Come per Studio. Parametro. s3_root_uri Il valore predefinito è un bucket S3 predefinito. Consente impostazioni predefinite intelligenti.
Variabili di ambiente Qualsiasi variabile di ambiente esistente che desideri sostituire o nuove variabili di ambiente che desideri introdurre e utilizzare nel tuo notebook. Variabili di ambiente del campo. Come per Studio. Parametroenvironment_variables. L'impostazione predefinita è None.
Tag Un elenco di tag allegati al lavoro. N/D N/D Parametrotags. L'impostazione predefinita è None. I tag controllano il modo in cui l'interfaccia utente di Studio acquisisce e visualizza il lavoro creato dalla pipeline. Per informazioni dettagliate, consultare Visualizza i tuoi lavori su notebook nella dashboard dell'interfaccia utente di Studio.
Script di avvio Uno script precaricato nel menu di avvio del notebook che è possibile scegliere di eseguire prima di eseguire il notebook. Script di avvio sul campo. Seleziona uno script Lifecycle Configuration (LCC) da eseguire sull'immagine all'avvio.
Nota

Uno script di avvio viene eseguito in una shell esterna all'ambiente di Studio. Pertanto, questo script non può dipendere dall'archiviazione locale di Studio, dalle variabili di ambiente o dai metadati dell'app (in /opt/ml/metadata). Inoltre, se si utilizza uno script di avvio e uno script di inizializzazione, lo script di avvio viene eseguito per primo.

Non supportato. Non supportato.
Script di inizializzazione Un percorso verso uno script locale che è possibile eseguire all'avvio del notebook. Script di inizializzazione del campo. Immettete il percorso del EFS file in cui si trova uno script locale o uno script Lifecycle Configuration (LCC). Se si utilizza uno script di avvio e uno script di inizializzazione, lo script di avvio viene eseguito per primo.
Nota

Uno script di inizializzazione proviene dalla stessa shell del processo relativo al notebook. Questo non è il caso di uno script di avvio descritto in precedenza. Inoltre, se si utilizza uno script di avvio e uno script di inizializzazione, lo script di avvio viene eseguito per primo.

Script di inizializzazione del campo. Immettete il percorso del file locale in cui si trova uno script locale o uno script Lifecycle Configuration (LCC). Parametro. initialization_script L'impostazione predefinita è None.
Numero massimo di tentativi Il numero di volte in cui Studio tenta di rieseguire l'esecuzione di un processo non riuscita. Field Max, nuovi tentativi. L'impostazione predefinita è 2. Come per Studio. Parametromax_retry_attempts. L'impostazione predefinita è 2.
Tempo di esecuzione massimo (in secondi) La durata massima, espressa in secondi, di esecuzione di un processo relativo al notebook prima di essere arrestato. Se si configurano sia il Tempo di esecuzione massimo che il Numero massimo di tentativi, il tempo di esecuzione si applica a ogni nuovo tentativo. Se un processo non viene completato entro questo lasso di tempo, il suo stato viene impostato su Failed. Tempo di esecuzione massimo del campo (in secondi). L'impostazione predefinita è 172800 seconds (2 days). Come per Studio. Parametromax_runtime_in_seconds. L'impostazione predefinita è 172800 seconds (2 days).
Criteri di riprova Un elenco di politiche relative ai nuovi tentativi, che regolano le azioni da intraprendere in caso di errore. Non supportato. Non supportato. Parametro. retry_policies L'impostazione predefinita è None.
Aggiungi Step o StepCollection dipendenze Un elenco di Step o StepCollection nomi o istanze da cui dipende il lavoro. Non supportato. Non supportato. Parametrodepends_on. L'impostazione predefinita è None. Utilizzatelo per definire le dipendenze esplicite tra le fasi del grafico della pipeline.
Volume size (Dimensione dei volumi) La dimensione in GB del volume di archiviazione per la memorizzazione dei dati di input e output durante l'allenamento. Non supportato. Non supportato. Parametrovolume_size. Il valore predefinito è 30 GB.
Crittografa il traffico tra i contenitori Un flag che specifica se il traffico tra i contenitori di formazione è crittografato per il processo di formazione. N/A. Attivato per impostazione predefinita. N/A. Attivata per impostazione predefinita. Parametro. encrypt_inter_container_traffic L'impostazione predefinita è True.
Configurazione della crittografia dei processi Un indicatore che indica che si desidera crittografare gli output del processo relativo al notebook, il volume dell'istanza del processo o entrambi. Campo Configura la crittografia dei processi. Seleziona questa casella per scegliere la crittografia. Se non viene selezionata, gli output del lavoro vengono crittografati con la KMS chiave predefinita dell'account e il volume dell'istanza del lavoro non è crittografato. Come per Studio. Non supportato.
Chiave di crittografia dell'output KMS Una KMS chiave da utilizzare se si desidera personalizzare la chiave di crittografia utilizzata per gli output dei lavori del notebook. Questo campo è applicabile solo se è stata selezionata l'opzione Configurazione della crittografia dei processi. KMSChiave di crittografia Field Output. Se non specifichi questo campo, gli output dei job del notebook vengono crittografati con SSE - KMS utilizzando la chiave Amazon KMS S3 predefinita. Inoltre, se crei tu stesso il bucket Amazon S3 e utilizzi la crittografia, il metodo di crittografia viene conservato. Come per Studio. Per questo campo, puoi impostare i tuoi valori predefiniti utente che vengono precompilati ogni volta che crei una nuova definizione di processo. Per informazioni dettagliate, consultare Configurazione delle opzioni predefinite per i notebook locali. Parametro. s3_kms_key L'impostazione predefinita è None. Consente impostazioni predefinite intelligenti.
KMSChiave di crittografia del volume Job Instance Una KMS chiave da utilizzare se si desidera crittografare il volume dell'istanza di lavoro. Questo campo è applicabile solo se è stata selezionata l'opzione Configurazione della crittografia dei processi. KMSChiave di crittografia del volume dell'istanza Field Job. KMSChiave di crittografia del volume dell'istanza Field Job. Per questo campo, puoi impostare i tuoi valori predefiniti utente che vengono precompilati ogni volta che crei una nuova definizione di processo. Per informazioni dettagliate, consultare Configurazione delle opzioni predefinite per i notebook locali. Parametrovolume_kms_key. L'impostazione predefinita è None. Consente impostazioni predefinite intelligenti.
Usa un cloud privato virtuale per eseguire questo lavoro (per gli VPC utenti) Un indicatore del fatto che desideri eseguire questo lavoro in un Virtual Private Cloud (VPC). Per una maggiore sicurezza, si consiglia di utilizzare un ambiente privatoVPC. Campo Usa un cloud privato virtuale per eseguire questo lavoro. Seleziona questa casella se desideri utilizzare unVPC. Crea almeno i seguenti VPC endpoint per consentire al tuo notebook job di connettersi privatamente a tali AWS risorse:
Se scegli di utilizzare unVPC, devi specificare almeno una sottorete privata e almeno un gruppo di sicurezza nelle seguenti opzioni. Se non utilizzi alcuna sottorete privata, devi prendere in considerazione altre opzioni di configurazione. Per i dettagli, consulta VPCSottoreti pubbliche non supportate in. Vincoli e considerazioni
Come per Studio. N/D
Subnet (e) (per utenti) VPC Le tue sottoreti. Questo campo deve contenerne almeno una e al massimo cinque e tutte le sottoreti fornite devono essere private. Per i dettagli, consulta VPCSottoreti pubbliche non supportate in. Vincoli e considerazioni Sottoreti del campo. Questo campo utilizza per impostazione predefinita le sottoreti associate al dominio Studio, ma è possibile modificare questo campo se necessario. Sottoreti di campo. Lo scheduler non è in grado di rilevare le tue sottoreti, quindi devi inserire tutte le sottoreti che hai configurato per le tue. VPC Parametro. subnets L'impostazione predefinita è None. Consente impostazioni predefinite intelligenti.
Gruppi di sicurezza (per VPC utenti) I tuoi gruppi di sicurezza. Questo campo deve contenerne almeno uno e al massimo 15. Per i dettagli, consulta VPCSottoreti pubbliche non supportate in. Vincoli e considerazioni Gruppi Field Security. Questo campo utilizza per impostazione predefinita i gruppi di sicurezza associati al dominioVPC, ma è possibile modificarlo se necessario. Campo Gruppi di sicurezza. Lo scheduler non è in grado di rilevare i tuoi gruppi di sicurezza, quindi devi inserire tutti i gruppi di sicurezza che hai configurato per i tuoiVPC. Parametrosecurity_group_ids. L'impostazione predefinita è None. Consente impostazioni predefinite intelligenti.
Nome Il nome della fase di lavoro del notebook. N/D N/D Parametroname. Se non specificato, viene derivato dal nome del file del notebook.
Display name (Nome visualizzato) Il nome del lavoro così come dovrebbe apparire nell'elenco delle esecuzioni della pipeline. N/D N/D Parametro. display_name L'impostazione predefinita è None.
Descrizione Una descrizione del tuo lavoro. N/D N/D Parametrodescription.