Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
TensorFlow Processore Framework
TensorFlow è una libreria open source per l'apprendimento automatico e l'intelligenza artificiale. L'TensorFlowProcessor
SDK Amazon SageMaker Python ti offre la possibilità di eseguire processi di elaborazione con script. TensorFlow Quando usi ilTensorFlowProcessor
, puoi sfruttare un contenitore Docker creato da Amazon con un TensorFlow ambiente gestito in modo da non dover portare il tuo contenitore.
Il seguente esempio di codice mostra come utilizzare il TensorFlowProcessor
per eseguire il processo di elaborazione utilizzando un'immagine Docker fornita e gestita da AI. SageMaker Nota che quando esegui il job, puoi specificare una directory contenente gli script e le dipendenze nell'source_dir
argomento e puoi avere un requirements.txt
file all'interno della tua source_dir
directory che specifica le dipendenze per i tuoi script di elaborazione. SageMaker L'elaborazione installa automaticamente le dipendenze presenti nel requirements.txt
contenitore.
from sagemaker.tensorflow import TensorFlowProcessor from sagemaker.processing import ProcessingInput, ProcessingOutput from sagemaker import get_execution_role #Initialize the TensorFlowProcessor tp = TensorFlowProcessor( framework_version='2.3', role=get_execution_role(), instance_type='ml.m5.xlarge', instance_count=1, base_job_name='frameworkprocessor-TF', py_version='py37' ) #Run the processing job tp.run( code='
processing-script.py
', source_dir='scripts
', inputs=[ ProcessingInput( input_name='data', source=f's3://{BUCKET}/{S3_INPUT_PATH}
', destination='/opt/ml/processing/input/data' ), ProcessingInput( input_name='model', source=f's3://{BUCKET}/{S3_PATH_TO_MODEL}
', destination='/opt/ml/processing/input/model' ) ], outputs=[ ProcessingOutput( output_name='predictions', source='/opt/ml/processing/output', destination=f's3://{BUCKET}/{S3_OUTPUT_PATH}
' ) ] )
Se hai un file requirements.txt
, dovrebbe essere un elenco di librerie che desideri installare nel container. Il percorso per source_dir
può essere un percorso URI relativo, assoluto o Amazon S3. Tuttavia, se utilizzi un URI Amazon S3, deve puntare a un file tar.gz. Puoi avere più script nella directory specificata per source_dir
. Per ulteriori informazioni sulla TensorFlowProcessor
classe, consulta TensorFlow Estimator