Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Exécuter un job de traitement avec Apache Spark
Apache Spark est un moteur analytique unifié, pour le traitement des données à grande échelle. Amazon SageMaker fournit des images Docker prédéfinies qui incluent Apache Spark et d'autres dépendances nécessaires pour exécuter des tâches de traitement de données distribuées. Vous trouverez ci-dessous un exemple d'exécution d'une tâche Amazon SageMaker Processing à l'aide d'Apache Spark.
Avec Amazon SageMaker Python SDK
Un référentiel de code contenant le code source et les Dockerfiles pour les images Spark est disponible sur. GitHub
Vous pouvez utiliser la classe sagemaker.spark.PySparkProcessor
sagemaker.spark.SparkJarProcessor
L'exemple de code suivant montre comment exécuter une tâche de traitement qui appelle votre PySpark scriptpreprocess.py
.
from sagemaker.spark.processing import PySparkProcessor spark_processor = PySparkProcessor( base_job_name="spark-preprocessor", framework_version="2.4", role=role, instance_count=2, instance_type="ml.m5.xlarge", max_runtime_in_seconds=1200, ) spark_processor.run( submit_app="preprocess.py", arguments=['s3_input_bucket', bucket, 's3_input_key_prefix', input_prefix, 's3_output_bucket', bucket, 's3_output_key_prefix', output_prefix] )
Pour un examen approfondi, consultez l'exemple de bloc-notes
Si vous n'utilisez pas Amazon SageMaker Python SDK
Pour en savoir plus sur l'utilisation de SageMaker Python dans SDK les conteneurs de traitement, consultez Amazon SageMaker Python SDK