Configurazione delle proprietà del lavoro per i lavori della shell Python in AWS Glue - AWS Glue

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Configurazione delle proprietà del lavoro per i lavori della shell Python in AWS Glue

È possibile utilizzare un processo di shell Python per eseguire script Python come shell in AWS Glue. Con un job di shell Python, puoi eseguire script compatibili con Python 3.6 o Python 3.9.

Limitazioni

Tieni presente le seguenti limitazioni dei processi shell Python:

  • Non è possibile utilizzare i segnalibri nei processi di shell di Python.

  • Non puoi impacchettare alcuna libreria Python come .egg file in Python 3.9+. Utilizza invece .whl.

  • Per via di una limitazione sulle copie temporanee dei dati di S3, l'opzione --extra-files non può essere utilizzata.

Definire le proprietà del processo per i processi shell di Python

Queste sezioni descrivono la definizione delle proprietà del lavoro in AWS Glue Studioo utilizzando la AWS CLI.

AWS Glue Studio

Quando definisci il tuo lavoro nella shell Python in AWS Glue Studio, fornite alcune delle seguenti proprietà:

Ruolo IAM

Specificare il ruolo AWS Identity and Access Management (IAM) utilizzato per l'autorizzazione alle risorse utilizzate per eseguire il processo e accedere agli archivi dati. Per ulteriori informazioni sulle autorizzazioni per l'esecuzione di lavori in AWS Glue, consulta Gestione delle identità e degli accessi per AWS Glue.

Tipo

Scegli Python shell (Shell di Python) per eseguire uno script Python con il comando di processo denominato pythonshell.

Versione di Python

Scegli la versione di Python. La versione predefinita è Python 3.9. Le versioni valide sono Python 3.6 e Python 3.9.

Carica librerie di analisi comuni (scelta consigliata)

Scegli questa opzione per includere le librerie comuni per Python 3.9 nella shell Python.

Se le tue librerie sono personalizzate o sono in conflitto con quelle preinstallate, puoi scegliere di non installare librerie comuni. Tuttavia, oltre alle librerie comuni puoi installare librerie aggiuntive.

Quando selezioni questa opzione, l'opzione library-set è impostata su analytics. Quando deselezioni questa opzione, l'opzione library-set è impostata su none.

Nome file e percorso dello script

Il codice nello script definisce la logica procedurale del processo. Puoi fornire il nome e la posizione dello script in Amazon Simple Storage Service (Amazon S3). Conferma che non esiste un file con lo stesso nome della directory di script nel percorso. Per ulteriori informazioni sull'uso degli script, consulta AWS Glue guida alla programmazione.

Script

Il codice nello script definisce la logica procedurale del processo. Puoi codificare lo script in Python 3.6 o Python 3.9. È possibile modificare uno script in AWS Glue Studio.

Unità di elaborazione dati (DPU)

Il numero massimo di AWS Glue unità di elaborazione dati (DPUs) che possono essere allocate durante l'esecuzione di questo processo. Una DPU è una misura relativa della potenza di elaborazione costituita da 4 V di capacità CPUs di elaborazione e 16 GB di memoria. Per ulteriori informazioni, consulta AWS Glue prezzi.

Puoi impostare il valore su 0,0625 o 1. Il valore predefinito è 0.0625. In entrambi i casi, il disco locale per l'istanza sarà di 20 GB.

CLI

Puoi anche creare un job della shell Python usando AWS CLI, come nell'esempio seguente.

aws glue create-job --name python-job-cli --role Glue_DefaultRole --command '{"Name" : "pythonshell", "PythonVersion": "3.9", "ScriptLocation" : "s3://DOC-EXAMPLE-BUCKET/scriptname.py"}' --max-capacity 0.0625
Nota

Non è necessario specificare la versione di AWS Glue poiché il parametro --glue-version non si applica a AWS Glue lavori di shell. Qualsiasi versione specificata verrà ignorata.

Lavori che crei con l' AWS CLI impostazione predefinita di Python 3. Le versioni valide di Python sono 3 (corrispondenti a 3.6) e 3.9. Per specificare Python 3.6, aggiungi questa tupla al parametro --command: "PythonVersion":"3"

Per specificare Python 3.9, aggiungi questa tupla al parametro --command: "PythonVersion":"3.9"

Per impostare la capacità massima utilizzata da un processo shell di Python, fornire il parametro --max-capacity. Per i processi di shell di Python non è possibile utilizzare il parametro --allocated-capacity.

Librerie supportate dai processi shell di Python

Nella shell Python con Python 3.9 puoi scegliere il set di librerie per utilizzare set di librerie preconfezionati per le tue esigenze. Puoi utilizzare l'opzione library-set per scegliere il set di librerie. I valori validi sono analytics e none.

L'ambiente per l'esecuzione di un processo shell di Python supporta le seguenti librerie:

Versione di Python Python 3.6 Python 3.9
Set di librerie N/D analytics nessuno
avro 1.11.0
awscli 116,242 1,23,5 1,23,5
awswrangler 2,15,1
botocore 1,12.232 1,24,21 1,23,5
boto3 1,9203 1,21,21
elasticsearch 8.2.0
numpy 1,16,2 1.22.3
pandas 0,24,2 1.4.2
psycopg2 2,9,3
pyathena 2.5.3
PyGreSQL 5.0.6
PyMySQL 1.0.2
pyodbc 4.0.32
pyorc 0,6,0
redshift-connector 2.0,907
richieste 2.22.0 2,27,1
scikit-learn 0,20,3 1.0.2
scipy 1.2.1 1.8.0
SQLAlchemy 1,4,36
s3fs 2022,3,0

Puoi utilizzare la libreria NumPy in un processo shell di Python per il calcolo scientifico. Per ulteriori informazioni, consulta NumPy. L'esempio seguente mostra uno NumPy script che può essere usato in un job della shell Python. Lo script visualizza "Hello world" e i risultati di numerosi calcoli matematici.

import numpy as np print("Hello world") a = np.array([20,30,40,50]) print(a) b = np.arange( 4 ) print(b) c = a-b print(c) d = b**2 print(d)

Fornire la propria libreria Python

Utilizzo di PIP

La shell Python che utilizza Python 3.9 consente di fornire moduli Python aggiuntivi o versioni diverse a livello di processo. Puoi utilizzare l'opzione --additional-python-modules con un elenco di moduli Python separati da virgole per aggiungere un nuovo modulo o modificare la versione di un modulo esistente. Non è possibile fornire moduli Python personalizzati ospitati su Amazon S3 con questo parametro quando si utilizzano processi di shell Python.

Ad esempio, per aggiornare o aggiungere un nuovo modulo scikit-learn usa la seguente coppia di chiave-valore: "--additional-python-modules", "scikit-learn==0.21.3".

AWS Glue utilizza Python Package Installer (pip3) per installare i moduli aggiuntivi. Puoi passare opzioni pip3 aggiuntive all'interno del valore di --additional-python-modules. Ad esempio "scikit-learn==0.21.3 -i https://pypi.python.org/simple/". Si applicano eventuali incompatibilità o limitazioni da pip3.

Nota

Per evitare incompatibilità in futuro, si consiglia di utilizzare le librerie create per Python 3.9.

Utilizzo di un file Egg o Whl

È possibile che uno o più pacchetti di librerie Python siano disponibili come un file .whl o .egg. In questo caso, puoi specificarli nel tuo processo utilizzando AWS Command Line Interface (AWS CLI) sotto il flag "--extra-py-files", come mostrato nell'esempio seguente.

aws glue create-job --name python-redshift-test-cli --role role --command '{"Name" : "pythonshell", "ScriptLocation" : "s3://MyBucket/python/library/redshift_test.py"}' --connections Connections=connection-name --default-arguments '{"--extra-py-files" : ["s3://DOC-EXAMPLE-BUCKET/EGG-FILE", "s3://DOC-EXAMPLE-BUCKET/WHEEL-FILE"]}'

In caso di dubbi su come creare un file .egg o .whl da una libreria Python, utilizza la procedura seguente. Questo esempio si applica su sistemi macOS, Linux e Windows Subsystem for Linux (WSL).

Per creare un file .egg o .whl Python
  1. Crea un cluster Amazon Redshift in un cloud privato virtuale (VPC, Virtual Private Cloud) e aggiungi alcuni dati a una tabella.

  2. Crea un AWS Glue connessione per la VPC-SecurityGroup-Subnet combinazione utilizzata per creare il cluster. Verifica che la connessione funzioni.

  3. Crea una directory denominata redshift_example e crea un file denominato setup.py. Incollare il codice seguente in setup.py.

    from setuptools import setup setup( name="redshift_module", version="0.1", packages=['redshift_module'] )
  4. Nella directory redshift_example crea una directory redshift_module. Nella directory redshift_module crea i file __init__.py e pygresql_redshift_common.py.

  5. Lascia il file __init__.py vuoto. Incolla il codice seguente in pygresql_redshift_common.py. Sostituisci portdb_name,user, e password_for_user con dettagli specifici del tuo cluster Amazon Redshift. Sostituisci table_name con il nome della tabella in Amazon Redshift.

    import pg def get_connection(host): rs_conn_string = "host=%s port=%s dbname=%s user=%s password=%s" % ( host, port, db_name, user, password_for_user) rs_conn = pg.connect(dbname=rs_conn_string) rs_conn.query("set statement_timeout = 1200000") return rs_conn def query(con): statement = "Select * from table_name;" res = con.query(statement) return res
  6. Se non sei ancora in tale directory, passa alla directory redshift_example.

  7. Esegui una di queste operazioni:

    • Per creare un file .egg, esegui il comando seguente.

      python setup.py bdist_egg
    • Per creare un file .whl, esegui il comando seguente.

      python setup.py bdist_wheel
  8. Installa le dipendenze necessarie per il comando precedente.

  9. Il comando crea un file nella directory dist:

    • Se hai creato un file egg, viene denominato redshift_module-0.1-py2.7.egg.

    • Se hai creato un file wheel, viene denominato redshift_module-0.1-py2.7-none-any.whl.

    Carica questo file in Amazon S3.

    In questo esempio, il percorso del file caricato è s3://DOC-EXAMPLE-BUCKET/EGG-FILE o s3://DOC-EXAMPLE-BUCKET/WHEEL-FILE.

  10. Crea un file Python da usare come script per AWS Glue job e aggiungi il seguente codice al file.

    from redshift_module import pygresql_redshift_common as rs_common con1 = rs_common.get_connection(redshift_endpoint) res = rs_common.query(con1) print "Rows in the table cities are: " print res
  11. Carica il file precedente in Amazon S3. In questo esempio, il percorso del file caricato è s3://DOC-EXAMPLE-BUCKET/scriptname.py.

  12. Crea un processo shell di Python utilizzando questo script. Sul AWS Glue console, nella pagina delle proprietà del lavoro, specifica il percorso del .egg/.whl file nella casella Python library path. Se sono presenti più file .egg/.whl e file Python, occorre fornire un elenco separato da virgole in questa casella.

    Quando si modificano o si rinominano i file .egg, i nomi dei file devono utilizzare i nomi predefiniti generati dal comando "python setup.py bdist_egg" o devono rispettare le convenzioni di denominazione del modulo Python. Per ulteriori informazioni, vedere la Guida di stile per il codice Python.

    Utilizzando AWS CLI, create un lavoro con un comando, come nell'esempio seguente.

    aws glue create-job --name python-redshift-test-cli --role Role --command '{"Name" : "pythonshell", "ScriptLocation" : "s3://DOC-EXAMPLE-BUCKET/scriptname.py"}' --connections Connections="connection-name" --default-arguments '{"--extra-py-files" : ["s3://DOC-EXAMPLE-BUCKET/EGG-FILE", "s3://DOC-EXAMPLE-BUCKET/WHEEL-FILE"]}'

    Quando il processo viene eseguito, lo script stampa le righe create nella table_name tabella nel cluster Amazon Redshift.

Utilizzabile AWS CloudFormation con i lavori della shell Python in AWS Glue

È possibile utilizzare AWS CloudFormation con i lavori della shell Python in AWS Glue. Di seguito è riportato un esempio:

AWSTemplateFormatVersion: 2010-09-09 Resources: Python39Job: Type: 'AWS::Glue::Job' Properties: Command: Name: pythonshell PythonVersion: '3.9' ScriptLocation: 's3://bucket/location' MaxRetries: 0 Name: python-39-job Role: RoleName

L'output del gruppo Amazon CloudWatch Logs per i job della shell Python è. /aws-glue/python-jobs/output Per gli errori, consulta il gruppo di log /aws-glue/python-jobs/error.