Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Configurazione delle proprietà del lavoro per i lavori della shell Python in AWS Glue
È possibile utilizzare un processo di shell Python per eseguire script Python come shell in AWS Glue. Con un job di shell Python, puoi eseguire script compatibili con Python 3.6 o Python 3.9.
Argomenti
Limitazioni
Tieni presente le seguenti limitazioni dei processi shell Python:
-
Non è possibile utilizzare i segnalibri nei processi di shell di Python.
-
Non puoi impacchettare alcuna libreria Python come
.egg
file in Python 3.9+. Utilizza invece.whl
. Per via di una limitazione sulle copie temporanee dei dati di S3, l'opzione
--extra-files
non può essere utilizzata.
Definire le proprietà del processo per i processi shell di Python
Queste sezioni descrivono la definizione delle proprietà del lavoro in AWS Glue Studioo utilizzando la AWS CLI.
AWS Glue Studio
Quando definisci il tuo lavoro nella shell Python in AWS Glue Studio, fornite alcune delle seguenti proprietà:
- Ruolo IAM
-
Specificare il ruolo AWS Identity and Access Management (IAM) utilizzato per l'autorizzazione alle risorse utilizzate per eseguire il processo e accedere agli archivi dati. Per ulteriori informazioni sulle autorizzazioni per l'esecuzione di lavori in AWS Glue, consulta Gestione delle identità e degli accessi per AWS Glue.
- Tipo
-
Scegli Python shell (Shell di Python) per eseguire uno script Python con il comando di processo denominato
pythonshell
. - Versione di Python
-
Scegli la versione di Python. La versione predefinita è Python 3.9. Le versioni valide sono Python 3.6 e Python 3.9.
- Carica librerie di analisi comuni (scelta consigliata)
-
Scegli questa opzione per includere le librerie comuni per Python 3.9 nella shell Python.
Se le tue librerie sono personalizzate o sono in conflitto con quelle preinstallate, puoi scegliere di non installare librerie comuni. Tuttavia, oltre alle librerie comuni puoi installare librerie aggiuntive.
Quando selezioni questa opzione, l'opzione
library-set
è impostata suanalytics
. Quando deselezioni questa opzione, l'opzionelibrary-set
è impostata sunone
. - Nome file e percorso dello script
-
Il codice nello script definisce la logica procedurale del processo. Puoi fornire il nome e la posizione dello script in Amazon Simple Storage Service (Amazon S3). Conferma che non esiste un file con lo stesso nome della directory di script nel percorso. Per ulteriori informazioni sull'uso degli script, consulta AWS Glue guida alla programmazione.
- Script
-
Il codice nello script definisce la logica procedurale del processo. Puoi codificare lo script in Python 3.6 o Python 3.9. È possibile modificare uno script in AWS Glue Studio.
- Unità di elaborazione dati (DPU)
-
Il numero massimo di AWS Glue unità di elaborazione dati (DPUs) che possono essere allocate durante l'esecuzione di questo processo. Una DPU è una misura relativa della potenza di elaborazione costituita da 4 V di capacità CPUs di elaborazione e 16 GB di memoria. Per ulteriori informazioni, consulta AWS Glue prezzi.
Puoi impostare il valore su 0,0625 o 1. Il valore predefinito è 0.0625. In entrambi i casi, il disco locale per l'istanza sarà di 20 GB.
CLI
Puoi anche creare un job della shell Python usando AWS CLI, come nell'esempio seguente.
aws glue create-job --name python-job-cli --role Glue_DefaultRole --command '{"Name" : "pythonshell", "PythonVersion": "3.9", "ScriptLocation" : "s3://DOC-EXAMPLE-BUCKET/scriptname.py"}' --max-capacity 0.0625
Nota
Non è necessario specificare la versione di AWS Glue poiché il parametro --glue-version
non si applica a AWS Glue lavori di shell. Qualsiasi versione specificata verrà ignorata.
Lavori che crei con l' AWS CLI impostazione predefinita di Python 3. Le versioni valide di Python sono 3 (corrispondenti a 3.6) e 3.9. Per specificare Python 3.6, aggiungi questa tupla al parametro --command
: "PythonVersion":"3"
Per specificare Python 3.9, aggiungi questa tupla al parametro --command
: "PythonVersion":"3.9"
Per impostare la capacità massima utilizzata da un processo shell di Python, fornire il parametro --max-capacity
. Per i processi di shell di Python non è possibile utilizzare il parametro --allocated-capacity
.
Librerie supportate dai processi shell di Python
Nella shell Python con Python 3.9 puoi scegliere il set di librerie per utilizzare set di librerie preconfezionati per le tue esigenze. Puoi utilizzare l'opzione library-set
per scegliere il set di librerie. I valori validi sono analytics
e none
.
L'ambiente per l'esecuzione di un processo shell di Python supporta le seguenti librerie:
Versione di Python | Python 3.6 | Python 3.9 | |
---|---|---|---|
Set di librerie | N/D | analytics | nessuno |
avro | 1.11.0 | ||
awscli | 116,242 | 1,23,5 | 1,23,5 |
awswrangler | 2,15,1 | ||
botocore | 1,12.232 | 1,24,21 | 1,23,5 |
boto3 | 1,9203 | 1,21,21 | |
elasticsearch | 8.2.0 | ||
numpy | 1,16,2 | 1.22.3 | |
pandas | 0,24,2 | 1.4.2 | |
psycopg2 | 2,9,3 | ||
pyathena | 2.5.3 | ||
PyGreSQL | 5.0.6 | ||
PyMySQL | 1.0.2 | ||
pyodbc | 4.0.32 | ||
pyorc | 0,6,0 | ||
redshift-connector | 2.0,907 | ||
richieste | 2.22.0 | 2,27,1 | |
scikit-learn | 0,20,3 | 1.0.2 | |
scipy | 1.2.1 | 1.8.0 | |
SQLAlchemy | 1,4,36 | ||
s3fs | 2022,3,0 |
Puoi utilizzare la libreria NumPy
in un processo shell di Python per il calcolo scientifico. Per ulteriori informazioni, consulta NumPy
import numpy as np print("Hello world") a = np.array([20,30,40,50]) print(a) b = np.arange( 4 ) print(b) c = a-b print(c) d = b**2 print(d)
Fornire la propria libreria Python
Utilizzo di PIP
La shell Python che utilizza Python 3.9 consente di fornire moduli Python aggiuntivi o versioni diverse a livello di processo. Puoi utilizzare l'opzione --additional-python-modules
con un elenco di moduli Python separati da virgole per aggiungere un nuovo modulo o modificare la versione di un modulo esistente. Non è possibile fornire moduli Python personalizzati ospitati su Amazon S3 con questo parametro quando si utilizzano processi di shell Python.
Ad esempio, per aggiornare o aggiungere un nuovo modulo scikit-learn
usa la seguente coppia di chiave-valore: "--additional-python-modules",
"scikit-learn==0.21.3"
.
AWS Glue utilizza Python Package Installer (pip3) per installare i moduli aggiuntivi. Puoi passare opzioni pip3 aggiuntive all'interno del valore di --additional-python-modules
. Ad esempio "scikit-learn==0.21.3 -i https://pypi.python.org/simple/"
. Si applicano eventuali incompatibilità o limitazioni da pip3.
Nota
Per evitare incompatibilità in futuro, si consiglia di utilizzare le librerie create per Python 3.9.
Utilizzo di un file Egg o Whl
È possibile che uno o più pacchetti di librerie Python siano disponibili come un file .whl
o .egg
. In questo caso, puoi specificarli nel tuo processo utilizzando AWS Command Line Interface
(AWS CLI) sotto il flag "--extra-py-files
", come mostrato nell'esempio seguente.
aws glue create-job --name python-redshift-test-cli --role
role
--command '{"Name" : "pythonshell", "ScriptLocation" : "s3://MyBucket/python/library/redshift_test.py"}' --connections Connections=connection-name
--default-arguments '{"--extra-py-files" : ["s3://DOC-EXAMPLE-BUCKET/EGG-FILE", "s3://DOC-EXAMPLE-BUCKET/WHEEL-FILE"]}'
In caso di dubbi su come creare un file .egg
o .whl
da una libreria Python, utilizza la procedura seguente. Questo esempio si applica su sistemi macOS, Linux e Windows Subsystem for Linux (WSL).
Per creare un file .egg o .whl Python
-
Crea un cluster Amazon Redshift in un cloud privato virtuale (VPC, Virtual Private Cloud) e aggiungi alcuni dati a una tabella.
-
Crea un AWS Glue connessione per la VPC-SecurityGroup-Subnet combinazione utilizzata per creare il cluster. Verifica che la connessione funzioni.
-
Crea una directory denominata
redshift_example
e crea un file denominatosetup.py
. Incollare il codice seguente insetup.py
.from setuptools import setup setup( name="redshift_module", version="0.1", packages=['redshift_module'] )
-
Nella directory
redshift_example
crea una directoryredshift_module
. Nella directoryredshift_module
crea i file__init__.py
epygresql_redshift_common.py
. -
Lascia il file
__init__.py
vuoto. Incolla il codice seguente inpygresql_redshift_common.py
. Sostituisciport
db_name
,user
, epassword_for_user
con dettagli specifici del tuo cluster Amazon Redshift. Sostituiscitable_name
con il nome della tabella in Amazon Redshift.import pg def get_connection(host): rs_conn_string = "host=%s port=%s dbname=%s user=%s password=%s" % ( host,
port
,db_name
,user
,password_for_user
) rs_conn = pg.connect(dbname=rs_conn_string) rs_conn.query("set statement_timeout = 1200000") return rs_conn def query(con): statement = "Select * fromtable_name
;" res = con.query(statement) return res -
Se non sei ancora in tale directory, passa alla directory
redshift_example
. -
Esegui una di queste operazioni:
Per creare un file
.egg
, esegui il comando seguente.python setup.py bdist_egg
Per creare un file
.whl
, esegui il comando seguente.python setup.py bdist_wheel
-
Installa le dipendenze necessarie per il comando precedente.
-
Il comando crea un file nella directory
dist
:-
Se hai creato un file egg, viene denominato
redshift_module-0.1-py2.7.egg
. -
Se hai creato un file wheel, viene denominato
redshift_module-0.1-py2.7-none-any.whl
.
Carica questo file in Amazon S3.
In questo esempio, il percorso del file caricato è
s3://DOC-EXAMPLE-BUCKET/EGG-FILE
os3://DOC-EXAMPLE-BUCKET/WHEEL-FILE
. -
-
Crea un file Python da usare come script per AWS Glue job e aggiungi il seguente codice al file.
from redshift_module import pygresql_redshift_common as rs_common con1 = rs_common.get_connection(
redshift_endpoint
) res = rs_common.query(con1) print "Rows in the table cities are: " print res -
Carica il file precedente in Amazon S3. In questo esempio, il percorso del file caricato è
s3://DOC-EXAMPLE-BUCKET/scriptname.py
. -
Crea un processo shell di Python utilizzando questo script. Sul AWS Glue console, nella pagina delle proprietà del lavoro, specifica il percorso del
.egg/.whl
file nella casella Python library path. Se sono presenti più file.egg/.whl
e file Python, occorre fornire un elenco separato da virgole in questa casella.Quando si modificano o si rinominano i file
.egg
, i nomi dei file devono utilizzare i nomi predefiniti generati dal comando "python setup.py bdist_egg" o devono rispettare le convenzioni di denominazione del modulo Python. Per ulteriori informazioni, vedere la Guida di stile per il codice Python. Utilizzando AWS CLI, create un lavoro con un comando, come nell'esempio seguente.
aws glue create-job --name python-redshift-test-cli --role Role --command '{"Name" : "pythonshell", "ScriptLocation" : "s3://DOC-EXAMPLE-BUCKET/scriptname.py"}' --connections Connections="connection-name" --default-arguments '{"--extra-py-files" : ["s3://DOC-EXAMPLE-BUCKET/EGG-FILE", "s3://DOC-EXAMPLE-BUCKET/WHEEL-FILE"]}'
Quando il processo viene eseguito, lo script stampa le righe create nella
table_name
tabella nel cluster Amazon Redshift.
Utilizzabile AWS CloudFormation con i lavori della shell Python in AWS Glue
È possibile utilizzare AWS CloudFormation con i lavori della shell Python in AWS Glue. Di seguito è riportato un esempio:
AWSTemplateFormatVersion: 2010-09-09 Resources: Python39Job: Type: 'AWS::Glue::Job' Properties: Command: Name: pythonshell PythonVersion: '3.9' ScriptLocation: 's3://bucket/location' MaxRetries: 0 Name: python-39-job Role: RoleName
L'output del gruppo Amazon CloudWatch Logs per i job della shell Python è. /aws-glue/python-jobs/output
Per gli errori, consulta il gruppo di log /aws-glue/python-jobs/error
.