

 Amazon Redshift non supporterà più la creazione di nuovi Python UDFs a partire dalla Patch 198. Python esistente UDFs continuerà a funzionare fino al 30 giugno 2026. Per ulteriori informazioni, consulta il [post del blog](https://aws.amazon.com/blogs/big-data/amazon-redshift-python-user-defined-functions-will-reach-end-of-support-after-june-30-2026/). 

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Origini dati
<a name="copy-parameters-data-source"></a>

È possibile caricare i dati da file di testo in un bucket Amazon S3, in un cluster Amazon EMR o in un host remoto a cui il cluster può accedere utilizzando una connessione SSH. È possibile caricare i dati anche direttamente da una tabella DynamoDB. 

La dimensione massima di una singola riga di input da qualsiasi origine è pari a 4 MB. 

Per esportare i dati da una tabella a un set di file in un Amazon S3, utilizzare il comando [UNLOAD](r_UNLOAD.md). 

**Topics**
+ [COPY da Amazon S3](copy-parameters-data-source-s3.md)
+ [COPY da Amazon EMR](copy-parameters-data-source-emr.md)
+ [COPY da host remoto (SSH)](copy-parameters-data-source-ssh.md)
+ [COPY da Amazon DynamoDB](copy-parameters-data-source-dynamodb.md)