

 从补丁 198 开始，Amazon Redshift 将不再支持创建新的 Python UDF。现有的 Python UDF 将继续正常运行至 2026 年 6 月 30 日。有关更多信息，请参阅[博客文章](https://aws.amazon.com/blogs/big-data/amazon-redshift-python-user-defined-functions-will-reach-end-of-support-after-june-30-2026/)。

# 从 Amazon S3 加载数据
<a name="t_Loading-data-from-S3"></a>

COPY 命令使用 Amazon Redshift 大规模并行处理 (MPP) 架构从 Amazon S3 桶中的一个或多个文件并行读取和加载数据。在压缩文件的情况下，您可以将数据拆分成多个文件，从而最大程度地利用并行处理。（此规则有例外。[加载数据文件](https://docs.aws.amazon.com/redshift/latest/dg/c_best-practices-use-multiple-files.html)中详细介绍了相关内容。） 您也可以通过在表上设置分配键，从而最大程度地利用并行处理。有关分配键的更多信息，请参阅[用于优化查询的数据分配](t_Distributing_data.md)。

数据将加载到目标表中，一行数据占据表中的一行。数据文件中的字段按从左到右的顺序与表列相匹配。数据文件中的字段可以是固定宽度，也可以用字符分隔；默认分隔符为竖线 (\$1)。默认情况下，将加载所有表列，但您可以选择定义用逗号分隔的列列表。如果 COPY 命令中指定的列列表中不包括某个表列，则该表列将加载为默认值。有关更多信息，请参阅 [加载默认列值](c_loading_default_values.md)。

**Topics**
+ [从压缩和未压缩文件中加载数据](t_splitting-data-files.md)
+ [将文件上传到 Amazon S3 以与 COPY 结合使用](t_uploading-data-to-S3.md)
+ [使用 COPY 命令从 Amazon S3 中加载](t_loading-tables-from-s3.md)