本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
在 WriteRecords API操作和批量加载之间进行选择
通过该 WriteRecords API操作,您可以将流式传输时间序列数据写入 Timestream,使其与系统生成的数据相同。 LiveAnalytics 通过使用 WriteRecords,您可以持续实时摄取单个数据点或小批量数据。Timestream for 为您 LiveAnalytics提供了一个灵活的架构,该架构根据您在调用数据库写入数据时指定的数据点的维度名称和数据类型,自动检测 LiveAnalytics 表的 Timestream 的列名和数据类型。
相比之下,批量加载允许使用您定义的数据模型将批处理的时间序列数据从源文件(CSV文件)稳健地导入到 Timestream 中。 LiveAnalytics关于何时对源文件使用批量加载的几个示例,包括 LiveAnalytics 通过概念验证批量导入时间序列数据以评估Timestream,从离线一段时间的物联网设备批量导入时间序列数据,以及将历史时间序列数据从 Amazon S3 迁移到 Timestream LiveAnalytics 有关批量加载的信息,请参见在 Timestream 中使用批量加载 LiveAnalytics。
这两种解决方案都是安全、可靠和高性能的。
WriteRecords 在以下情况下使用:
-
每次请求流式传输少量(小于 10 MB)的数据。
-
填充现有表。
-
从日志流中提取数据。
-
执行实时分析。
-
需要更低的延迟。
在以下情况下使用批量加载:
-
在文件中提取源自 Amazon S3 的大量数据。CSV有关 限制的更多信息,请参阅 限额。
-
填充新表,例如在数据迁移的情况下。
-
用历史数据丰富数据库(提取到新表中)。
-
您的源数据变化缓慢或根本没有变化。
-
您可以灵活地等待时间,因为在资源可用之前,批量加载任务可能处于待处理状态,尤其是在加载大量数据的情况下。Batch Load 适用于不需要随时可供查询或分析的数据以提高清晰度。