View a markdown version of this page

Tutorial: Carga de datos en Amazon Keyspaces utilizando DSBulk - Amazon Keyspaces (para Apache Cassandra)

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Tutorial: Carga de datos en Amazon Keyspaces utilizando DSBulk

Este tutorial paso a paso le guía a través de la migración de datos de Apache Cassandra a Amazon Keyspaces mediante el cargador DataStax masivo (DSBulk) disponible en. GitHub El uso de DSBulk resulta útil para cargar conjuntos de datos en Amazon Keyspaces con fines académicos o de prueba. Para obtener más información acerca de cómo migrar cargas de trabajo de producción, consulte Proceso de migración sin conexión: de Apache Cassandra a Amazon Keyspaces. En este tutorial, completará los siguientes pasos:

Requisitos previos: configurar una AWS cuenta con credenciales, crear un archivo de almacén de confianza de JKS para el certificado, configurarcqlsh, descargar e instalar DSBulk y configurar un archivo. application.conf

  1. Creación del CSV de origen y la tabla de destino: prepare un archivo CSV como datos de origen y cree el espacio de claves y la tabla de destino en Amazon Keyspaces.

  2. Preparación de los datos: asigne al azar los datos del archivo CSV y analícelos para determinar el tamaño medio y máximo de las filas.

  3. Definición de la capacidad de rendimiento: calcule las unidades de capacidad de escritura (WCU) requeridas en función del tamaño de los datos y el tiempo de carga deseado y configure la capacidad aprovisionada de la tabla.

  4. Configure los ajustes de DSBulk: cree un archivo de configuración de DSBulk con ajustes como la autenticación SSL/TLS, el nivel de coherencia y el tamaño del grupo de conexiones.

  5. Ejecución del comando de carga de DSBulk: ejecute el comando de carga de DSBulk para cargar los datos del archivo CSV a la tabla de Amazon Keyspaces y supervise el progreso.