Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
En este tutorial paso a paso le guiamos en la migración de datos de Apache Cassandra a Amazon Keyspaces utilizando DataStax Bulk Loader (DSBulk) disponible en GitHub
Requisitos previos: configurar una cuenta de AWS con credenciales, crear un archivo de almacén de confianza JKS para el certificado, configurar cqlsh
, descargar e instalar DSBulk y configurar un archivo application.conf
.
Creación del CSV de origen y la tabla de destino: prepare un archivo CSV como datos de origen y cree el espacio de claves y la tabla de destino en Amazon Keyspaces.
Preparación de los datos: asigne al azar los datos del archivo CSV y analícelos para determinar el tamaño medio y máximo de las filas.
Definición de la capacidad de rendimiento: calcule las unidades de capacidad de escritura (WCU) requeridas en función del tamaño de los datos y el tiempo de carga deseado y configure la capacidad aprovisionada de la tabla.
Configuración de los ajustes de DSBulk: cree un archivo de configuración de DSBulk con ajustes como la autenticación, el SSL/TLS, el nivel de coherencia y el tamaño del grupo de conexiones.
Ejecución del comando de carga de DSBulk: ejecute el comando de carga de DSBulk para cargar los datos del archivo CSV a la tabla de Amazon Keyspaces y supervise el progreso.
Temas
- Requisitos previos: pasos que debe completar antes de poder cargar datos mediante DSBulk
- Paso 1: creación del archivo CSV de origen y de una tabla de destino para la carga de datos con DSBulk
- Paso 2: preparación de los datos para cargarlos con DSBulk
- Paso 3: establecimiento de la capacidad de rendimiento de la tabla de destino
- Paso 4: configuración de los ajustes de DSBulk para cargar los datos del archivo CSV a la tabla de destino
- Paso 5: ejecución del comando load de DSBulk para cargar los datos del archivo CSV a la tabla de destino