

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Utilisation d'une solution de migration hybride : Apache Cassandra vers Amazon Keyspaces
<a name="migrating-hybrid"></a>

La solution de migration suivante peut être considérée comme un hybride entre la migration en ligne et hors ligne. Grâce à cette approche hybride, les données sont écrites dans la base de données de destination quasiment en temps réel sans garantir la cohérence entre les lectures et les écritures. Cela signifie que les données nouvellement écrites ne seront pas immédiatement disponibles et que des retards sont à prévoir. Si vous avez besoin de cohérence entre lecture après écriture, consultez[Migration en ligne vers Amazon Keyspaces : stratégies et meilleures pratiques](migrating-online.md). 

Pour une migration en temps quasi réel d'Apache Cassandra vers Amazon Keyspaces, vous pouvez choisir entre deux méthodes disponibles.
+ **CQLReplicator**— (Recommandé) CQLReplicator est un utilitaire open source disponible sur [Github](https://github.com/aws-samples/cql-replicator) qui vous aide à migrer des données d'Apache Cassandra vers Amazon Keyspaces en temps quasi réel.

  Pour déterminer les écritures et les mises à jour à propager vers la base de données de destination, CQLReplicator scanne la plage de jetons Apache Cassandra et utilise une AWS Glue tâche pour supprimer les événements dupliqués et appliquer les écritures et les mises à jour directement à Amazon Keyspaces.
+ **Capture des données de modification (CDC)** — Si vous connaissez Cassandra CDC, la fonctionnalité CDC intégrée d'Apache Cassandra qui permet de capturer les modifications en copiant le journal de validation dans un répertoire CDC distinct est une autre option pour implémenter une migration hybride.

  Vous pouvez le faire en répliquant les modifications apportées aux données sur Amazon Keyspaces, faisant ainsi du CDC une option alternative pour les scénarios de migration de données. 

Si vous n'avez pas besoin de cohérence en lecture après écriture, vous pouvez utiliser le pipeline CDC CQLReplicator ou un pipeline CDC pour migrer les données d'Apache Cassandra vers Amazon Keyspaces en fonction de vos préférences et de votre connaissance des outils utilisés dans chaque Services AWS solution. L'utilisation de ces méthodes pour migrer des données en temps quasi réel peut être considérée comme une approche hybride de la migration qui offre une alternative à la migration en ligne.

Cette stratégie est considérée comme une approche hybride, car outre les options décrites dans cette rubrique, vous devez mettre en œuvre certaines étapes de la progression de la migration en ligne, par exemple la copie des données historiques et les stratégies de migration des applications abordées dans la rubrique sur la [migration en ligne](migrating-online.md). 

Les sections suivantes présentent plus en détail les options de migration hybride.

**Topics**
+ [Migrez les données en utilisant CQLReplicator](migration-hybrid-cql-rep.md)
+ [Migrer les données à l'aide de la capture des données de modification (CDC)](migration-hybrid-cdc.md)

# Migrez les données en utilisant CQLReplicator
<a name="migration-hybrid-cql-rep"></a>

Avec [CQLReplicator](https://github.com/aws-samples/cql-replicator), vous pouvez lire les données d'Apache Cassandra en temps quasi réel en scannant intelligemment l'anneau de jetons Cassandra à l'aide de requêtes CQL. CQLReplicator n'utilise pas le CDC Cassandra et met en œuvre une stratégie de mise en cache pour réduire les pertes de performances liées aux scans complets. 

Pour réduire le nombre d'écritures vers la destination, supprime CQLReplicator automatiquement les événements de réplication dupliqués. Vous pouvez ainsi ajuster la réplication des modifications de la base de données source vers la base de données de destination, ce qui permet une migration en temps quasi réel des données d'Apache Cassandra vers Amazon Keyspaces. CQLReplicator 

Le schéma suivant montre l'architecture typique d'une CQLReplicator tâche utilisantAWS Glue. 

1. **Pour autoriser l'accès à Apache Cassandra exécuté dans un VPC privé, configurez AWS Glue une connexion avec le type de connexion Network.**

1. Pour supprimer les doublons et activer la mise en cache des clés avec la CQLReplicator tâche, configurez Amazon Simple Storage Service (Amazon S3).

1. Le CQLReplicator job diffuse les modifications de la base de données source vérifiée directement sur Amazon Keyspaces.

![\[Utilisation CQLReplicator pour migrer les données d'Apache Cassandra vers Amazon Keyspaces.\]](http://docs.aws.amazon.com/fr_fr/keyspaces/latest/devguide/images/migration/hybrid-migration-CQLRep.png)


Pour plus d'informations sur le processus de migration utilisé CQLReplicator, consultez le billet suivant sur le blog de AWS base de données [Migrer les charges de travail Cassandra vers Amazon Keyspaces en utilisant CQLReplicator](https://aws.amazon.com/blogs/database/migrate-cassandra-workloads-to-amazon-keyspaces-using-cqlreplicator/) et les instructions AWS prescriptives Migrer les [charges de travail Apache Cassandra](https://docs.aws.amazon.com/prescriptive-guidance/latest/patterns/migrate-apache-cassandra-workloads-to-amazon-keyspaces-using-aws-glue.html) vers Amazon Keyspaces en utilisant. AWS Glue

# Migrer les données à l'aide de la capture des données de modification (CDC)
<a name="migration-hybrid-cdc"></a>

Si vous êtes déjà familiarisé avec la configuration d'un pipeline de capture des données de modification (CDC) avec [Debezium](https://debezium.io/), vous pouvez utiliser cette option pour migrer les données vers Amazon Keyspaces au lieu de les utiliser. CQLReplicator Debezium est une plate-forme distribuée open source pour le CDC, conçue pour surveiller une base de données et capturer de manière fiable les modifications au niveau des lignes. 

Le [connecteur Debezium pour Apache Cassandra](https://debezium.io/documentation/reference/stable/connectors/cassandra.html) télécharge les modifications apportées à Amazon Managed Streaming for Apache Kafka (Amazon MSK) afin qu'elles puissent être consommées et traitées par les consommateurs en aval qui, à leur tour, écrivent les données sur Amazon Keyspaces. Pour plus d'informations, consultez les [conseils pour la migration continue des données d'Apache Cassandra vers Amazon Keyspaces](https://aws.amazon.com/solutions/guidance/continuous-data-migration-from-apache-cassandra-to-amazon-keyspaces/).

Pour résoudre tout problème potentiel de cohérence des données, vous pouvez mettre en œuvre un processus avec Amazon MSK dans le cadre duquel un consommateur compare les clés ou les partitions de Cassandra à celles d'Amazon Keyspaces.

Pour mettre en œuvre cette solution avec succès, nous vous recommandons de prendre en compte les points suivants. 
+ Comment analyser le journal de validation du CDC, par exemple comment supprimer les événements dupliqués.
+ Comment gérer le répertoire CDC, par exemple comment supprimer les anciens journaux.
+ Comment gérer les échecs partiels dans Apache Cassandra, par exemple si une écriture ne réussit que dans une réplique sur trois.
+ Comment gérer l'allocation des ressources, par exemple en augmentant la taille de l'instance pour tenir compte des exigences supplémentaires en termes de processeur, de mémoire, de DISQUE et d'E/S pour le processus CDC qui a lieu sur un nœud.

Ce modèle traite les modifications apportées par Cassandra comme un « indice » indiquant qu'une clé a peut-être changé par rapport à son état précédent. Pour déterminer si des modifications doivent être appliquées à la base de données de destination, vous devez d'abord lire à partir du cluster Cassandra source à l'aide d'une `LOCAL_QUORUM` opération permettant de recevoir les derniers enregistrements, puis les écrire sur Amazon Keyspaces. 

Dans le cas de suppressions ou de mises à jour de plages, vous devrez peut-être effectuer une comparaison avec l'ensemble de la partition afin de déterminer quels événements d'écriture ou de mise à jour doivent être écrits dans votre base de données de destination. 

Dans les cas où les écritures ne sont pas idempotentes, vous devez également comparer vos écritures avec ce qui se trouve déjà dans la base de données de destination avant d'écrire sur Amazon Keyspaces.

Le schéma suivant montre l'architecture typique d'un pipeline CDC utilisant Debezium et Amazon MSK. 

![\[Utilisation d'un pipeline de capture des données de modification pour migrer les données d'Apache Cassandra vers Amazon Keyspaces.\]](http://docs.aws.amazon.com/fr_fr/keyspaces/latest/devguide/images/migration/hybrid-migration-CDC.png)
