Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
AWS Notes de mise à jour du DMS
Vous trouverez ci-dessous les notes de publication des versions actuelles et précédentes de AWS Database Migration Service (AWS DMS).
AWS DMS ne fait pas la différence entre les versions majeures et secondaires lorsque vous activez la mise à niveau automatique des versions pour votre instance de réplication. DMS met automatiquement à niveau la version de l'instance de réplication pendant la période de maintenance si la version est obsolète.
Notez que pour mettre à niveau la version de votre instance de réplication manuellement (à l'aide de l'API ou de la CLI) de la version 3.4.x à la version 3.5.x, vous devez définir le paramètre sur. AllowMajorVersionUpgrade
true
Pour plus d'informations sur le AllowMajorVersionUpgrade
paramètre, consultez ModifyReplicationInstancela documentation de l'API DMS.
Note
La version actuelle du moteur par défaut pour AWS DMS est 3.5.3.
Le tableau suivant indique les dates suivantes pour les versions DMS actives :
Date de sortie de la version
Date après laquelle vous ne pouvez pas créer de nouvelles instances avec la version
Date à laquelle DMS met automatiquement à jour les instances de cette version (date EOL)
Version | Date de publication | Aucune nouvelle date d'instance | Date de fin de vie (EOL) |
---|---|---|---|
3.6.0 | 27 déc. 2024 | 27 avril 2026 | 27 juin 2026 |
3.5.4 | 15 novembre 2024 | 15 mars 2026 | 15 mai 2026 |
3.5.3 | 17 mai 2024 | 31 août 2025 | 31 octobre 2025 |
3.5.2 | 29 octobre 2023 | 30 mars 2025 | 29 avril 2025 |
3.5.1 | 30 juin 2023 | 30 novembre 2024 | 15 mars 2025 |
3.4.7 | 31 mai 2022 | 30 sept. 2024 | 31 octobre 2024 |
3.4.6 | 30 novembre 2021 | 30 sept. 2024 | 31 octobre 2024 |
Note
La AWS DMS version 3.6.0 est actuellement disponible en Asie-Pacifique (Sydney) : région ap-southeast-2.
AWS Notes de mise à jour du Database Migration Service 3.6.0
Nouvelle fonction ou amélioration | Description |
---|---|
Nouvelles variables de métadonnées pour les transformations | Deux nouvelles variables de métadonnées ont été introduites pour les règles de transformation : $AR_M_MODIFIED_SCHEMA et$AR_M_MODIFIED_TABLE_NAME . Ces variables vous permettent de créer des transformations plus dynamiques et flexibles qui peuvent s'adapter aux changements de schéma ou de nom de table au cours de votre processus de migration. |
Support pour la réplication de colonnes LOB en mode de gestion des erreurs UPSERT |
Ajout de la prise en charge de la réplication de colonnes LOB (Large Object) lors de l'utilisation de l'option de gestion des erreurs « Aucun enregistrement trouvé pour appliquer une MISE À JOUR : Insérer l'enregistrement cible manquant ». Grâce à cette amélioration, vous pouvez désormais répliquer avec précision les colonnes LOB, garantissant ainsi une réplication complète et précise des données. |
AWS La version 3.6.0 de DMS inclut les problèmes résolus suivants :
Problème résolu | Description |
---|---|
Problème de mémoire PostgreSQL |
Résolution d'une consommation de mémoire excessive lors de l'utilisation de PostgreSQL comme source. Correction d'un problème en raison duquel le slot Write Ahead Log (WAL) augmentait continuellement, ce qui entraînait une dégradation des performances. Cette mise à jour améliore la stabilité et l'efficacité des migrations PostgreSQL, en particulier pour les grandes bases de données ou les tâches de longue durée. |
Problème lié à Oracle Character Large Object (CLOB) et Character (CHAR) | Résolution du problème selon lequel les valeurs CLOB (Wide Character Large Object) et Character (CHAR) contenant des caractères non ASCII (par exemple, des symboles spéciaux ou des caractères internationaux) n'étaient pas répliquées correctement. Ce correctif garantit la réplication précise de données texte volumineuses, la réduction des erreurs et le maintien de la cohérence des données. |
Problème de latence incorrecte de Microsoft SQL Server | Résolution d'un problème en raison duquel le point de terminaison source Microsoft SQL Server signalait à tort une latence très élevée. Ce correctif fournit des mesures de performance plus précises, vous permettant de mieux surveiller et optimiser vos tâches de migration vers SQL Server. |
Problème de métadonnées Microsoft SQL Server | Correction d'un problème lié aux appels redondants pour récupérer les métadonnées d'autres tables, qui entraînait une dégradation des performances et une latence après la modification des métadonnées d'une table. Cette optimisation améliore les performances globales des tâches, en particulier pour les bases de données dont le schéma change fréquemment. |
Problème lié à la mise à jour de Microsoft SQL Server |
Correction d'un problème en raison duquel les opérations de mise à jour non standard entraînaient l'arrêt inattendu des tâches sans générer de messages d'erreur. Ce correctif garantit le traitement correct de ces opérations, évitant ainsi les échecs de tâches lors de scénarios de mise à jour complexes. |
Problème lié à l'application par lots de gros objets (LOB) | Correction d'un problème dans le mode Batch Optimized Apply qui empêchait la recherche d'un enregistrement lors de la recherche d'un objet de grande taille (LOB) lorsqu'une opération DELETE et une opération INSERT étaient combinées en une seule opération UPDATE. Ce correctif améliore la cohérence et l'intégrité des données lors des migrations impliquant des données LOB et des opérations complexes en langage de manipulation de données (DML). |
Problème de démarrage de la tâche de transformation | Résolution d'un problème selon lequel les tâches impliquant de nombreuses transformations se bloquaient au démarrage. Ce correctif garantit la stabilité et la fiabilité des tâches comportant une logique de transformation complexe, ce qui vous permet d'exécuter des tâches de traitement des données en toute confiance. |
Problème avec le langage de définition des données (DDL) MySQL | Correction d'un échec de capture des modifications du langage de définition des données (DDL) au format spécial pendant la phase de capture des données de modification (CDC). Ce correctif garantit que toutes les modifications de schéma sont correctement répliquées, préservant ainsi la cohérence du schéma entre les bases de données source et cible tout au long du processus de migration. |
AWS Notes de mise à jour du Database Migration Service 3.5.4
Nouvelle fonction ou amélioration | Description |
---|---|
Masquage des données | Le masquage des données a été introduit, permettant de transformer les données sensibles avec des options de randomisation des chiffres, de masquage ou de hachage au niveau des colonnes. |
Performances de validation des données améliorées | A introduit des performances de validation des données améliorées, permettant un traitement plus rapide des ensembles de données volumineux lors du chargement complet et des tâches de migration CDC sur certains chemins de migration. |
Problème Unicode dans la source de PostgreSQL | Correction d'un problème lié à la source PostgreSQL en raison duquel une dégradation des performances de migration était observée lors de l'utilisation du filtrage. Nous avons introduit le disableUnicodeSource filtre ECA pour contrôler ce comportement. |
Support de transformation pour une fonctionnalité de débit améliorée | Introduisez la prise en charge de toutes les règles de transformation pour la fonctionnalité de débit amélioré. |
Problème de performance de migration MySQL | Correction d'un problème pour MySQL Target à cause duquel les performances de migration étaient médiocres pour les classements cibles autres que UTF8MB4. Nouveau paramètre de point de terminaison introduit pour contrôler ce comportement : « temporaryTableCollation ». |
AWS DMS la version 3.5.4 inclut les problèmes résolus suivants :
Problème résolu | Description |
---|---|
PostgreSQL, problème de test_decoding | Correction d'un problème pour la source PostgreSQL en raison duquel certains événements n'étaient pas répliqués lors de l'utilisation du plugin test_decoding. |
Problème d'horodatage entre MySQL et Redshift | Correction d'un problème lors des migrations de MySQL vers Redshift à cause duquel une colonne d'horodatage n'était pas définie correctement sur la cible. |
Problème du PSU Oracle de juillet 2024 | Correction d'un problème lié à la source Oracle avec lecteur binaire à cause duquel la tâche DMS se bloquait après l'application du PSU Oracle en juillet 2024. |
Problème avec le gestionnaire de secrets MySQL | Correction d'un problème pour le point de terminaison MySQL à cause duquel les informations d'identification étaient corrompues lors de l'utilisation du gestionnaire de secrets. |
Problème de gestion des enregistrements de données Amazon DocumentDB/MongoDB | Correction d'un problème pour les points de terminaison Amazon DocumentDB/MongoDB où certains enregistrements étaient envoyés deux fois à la cible, provoquant une exception de clé dupliquée et un échec de tâche. AWS DMS |
Problème de migration relationnelle vers NoSQL | Correction d'un problème lié aux migrations de RDS pour SQL Server vers NoSQL à cause duquel la structure du document était incorrecte en raison d'une gestion incorrecte du PK. |
Problème de validation des données avec le point de terminaison Oracle | Correction d'un problème pour la source Oracle où la validation des données signalait des faux positifs pour les valeurs nulles ou vides LOBs. |
Problème PK avec identifiant unique avec la cible Babelfish. | Correction d'un problème pour la PG - Babelfish cible où la AWS DMS tâche échouait lors de la réplication de tables avec PK défini comme uniqueidentifier. |
Problème de source PostgreSQL avec MAZ. | Correction d'un problème pour la source PostgreSQL selon AWS DMS lequel le basculement de MAZ provoquait un échec fatal de la tâche. AWS DMS |
Problème d'ordre des colonnes | Correction d'un problème en raison duquel les données LOB n'étaient pas répliquées correctement lorsque l'ordre des colonnes différait entre la source et la cible. |
Problème de contention interne dans la AWS DMS base de données | Correction d'un problème dans la base de données DMS interne où la AWS DMS tâche échouait en raison de problèmes de simultanéité de la AWS DMS base de données interne. |
Problème de structure AWS DMS de base de données interne | Correction d'un problème lié à la AWS DMS base de données interne où la AWS DMS tâche échouait en raison de l'absence de certains objets de base de données internes. |
Problème de validation des données source Oracle | Correction d'un problème pour la source Oracle où la validation des données renvoyait des faux positifs pour certains types rares d'événements répliqués. |
Problème de validation des données pour les types de données Unicode | Correction d'un problème lié à la fonctionnalité de validation des données en raison duquel certains types de données Unicode n'étaient pas comparés correctement, ce qui entraînait des faux positifs. |
Problème d'horodatage de Parquet Target | Correction d'un problème pour Parquet Target où l'horodatage zéro était reproduit comme nul. |
Problème de type de GeoSpacial données cible Babelfish. | Correction d'un problème pour la cible Babelfish où le type de GeoSpacial données n'était pas pris en charge. |
Amazon S3 cible un problème lié à l'ajout de colonnes pendant le CDC | Correction d'un problème pour la cible Amazon S3 en raison duquel les nouveaux ajouts de colonnes n'étaient pas gérés correctement lorsque le paramètre avant l'image était activé. |
CU12 Problème avec SQL Server 2022 | Correction d'un problème lié à la source SQL Server qui AWS DMS empêchait d'implémenter automatiquement les prérequis de MS Replication sur les sources utilisant SQL Server 2022 avec CU12 ou une version ultérieure. |
Problème booléen avec PostgreSQL | Correction d'un problème pour la source PostgreSQL où le type de données booléen n'était pas migré correctement lorsqu'il était défini true sur et MapBooleanAsBoolean que le plugin pglogical était utilisé. |
TaskrecoveryTableEnabled problème de réglage |
Correction d'un problème lié au TaskrecoveryTableEnabled paramètre selon lequel la AWS DMS tâche échouait à l'arrêt de la tâche lorsqu'elle était définie sur true. |
Duplication des données avec TaskrecoveryTableEnabled paramétrage |
Correction d'un problème selon lequel certaines transactions étaient répliquées deux fois lorsque le TaskrecoveryTableEnabled paramètre était activé. |
Problème de source MySQL 5.5 | Correction d'un problème pour la source MySQL où la AWS DMS tâche échouait en raison de l'impossibilité de lire la version 5.5 BINLOG de MySQL. |
AWS Notes de mise à jour du Database Migration Service 3.5.3
Nouvelle fonction ou amélioration | Description |
---|---|
Point de terminaison source PostgreSQL amélioré pour le support de Babelfish | AWS DMS a amélioré son point de terminaison source PostgreSQL pour prendre en charge les types de données Babelfish. Pour de plus amples informations, veuillez consulter Utilisation d’une base de données PostgreSQL en tant que source AWS DMS. |
Support pour S3 Parquet en tant que source | AWS DMS prend en charge S3 Parquet en tant que source. Pour plus d’informations, consultez Utilisation d'Amazon S3 comme source pour AWS DMS. |
Support pour PostgreSQL 16.x | AWS DMS prend en charge la version 16.x de PostgreSQL. Pour plus d’informations, consultez Utilisation d’une base de données PostgreSQL en tant que source AWS DMS et Utilisation d'une base de données PostgreSQL comme cible pour AWS Database Migration Service. |
Débit amélioré pour les migrations à chargement complet d'Oracle vers Amazon Redshift | AWS DMS Le mode Serverless améliore considérablement les performances de débit pour les migrations à charge complète d'Oracle vers Amazon Redshift. Pour de plus amples informations, veuillez consulter Débit amélioré pour les migrations à chargement complet d'Oracle vers Amazon Redshift. |
Support pour les sauvegardes de journaux RDS pour SQL Server | AWS DMS prend en charge la réplication continue à partir des sauvegardes du journal des transactions pour les sources RDS pour SQL Server. Cette fonctionnalité n'est disponible que pour les points de terminaison AWS DMS source nouveaux et modifiés lisant à partir de RDS pour SQL Server. Pour de plus amples informations, veuillez consulter Configuration de la réplication continue sur une instance de base de données SQL Server cloud. |
AWS DMS la version 3.5.3 inclut les problèmes résolus suivants :
Problème résolu | Description |
---|---|
Fonction de dérogation à la validation des données | Correction d'un problème lié à la fonctionnalité de validation des données AWS DMS qui empêchait le filtrage des sources lorsqu'une action de règle était définie override-validation-function dans les mappages de tables. |
Erreurs CDC source MySQL | Correction d'un problème pour MySQL en tant que source en raison duquel la migration du CDC échouait avec le UTF16 codage. |
Différences entre les classements de validation des données | Correction d'un problème lié à la fonctionnalité de validation des données AWS DMS qui empêchait d'appliquer correctement le paramètre de HandleCollationDiff tâche lorsque le filtrage des colonnes était utilisé. |
Tâche de validation des données suspendue. | Correction d'un problème lié à la fonctionnalité de validation des données, à cause duquel la AWS DMS tâche se bloquait avec une erreur « target is null ». |
Échecs de tâches lors de la réplication de PostgreSQL vers PostgreSQL. | Correction d'un problème lié aux migrations AWS DMS de PostgreSQL vers PostgreSQL qui entraînait l'échec d'une tâche lors de l'insertion de données LOB dans la cible lors d'une réplication CDC. |
Perte de données avec PostgreSQL comme source | Correction d'un problème lié à PostgreSQL en tant que source, à cause duquel des pertes de données se produisaient dans certains scénarios extrêmes. |
Erreurs CDC source MySQL 5.5 | Correction d'un problème pour MySQL en tant que source en raison duquel la réplication CDC échouait avec MySQL version 5.5. |
Problème de table IOT source Oracle. | Correction d'un problème lié à Oracle en tant que source qui empêchait AWS DMS de répliquer correctement les UPDATE instructions pour les tables IOT lorsque la journalisation supplémentaire était activée sur toutes les colonnes. |
LOBS source MySQL | Correction d'un problème lié aux migrations de MySQL vers Amazon Redshift, à cause duquel la AWS DMS tâche échouait en raison du LOBs dépassement de la taille maximale autorisée par Amazon Redshift. |
Problème de validation avec SkipLobColumns |
Correction d'un problème lié à la fonctionnalité de validation des données en raison duquel la AWS DMS tâche échouait SkipLobColumns = true lorsqu'une clé primaire se trouvait dans la dernière colonne de la table source. |
Ignorer la validation où se trouve la clé unique null |
Correction d'un problème lié à la fonctionnalité de validation des données qui AWS DMS empêchait d'ignorer correctement les lignes contenant des clés uniques nulles. |
Améliorations de la validation des données pour COLLATE l'opérateur Oracle. |
Correction d'un problème lié à la fonctionnalité de validation des données en raison duquel la validation échouait en raison d'une erreur de syntaxe dans les versions d'Oracle antérieures à 12.2. |
Gestion des erreurs lors du chargement complet | Correction d'un problème lié à PostgreSQL en tant que cible, à cause duquel la tâche se bloquait pendant la phase de chargement complet suite à une erreur de table due à des données non valides. |
Revalidation des tâches de validation du CDC uniquement | Amélioration de la fonctionnalité de validation des données pour permettre la revalidation sur une tâche de validation CDC uniquement. |
S3 en tant que CdcMaxBatchInterval Out of Memory problème cible |
Correction d'un problème lié à S3 en tant que cible, à cause duquel la AWS DMS tâche échouait si une condition de mémoire insuffisante était CdcMaxBatchInterval définie. |
Pilote source Oracle | Mise à niveau du pilote source AWS DMS Oracle de la version 12.2 à la version 19.18. |
Avertissement de troncature LOB avec une source SQL Server | Journalisation améliorée pour SQL Server en tant que source afin d'afficher les avertissements en cas de troncature LOB pendant le CDC. |
Améliorations apportées au lecteur binaire Oracle | Le lecteur binaire source Oracle a été amélioré pour prendre en charge les éléments suivants :
|
Ignorer le problème des modifications mises en cache après des interruptions | Correction d'un problème qui empêchait d'ignorer les modifications mises en cache en cas d'interruption inattendue lors de l'application de ces modifications. |
Problème avec le fichier d' AWS DMS échange MongoDB | Correction d'un problème pour la source MongoDB qui empêchait la reprise de la AWS DMS tâche après la mise à AWS DMS niveau lorsque le fichier d' AWS DMS échange était présent. |
Problème de migration JSON de MySQL vers Amazon Redshift. | Correction d'un problème pour la source MySQL en raison duquel le type de données JSON n'était pas géré correctement lorsque Batch Apply était activé. |
Problème de validation des données pour les migrations de SQL Server vers APG. | Correction d'un problème lié à la migration de SQL Server vers PostgreSQL, à cause duquel la validation des données signalait des faux positifs dans certaines situations. |
EmptyAsNull Un problème d'ECA pour Amazon Redshift cible le CDC | Correction d'un problème pour la cible Amazon Redshift à cause duquel l'EmptyAsNull ECA ne fonctionnait pas correctement. |
Amélioration de la journalisation pour la source SQL Server | Journalisation améliorée pour la source SQL Server afin d'inclure la valeur de l'unité de stockage. |
Problème de fuite de mémoire | Correction d'un problème à cause duquel les cibles utilisant des fichiers CSV pour AWS DMS charger des données affichaient une fuite de mémoire. |
Problème cible Amazon S3 | Correction d'un problème concernant la cible Amazon S3 selon lequel CdcMaxBatchInterval les paramètres n' CdcMinFileSize étaient pas respectés lorsque le cdcInsertAnd UpdateOnly paramètre était activé. |
Amélioration de la journalisation pour Kafka Target | Journalisation améliorée pour la cible de Kafka |
Amélioration de la journalisation pour Oracle Source. | Journalisation améliorée pour les sources Oracle avec lecteur binaire afin d'indiquer correctement les tables ignorées en raison de clés primaires manquantes. |
Amélioration de la journalisation pour la source SQL Server | Journalisation améliorée de la source SQL Server dans la AlwaysOn configuration afin d'indiquer correctement les autorisations manquantes. |
Amélioration de la journalisation pour les migrations avec DDL désactivé | Journalisation améliorée pour les migrations avec réplication DDL désactivée afin d'indiquer une structure de table cible inattendue après sa modification en dehors de AWS DMS. |
Problème cible de DB2 | Correction d'un problème pour la cible DB2 en raison duquel la tâche échouait lorsque la table AWS DMS d'état était activée. |
Problème avec MongoDB/Amazon DocumentDB Secret Manager. | Correction d'un problème pour les points de terminaison MongoDB/Amazon DocumentDB où les informations d'identification ne pouvaient pas être récupérées depuis Secret Manager, ce qui provoquait une erreur. |
Problème de point de terminaison MongoDB/Amazon DocumentDB | Correction d'un problème pour MongoDB/Amazon DocumentDB à cause duquel la tâche ParallelApply échouait si elle était activée lors de la réplication de certaines séquences d'événements. |
Amélioration de la journalisation pour Amazon Redshift Target | Journalisation améliorée pour Amazon Redshift Target afin d'inclure des informations plus détaillées dans le niveau de journalisation par défaut. |
Problème de blocage de la tâche cible Amazon S3 | Correction d'un problème pour la cible Amazon S3 en raison duquel la tâche DMS se bloquait après avoir reçu le DDL de table modifié lorsqu'elle GlueCatalogGeneration était activée. |
Problème de validation des données | Correction d'un problème lié à la fonctionnalité de validation des données en raison duquel la validation échouait sur les NUL (0x00) caractères. |
Problème avec le terminal Babelsifh | Correction d'un problème pour le point de terminaison Babelfish où les noms de tables contenant des majuscules et minuscules étaient suspendus. |
Problème lié à la source Amazon S3 | Correction d'un problème pour la source Amazon S3 où les fichiers n'étaient pas traités en raison d'un problème de validation du nom de fichier. |
Problème de source DB2 LUC avec les règles de sélection. | Correction d'un problème pour la source DB2 LUW où l'option « type de table » dans les règles de sélection était ignorée. |
Amazon Redshift cible le problème des données manquantes. | Correction d'un problème lié à la cible Amazon Redshift qui entraînait une perte de données lorsque la valeur ParallelLoadThreads était supérieure à 0 dans certaines conditions. |
Amélioration de la validation des données pour Amazon Redshift Target | Amélioration de la fonctionnalité de validation des données pour Amazon Redshift Target afin de prendre en charge HandleCollationDiff le paramétrage. |
Problème de validation des données cibles d'Amazon S3 | Correction d'un problème lié à la validation des données cibles d'Amazon S3, en raison duquel la validation échouait lorsqu'il n'y avait aucune autre colonne que le PK dans le tableau. |
CloudWatch Métriques de validation des données | Correction d'un problème lié à la fonctionnalité de validation des données en raison duquel les CloudWatch métriques manquaient lors de la validation, ce qui prenait peu de temps. |
Option de revalidation des données non disponible | Correction d'un problème lié à la fonctionnalité de validation des données en raison duquel l'option de revalidation n'était pas disponible dans certaines situations. |
Problème de réplication de transactions importantes | Correction d'un problème à cause duquel le nombre maximum d'événements par transaction était limité à 201 326 592 sous certaines conditions. |
Problème de perte de données source MySQL | Correction d'un problème lié à la migration de MySQL vers Amazon S3 : le premier DML exécuté après le DDL « ajouter une colonne » était oublié, ce qui entraînait une perte de données. |
Problème de fuite de mémoire lors d'une application par lots | Correction d'un problème de fuite de mémoire lié à la fonctionnalité d'application par lots qui se produisait dans certaines conditions. |
Problème de démarrage de la tâche DMS | Correction d'un problème à cause duquel le démarrage d'une AWS DMS tâche prenait beaucoup de temps et ne se terminait jamais. |
Problème de validation des données source MySQL. | Correction d'un problème de validation des données source MySQL en raison duquel les colonnes auto-incrémentées n'étaient pas gérées correctement. |
Problème d'authentification Kerberos du point de terminaison Oracle | Correction d'un problème lié au point de terminaison Oracle qui empêchait la connectivité de fonctionner avec l'authentification Kerberos. |
Babelfish cible un problème d'identifiant unique | Correction d'un problème pour la cible Babelfish où la réplication échouait pour les tables dont les clés primaires étaient définies comme uniqueidentifier. |
Problème de données manquantes dans la source PostgreSQL | Correction d'un problème lié à la source PostgreSQL qui provoquait une perte de données en raison d'événements inconnus dans le slot de réplication. |
Problème de validation des données pour les types de données Unicode. | Correction d'un problème lié à la fonctionnalité de validation des données en raison duquel certains types de données Unicode n'étaient pas comparés correctement, ce qui entraînait des faux positifs. |
Colonne d'horodatage Redshift Target | Correction d'un problème de ColumnType définition en raison duquel les types de colonnes d'horodatage n'étaient pas correctement définis |
Conversion de l'horodatage cible S3 | Correction d'un problème lié au format de fichier de parquet cible S3 en gérant des valeurs d'horodatage nulles (ces valeurs doivent être converties en NULL sur la cible) |
Ordre des colonnes LOB source et cible de MySQL | Correction d'un problème lié à la migration des colonnes Lob source et cible de MySQL. Désormais, DMS utilise l'identifiant de colonne de la table cible au lieu de la table source pour décider dans quelle colonne nous devons écrire les données LOB |
Types de données Datetime cible Babelfish | Correction d'un problème lié à la cible de Babelfish qui limitait la précision en fractions de secondes pour les types Datetime et Time afin de résoudre les erreurs d'arrondissement. |
Échec de la tâche MySQL 5.5 lors de la lecture du binglog pendant la réplication en cours (CDC). | Correction d'un problème avec la source MySQL 5.5. Nous avons ajouté un mécanisme de nouvelle tentative pour éviter l'échec des tâches lorsque DMS ne parvenait pas à lire les événements du journal binaire pendant la réplication en cours (CDC). |
Erreur de segmentation de la source PostgreSQL et problème de fuite de mémoire lors de l'utilisation du plugin de décodage de test. | Correction d'un problème lié à la source PostgreSQL qui empêchait l'analyse correcte de certains événements de réplication continue (CDC) lors de l'utilisation du plugin test_decoding pour Postgres. |
DocoumentDB Target parallel apply settings | Correction d'un problème lié à la cible DocumentDB avec le paramètre d'application parallèle qui empêchait l'utilisation de plusieurs threads lors de l'utilisation de cette fonctionnalité. |
INSERTION DIRECTE D'Oracle HCC Compression | Correction d'un problème lié à la compression DIRECT INSERT d'Oracle HCC avec un indice DML parallèle qui provoquait des données manquantes ou dupliquées. |
Problème avec le lecteur binaire Oracle avec le processeur Oracle en juillet 2024 | Correction d'un problème avec la source Oracle. La tâche DMS avec lecteur binaire échouait en raison du processeur Oracle de juillet 2024 |
Clés primaires de l'UUID cible Babebfish | Correction d'un problème avec la cible Babelfish où les tâches DMS échouaient lors de la réplication de tables dont la clé primaire était définie comme UUID. |
Les tâches de réplication continue (CDC) du DMS échouent avec TaskRecoveryTableEnabled | Correction d'un problème lié à TaskRecoveryTableEnabled Enabled, en raison duquel DMS tentait de mettre à jour la table du système cible awsdms_txn_state après la fin de la connexion cible. |
Enregistrements dupliqués de la source PostgreSQL | Correction d'un problème lié à la source PostgreSQL en raison duquel certaines transactions étaient répliquées deux fois lorsque TaskrecoveryTableEnabled le paramètre était activé. |
Problème de réplication source/cible du DMS S3 | Correction d'un problème entre la source S3 et la cible S3 en raison duquel la tâche DMS ne répliquait pas les données pendant le chargement complet et pendant la réplication en cours. |
Échec de la tâche source DMS S3 pendant la réplication en cours | Correction d'un problème pour la source S3 où la tâche DMS était définie en erreur lors de la réplication en cours pour la version 3.5.3 de DMS |
DB2 Source CcsidMapping DMS ECA | Correction d'un problème lié à la DB2 source. Le mappage CCSID ECA est désormais correctement appliqué à la tâche lorsque la page de code vaut 0 et que les données sont migrées correctement CcsidMapping |
Réplication des valeurs booléennes de DMS Aurora PostgreSQL vers Redshift sans serveur. | Correction d'un problème en raison duquel la migration DMS d'Aurora PostgreSQL vers Redshift Serverless présentait un problème avec une valeur booléenne. |
AWS Notes de mise à jour du Database Migration Service 3.5.2
Nouvelle fonction ou amélioration | Description |
---|---|
Validation des données Amazon Redshift | AWS DMS prend désormais en charge la validation des données dans les cibles Amazon Redshift. |
Prise en charge de Microsoft SQL Server 2022 en tant que source et cible. | AWS DMS prend désormais en charge l'utilisation de Microsoft SQL Server version 2022 comme source et cible. |
IBM Db2 LUW en tant que cible | AWS DMS prend désormais en charge IBM Db2 LUW en tant que cible. En utilisant AWS DMS, vous pouvez désormais effectuer des migrations en direct d'IBM Db2 LUW vers IBM Db2 LUW. |
AWS DMS la version 3.5.2 inclut les problèmes résolus suivants :
Problème résolu | Description |
---|---|
Charge complète segmentée cible d'IBM Db2 | Ajout de la prise en charge de la charge complète segmentée avec IBM Db2 comme cible. |
Amazon Timestream comme paramètre cible | Amélioration de la gestion des paramètres d'horodatage non valides et des opérations de table non prises en charge pour Timestream en tant que cible. |
Crash de tâche avec filtre de colonne | Correction d'un problème en raison duquel une tâche se bloquait lors de l'utilisation d'un filtre sur une colonne ajoutée dynamiquement par DMS à l'aide d'une règle de transformation. |
Enregistrement des transactions, lecture du fichier d'échange | Ajout de la journalisation pour indiquer quand DMS lit des fichiers d'échange de transactions. |
S3 comme cible avec CdcInsertsAndUpdates |
Correction d'un problème lié à S3 en tant que cible, à cause duquel une tâche se bloquait quand elle CdcInsertsAndUpdates était true et quand elle PreserveTransactions étaittrue . |
Opérateurs négatifs du filtre source | Correction d'un problème à cause duquel l'opérateur de filtre source, lorsqu'il était défini sur un opérateur négatif, se comportait de manière incorrecte si une règle de transformation était définie dans la même colonne. |
Ajout de la journalisation lorsque DMS interrompt la lecture depuis la source | Journalisation améliorée pour indiquer quand DMS interrompt temporairement la lecture depuis la source afin d'améliorer les performances. |
Filtres de source contenant des caractères échappés | Correction d'un problème lié aux filtres de source : DMS appliquait des caractères échappés aux tables nouvellement créées pendant le CDC. |
PostgreSQL en tant que cible, suppressions incorrectement répliquées | Correction d'un problème lié à PostgreSQL en tant que cible : DMS réplique les suppressions sous forme de valeurs nulles. |
Améliorations de la journalisation d'Oracle en tant que source | Journalisation améliorée pour Oracle en tant que source afin de supprimer les codes d'erreur superflus. |
Enregistrement amélioré des limites de XMLTYPE | Amélioration de la journalisation pour Oracle en tant que source afin de montrer que DMS ne prend pas en charge le mode LOB complet pour le type de XMLTYPE données. |
Perte de données MySQL | Correction d'un problème lié à MySQL en tant que cible : des métadonnées de colonne corrompues pouvaient provoquer des blocages de tâches ou des pertes de données. |
Filtre appliqué à une nouvelle colonne | Correction d'un problème lors du chargement complet à cause duquel DMS ignorait un filtre ajouté à une nouvelle colonne par une règle de transformation. |
S3 comme cible : problème de validation | Correction d'un problème lié à S3 en tant que cible, à cause duquel la validation des données échouait lors de la migration de plusieurs tables avec des définitions de partitionnement de validation différentes. |
Blocage d'une tâche uniquement sur le CDC | Correction d'un problème pour les tâches uniquement sur le CDC où la tâche se bloquait lorsqu'TaskRecoveryTableEnabled elle était exécutée. true |
Encaissements incompatibles entre MySQL et MariaDB | Correction d'un problème pour les migrations de MySQL vers MariaDB où DMS ne migre pas les tables MySQL v8 avec classement. tf8mb4_0900_ai_ci |
La tâche se bloque avec BatchApplyEnabled |
Correction d'un problème lié à la fonctionnalité Batch Apply qui entraînait l'échec de la tâche dans certaines conditions. |
Caractères autres que UTF-8 dans Amazon DocumentDB | Ajout de la prise en charge des caractères non UTF-8 pour les points de terminaison Amazon DocumentDB. |
Batch Apply Task Crash | Correction d'un problème lié à la fonctionnalité Batch Apply qui empêchait la tâche DMS de se bloquer lors de la réplication de transactions importantes. |
Gestion de l'annulation des transactions DB2 | Correction d'un problème lié à Db2 en tant que source, à cause duquel DMS répliquait un INSERT vers la cible, malgré le fait qu'il ait été annulé sur la source. |
Validation avec des filtres de source | Correction d'un problème en raison duquel la validation ne respectait pas les filtres de source. |
Problème avec le fichier d' AWS DMS échange MongoDB | Correction d'un problème pour la source MongoDB qui empêchait la reprise de la tâche DMS après la mise à AWS DMS niveau lorsque le fichier d' AWS DMS échange était présent. |
Problème de migration JSON de MySQL vers Amazon Redshift. | Correction d'un problème pour la source MySQL en raison duquel le type de données JSON n'était pas géré correctement lorsque Batch Apply était activé. |
Erreurs CDC source MySQL 5.5 | Correction d'un problème pour la source MySQL à cause duquel la réplication CDC échouait avec MySQL version 5.5. |
Problème de migration LOB | Correction d'un problème de migration LOB à cause duquel la AWS DMS tâche se bloquait lors du traitement de certains types d'événements. |
Problème de validation des données | Correction d'un problème lié à la fonctionnalité de validation des données en raison duquel la tâche de validation uniquement était suspendue à certains événements DDL. |
Problème de validation des données avec les filtres. | Correction d'un problème lié à la fonctionnalité de validation des données en raison duquel le HandleCollationDiff paramètre n'était pas appliqué lorsque des filtres étaient présents |
Problème d' SourceEnum encodage MySQL. | Correction d'un problème pour la source MySQL où les valeurs d'énumération codées en UTF-16 n'étaient pas migrées correctement. |
Avertissement de troncature LOB avec une source SQL Server | Journalisation améliorée pour la source SQL Server afin d'afficher un avertissement en cas de troncature LOB pendant le CDC. |
Problème de validation des données pour les migrations de SQL Server vers APG. | Correction d'un problème lié à la migration de SQL Server vers PostgreSQL, à cause duquel la validation des données signalait des faux positifs dans certaines situations. |
EmptyAsNull Un problème d'ECA pour Amazon Redshift cible le CDC |
Correction d'un problème pour la cible Amazon Redshift à cause duquel l'EmptyAsNull ECA ne fonctionnait pas correctement. |
Amélioration de la journalisation pour la source SQL Server | Journalisation améliorée pour la source SQL Server afin d'inclure la valeur de l'unité de stockage. |
Problème de fuite de mémoire | Correction d'un problème à cause duquel les cibles utilisant des fichiers CSV pour AWS DMS charger des données affichaient une fuite de mémoire. |
Problème cible Amazon S3 | Correction d'un problème concernant la cible Amazon S3 selon lequel CdcMaxBatchInterval les paramètres n'CdcMinFileSize étaient pas respectés lorsque le cdcInsertAndUpdateOnly paramètre était activé. |
Amélioration de la journalisation pour Kafka Target | Journalisation améliorée pour la cible de Kafka |
Amélioration de la journalisation pour Oracle Source. | Journalisation améliorée pour les sources Oracle avec lecteur binaire afin d'indiquer correctement les tables ignorées en raison de clés primaires manquantes. |
Amélioration de la journalisation pour la source SQL Server | Journalisation améliorée de la source SQL Server dans la AlwaysOn configuration afin d'indiquer correctement les autorisations manquantes. |
Amélioration de la journalisation pour les migrations avec DDL désactivé | Journalisation améliorée pour les migrations avec réplication DDL désactivée afin d'indiquer une structure de table cible inattendue après sa modification en dehors de AWS DMS. |
Problème cible de DB2 | Correction d'un problème pour la cible DB2 en raison duquel la tâche échouait lorsque la table d'état du DMS était activée. |
Problème avec MongoDB/Amazon DocumentDB Secret Manager. | Correction d'un problème pour les points de terminaison MongoDB/Amazon DocumentDB où les informations d'identification ne pouvaient pas être récupérées depuis Secret Manager, ce qui provoquait une erreur. |
Problème de point de terminaison MongoDB/Amazon DocumentDB | Correction d'un problème pour MongoDB/Amazon DocumentDB à cause duquel la tâche ParallelApply échouait si elle était activée lors de la réplication de certaines séquences d'événements. |
Problème de validation des données MongoDB/Amazon DocumentDB | Correction d'un problème lors de la validation des données MongoDB/Amazon DocumentDB à cause duquel une erreur se produisait après la détection de différences entre les données. |
Amélioration de la journalisation pour Amazon Redshift Target | Journalisation améliorée pour Amazon Redshift Target afin d'inclure des informations plus détaillées dans le niveau de journalisation par défaut. |
Problème de blocage de la tâche cible Amazon S3 | FIxed un problème pour la cible Amazon S3 où la AWS DMS tâche se bloquait après avoir reçu une modification de la table DDL lorsqu'elle était GlueCatalogGeneration activée. |
Problème de validation des données | Correction d'un problème lié à la fonctionnalité de validation des données en raison duquel la validation échouait sur les NUL (0x00) caractères. |
Problème avec le terminal Babelsifh | Correction d'un problème pour le point de terminaison Babelfish où les noms de tables contenant des majuscules et minuscules étaient suspendus. |
Problème de source DB2 LUC avec les règles de sélection. | Correction d'un problème pour la source DB2 LUW où l'option « type de table » dans les règles de sélection était ignorée. |
Amazon Redshift cible le problème des données manquantes. | Correction d'un problème lié à la cible Amazon Redshift qui entraînait une perte de données lorsque la valeur ParallelLoadThreads était supérieure à 0 dans certaines conditions. |
Amélioration de la validation des données pour Amazon Redshift Target | Amélioration de la fonctionnalité de validation des données pour Amazon Redshift Target afin de prendre en charge HandleCollationDiff le paramétrage. |
Problème de validation des données cibles d'Amazon S3 | Correction d'un problème lié à la validation des données cibles d'Amazon S3, en raison duquel la validation échouait lorsqu'il n'y avait aucune autre colonne que le PK dans le tableau. |
CloudWatch Métriques de validation des données | Correction d'un problème lié à la fonctionnalité de validation des données en raison duquel les CloudWatch métriques manquaient lors de la validation, ce qui prenait peu de temps. |
Option de revalidation des données non disponible | Correction d'un problème lié à la fonctionnalité de validation des données en raison duquel l'option de revalidation n'était pas disponible dans certaines situations. |
Problème de réplication de transactions importantes | Correction d'un problème à cause duquel le nombre maximum d'événements par transaction était limité à 201 326 592 sous certaines conditions. |
Problème de rechargement des tables | Correction d'un problème en raison duquel le rechargement de plusieurs tables était annulé lorsqu'au moins l'une des tables n'était pas valide. |
Problème de perte de données source MySQL | Correction d'un problème lors de la migration de MySQL vers S3 où le premier DML exécuté après le DDL « ajouter une colonne » était oublié, ce qui entraînait une perte de données. |
Problème de fuite de mémoire lors d'une application par lots | Correction d'un problème de fuite de mémoire lié à la fonctionnalité d'application par lots qui se produisait dans certaines conditions. |
AWS DMS problème de démarrage de tâche | Correction d'un problème à cause duquel le démarrage d'une AWS DMS tâche prenait beaucoup de temps et ne se terminait jamais. |
Problème de données manquantes dans la source PostgreSQL | Correction d'un problème lié à la source PostgreSQL qui provoquait une perte de données en raison d'événements inconnus dans le slot de réplication. |
Ordre des colonnes LOB source et cible de MySQL | Correction d'un problème lié à la migration des colonnes Lob source et cible de MySQL. Désormais, DMS utilise l'identifiant de colonne de la table cible au lieu de la table source pour décider dans quelle colonne nous devons écrire les données LOB. |
Échec de la tâche MySQL 5.5 lors de la lecture du binglog pendant la réplication en cours (CDC). | Correction d'un problème avec MySQL 5.5 Source, ajout d'un mécanisme de nouvelle tentative pour éviter l'échec des tâches lorsque DMS ne parvenait pas à lire les événements du journal binaire pendant la réplication en cours (CDC). |
Erreur de segmentation de la source PostgreSQL et problème de fuite de mémoire lors de l'utilisation du plugin de décodage de test. |
Correction d'un problème lié à PostgreSQL Source qui empêchait l'analyse correcte de certains événements de réplication continue (CDC) lors de l'utilisation du plugin test_decoding pour Postgres. |
DocoumentDB Target parallel apply settings | Correction d'un problème lié à la cible DocumentDB avec le paramètre d'application parallèle qui empêchait l'utilisation de plusieurs threads lors de l'utilisation de cette fonctionnalité. |
INSERTION DIRECTE D'Oracle HCC Compression | Correction d'un problème lié à la compression DIRECT INSERT d'Oracle HCC avec un indice DML parallèle qui provoquait des données manquantes ou dupliquées. |
Problème avec le lecteur binaire Oracle avec le processeur Oracle en juillet 2024 | Correction d'un problème avec Oracle Source : les tâches DMS avec lecteur binaire échouaient en raison du processeur Oracle de juillet 2024. |
Les tâches de réplication continue (CDC) du DMS échouent avec TaskRecoveryTableEnabled | Correction d'un problème lié à TaskRecoveryTableEnabled Enabled, en raison duquel DMS tentait de mettre à jour la table du système cible awsdms_txn_state après la fin de la connexion cible. |
Enregistrements dupliqués de la source PostgreSQL | Correction d'un problème lié à la source PostgreSQL en raison duquel certaines transactions étaient répliquées deux fois lorsque TaskrecoveryTableEnabled le paramètre était activé. |
Problème de réplication source/cible du DMS S3 | Correction d'un problème entre la source S3 et la cible S3 en raison duquel la tâche DMS ne répliquait pas les données pendant le chargement complet et pendant la réplication en cours. |
DB2 Source CcsidMapping DMS ECA | Correction d'un problème lié à la DB2 source. Le mappage CCSID ECA est désormais correctement appliqué à la tâche lorsque la page de code vaut 0 et que les données sont migrées correctement. CcsidMapping |
Réplication des valeurs booléennes de DMS Aurora PostgreSQL vers Redshift sans serveur. | Correction d'un problème en raison duquel la migration DMS d'Aurora PostgreSQL vers Redshift Serverless présentait un problème avec une valeur booléenne. |
AWS Notes de mise à jour du Database Migration Service 3.5.1
Modification de la gestion des grandes valeurs numériques pour les cibles de streaming
Dans AWS DMS la version 3.5.1, il y a un changement dans la façon dont les grands nombres entiers et les valeurs numériques de haute précision sont traités lors du streaming de données vers des cibles telles que Kafka et Kinesis. Plus précisément, AWS DMS a modifié sa représentation interne des types de données, en traitant ces valeurs comme INT64
au lieu deINT8
. Ce changement peut entraîner différents formats de données sur les points de terminaison du streaming, en particulier lorsque les valeurs dépassent les limites deINT8
. Par conséquent, la représentation de ces types numériques peut différer de leur format précédent lorsqu'ils sont diffusés vers des destinations telles que Kafka et Kinesis, ce qui peut avoir un impact sur les systèmes et processus en aval qui consomment les données provenant de ces cibles.
Résumé des modifications :
Dans les versions précédentes (par exemple, 3.4.7/3.4.6), les valeurs entières élevées étaient représentées sous forme de nombres entiers.
À partir de la version 3.5.1, ces valeurs peuvent apparaître en notation scientifique (par exemple,
7.88129934789981E15
), ce qui peut entraîner des différences de précision et de formatage.
Types de données concernés
La récente modification affecte la représentation de plusieurs types numériques lorsqu'ils sont diffusés vers des terminaux tels que Kafka et Kinesis. Les types concernés sont les suivants :
Types de grands nombres entiers (par exemple,
bigint
)Types à virgule flottante ()
FLOAT, DOUBLE
Types décimaux de haute précision ()
DECIMAL, NUMERIC
Scénarios concernés :
Migrations à chargement complet vers des cibles de streaming
Changez la capture de données (CDC) en cibles de streaming
Cette modification concerne spécifiquement les terminaux de streaming tels que Kafka et Kinesis, tandis que les cibles autres que le streaming restent inchangées.
Pour atténuer ce changement, vous pouvez implémenter une transformation du type de données qui revient au formatage précédent, en représentant les grands nombres sous forme d'entiers. Cependant, il est important de noter que cette solution de contournement peut ne pas convenir à tous les scénarios, car elle pourrait entraîner des limitations ou des problèmes de compatibilité.
Recommandations :
Testez votre cas d'utilisation spécifique dans un environnement hors production avant de déployer la AWS DMS version 3.5.1 ou ultérieure afin d'identifier et de traiter les éventuels impacts de cette modification.
Les clients concernés peuvent implémenter la solution de change-data-type transformation, le cas échéant, afin de revenir au formatage précédent pour les grands nombres sous forme d'entiers. Cependant, cette approche peut ne pas convenir à tous les scénarios.
Nous sommes en train de revoir ce comportement afin de garantir une gestion cohérente des types de données sur tous les terminaux dans les futures versions.
Le tableau suivant présente les nouvelles fonctionnalités et améliorations introduites dans AWS Database Migration Service (AWS DMS) version 3.5.1.
Nouvelle fonction ou amélioration | Description |
---|---|
Prise en charge de PostgreSQL 15.x | AWS DMS la version 3.5.1 prend en charge la version 15.x de PostgreSQL. Pour plus d’informations, consultez Utilisation de PostgreSQL comme source et Utilisation de PostgreSQL comme cible. |
Prise en charge des clusters élastiques Amazon DocumentDB avec des collections fragmentées | AWS DMS la version 3.5.1 prend en charge les clusters élastiques Amazon DocumentDB avec des collections fragmentées. Pour de plus amples informations, veuillez consulter Utilisation d'Amazon DocumentDB comme cible pour le service de migration de AWS base de données. |
Amazon Redshift Serverless comme cible | Support pour l'utilisation d'Amazon Amazon Redshift Serverless comme point de terminaison cible. Pour de plus amples informations, veuillez consulter Utilisation d’une base de données Amazon Redshift en tant que cible pour AWS Database Migration Service. |
Paramètres de point de terminaison Babelfish | Paramètres de point de terminaison cible PostgreSQL améliorés pour assurer la prise en charge de Babelfish. Pour de plus amples informations, veuillez consulter Utilisation d'une base de données PostgreSQL comme cible pour AWS Database Migration Service. |
Transactions ouvertes de source Oracle | AWS DMS 3.5.1 améliore la méthodologie de gestion des transactions ouvertes lors du démarrage d'une tâche uniquement CDC à partir de la position de départ d'une source Oracle. Pour plus d'informations, consultez OpenTransactionWindow dans la section Paramètres du point de terminaison lors de l'utilisation d'Oracle comme source pour AWS DMS. |
Amazon Timestream comme cible | Support pour l'utilisation d'Amazon Timestream comme point de terminaison cible. Pour de plus amples informations, veuillez consulter Utiliser Amazon Timestream comme cible pour AWS Database Migration Service. |
AWS DMS la version 3.5.1 inclut les problèmes résolus suivants :
Problème résolu | Description |
---|---|
Modification importante de la gestion des valeurs numériques | La représentation des grandes valeurs numériques sur les cibles de streaming a été mise à jour. Consultez la documentation « Gestion des valeurs numériques importantes dans les cibles de streaming » pour plus de détails sur les impacts potentiels. |
Oracle en tant que source de plus en plus de sessions inactives | Correction d'un problème pour la source Oracle où les tâches réservées au CDC entraînaient une augmentation continue du nombre de sessions inactives, ce qui entraînait l'exception suivante :. ORA-00020: maximum number
of processes exceeded on the source database |
Réplication des modifications de mise à jour dans DocumentDB | Correction d'un problème lié à DocumentDB en tant que cible, à cause duquel les instructions UPDATE n'étaient pas correctement répliquées dans certains scénarios. |
Tâche de validation uniquement | Gestion des erreurs améliorée pour que la fonction de validation des données échoue correctement lorsque la validation des données est désactivée pour les tâches de validation uniquement. |
Réplication Amazon Redshift après la fin de la connexion | Correction d'un problème pour la cible Amazon Redshift : la tâche DMS ne réessayait pas d'appliquer les modifications à la cible lorsque la cible était ParallelApplyThreads définie sur une valeur supérieure à zéro après la fin de la connexion, ce qui entraînait une perte de données. |
Réplication de texte en texte moyen MySQL | Correction d'un problème de réplication MySQL vers MySQL de types de données de type texte moyen en mode Lob complet. |
La tâche CDC ne se réplique pas avec une rotation du secret | Correction d'un problème lié aux tâches DMS qui BatchApplyEnabled définissaient l'true endroit où DMS arrêterait de répliquer les données une fois le mot de passe modifié par Secrets Manager. |
Problème de segmentation MongoDB/DocumentDB | Correction d'un problème pour la source MongoDB/DocDB où la segmentation de plage ne fonctionnait pas correctement lorsque la colonne de clé primaire contenait une valeur élevée. |
Validation des données Oracle pour les valeurs numériques indépendantes | Correction d'un problème pour Oracle Target en raison duquel DMS reconnaissait une valeur de type de données non liées NUMERIC comme étant « a » STRING lors de la validation des données. |
Validation des données SQL Server | Correction d'un problème pour les points de terminaison SQL Server où la validation des données DMS générait une instruction SQL non valide. |
Segmentation automatique de MongoDB | Amélioration de la fonctionnalité de partitionnement automatique des données lors de la migration de documents en parallèle depuis MongoDB en tant que source. |
Format Apache Parquet d’Amazon S3 | Correction d’un problème permettant de visualiser avec Python et Apache Arrow C++ les fichiers Apache Parquet écrits dans S3 en tant que cible. |
Gestion des DDL avec PostgreSQL en tant que source | Correction d’un problème lié à une source PostgreSQL : les opérations DDL non prises en charge n’étaient pas correctement ignorées. |
Erreur de données PostgreSQL timestamptz |
Correction d’un problème lié aux migrations de PostgreSQL vers PostgreSQL : l’horodatage avec les données de fuseau horaire n’était pas correctement migré quand l’application par lots était activée pendant la CDC. |
Échec de validation d’Oracle vers PostgreSQL | Correction d’un problème lié aux migrations d’Oracle vers PostgreSQL : la validation des données échouait pour le type de données NUMERIC(38,30). |
Erreur de type de données étendu Oracle | Correction d’un problème lié à une source Oracle : le type de données varchar étendu était tronqué. |
Combinaison d’opérateurs de filtre | Correction d’un problème lié à la fonctionnalité de filtrage des colonnes : l’opérateur de colonne Null ne pouvait pas être combiné avec d’autres types d’opérateurs. |
Latence de CDC résultant d’une journalisation excessive. | Correction d’un problème lié à une source PostgreSQL : une journalisation excessive des avertissements du plug-in pglogical provoquait une latence de CDC source. |
Gestion de la réplication bidirectionnelle de Create Table DDL | Correction d’un problème lié à la réplication bidirectionnelle de PostgreSQL vers PostgreSQL : la modification Create Table DDL n’était pas correctement répliquée. |
Échec de CDC lors de l’utilisation de filtres | Correction d’un problème lié à la fonctionnalité de filtrage : la réplication CDC échouait. |
Validation du nom d’hôte de l’autorité de certification pour les points de terminaison Kafka | Amélioration de la fonctionnalité des points de terminaison Kafka en ajoutant l’option permettant de désactiver la validation du nom d’hôte de l’autorité de certification (SslEndpointIdentificationAlgorithm ). |
Validation d’IBM Db2 LUW | Problème résolu : les types de données de date source, d’horodatage et d’heure de DB2 LUW n’étaient pas gérés correctement lors de la validation des données. |
Validation S3 | Correction d’un problème lié aux migrations de DB2 LUW vers S3 : la fonctionnalité de validation ne gérait pas correctement le type de données timestamp(0). |
Échec du redémarrage de la tâche DMS | Correction d'un problème lié à la source PostgreSQL en raison duquel AWS DMS la tâche ne redémarrait pas et ne pouvait pas consommer d'événements relationnels lors de l'utilisation du plugin pglogical. |
Validation du type de données HIERARCHY par SQL Server | Correction d’un problème lié à une source SQL Server : la validation du type de données HIERARCHY échouait. |
Chaînes SQL Server avec caractères de contrôle | Correction d’un problème lié à une source SQL Server : les chaînes contenant des caractères de contrôle n’étaient pas répliquées correctement. |
Amazon Redshift avec Secrets Manager | Correction d'un problème lié à la cible Amazon Redshift en raison duquel le test du point de terminaison échouait lors de l'utilisation de Secrets Manager. |
Incohérence ParallelLoadThreads des paramètres MySQL | Correction d’un problème lié à une cible MySQL : le paramètre ParallelLoadThreads n’était pas correctement conservé après la modification des paramètres de tâche. |
Erreur liée au mappage des types de données de PostgreSQL vers Oracle | Correction d'un problème lié aux migrations de PostgreSQL vers Oracle en raison duquel la tâche échouait lors de la réplication du type de données TEXT vers le type de données (2000). VARCHAR2 |
Validation des données d’Oracle vers PostgreSQL | Correction d’un problème lié aux migrations d’Oracle vers PostgreSQL : la validation des données signalait des faux positifs lorsque des caractères NULL étaient répliqués sous forme de caractères ESPACE. |
Source SQL Server dans la AlwaysOn configuration | Correction d'un problème lié à la AlwaysOn configuration de la source SQL Server, qui entraînait l'échec de la AWS DMS tâche lorsque le nom de la réplique ne correspondait pas exactement au nom du serveur réel. |
Échec des tests de point de terminaison dans la source Oracle | Correction d'un problème lié à la source Oracle en raison duquel le test de connexion du point de AWS DMS terminaison échouait en raison de privilèges insuffisants lors de la récupération de l'ID de session Oracle (SID). |
La CDC ne sélectionne pas de nouvelles tables | Correction d’un problème lié aux tâches de CDC uniquement : les tables créées sur la source après le démarrage de la tâche n’étaient pas répliquées dans certains cas. |
Transactions ouvertes dans Oracle en tant que source | Amélioration la méthodologie de gestion des transactions ouvertes lors du démarrage d’une tâche de CDC uniquement à partir de la position de départ pour une source Oracle. |
Problème de données manquantes | Problème résolu : données manquantes lors de la reprise d’une tâche si celle-ci était arrêtée après l’application des modifications mises en cache (option StopTaskCachedChangesApplied définie sur true). Ce problème peut se produire rarement si les modifications mises en cache sur le disque de l'instance de AWS DMS réplication AWS DMS persistent en raison d'un volume élevé de modifications sur la source. |
Problème de validation des données lié au type de données étendu | Correction d’un problème lié à la validation des données de PostgreSQL vers Oracle : la validation échouait pour les types de données étendus. |
Problème de validation des données lors d’un codage de caractères incohérent | Correction d’un problème lié à la validation des données de SQL Server vers PostgreSQL : la validation échouait lorsque le codage des caractères n’était pas cohérent entre la source et la cible. |
Problème de validation des données ORA-01455 | Problème résolu : une erreur ORA-01455 se produisait au cours de la validation lors du mappage d’un integer PostgreSQL sur un number(10) Oracle. |
Prise en charge de la propriété IDENTITY SQL Server |
Correction d’un problème lié à la réplication de données de SQL Server vers SQL Server : la migration des colonnes d’identité échouait quand la colonne cible avait la propriété IDENTITY . |
Problème de jeu de caractères avec les instructions ALTER | Correction d'un problème de réplication MySQL vers MySQL qui AWS DMS changeait le jeu de caractères en UTF16 lors de la migration d'une ALTER instruction pendant le CDC. |
Prise en charge des types de données PostgreSQL vers Amazon Redshift Spatial | Ajout de la prise en charge du type de données spatial lors de la migration de PostgreSQL vers Amazon Redshift. |
Compression GZIP des fichiers .parquet | Correction d'un problème qui AWS DMS empêchait de générer des fichiers .parquet avec une compression GZIP avec S3 comme cible. |
Migration des sources MongoDB/DocDB | Correction d'un problème AWS DMS empêchant la migration de certaines partitions depuis une source MongoDB. |
Problème de statistiques de table | Problème résolu : les statistiques de table n’étaient pas affichées lorsqu’au moins une des tâches de l’instance de réplication contenait plus de 1001 tables. |
Table suspendue pour IBM Db2 LUW versions 10.1.0 et antérieures | Correction d’un problème lié à une source DB2 LUW : la migration des tables était suspendue avec l’erreur TYPESTRINGUNITS is not valid quand la version de la base de données source était 10.1.0 ou antérieure. |
Problème de partitionnement MongoDB | Correction d’un problème lié à MongoDB/DocDB : un ou plusieurs segments de la partition source manquaient. |
Problème de partitionnement MongoDB | Correction d'un problème d'échec de la segmentation basée sur une colonne de type NumberLong () en raison d'un bogue de conversion de type. |
Problème de partitionnement MongoDB | Performances de segmentation automatique améliorées pour les jeux de données volumineux avec MongoDB en tant que source. |
Version de pilote MongoDB | Le pilote MongoDB a été rétrogradé à la version 1.20.0 pour continuer à prendre en charge MongoDB versions 3.6 et antérieures. |
Type de données d’horodatage Amazon S3 Apache Parquet | Correction d'un problème pour Amazon S3 Parquet Target. AWS DMS définit désormais le paramètre de format isAdjustedToUTC true pour qu'il corresponde au comportement des versions précédentes de AWS DMS. |
Commande de copie d’Amazon Redshift en tant que cible | Correction d’un problème lié à Amazon Redshift en tant que cible : la commande de copie échouait pour des tables volumineuses lors de la copie de données d’Amazon S3 vers Amazon Redshift. |
Types de données de géométrie PostgreSQL | Correction d’un problème lié aux migrations de PostgreSQL vers PostgreSQL : la migration échouait sur des types de données de géométrie volumineuse. |
XML d’Oracle vers PostgreSQL | Problème résolu : la migration ajoutait un espace supplémentaire sur le XML lors de la réplication d’Oracle vers PostgreSQL. |
Mise à jour du point de contrôle cible dans les moteurs pris en charge | AWS DMS met désormais à jour le point de contrôle cible dans la awsdms_txn_state table de la base de données cible. |
Enregistrements MongoDB/DocDB envoyés à la mauvaise collection | Correction d’un problème lié à MongoDB/DocDB : les données étaient envoyées à la mauvaise collection cible. |
Sélection d'une nouvelle table source Oracle avec paramètre de point de EscapeCharacter terminaison | Correction d'un problème lié à la source Oracle qui ne AWS DMS récupérait de nouvelles tables à répliquer que lorsque la tâche était arrêtée et reprise alors que le paramètre du EscapeCharacter point de terminaison était défini. |
Point de contrôle de récupération CDC | Incohérence corrigée dans le point de contrôle de récupération CDC observée entre l’entrepôt de données cible et la console AWS DMS . |
Tâches de validation CDC uniquement | Correction d’un problème lié aux tâches de validation CDC uniquement : la tâche n’échouait pas, même si toutes les tables de la tâche rencontraient des échecs. |
Comportement de la validation en cas de problèmes de connexion source ou cible | Correction d'un problème de validation des données qui AWS DMS entraînait la suspension des tables sur la source ou la cible en cas d'interruption de la connexion. |
Faux positifs de validation des données d’Oracle vers PostgreSQL | Correction d'un problème lié à la validation AWS DMS des données entre Oracle et PostgreSQL qui signalait des faux positifs. Ce problème était dû aux différences de représentation des caractères NULL sources sur la cible qui n’étaient pas prises en compte avec des types de données textuels autres que VARCHAR. |
Troncation des données d’Oracle vers PostgreSQL | Correction d’un problème avec Oracle en tant que source et PostgreSQL en tant que cible : AWS DMS tronquait les données des colonnes NVARCHAR avec le paramètre Oracle NLS_NCHAR_CHARACTERSET défini sur AL16UTF16 . |
Erreur de validation des données | Correction d’un problème lié à la validation des données : une erreur unable to create where filter clause était générée lorsque le filtrage de la source et une règle de transformation d’ajout de colonne étaient utilisés. |
Gestion des erreurs cibles d'Amazon Redshift | Correction d'un problème lié à Amazon Redshift en tant que cible, à cause duquel la gestion des erreurs ne fonctionnait pas comme elle avait été configurée lorsque le paramètre de tâche de la ParallelApplyThreads tâche CDC était défini sur une valeur supérieure à zéro. |
Échec de communication d’Oracle en tant que source | Correction d’un problème lié à Oracle en tant que source : la tâche restait dans l’état RUNNING mais n’était pas en mesure de migrer les données après un échec de communication. |
Table CDC suspendue avec filtres de colonnes | Correction d’un problème lié aux tâches Chargement complet + CDC : une table était suspendue pendant la phase CDC lorsque des filtres de colonnes étaient appliqués. |
Échec de validation des données de S3 en tant que cible pour des caractères spéciaux | Correction d’un problème lié à la validation des données cibles S3 : la tâche échouait si le nom de la table incluait un caractère spécial autre qu’un trait de soulignement. |
Échec du chargement complet et CDC de la source MongoDB | Correction d’un problème lié à MongoDB en tant que source : une tâche Chargement complet + CDC échouait lors de la gestion des événements de cache lors de la migration d’une collection volumineuse. |
Problème de mise à niveau avec BatchApplyEnabled défini sur true |
Problème résolu : dans certains cas, une tâche dont le paramètre de BatchApplyEnabled tâche était défini sur true échouait après la migration de AWS DMS la version 3.4.6 vers la version 3.5.1. |
AlwaysOn Source SQL Server avec classement distinguant majuscules et minuscules | Correction d'un problème lié à SQL Server AlwaysOn en tant que source en raison duquel une tâche échouait en cas de classement distinguant majuscules et minuscules. |
Suspension de tâche source MySQL | Correction d’un problème lié à MySQL en tant que source : une tâche était suspendue au lieu d’échouer lorsque la source n’était pas correctement configurée. |
Échec de tâche de chargement complet de source S3 | Correction d'un problème lié à S3 en tant que source, à cause duquel une tâche échouait à la reprise après la mise à niveau de AWS DMS la version 3.4.6 ou 3.4.7 vers la version 3.5.1. |
Source PostgreSQL avec DDLs Capture défini sur false | Correction d'un problème lié à PostgreSQL en tant que source en raison DDLs duquel le paramètre de point de terminaison défini sur false n'était pas correctement géré. CaptureDDLs |
Blocage de la tâche source Oracle pendant la reprise | Correction d’un problème lié à Oracle en tant que source : une tâche s’interrompait à sa reprise en raison de données incorrectes dans le nom de colonne. |
Échec de la recherche d’objets LOB dans la source MySQL | Correction d’un problème lié à MySQL en tant que source : une recherche d’objets LOB échouait lorsque le paramètre de tâche ParallelApplyThreads était défini sur une valeur supérieure à zéro. |
Erreur LSN illogique dans la source SQL Server | Correction d'un problème lié à SQL Server en tant que source, à cause duquel une tâche échouait avec une illogical LSN sequencing state error erreur après la mise à niveau de AWS DMS la version 3.4.7 vers la version 3.5.1. |
Source PostgreSQL avec pglogical | Correction d’un problème lié à PostgreSQL en tant que source : une tâche utilisant le plug-in pglogical échouait quand la tâche était arrêtée, qu’une table était supprimée des règles de sélection, que la tâche était reprise et que des modifications étaient apportées à la table supprimée. |
Point de contrôle de récupération Aurora MySQL incorrect. | Correction d’un problème lié à Aurora MySQL en tant que source : un point de contrôle de récupération incorrect était enregistré à la suite d’un basculement d’Aurora ou d’un arrêt et d’un redémarrage de la source Aurora. |
SQL Server en tant que tâche source se bloque. | Correction d’un problème lié à SQL Server en tant que source : une tâche se bloquait lorsque SafeguardPolicy était défini sur RELY_ON_SQL_SERVER_REPLICATION_AGENT . |
Conversion de type de données incorrecte avec MySQL comme cible | Correction d’un problème lié à MySQL en tant que cible : la réplication CDC échouait en raison d’une conversion de type de données incorrecte lors de la phase batch-apply. |
Échec de tâche lorsque Capture DDLs est défini sur false pour PostgreSQL en tant que source. | Correction d’un problème lié à PostgreSQL en tant que source : une tâche échouait parce qu’un DDL était traité comme un DML lorsque le paramètre du point de terminaison CaptureDDLs était défini sur false . |
Blocage pour cause de collection MongoDB vide | Correction d’un problème lié à MongoDB en tant que source : la tâche se bloquait en raison d’une collection vide. |
Amazon Redshift en tant que cible : plantage d'une tâche à chargement complet | Correction d'un problème lié à Amazon Redshift en tant que cible, à cause duquel une tâche se bloquait pendant la phase de chargement complet lorsque la table de contrôle des points de restauration était activée. |
S3 vers S3 : pas de mouvement de données. | Correction d'un problème de réplication S3 vers S3 qui AWS DMS empêchait de répliquer les données si elles n'bucketFolder étaient pas spécifiées. |
Latence de la CDC avec GlueCatalogGeneration défini sur true |
Correction d’un problème lié à S3 en tant que cible : une latence excessive se produisait lorsque GlueCatalogGeneration était défini sur true . |
Oracle en tant que cible : troncature des données | Correction d'un problème lié à Oracle en tant que cible où AWS DMS les données étaient tronquées en VARCHAR2 colonnes. |
Comportement du caractère générique « _ » dans PostgreSQL | Correction d’’un problème lié à PostgreSQL en tant que source : le comportement du caractère générique « _ » dans les règles de sélection ne fonctionnait pas comme indiqué. |
PostgreSQL en tant que source : problème d’en-tête WAL vide. | Correction d’un problème lié à PostgreSQL en tant que source : la tâche échouait en raison d’un en-tête WAL vide reçu de l’emplacement de réplication. |
MySQL ou MariaDB en tant que source avec des journaux binaires compressés | Correction d'un problème pour MySQL et MariaDB en tant que sources où aucun message d'erreur approprié n'était émis AWS DMS lors de la détection d'une compression BINLOG. |
Validation des données S3 : caractères spéciaux | Amélioration de la validation des données S3 pour gérer les caractères spéciaux dans les colonnes de clés primaires et non primaires. |
Entrées trompeuses du journal des tâches ayant pour cible Amazon Redshift. | Correction d'un problème concernant Amazon Redshift en tant que cible en raison de la présence d'entrées trompeuses dans le journal des tâches signalant l'échec de l'application par lots des instructions UPDATES et DELETES. |
Blocage de la tâche de migration de SQL Server vers S3 | Correction d’un problème lié aux migrations de SQL Server vers S3 : la tâche se bloquait lors de l’application des modifications mises en cache. |
Données manquantes sur les erreurs batch-apply | Correction d’un problème lié à la fonctionnalité batch-apply : une erreur dans l’application d’un lot entraînait une absence de données. |
Amélioration de la journalisation pour la source SQL Server | Journalisation améliorée pour la source SQL Server afin d'inclure la valeur de l'unité de stockage. Journalisation améliorée de la source SQL Server dans la AlwaysOn configuration afin d'indiquer correctement les autorisations manquantes. |
Amélioration de la journalisation pour Kafka Target | Plusieurs améliorations de journalisation ont été introduites pour offrir une meilleure visibilité et des capacités de résolution des problèmes à la cible de Kafka. |
Amélioration de la journalisation pour Oracle Source. | Journalisation améliorée pour les sources Oracle avec lecteur binaire afin d'indiquer correctement les tables ignorées en raison de clés primaires manquantes. |
Amélioration de la journalisation pour les migrations avec DDL désactivé | Journalisation améliorée pour les migrations avec réplication DDL désactivée afin d'indiquer une structure de table cible inattendue après sa modification en dehors de AWS DMS. |
Amélioration de la journalisation pour la capture des sources en pause. | Journalisation améliorée pour mieux expliquer la situation de capture de source interrompue. |
Amélioration de la journalisation pour le AWS DMS swap | Journalisation améliorée pour indiquer quand une lecture AWS DMS est effectuée à partir de fichiers d'échange internes. |
Amélioration de la journalisation pour Amazon Redshift Target | Journalisation améliorée pour Amazon Redshift Target afin d'inclure des informations plus détaillées dans le niveau de journalisation par défaut. |
Amélioration de la journalisation pour le gestionnaire de métadonnées | Journalisation améliorée pour signaler les problèmes liés aux métadonnées des tables au niveau de journalisation des informations afin de simplifier le dépannage. |
Amélioration de la validation des données pour Amazon Redshift Target | Amélioration de la fonctionnalité de validation des données pour Amazon Redshift Target afin de prendre en charge HandleCollationDiff le paramétrage. |
Option de revalidation des données non disponible | Correction d'un problème lié à la fonctionnalité de validation des données en raison duquel l'option de revalidation n'était pas disponible dans certaines situations. |
Problème de rechargement des tables | Correction d'un problème en raison duquel le rechargement de plusieurs tables était annulé lorsqu'au moins l'une des tables n'était pas valide. |
Problème de migration JSON de MySQL vers Amazon Redshift. | Correction d'un problème pour la source MySQL en raison duquel le type de données JSON n'était pas géré correctement lorsque Batch Apply était activé. |
Problème de filtrage des colonnes | Correction d'un problème lié à la fonction de filtrage des colonnes en raison duquel les filtres n'étaient pas appliqués correctement aux nouvelles colonnes pendant FL. |
Problème de source DB2 LUC avec les règles de sélection. | Correction d'un problème pour la source DB2 LUW où l'option « type de table » dans les règles de sélection était ignorée. |
Problème de validation des données avec les tâches filtrées. | Correction d'un problème lié à la fonctionnalité de validation des données en raison duquel les filtres n'étaient pas respectés lors de la validation des données. |
Problème de migration LOB | Correction d'un problème de migration LOB à cause duquel la AWS DMS tâche se bloquait lors du traitement de certains types d'événements. |
Problème de validation des données | Correction d'un problème lié à la fonctionnalité de validation des données en raison duquel la tâche de validation uniquement était suspendue à certains événements DDL. |
Problème de validation des données avec les filtres | Correction d'un problème lié à la fonctionnalité de validation des données en raison duquel le HandleCollationDiff paramètre n'était pas appliqué lorsque des filtres étaient présents |
Problème d' SourceEnum encodage MySQL. | Correction d'un problème pour la source MySQL où les valeurs d'énumération codées en UTF-16 n'étaient pas migrées correctement. |
Problème de validation des données pour les migrations de SQL Server vers APG. | Correction d'un problème lié à la migration de SQL Server vers PostgreSQL, à cause duquel la validation des données signalait des faux positifs dans certaines situations. |
EmptyAsNull Un problème d'ECA pour Amazon Redshift cible le CDC | Correction d'un problème pour la cible Amazon Redshift à cause duquel l' EmptyAsNull ECA ne fonctionnait pas correctement. |
Problème de fuite de mémoire | Correction d'un problème à cause duquel la tâche DMS affichait une fuite de mémoire pour les cibles utilisant des fichiers CSV pour charger des données. |
Règles de transformation avec validation des données | Correction d'un problème lié à la fonctionnalité de validation des données en raison duquel les règles de transformation étaient ignorées lorsque des règles de remplacement existaient. |
Problème cible S3 | Correction d'un problème concernant la cible Amazon S3 selon lequel CdcMaxBatchInterval les paramètres n'CdcMinFileSize étaient pas respectés lorsque le cdcInsertAndUpdateOnly paramètre était activé. |
Problème cible MySQL | Correction d'un problème pour la cible MySQL en raison duquel des métadonnées de colonne corrompues pouvaient potentiellement provoquer un blocage des AWS DMS tâches et/ou une perte de données. |
Problème de validation des données | Correction d'un problème lié à la fonctionnalité de validation des données en raison duquel le processus de validation était interrompu prématurément en cas de suspension de table. |
Problème d'application par lots Oracle Target | Correction d'un problème pour Oracle Target à cause duquel la AWS DMS tâche se bloquait lorsque Batch Apply était activé. |
Problème de validation des données cibles d'Amazon S3. | FIxed un problème lié à la validation des données cibles d'Amazon S3, où la tâche échouerait car Athena ne stockait pas correctement les noms des tables. |
Problème avec MongoDB et Amazon DocumentDB Secret Manager. | Correction d'un problème pour les points de terminaison MongoDB et Amazon DocumentDB en raison duquel les informations d'identification ne pouvaient pas être récupérées depuis Secret Manager, ce qui provoquait une erreur. |
Problème de validation des données Oracle qui ne s'achève jamais. | Correction d'un problème lié à la validation des données Oracle qui empêchait la validation de certaines tables. |
Problème de blocage de la validation des données | Correction d'un problème lié à la fonctionnalité de validation des données qui bloquait la validation de certaines tables en raison d'une allocation de mémoire insuffisante. |
Problème de blocage de la tâche cible Amazon S3 | Correction d'un problème pour la cible Amazon S3 où la AWS DMS tâche se bloquait après avoir reçu une modification du DDL de table lorsqu'elle était GlueCatalogGeneration activée. |
Problème de validation des données | Correction d'un problème lié à la fonctionnalité de validation des données en raison duquel la validation échouait sur les NUL (0x00) caractères. |
Problème avec le terminal Babelsifh | Correction d'un problème pour le point de terminaison Babelfish où les noms de tables contenant des majuscules et minuscules étaient suspendus. |
Amazon Redshift cible le problème des données manquantes | Correction d'un problème lié à la cible Amazon Redshift qui entraînait une perte de données lorsque la valeur ParallelLoadThreads était supérieure à 0 dans certaines conditions. |
Problème de validation des données cibles d'Amazon S3 | Correction d'un problème lié à la validation des données cibles d'Amazon S3, en raison duquel la validation échouait lorsqu'il n'y avait aucune autre colonne que le PK dans le tableau. |
CloudWatch Métriques de validation des données | Correction d'un problème lié à la fonctionnalité de validation des données en raison duquel les CloudWatch métriques manquaient lors de la validation, ce qui prenait peu de temps. |
Problème de fuite de mémoire lors d'une application par lots | Correction d'un problème de fuite de mémoire lié à la fonctionnalité d'application par lots qui se produisait dans certaines conditions. |
AWS DMS problème de démarrage de tâche | Correction d'un problème à cause duquel le démarrage d'une AWS DMS tâche prenait beaucoup de temps et ne se terminait jamais. |
Problème de données manquantes dans la source PostgreSQL | Correction d'un problème lié à la source PostgreSQL qui provoquait une perte de données en raison d'événements inconnus dans le slot de réplication. |
Problème de perte de données cible sur Amazon S3 | Correction d'un problème pour la cible Amazon S3 où l'échec de la recherche LOB entraînait une perte de données. |
AWS Notes de mise à jour de Database Migration Service 3.5.0 bêta
Important
AWS DMS 3.5.0 est une version bêta du moteur d'instance de réplication. AWS DMS supporte cette version de la même manière que toutes les versions précédentes. Mais nous vous recommandons de tester la version AWS DMS 3.5.0 bêta avant de l'utiliser à des fins de production.
Le tableau suivant présente les nouvelles fonctionnalités et améliorations introduites dans la version 3.5.0 bêta de AWS Database Migration Service (AWS DMS).
Nouvelle fonction ou amélioration | Description |
---|---|
Voyage dans le temps pour Oracle et Microsoft SQL Server | Vous pouvez désormais utiliser Time Travel dans toutes les AWS régions avec des points de terminaison sources Oracle, Microsoft SQL Server et PostgreSQL compatibles avec le DMS, et des points de terminaison cibles PostgreSQL et MySQL compatibles avec le DMS. |
Validation S3 | AWS DMS prend désormais en charge la validation des données répliquées dans les points de terminaison cibles Amazon S3. Pour en savoir plus sur la validation des données cibles Amazon S3, consultez Validation des données cibles Amazon S3. |
Intégration du catalogue Glue | AWS Glue est un service qui fournit des méthodes simples pour classer les données et consiste en un référentiel de métadonnées appelé AWS Glue Data Catalog. Vous pouvez désormais intégrer un AWS Glue Data Catalog à votre point de terminaison cible Amazon S3 et interroger les données Amazon S3 via d'autres AWS services tels qu'Amazon Athena. Pour de plus amples informations, veuillez consulter Utilisation AWS Glue Data Catalog avec une cible Amazon S3 pour AWS DMS. |
Application parallèle pour DocumentDB en tant que cible | L'utilisation de DocumentDB comme cible avec les nouveaux paramètres de ParallelApply* tâche permet AWS DMS désormais de prendre en charge un maximum de 5 000 enregistrements par seconde lors de la réplication CDC. Pour de plus amples informations, veuillez consulter Utilisation d'Amazon DocumentDB comme cible pour le service de migration de AWS base de données. |
Journalisation centrée sur le client | Vous pouvez désormais examiner et gérer les journaux des tâches de manière plus efficace avec AWS DMS la version 3.5.0. Pour plus d'informations sur l'affichage et la gestion des journaux des tâches AWS DMS, consultezAffichage et gestion des journaux AWS de tâches DMS. |
SASL_PLAIN mécanisme pour les points de terminaison cibles de Kafka | Vous pouvez désormais utiliser l' SASL_PLAINauthentification pour prendre en charge les points de terminaison cibles Kafka MSK. |
Réplication des transactions XA dans MySQL | Vous pouvez désormais utiliser les transactions XA sur votre source DMS MySQL. Avant DMS 3.5.0, les modifications DML appliquées dans le cadre des transactions XA n’étaient pas correctement répliquées. |
Types de données étendus Oracle | AWS DMS prend désormais en charge la réplication de types de données étendus dans Oracle version 12.2 et supérieures. |
Environnement DB2 LUW PureScale | AWS DMS prend désormais en charge la réplication depuis un environnement DB2 LUW. PureScale Cette fonctionnalité est prise en charge uniquement à l’aide de l’option Commencer le traitement des modifications à partir de la position de modification de source. |
Source SQL Server avec l’option READ_COMMITTED_SNAPSHOT |
Lorsque vous utilisez une base de données source Microsoft SQL Server dont l'READ_COMMITTED_SNAPSHOT option est définie surTRUE , vous pouvez répliquer correctement les modifications DML en définissant l'attribut de connexion forceDataRowLookup. |
AWS DMS La version 3.5.0 inclut les problèmes résolus suivants :
Rubrique | Résolution |
---|---|
Oracle : comparaison d’un cas spécial pour une chaîne qui a été convertie à partir du format numérique | Correction d’un problème lié à une source Oracle : les règles de filtrage ne fonctionnaient pas comme prévu pour une colonne numérique lorsqu’une transformation de type de données en chaîne existait pour cette colonne. |
Améliorations du groupe de disponibilité SQL Server sur site | Efficacité améliorée de la gestion des connexions avec la source SQL Server dans AlwaysOnla configuration en éliminant les connexions inutiles aux répliques qui ne sont pas utilisées par DMS. |
Conversion interne HIERARCHYID de SQL Server | Correction d’un problème lié à une source SQL Server : le type de données HIERARCHYID était répliqué en tant que VARCHAR(250) au lieu de HIERARCHYID vers la cible SQL Server. |
Correction de la tâche de déplacement de la cible S3 | Problème résolu : le déplacement d’une tâche avec une cible S3 prenait beaucoup de temps, semblait figé ou ne se terminait jamais. |
Mécanisme SASL Plain de Kafka | Introduction de la prise en charge de la méthode d’authentification SASL Plain pour le point de terminaison cible MSK Kafka. |
Le chargement/l’application en parallèle échoue à cause du paramètre _type avec Opensearch 2.x | Correction d’un problème lié à une cible Opensearch 2.x : le chargement parallèle ou l’application parallèle échouaient en raison de l’absence de prise en charge du paramètre _type. |
Prise en charge du filtre de mappage de tables avec opérateurs mixtes | Suppression d’une limitation selon laquelle un seul filtre pouvait être appliqué à une colonne. |
Points de terminaison S3, Kinesis et Kafka : migration des colonnes lob basée sur Alter dans la phase CDC | Correction d’un problème lié aux cibles Kinesis, Kafka et S3 : les données des colonnes LOB ajoutées pendant la CDC n’étaient pas répliquées. |
Mise à niveau du pilote MongoDB | Le pilote MongoDB a été mis à niveau vers v1.23.2. |
Mise à jour du pilote Kafka | Le pilote Kafka a été mis à jour de la version 1.5.3 à la version 1.9.2. |
Fonctionnement incorrect d’un paramètre de point de terminaison S3 | Correction d’un problème lié à une cible S3 : le paramètre de point de terminaison AddTrailingPaddingCharacter ne fonctionnait pas lorsque les données contenaient le caractère spécifié comme séparateur pour la cible S3. |
Blocage de la tâche cible Kinesis | Correction d’un problème lié à une cible Kinesis : une tâche s’interrompait quand la valeur PK était vide et que le débogage détaillé était activé. |
Décalage d’une position des noms des colonnes des cibles S3 | Correction d’un problème lié à une cible S3 : les noms des colonnes étaient décalés d’une position quand AddColumnName était défini sur true et TimestampColumnName était défini sur "" . |
Journalisation améliorée des avertissements de troncation de LOB | Amélioration de la journalisation des avertissements en cas de troncation du LOB pour la source SQL Server afin d’inclure l’instruction select utilisée pour récupérer le LOB. |
Ajout d’une erreur fatale pour éviter les interruptions des tâches DMS si le mot de passe TDE est erroné | Introduction d’un message d’erreur significatif et élimination du problème de défaillance de tâche dans les situations où la tâche DMS échouait sans message d’erreur en raison d’un mot de passe TDE incorrect pour Oracle en tant que source. |
Autorisation de la migration de la DDL PostgreSQL CTAS (Create Table As Select) pendant la CDC. | Suppression des limitations empêchant DMS de répliquer le CTAS de PostgreSQL (créer une table telle que sélectionnée) pendant le CDC. DDLs |
Correction de la défaillance de la tâche pg_logical lors de la suppression de colonnes d’une table pendant la CDC | Correction d'un problème lié à la source PostgreSQL avec cible S3, à cause duquel les colonnes étaient mal alignées sur la cible lorsque la prise en charge de était désactivée et qu'elles étaient LOBs présentes. LOBs |
Correction d’une fuite de mémoire dans la gestion des connexions MySQL | Correction d’un problème lié à une source MySQL : la consommation de mémoire des tâches augmentait continuellement. |
Paramètre de point de terminaison dans la source Oracle : ConvertTimestampWithZoneToUTC |
Définissez cet attribut sur true pour convertir la valeur d’horodatage des colonnes « TIMESTAMP WITH TIME ZONE » et « TIMESTAMP WITH LOCAL TIME ZONE » au format UTC. Par défaut, la valeur de cet attribut est « false » et les données sont répliquées en utilisant le fuseau horaire de la base de données source. |
Source Oracle : DataTruncationErrorPolicy défini sur SUSPEND_TABLE ne fonctionne pas |
Correction d’un problème lié à une source Oracle avec cible S3 : les tables n’étaient pas suspendues alors que le paramètre de tâche DataTruncationErrorPolicy était défini sur SUSPEND_TABLE. |
Échec SQL Server sur un schéma long/une table longue lors de la génération de la clause de requête | Correction d’un problème lié à une source SQL Server : une tâche échouait ou ne répondait plus lorsque la règle de sélection contenait une liste de tables séparées par des virgules. |
Authentification Secret Manager avec le point de terminaison MongoDB | Correction d’un problème lié aux points de terminaison MongoDB et DocumentDB : l’authentification basée sur le gestionnaire de secrets ne fonctionnait pas. |
DMS tronquant les données pendant le CDC pour une colonne varchar multi-octets lorsque NLS_NCHAR_CHARACTERSET est défini sur UTF8 | Correction d'un problème lié à la source Oracle et à la cible Oracle où les données étaient tronquées pour les colonnes VARCHAR multi-octets avec NLS_NCHAR_CHARACTERSET défini sur. UTF8 |
filterTransactionsOfUser ECA pour Oracle LogMiner |
Ajout d'un attribut de connexion supplémentaire (ECA) filterTransactionsOfUser pour permettre à DMS d'ignorer les transactions d'un utilisateur spécifié lors de la réplication depuis Oracle à l'aide de. LogMiner |
Erreur récupérable de paramètre SQL Server quand un numéro LSN est absent de la sauvegarde | Correction d’un problème lié à SQL Server : une tâche n’échouait pas en cas d’absence de numéro LSN. |
AWS Notes de mise à jour du Database Migration Service 3.4.7
Le tableau suivant présente les nouvelles fonctionnalités et améliorations introduites dans la version 3.4.7 AWS de Database Migration Service (AWS DMS).
Nouvelle fonction ou amélioration | Description |
---|---|
Prise en charge de Babelfish en tant que cible |
AWS DMS prend désormais Babelfish en tant que cible. En utilisant AWS DMS, vous pouvez désormais migrer des données en direct depuis n'importe quelle source AWS DMS prise en charge vers un Babelfish, avec un minimum de temps d'arrêt. Pour de plus amples informations, veuillez consulter Utiliser Babelfish comme cible pour AWS Database Migration Service. |
Prise en charge des bases de données IBM Db2 z/OS en tant que source pour le chargement complet uniquement |
AWS DMS prend désormais en charge les bases de données IBM Db2 z/OS en tant que source. En utilisant AWS DMS, vous pouvez désormais effectuer des migrations en direct depuis les mainframes DB2 vers n'importe quelle cible AWS DMS prise en charge. Pour de plus amples informations, veuillez consulter Utilisation de bases de données IBM Db2 for z/OS comme source pour AWS DMS. |
Prise en charge des réplicas de lecture SQL Server en tant que source |
AWS DMS prend désormais en charge la réplication en lecture de SQL Server en tant que source. En utilisant AWS DMS, vous pouvez désormais effectuer des migrations en direct depuis SQL Server Read Replica vers n'importe quelle cible AWS DMS prise en charge. Pour de plus amples informations, veuillez consulter Utilisation d'une base de données Microsoft SQL Server comme source pour AWS DMS. |
Support aux EventBridge événements DMS |
AWS DMS prend en charge la gestion des abonnements aux événements à EventBridge l'aide d'événements DMS. Pour de plus amples informations, veuillez consulter Utilisation des EventBridge événements et des notifications Amazon dans AWS Database Migration Service. |
Prise en charge des points de terminaison sources et cibles de VPC |
AWS DMS prend désormais en charge les points de terminaison Amazon Virtual Private Cloud (VPC) en tant que sources et cibles. AWS DMS peuvent désormais se connecter à n'importe quel AWS service doté de points de terminaison VPC lorsque des routes explicitement définies vers les services sont définies dans leur VPC. AWS DMS NoteLes mises à niveau vers AWS DMS les versions 3.4.7 et supérieures nécessitent que vous configuriez d'abord AWS DMS pour utiliser des points de terminaison VPC ou pour utiliser des routes publiques. Cette exigence s'applique aux points de terminaison source et cible pour Amazon S3, Amazon Kinesis Data Streams AWS Secrets Manager, Amazon DynamoDB, Amazon Redshift et Amazon Service. OpenSearch Pour de plus amples informations, veuillez consulter Configuration des points de terminaison VPC en tant que points de terminaison source et AWS cible du DMS. |
Nouvelle version de PostgreSQL | PostgreSQL version 14.x est désormais pris en charge en tant que source et en tant que cible. |
Prise en charge d’Aurora sans serveur v2 en tant que cible |
AWS DMS prend désormais en charge Aurora Serverless v2 en tant que cible. En utilisant AWS DMS, vous pouvez désormais effectuer des migrations en direct vers Aurora Serverless v2. Pour plus d'informations sur AWS DMS les cibles prises en charge, consultezCibles pour la migration des données. |
Nouvelles versions d’IBM Db2 pour LUW |
AWS DMS prend désormais en charge les versions 11.5.6 et 11.5.7 d'IBM Db2 for LUW en tant que source. En utilisant AWS DMS, vous pouvez désormais effectuer des migrations en direct à partir des dernières versions d'IBM DB2 pour LUW. Pour plus d'informations sur AWS DMS les sources, voirSources pour la migration des données. Pour plus d'informations sur AWS DMS les cibles prises en charge, consultezCibles pour la migration des données. |
AWS DMS La version 3.4.7 inclut les comportements nouveaux ou modifiés suivants et les problèmes résolus suivants :
-
Vous pouvez désormais utiliser un format de date issu de la définition de table pour analyser une chaîne de données en un objet de date lorsque vous utilisez Amazon S3 en tant que source.
-
De nouveaux compteurs de statistiques de tables sont désormais disponibles :
AppliedInserts
,AppliedDdls
,AppliedDeletes
etAppliedUpdates.
-
Vous pouvez désormais choisir le type de mappage par défaut lorsque vous l'utilisez OpenSearch comme cible.
-
Le nouveau paramètre de point de
TrimSpaceInChar
terminaison pour Oracle, PostgreSQL SQLServer et les sources vous permet de spécifier s'il faut découper les données sur les types de données CHAR et NCHAR. -
Le nouveau paramètre de point de terminaison
ExpectedBucketOwner
pour Amazon S3 empêche toute tricherie lors de l’utilisation de S3 en tant que source ou cible. -
Pour RDS SQL Server, Azure SQL Server et SQL Server autogéré, DMS fournit désormais une configuration automatique de MS-CDC sur toutes les tables sélectionnées pour une tâche de migration avec ou sans CLÉ PRIMAIRE, ou avec un index unique tenant compte de la priorité d’activation de la réplication Microsoft sur les tables SQL Server autogérées avec CLÉ PRIMAIRE.
-
Ajout de la prise en charge de la réplication des opérations DDL de partition et de sous-partition Oracle lors des migrations Oracle homogènes.
-
Problème résolu : une tâche de validation de données s’interrompait avec une clé primaire composite lors de l’utilisation d’Oracle en tant que source et cible.
-
Correction d'un problème lié à la conversion correcte d'un type de caractère différent en booléen alors que la colonne cible était précréée en tant que booléen lors de l'utilisation d'Amazon Redshift comme cible.
-
PCorrection d’un problème qui provoquait la troncation des données pour les types de données
varchar
migrés envarchar(255)
en raison d’un problème ODBC connu lors de l’utilisation de PostgreSQL en tant que cible. -
Problème résolu : l’indicateur parallèle pour l’opération DELETE n’était pas respecté avec
BatchApplyEnabled
défini surtrue
etBatchApplyPreserveTransaction
défini surfalse
lors de l’utilisation d’Oracle en tant que cible. -
Le nouveau paramètre de point de terminaison
AddTrailingPaddingCharacter
d’Amazon S3 ajoute un remplissage aux données de chaîne lors de l’utilisation de S3 en tant que cible. -
Le nouveau paramètre de tâche
max_statement_timeout_seconds
prolonge le délai d’expiration par défaut des requêtes de point de terminaison. Ce paramètre est actuellement utilisé par les requêtes de métadonnées de point de terminaison MySQL. -
Lors de l’utilisation de PostgreSQL en tant que cible, un problème a été résolu : une tâche de CDC n’utilisait pas correctement les paramètres de la tâche de gestion des erreurs.
-
Correction d'un problème qui empêchait DMS d'identifier correctement le mode Redis OSS pour une instance Redis OSS Enterprise.
-
La prise en charge de l’attribut de connexion supplémentaire (ECA)
includeOpForFullLoad
a été étendue pour le format Parquet cible S3. -
Introduction d’un nouveau paramètre de point de terminaison PostgreSQL
migrateBooleanAsBoolean
. Lorsque ce paramètre est défini surtrue
pour une migration de PostgreSQL vers Amazon Redshift, un booléen est migré sous la forme varchar (1). Lorsqu’il est défini surfalse
, un booléen est migré comme varchar(15), ce qui est le comportement par défaut. -
Lors de l’utilisation d’une source SQL Server, un problème de migration lié au type de données
datetime
a été résolu. Cette correction résout le problème de l’insertion deNull
lorsque la précision est exprimée en millisecondes. -
Pour une source PostgreSQL avec PGLOGICAL, un problème de migration a été résolu lors de l’utilisation de pglogical et de la suppression d’un champ de la table source pendant la phase CDC : la valeur après le champ supprimé n’était pas migrée vers la table cible.
-
Correction d’un problème lié à la migration de SQL Server Loopback : la réplication bidirectionnelle obtenait des enregistrements répétés.
-
Ajout d’un nouvel attribut ECA
mapBooleanAsBoolean
pour PostgreSQL en tant que source. À l'aide de cet attribut de connexion supplémentaire, vous pouvez remplacer le mappage de type de données par défaut d'un booléen PostgressQL vers un type de données booléen. RedShift -
Correction d’un problème lié à la migration lors de l’utilisation de SQL Server en tant que source : ALTER DECIMAL/NUMERIC SCALE ne se répliquait pas sur les cibles.
-
Correction d’un problème de connexion avec SQL Server 2005.
-
Depuis le 17 octobre 2022, DMS 3.4.7 prend désormais en charge les classes d' EC2 instances Amazon de génération 6 pour les instances de réplication.
-
Depuis le 25 novembre 2022, avec DMS 3.4.7, vous pouvez convertir des schémas de base de données et des objets de code en utilisant la conversion de schéma DMS, et découvrir les bases de données de votre environnement réseau qui sont de bons candidats à la migration en utilisant DMS Fleet Advisor.
-
À compter du 25 novembre 2022, DMS Studio est retiré.
-
Depuis le 31 janvier 2023, la conversion de schéma DMS prend en charge Aurora MySQL et Aurora PostgreSQL en tant que fournisseur de données cible.
-
Depuis le 6 mars 2023, vous pouvez générer des recommandations cibles de taille adaptée pour vos bases de données sources avec DMS Fleet Advisor.
-
Depuis le 6 mars 2023, AWS DMS prend en charge la politique AWS gérée qui permet de publier des points de données métriques sur Amazon CloudWatch.
Rubrique | Résolution |
---|---|
Échec des tâches pour une source PostgreSQL | Correction d’un problème lié à une source PostgreSQL : les tâches échouaient en cas de dépassement du nombre maximal d’opérations DDL autorisées dans un même événement. |
Faux positifs de validation des données d’une source PostgreSQL | Correction d’un problème lié à une source PostgreSQL avec cible Oracle : une conversion incorrecte du champ d’horodatage entraînait des erreurs de validation des données de faux positifs. |
Gestion des erreurs d’une source MySQL | Correction d’un problème lié à une source MySQL : la tâche DMS n’échouait pas lorsque le prochain journal BIN n’était pas disponible. |
Journalisation de ROTATE_EVENT d’une source MySQL | Journalisation améliorée pour une source MySQL liée à ROTATE_EVENT : le nom du journal BIN en cours de lecture a été inclus. |
Problème de délai de validation des données | Correction d’un problème lié à la fonctionnalité de validation des données : le paramètre de point de terminaison executeTimeout n’était pas respecté pour les requêtes liées à la validation des données. |
Problème de chargement complet parallèle d’une cible PostgreSQL | Correction d’un problème lié à une cible PostgreSQL : le chargement complet segmenté (parallèle) échouait en raison d’une erreur de type « connexion interrompue ». |
Problème de déplacement de tâches DMS | Correction d’un problème lié à une cible S3 : une opération de déplacement de tâches DMS prenait beaucoup de temps ou ne se terminait jamais. |
Problème d’enregistrement dupliqué d’une source PostgreSQL | Correction d’un problème lié à une source PostgreSQL : une tâche DMS générait des erreurs liées à des doublons sur la cible après l’arrêt et la reprise d’une tâche. |
Faux positifs de validation des données d’une cible Oracle | Correction d’un problème lié à une cible Oracle : la validation des données signalait des erreurs de faux positifs dues à une réplication incorrecte du fuseau horaire pour les champs d’horodatage. |
Rubrique | Résolution |
---|---|
Réplicas de groupe de disponibilité SQL Server en tant que source | Ajout de la prise en charge de la source SQL Server dans les AlwaysOnconfigurations où le port TCP de l'écouteur était différent du port TCP de réplique. |
Perte de données avec Amazon Redshift en tant que cible | Correction d'un problème pour Amazon Redshift Target où, dans de rares cas, un redémarrage inattendu d'Amazon Redshift pouvait entraîner des données manquantes sur la cible. |
Prise en charge de la protection de la source SQL Server | Correction d’un problème lié à une source SQL Server : la tâche DMS pouvait échouer avec une erreur indiquant l’impossibilité de lire les sauvegardes du journal des transactions lorsque le paramètre de point de terminaison "SafeguardPolicy":
"EXCLUSIVE_AUTOMATIC_TRUNCATION" était spécifié. |
Échec de la tâche de validation des données pour Oracle en tant que source | Correction d’un problème lié à une source Oracle : la tâche DMS pouvait échouer lors de la validation des données en raison de valeurs de clé primaire mal identifiées. |
Problème de données d’image avec Kinesis | Correction d’un problème lié aux cibles de streaming (Kinesis, Kafka) : le paramètre de tâche "EnableBeforeImage" fonctionnait uniquement pour les types de données de caractère. |
Fichiers journaux de voyage dans le temps | Correction d’un problème lié à la fonctionnalité Voyage dans le temps : DMS créait des fichiers journaux de voyage dans le temps de zéro octet lorsque la source était inactive. |
Rubrique | Résolution |
---|---|
BatchApplyEnabled | Correction d'un problème de journalisation excessive lorsque le BatchApplyEnabled paramètre est défini sur True. |
Nouveau paramètre de point de terminaison MongoDB : FullLoadNoCursorTimeout | Le paramètre du point de terminaison MongoDB FullLoadNoCursorTimeout indique NoCursorTimeout le curseur de chargement complet. NoCursorTimeout est un paramètre de connexion MongoDB qui empêche le serveur de fermer le curseur en cas d'inactivité. |
MongoDB : fonction de filtre pour la segmentation sur une seule colonne | La nouvelle fonction de filtre améliore les performances de migration des bases de données MongoDB en utilisant une seule colonne pour la segmentation. |
MongoDB vers Amazon Redshift | Lors de la migration de MongoDB vers Amazon Redshift, si la collection MongoDB contient des données de type binaire, un problème en raison duquel DMS ne créait pas la table cible sur Amazon Redshift a été résolu. |
Nouvel attribut de connexion MongoDB SocketTimeout MS | Le nouvel attribut de connexion supplémentaire MongoDB SocketTimeout MS configure le délai de connexion pour les clients MongoDB en millisecondes. Si la valeur est inférieure ou égale à zéro, la valeur par défaut du client MongoDB est utilisée. |
Correction d’un problème à l’origine du blocage d’une tâche Amazon Kinesis | Lors de la migration vers Amazon Kinesis Data Streams en tant que cible, un problème a été résolu avec la gestion des valeurs null en l’absence de clé primaire dans la table. |
Prise en charge de la validation des données Oracle NULL PK/UK | Une limitation a été supprimée en raison de laquelle la validation des données des valeurs NULL PK/UK n’était pas prise en charge. |
D’Oracle à Amazon S3 | Lors de la migration d’Oracle vers Amazon S3, un problème a été résolu : certains enregistrements étaient migrés de façon incorrecte en tant que valeurs NULL. |
Oracle Standby | Lors de l’utilisation d’Oracle Standby en tant que source, la possibilité pour DMS de gérer les transactions ouvertes a été ajoutée. |
Migration d’Oracle vers Oracle avec le type de données spatiales SDO_GEOMETRY | Lors de la migration d’Oracle vers Oracle, un problème a été résolu : la tâche échouait si la table avait une colonne SDO_GEOMERY présente dans le DDL. |
Oracle en tant que source | Lors de l’utilisation d’Oracle en tant que source, un problème a été résolu : DMS ignorait parfois un numéro de séquence de journal redo Oracle. |
Oracle en tant que source : journaux redo en ligne/d’archivage manquants | Lors de l’utilisation d’Oracle en tant que source, un problème a été résolu qui empêchait la tâche DMS d’échouer si des journaux d’archivage étaient manquants. |
Problème corrigé : DMS ignorait parfois un journal redo Oracle Standby | Lors de l’utilisation d’Oracle en tant que source, un problème a été résolu : DMS ignorait parfois un numéro de séquence de journal redo Oracle. |
Problème corrigé : non-réplication des types de données spatiales d’Oracle vers Oracle pendant la CDC | Lors de la réplication d’Oracle vers Oracle, un problème a été résolu : les types de données spatiales n’étaient pas répliqués pendant la CDC. |
Oracle en tant que cible | Lors de l’utilisation d’Oracle en tant que cible, un problème a été résolu : l’application cible échouait avec l’erreur ORA-01747. |
Amazon S3 : perte de données corrigée lors du rechargement de table | Lors de l’utilisation d’Amazon S3 en tant que cible, un problème a été résolu : une opération de rechargement de table ne générait pas de fichiers CDC. |
Problème corrigé : initialisation du contexte SQL Server AlwaysOn en cas d’utilisation du serveur principal en tant que source | Lors de l'utilisation de SQL Server Always On comme source, résolution d'un problème qui empêchait d'initialiser les groupes de disponibilité (AG) si la source est principale et si elle AlwaysOnSharedSyncedBackupIsEnabled est définie sur true. |
Mise à jour du paramètre de point de terminaison SQL Server | Lorsqu'un point de terminaison source est le groupe de disponibilité SQL Server Always On et qu'il s'agit d'une réplique secondaire, le problème selon lequel la tâche de réplication échouait AlwaysOnSharedSynchedBackupsIsEnabled s'il était défini sur True a été résolu. |
PostgreSQL en tant que source | Correction d'un problème en raison duquel le CDC ne parvenait pas à migrer les opérations de suppression/mise à jour sur la source PostgreSQL, introduit dans la version 3.4.7 pour prendre en charge le booléen. mapBooleanAs |
AWS Notes de mise à jour du Database Migration Service 3.4.6
Le tableau suivant présente les nouvelles fonctionnalités et améliorations introduites dans la version 3.4.6 AWS de Database Migration Service (AWS DMS).
Nouvelle fonction ou amélioration | Description |
---|---|
AWS DMS Voyage dans le temps | AWS DMS introduit Time Travel, une fonctionnalité qui offre aux clients une flexibilité dans leurs capacités de journalisation et améliore leur expérience de dépannage. Avec Time Travel, vous pouvez stocker et chiffrer les AWS DMS journaux à l'aide d'Amazon S3, et les consulter, les télécharger et les masquer dans un certain laps de temps. |
Prise en charge de Microsoft Azure SQL Managed Instance en tant que source | AWS DMS prend désormais en charge l'instance gérée Microsoft Azure SQL en tant que source. En utilisant AWS DMS, vous pouvez désormais effectuer des migrations en direct depuis une instance gérée Microsoft Azure SQL vers n'importe quelle cible AWS DMS prise en charge. Pour plus d'informations sur AWS DMS les sources, voirSources pour la migration des données. Pour plus d'informations sur AWS DMS les cibles prises en charge, consultezCibles pour la migration des données. |
Prise en charge de Google Cloud SQL pour MySQL en tant que source | AWS DMS prend désormais en charge Google Cloud SQL pour MySQL en tant que source. En utilisant AWS DMS, vous pouvez désormais effectuer des migrations en direct depuis Google Cloud SQL pour MySQL vers n'importe quelle cible AWS DMS prise en charge. Pour plus d'informations sur AWS DMS les sources, voirSources pour la migration des données. Pour plus d'informations sur AWS DMS les cibles prises en charge, consultezCibles pour la migration des données. |
Prise en charge du chargement parallèle pour les données partitionnées vers S3 | AWS DMS prend désormais en charge le chargement parallèle des données partitionnées vers Amazon S3, ce qui améliore les temps de chargement pour la migration des données partitionnées depuis les données sources des moteurs de base de données compatibles vers Amazon S3. Cette fonctionnalité crée des sous-dossiers Amazon S3 pour chaque partition de la table dans la source de base de données, ce qui permet à AWS DMS d’exécuter des processus parallèles pour remplir chaque sous-dossier. |
Prise en charge de plusieurs rubriques cibles Apache Kafka en une seule tâche | AWS DMS supporte désormais les cibles multithématiques d'Apache Kafka avec une seule tâche. Avec AWS DMS, vous pouvez désormais répliquer plusieurs schémas d’une même base de données vers différentes rubriques cibles Apache Kafka en utilisant la même tâche. Cela élimine la nécessité de créer plusieurs tâches distinctes dans le cas où de nombreuses tables de la même base de données source doivent être migrées vers différentes rubriques cibles Kafka. |
Les problèmes résolus dans la version AWS DMS 3.4.6 sont les suivants :
-
Problème résolu : les colonnes des instructions UPDATE étaient remplies avec des colonnes incorrectes si la colonne de clé primaire n’était pas la première colonne lors de l’utilisation d’Amazon S3 en tant que cible au format CSV.
-
Correction d'un problème à cause duquel AWS DMS des tâches pouvaient se bloquer lors de l'utilisation du plugin pglogical avec des
NULL
valeurs dans desBYTEA
colonnes en mode LOB limité lors de l'utilisation de PostgreSQL comme source. -
Correction d'un problème en raison duquel AWS DMS les tâches pouvaient se bloquer lorsqu'un grand nombre de tables sources étaient supprimées lors de l'utilisation de PostgreSQL comme source.
-
Le partitionnement de dossier basé sur la date Amazon S3 a été amélioré en introduisant un nouveau paramètre Amazon S3
DatePartitionTimezone
permettant le partitionnement à des dates non-UTC. -
Prise en charge du mappage entre les types
TIMESTAMP WITH TIME ZONE
de données, des sources aux donnéesTIMESTAMPTZ
utilisées lors de l'utilisation d'Amazon Redshift comme cible -
Les performances de la CDC ont été améliorées pour les tâches sans règles de sélection de caractères génériques lors de l’utilisation de MongoDB ou d’Amazon DocumentDB en tant que source.
-
Problème résolu : les noms de schéma avec un caractère générique de trait de soulignement et une longueur inférieure à 8 n’étaient pas capturés par les tâches AWS DMS lors de l’utilisation de Db2 LUW en tant que source.
-
Correction d'un problème à cause duquel les AWS DMS instances manquaient de mémoire lorsque le volume de données était important lorsqu'elles utilisaient OpenSearch Service comme cible.
-
Les performances de validation des données ont été améliorées en prenant en charge les tâches de validation de chargement complet uniquement.
-
Correction d'un problème en raison duquel AWS DMS les tâches ne reprenaient pas après un basculement forcé lors de l'utilisation de Sybase comme source.
-
Correction d'un problème en raison duquel un avertissement était AWS DMS envoyé
Invalid BC timestamp was encountered in column
incorrectement.
Les problèmes résolus dans la publication de maintenance de DMS 3.4.6 incluent les suivants :
-
Problème résolu : une tâche s’interrompait quand le mode d’application en bloc était activé lors de l’utilisation d’Oracle en tant que source et cible.
-
Problème résolu qui empêchait une tâche de chargement complet d’utiliser correctement le paramètre de point de terminaison
ExecuteTimeout
avec PostgreSQL en tant que source. -
Correction d’un problème lié à la migration des colonnes de type de données Array lorsque la tâche est définie sur le mode LOB limité tout en utilisant PostgreSQL en tant que source.
-
Correction d’un problème lié à la migration des horodatages avec le fuseau horaire avant le 01/01/1970 lors de l’utilisation de PostgreSQL en tant que source.
-
Problème résolu : DMS traitait une chaîne vide comme une valeur Null au cours de la réplication lors de l’utilisation de SQL Server en tant que source et cible.
-
Correction d’un problème lié au respect des paramètres de point de terminaison de délai de lecture et d’écriture de session lors de l’utilisation d’une source/cible MySQL.
-
Problème résolu : une tâche DMS CDC téléchargeait des fichiers associés au chargement complet lors de l’utilisation d’Amazon S3 en tant que source.
-
Correction d’un problème de blocage de journalisation lorsque
CdcInsertsAndUpdates
etPreserveTransactions
étaient définis surtrue
lors de l’utilisation d’Amazon S3 en tant que cible. -
Correction d'un problème en raison duquel une tâche se bloquait lorsque la ParallelApply fonctionnalité* était activée, mais que certaines tables ne disposaient pas de clé primaire par défaut lors de l'utilisation d'Amazon Kinesis Data Streams comme source.
-
Correction d'un problème en raison duquel aucune erreur n'était indiquée pour une erreur StreamArn lors de l'utilisation d'Amazon Kinesis Data Streams comme source.
-
Correction d'un problème à cause duquel une valeur de clé primaire sous forme de chaîne vide provoquait le blocage d'une tâche lorsqu'elle OpenSearch était utilisée comme cible.
-
Problème résolu : trop d’espace disque était utilisé pour la validation des données.
Rubrique | Résolution |
---|---|
Pilote ODBC SAP ASE | Correction d’un problème lié à SAP ASE en tant que source afin que le pilote ODBC puisse prendre en charge les jeux de caractères. |
Bogue de clé primaire de type datetime de Sqlserver pour la recherche d’objets LOB |
Correction d’un problème lié à SQL Server en tant que source : la recherche d’objets LOB ne fonctionnait pas correctement pour une clé primaire de type datetime, avec une précision en millisecondes. |
SQL Server vers Amazon Redshift : « DateTimeOffset » mappé à « timestamptz » |
Pour les migrations de SQL Server vers Amazon Redshift, mappage amélioré afin que le format « datetimeoffset » de SQL Server soit mappé au format « timestamptz » d'Amazon Redshift. |
Validation des données : SkipLobColumns c'est vrai |
Correction d'un problème en raison duquel la tâche DMS se bloque lorsque la valeur SkipLobColumns est True, qu'un LOB figure sur la source, que la clé primaire se trouve dans la dernière colonne et qu'une différence de données est détectée par validation. |
Validation des données avec MySQL en tant que source |
Correction d’un problème lié à MySQL en tant que source avec la validation des données activée : un blocage de tâche DMS se produisait lors de l’utilisation d’une table contenant une clé unique composite contenant des valeurs null. |
MySQL en tant que source |
Correction d’un problème lié à MySQL en tant que source : une table était suspendue avec une erreur de dépassement de capacité lorsque les colonnes étaient modifiées pour augmenter la précision. |
Mise à niveau du pilote ODBC MySQL vers la version 8.0.23 |
Correction d’un problème lié à MySQL en tant que source : le classement « utf8mb4_0900_bin » était incompatible avec le pilote MySQL utilisé par DMS. |
MySQL : prise en charge des modifications de DDL pour les tables partitionnées |
Un nouveau paramètre de point de terminaison MySQL a été introduit pour permettre skipTableSuspension ForPartitionDdl à l'utilisateur d'ignorer la suspension des tables en cas de modification du DDL de partition pendant le CDC, de sorte que DMS peut désormais prendre en charge les modifications DDL pour les tables MySQL partitionnées. |
Migration de MongoDB vers Amazon Redshift |
Correction d'un problème lié aux migrations de MongoDB vers Amazon Redshift, à cause duquel DMS ne parvient pas à créer la table cible sur Amazon Redshift si la collection MongoDB contient des données de type binaire. |
Objectif Amazon Redshift : application groupée de la segmentation des voyages dans le temps |
Correction d'un problème concernant Amazon Redshift en tant que cible, à cause duquel la tâche DMS se bloquait alors qu'elle était définie sur true. BatchApplyEnabled |
Amazon Redshift comme cible |
Correction d'un problème concernant Amazon Redshift en tant que cible : lorsque le chargement parallèle était défini sur type=partitions-auto, les segments parallèles écrivaient des fichiers CSV en masse dans le même répertoire de tables et interféraient les uns avec les autres. |
Amazon Redshift comme cible |
Correction d'un problème lié à Amazon Redshift en tant que cible : pendant le CDC, la colonne cible était de type booléen tandis que la source était de type caractère variable. |
Amazon Redshift comme cible |
Le journal des tâches a été amélioré afin d'identifier une modification DDL qui ne parvient pas à être répliquée sur Amazon Redshift en tant que cible. |
Validation de données avec PostgreSQL |
Correction d’un problème lié à la validation avec PostgreSQL : la validation échouait lorsque des types de données booléens étaient présents. |
PostgreSQL en tant que source |
Correction d'un problème lié à PostgreSQL en tant que source, de sorte que le chargement complet utilisait le champ dans Attributs ExecuteTimeout de connexion supplémentaires. |
PostgreSQL en tant que source |
Correction d'un problème lié à PostgreSQL en tant que source, à savoir qu'une tâche échouait si sa LSNs lecture était supérieure au LSN de la tâche demandée pendant plus de 60 minutes pour indiquer qu'il s'agissait d'un problème lié au slot de réplication utilisé. |
PostgreSQL en tant que source : timestamptz avant le 01/01/1970 |
Correction d’un problème lié à PostgreSQL en tant que source : les données timestamptz avant le 01/01/1970 n’étaient pas migrées correctement pendant la CDC. |
PostgreSQL en tant que source |
Correction d’un problème lié à PostgreSQL en tant que source : DMS tronquait des valeurs de type character varying pendant la CDC. |
PostgreSQL en tant que source : reprise de la tâche arrêtée |
Correction d’un problème lié à PostgreSQL en tant que source : une ou plusieurs transactions étaient manquantes pendant la CDC lors de la reprise d’une tâche précédemment arrêtée. |
Amazon S3 en tant que cible |
Correction d'un problème lié à S3 en tant que cible, à cause duquel l'en-tête du fichier CSV obtenu était décalé d'une colonne lorsqu' AddColumnName il était vrai et qu' TimestampColumnName il était « ». |
Amazon S3 en tant que source : comportement d’utilisation de la mémoire pendant la phase de chargement complet de la tâche |
Correction d’un problème lié à S3 en tant que source : une tâche DMS dans le cadre du chargement complet ne libérait la mémoire utilisée qu’après le chargement de la table entière dans la base de données cible. |
Amazon S3 en tant que cible : opération de rechargement de table |
Correction d’un problème lié à S3 en tant que cible : une opération de rechargement de table ne générait pas les fichiers CDC. |
AWS Notes de mise à jour du Database Migration Service 3.4.5
Le tableau suivant présente les nouvelles fonctionnalités et améliorations introduites dans la version 3.4.5 AWS de Database Migration Service (AWS DMS).
Nouvelle fonction ou amélioration | Description |
---|---|
Support de Redis OSS en tant que cible | AWS DMS prend désormais en charge Redis OSS en tant que cible. En utilisant AWS DMS, vous pouvez désormais migrer des données en direct depuis n'importe quelle source AWS DMS prise en charge vers un magasin de données Redis OSS, avec un temps d'arrêt minimal. Pour plus d'informations sur AWS DMS les cibles, consultezCibles pour la migration des données. |
Prise en charge de MongoDB 4.2 et 4.4 en tant que sources | AWS DMS supporte désormais MongoDB 4.2 et 4.4 en tant que sources. Vous pouvez désormais migrer les données des clusters MongoDB 4.2 et 4.4 vers n'importe quelle cible AWS DMS prise en charge, y compris Amazon DocumentDB (compatible avec MongoDB), avec un temps d'arrêt minimal. AWS DMS Pour plus d'informations sur AWS DMS les sources, voirSources pour la migration des données. |
Prise en charge de plusieurs bases de données utilisant MongoDB en tant que source | AWS DMS prend désormais en charge la migration de plusieurs bases de données en une seule tâche en utilisant MongoDB comme source. En utilisant AWS DMS, vous pouvez désormais regrouper plusieurs bases de données d'un cluster MongoDB et les migrer à l'aide d'une seule tâche de migration de base de données. Vous pouvez migrer vers n'importe quelle cible AWS DMS prise en charge, y compris Amazon DocumentDB (compatible avec MongoDB), avec un temps d'arrêt minimal. |
Prise en charge de la segmentation automatique avec MongoDB ou Amazon DocumentDB (compatible avec MongoDB) en tant que source | AWS DMS prend désormais en charge la segmentation automatique en utilisant MongoDB ou Amazon DocumentDB comme source. À l'aide de AWS DMS, vous pouvez configurer des tâches de migration de base de données pour segmenter automatiquement la collection d'un cluster MongoDB ou DocumentDB. Vous pouvez ensuite migrer les segments en parallèle vers n'importe quelle cible AWS DMS prise en charge, y compris Amazon DocumentDB, avec un temps d'arrêt minimal. |
Amélioration des performances de chargement complet Amazon Redshift | AWS DMS prend désormais en charge l'utilisation de threads parallèles lors de l'utilisation d'Amazon Redshift comme cible pendant le chargement complet. En tirant parti des paramètres des tâches à chargement complet multithread, vous pouvez améliorer les performances de votre migration initiale depuis n'importe quelle source AWS DMS prise en charge vers Amazon Redshift. Pour plus d'informations sur AWS DMS les cibles, consultezCibles pour la migration des données. |
Les problèmes résolus dans la version AWS DMS 3.4.5 sont les suivants :
-
Problème résolu : les données pouvaient être manquantes ou dupliquées après reprise, lors de l’utilisation de PostgreSQL en tant que source avec un taux élevé de simultanéité des transactions.
-
Problème résolu : les tâches de migration de base de données échouaient avec l’erreur Could not find relation id … lors de l’utilisation de PostgreSQL en tant que source, avec le plug-in pglogical activé.
-
Problème résolu : les colonnes
VARCHAR
n’étaient pas répliquées correctement lors de l’utilisation de PostgreSQL en tant que source et d’Oracle en tant que cible. -
Problème résolu : les opérations de suppression n’étaient pas correctement capturées quand la clé primaire n’était pas la première colonne de la définition de table, lors de l’utilisation de PostgreSQL en tant que source.
-
Problème résolu : les tâches de migration de base de données omettaient les mises à jour des objets LOB dans un paramètre de métadonnées spécial lors de l’utilisation de MySQL en tant que source.
-
Problème résolu : les colonnes
TIMESTAMP
étaient traitées commeDATETIME
en mode LOB complet lors de l’utilisation de MySQL version 8 en tant que source. -
Problème résolu : les tâches de migration de base de données échouaient lors de l’analyse d’enregistrements
NULL DATETIME
lors de l’utilisation de MySQL 5.6.4 ou version ultérieure en tant que source. -
Problème résolu : les tâches de migration de base de données se bloquaient après avoir rencontré une erreur Thread is exiting lors de l’utilisation d’Amazon Redshift en tant que cible avec une application parallèle.
-
Problème résolu : une perte de données était possible quand les tâches de migration de base de données se déconnectaient d’un point de terminaison cible Amazon Redshift lors de l’application par lots de la CDC.
-
Amélioration des performances de chargement complet en appelant
ACCEPTINVCHARS
lors de l’utilisation d’Amazon Redshift en tant que cible. -
Correction d'un problème en raison duquel les enregistrements dupliqués étaient répliqués lors du passage du mode one-by-one au mode d'application parallèle en utilisant Amazon Redshift comme cible.
-
Problème résolu : les tâches de migration de base de données ne transféraient pas la propriété des objets Amazon S3 au propriétaire de compartiment avec
cannedAclForObjects=bucket_owner_full_control
lors de l’utilisation d’Amazon S3 en tant que cible. -
Amélioré AWS DMS grâce à la prise en charge de plusieurs destinations d'archivage avec ECA
additionalArchivedLogDestId
lors de l'utilisation d'Oracle comme source. -
Problème résolu : les tâches de migration de base de données échouaient avec l’erreur
OCI_INVALID_HANDLE
lors de la mise à jour d’une colonne LOB en mode LOB complet. -
Problème résolu : les colonnes
NVARCHAR2
n’étaient pas migrées correctement pendant la CDC lors de l’utilisation d’Oracle en tant que source. -
Amélioré AWS DMS par l'activation
SafeguardPolicy
lors de l'utilisation de RDS pour SQL Server comme source. -
Problème résolu : les tâches de migration de base de données signalaient une erreur sur
rdsadmin
lors de l’utilisation d’une source SQL Server autre que RDS. -
Problème résolu : la validation des données échouait avec l’UUID comme clé primaire dans un paramètre de partition lors de l’utilisation de SQL Server en tant que source.
-
Problème résolu : les tâches de chargement complet + CDC pouvaient échouer si le LSN requis était introuvable dans le journal de base de données lors de l’utilisation de Db2 LUW en tant que source.
-
Amélioré AWS DMS grâce à la prise en charge des horodatages CDC personnalisés lors de l'utilisation de MongoDB comme source.
-
Problème résolu : les tâches de migration de base de données se bloquaient en s’arrêtant lors de l’utilisation de MongoDB en tant que source et en cas d’erreurs du pilote MongoDB sur
endSessions
. -
Correction d'un problème qui empêchait AWS DMS de mettre à jour les champs non principaux lors de l'utilisation de DynamoDB comme cible
-
Problème résolu : la validation des données signalait des incohérences de faux positifs sur les colonnes
CLOB
etNCLOB
. -
Problème résolu : la validation des données échouait sur les enregistrements contenant uniquement des espaces lors de l’utilisation d’Oracle en tant que source.
-
Problème résolu : les tâches de migration de base de données s’interrompaient lors de la troncation d’une table partitionnée.
-
Problème résolu : les tâches de migration de base de données échouaient lors de la création de la table de contrôle
awsdms_apply_exceptions
. -
Prise en charge étendue du plug-in d’authentification
caching_sha2_password
lors de l’utilisation de MySQL version 8.
AWS Notes de mise à jour du Database Migration Service 3.4.4
Le tableau suivant présente les nouvelles fonctionnalités et améliorations introduites dans AWS DMS version 3.4.4.
Nouvelle fonction ou amélioration | Description |
---|---|
Prise en charge du chiffrement TLS et de l’authentification TLS ou SASL en utilisant Kafka en tant que cible | AWS DMS prend désormais en charge le chiffrement TLS et l'authentification TLS ou SASL en utilisant Amazon MSK et le cluster Kafka sur site comme cible. Pour plus d’informations sur l’utilisation du chiffrement et de l’authentification pour les points de terminaison Kafka, consultez Connexion à Kafka à l’aide du protocole TLS (Transport Layer Security). |
Les problèmes résolus dans la version AWS DMS 3.4.4 sont les suivants :
-
Amélioration de la AWS DMS journalisation des échecs de tâches lors de l'utilisation des points de terminaison Oracle.
-
L'amélioration de l'exécution des AWS DMS tâches poursuit le traitement lorsque les points de terminaison source Oracle changent de rôle après le basculement d'Oracle Data Guard.
-
La gestion améliorée des erreurs traite ORA-12561 comme une erreur récupérable lors de l’utilisation de points de terminaison Oracle.
-
Problème résolu : les colonnes
EMPTY_BLOB()
etEMPTY_CLOB()
étaient migrées en tant que valeurs null lors de l’utilisation d’Oracle en tant que source. -
Correction d'un problème en raison duquel AWS DMS les tâches ne mettaient pas à jour les enregistrements après l'ajout de modifications DDL dans les colonnes lors de l'utilisation de SQL Server comme source.
-
La migration de PostgreSQL en tant que source a été améliorée grâce à la prise en charge du type de données
TIMESTAMP WITH TIME ZONE
. -
Problème résolu : le paramètre
afterConnectScript
ne fonctionnait pas pendant un chargement complet lors de l’utilisation de PostgreSQL en tant que cible. -
Un nouveau paramètre
mapUnboundedNumericAsString
a été introduit pour mieux gérer le type de donnéesNUMERIC
sans précision ni échelle lors de l’utilisation des points de terminaison PostgreSQL. -
Correction d'un problème en raison duquel AWS DMS les tâches échouaient avec « aucune ligne affectée » après l'arrêt et la reprise de la tâche lors de l'utilisation de PostgreSQL comme source.
-
Correction d'un problème qui AWS DMS empêchait la migration du type de
TIMESTAMP
données avec leBC
suffixe lors de l'utilisation de PostgreSQL comme source. -
Correction d'un problème qui AWS DMS empêchait la migration de la
TIMESTAMP
valeur « ±infinity » lors de l'utilisation de PostgreSQL comme source. -
Problème résolu : les chaînes vides étaient traitées comme
NULL
si vous utilisiez S3 en tant que source avec le paramètrecsvNullValue
défini sur d’autres valeurs. -
L’attribut de connexion supplémentaire
timestampColumnName
a été amélioré dans le cadre d’un chargement complet avec CDC, afin de pouvoir être trié pendant la CDC lors de l’utilisation de S3 en tant que cible. -
Amélioration de la gestion des types de données binaires au format hexadécimal tels que
BYTE
,BINARY
etBLOB
lors de l’utilisation de S3 en tant que source. -
Problème résolu : les enregistrements supprimés étaient migrés avec des caractères spéciaux lors de l’utilisation de S3 en tant que cible.
-
Problème résolu de gestion des valeurs de clé vides lors de l’utilisation d’Amazon DocumentDB (compatible avec MongoDB) en tant que cible.
-
Correction d'un problème qui AWS DMS empêchait la réplication des
Decimal128
colonnes lors de l'utilisation de MongoDBNumberDecimal
ou d'Amazon DocumentDB (avec compatibilité avec MongoDB) comme source. -
Problème résolu : il est désormais possible d’autoriser les tâches CDC à réessayer en cas de basculement sur MongoDB ou Amazon DocumentDB (compatible avec MongoDB) en tant que source.
-
Ajout d'une option permettant de supprimer le préfixe hexadécimal « 0x » des valeurs de type de
RAW
données lors de l'utilisation de Kinesis, Kafka ou comme cible. OpenSearch -
Problème résolu : la validation échouait sur les colonnes de caractères de longueur fixe lors de l’utilisation de Db2 LUW en tant que source.
-
Problème résolu : la validation échouait lorsque seul le type de données source ou le type de données cible était
FLOAT
ouDOUBLE
. -
Problème résolu : la validation échouait sur les caractères
NULL
lors de l’utilisation d’Oracle en tant que source. -
Problème résolu : la validation échouait sur les colonnes XML lors de l’utilisation d’Oracle en tant que source.
-
Correction d'un problème à cause duquel AWS DMS les tâches se bloquaient lorsqu'il y avait des colonnes nullables dans les clés composites utilisant MySQL comme source.
-
Correction d'un problème qui empêchait de AWS DMS valider à la fois les
UNIQUEIDENTIFIER
colonnes des points de terminaison source de SQL Server et les colonnes UUID des points de terminaison cibles de PostgreSQL. -
Problème résolu : une tâche CDC n’utilisait pas une définition de table source mise à jour après sa modification.
-
Amélioration du AWS DMS basculement pour traiter les échecs de tâches provoqués par un nom d'utilisateur ou un mot de passe non valide comme des erreurs récupérables.
-
Correction d'un problème en raison duquel AWS DMS les tâches échouaient en raison de LSNs leur absence lors de l'utilisation de RDS pour SQL Server comme source.
AWS Notes de mise à jour du Database Migration Service 3.4.3
Le tableau suivant présente les nouvelles fonctionnalités et améliorations introduites dans AWS DMS version 3.4.3.
Nouvelle fonction ou amélioration | Description |
---|---|
Nouvelle version d’Amazon DocumentDB | Amazon DocumentDB version 4.0 est désormais pris en charge en tant que source. |
Nouvelle version de MariaDB | MariaDB version 10.4 est désormais pris en charge en tant que source et cible. |
Support à l' AWS Secrets Manager intégration | Vous pouvez stocker en toute sécurité les informations de connexion de base de données (informations d’identification utilisateur) pour les points de terminaison pris en charge dans AWS Secrets Manager. Vous pouvez ensuite envoyer le secret correspondant au lieu des informations d'identification en texte brut AWS DMS lorsque vous créez ou modifiez un point de terminaison. AWS DMS se connecte ensuite aux bases de données des terminaux à l'aide du secret. Pour plus d'informations sur la création de secrets pour les AWS DMS points de terminaison, consultezUtilisation de secrets pour accéder aux points de terminaison AWS Database Migration Service. |
Options étendues pour les instances de réplication C5 et R5 | Vous pouvez désormais créer les tailles d'instance de réplication plus grandes suivantes : tailles C5 jusqu'à 96 V CPUs et 192 Go de mémoire et tailles R5 jusqu'à 96 V CPUs et 768 Go de mémoire. |
Amélioration des performances Amazon Redshift | AWS DMS prend désormais en charge l'application parallèle lorsque vous utilisez Amazon Redshift comme cible afin d'améliorer les performances de la réplication en cours. Pour de plus amples informations, veuillez consulter Paramètres de tâche multithread pour Amazon Redshift. |
Les problèmes résolus dans la AWS DMS version 3.4.3 sont les suivants :
-
Problème résolu : l’horodatage de validation devenait « 1970-01-01 00:00:00 » pour les événements différés lors de l’utilisation de Db2 LUW en tant que source.
-
Correction d'un problème en raison duquel AWS DMS les tâches échouaient avec une
NVARCHAR
colonne comme clé primaire lors de l'utilisation de SQL Server comme source en mode LOB complet. -
Problème résolu : enregistrements manquants au cours de la phase des modifications mises en cache lors de l’utilisation de SQL Server en tant que source.
-
Correction d'un problème en raison duquel des enregistrements étaient ignorés après la reprise AWS DMS des tâches lors de l'utilisation de RDS pour SQL Server comme source.
-
Correction d'un problème en raison duquel AWS DMS le composant de journalisation ASSERTION génère des journaux volumineux pour SQL Server.
-
Problème résolu : la validation des données échouait pendant la phase CDC en raison d’un dépassement de l’analyse des colonnes lors de l’utilisation de MySQL en tant que source.
-
Correction d'un problème en raison duquel AWS DMS les tâches se bloquaient en raison d'une erreur de segmentation lors de la validation des données lors de l'utilisation de PostgreSQL comme cible.
-
Problème résolu : la validation des données échouait sur le type de données DOUBLE pendant la CDC lors de l’utilisation de PostgreSQL en tant que source et cible.
-
Correction d'un problème en raison duquel les enregistrements insérés par la commande copy n'étaient pas répliqués correctement lors de l'utilisation de PostgreSQL comme source et d'Amazon Redshift comme cible.
-
Problème de perte de données résolu pendant la phase des modifications mises en cache lors de l’utilisation de PostgreSQL en tant que source.
-
Correction d’un problème qui pouvait provoquer une perte de données ou des doublons d’enregistrements lors de l’utilisation de PostgreSQL en tant que source.
-
Problème résolu : les schémas présentant une casse mixte ne pouvaient pas migrer avec pglogical lors de l’utilisation de PostgreSQL en tant que source.
-
Problème résolu : le dernier message d’échec ne contenait pas l’erreur ORA lors de l’utilisation d’Oracle en tant que source.
-
Correction d'un problème en raison duquel AWS DMS les tâches ne parvenaient pas à générer des instructions UPDATE lors de l'utilisation d'Oracle comme cible.
-
Correction d'un problème en raison duquel AWS DMS les tâches ne répliquaient pas les données lors de l'utilisation d'Oracle 12.2 comme source avec une configuration ASM et une base de données enfichable.
-
Amélioration de l’analyse des enregistrements en préservant la conformité des guillemets à la RFC 4180 lors de l’utilisation de S3 en tant que source.
-
Amélioration du traitement de
timestampColumnName
afin que la colonne provenant du chargement complet puisse être triée avec celle provenant de la CDC. -
En introduisant un nouveau paramètre de point de terminaison
MessageMaxBytes
, nous avons résolu un problème en AWS DMS raison duquel les tâches échouaient lorsque certains éléments LOB étaient supérieurs à 1 Mo. -
Correction d'un problème en raison duquel AWS DMS des tâches se bloquaient en raison d'une erreur de segmentation lors de l'utilisation d'Amazon Redshift comme cible.
-
Enregistrement des erreurs amélioré pour la connexion de test Amazon Redshift.
-
Correction d'un problème qui AWS DMS empêchait le transfert de tous les documents de MongoDB vers DocumentDB pendant le chargement complet.
-
Correction d'un problème en raison duquel AWS DMS les tâches signalaient une erreur fatale lorsqu'aucune table n'était incluse dans les règles de mappage des tables.
-
Problème résolu : les schémas et les tables créés avant le redémarrage des tâches AWS DMS n’étaient pas répliqués vers la cible lors de l’utilisation de MySQL en tant que source.
-
Problème résolu : le caractère générique d’échappement [_] ne permettait pas d’échapper le caractère générique « _ » dans une règle d’exclusion lors de l’utilisation de MySQL en tant que source.
-
Problème résolu : la colonne de type de données UNSIGNED BIGINT n’était pas répliquée correctement lors de l’utilisation de MySQL en tant que source.
AWS Notes de mise à jour du Database Migration Service 3.4.2
Le tableau suivant présente les nouvelles fonctionnalités et améliorations introduites dans AWS DMS version 3.4.2.
Nouvelle fonction ou amélioration | Description |
---|---|
Support pour la connexion privée de votre Amazon Virtual Private Cloud (Amazon VPC) au AWS Database Migration Service (DMS) sans passerelle Internet, appareil NAT, connexion VPN ou connexion. AWS Direct Connect | Vous pouvez désormais vous connecter à votre Amazon VPC et y accéder AWS DMS via un point de terminaison d'interface VPC que vous créez. Ce point de terminaison d'interface vous permet d'isoler toute l'activité réseau de votre instance de AWS DMS réplication au sein de l'infrastructure réseau Amazon. En incluant une référence à ce point de terminaison d'interface dans tous les appels d'API relatifs à l' AWS DMS utilisation du SDK AWS CLI ou d'un SDK, vous vous assurez que toutes les AWS DMS activités restent invisibles pour l'Internet public. Pour de plus amples informations, veuillez consulter Sécurité de l’infrastructure dans AWS Database Migration Service.NoteCette fonctionnalité est disponible avec toutes les versions de AWS DMS moteur prises en charge. |
Partitionnement de dossiers basé sur la date de CDC en utilisant Amazon S3 en tant que cible |
AWS DMS prend désormais en charge le partitionnement de dossiers basé sur la date lors de la réplication de données en utilisant S3 comme cible. Pour de plus amples informations, veuillez consulter Utilisation du partitionnement de dossiers basé sur la date. |
Les problèmes résolus dans la AWS DMS version 3.4.2 sont les suivants :
-
Ajout d'une
STATUPDATE
option lors de l'exécution d'une migration en utilisant Amazon Redshift comme cible. -
Amélioration des tâches de validation via l’introduction d’un nouveau paramètre.
ValidQueryCdcDelaySecond
retarde la première requête de validation sur les points de terminaison sources et cibles afin de réduire les conflits de ressources lorsque la latence de migration est élevée. -
Correction d'un problème en AWS DMS raison duquel le démarrage des tâches de validation prenait du temps.
-
Problème résolu : des enregistrements vides étaient générés lors du démarrage ou de l’arrêt de tâches de réplication utilisant S3 en tant que cible.
-
Problème résolu : les tâches se bloquaient une fois le chargement complet terminé.
-
Problème résolu : les tâches se bloquaient lorsqu’une table source contenait des erreurs de données lors de l’utilisation de S3 en tant que source.
-
Problème résolu : les tâches se bloquaient à leur démarrage lorsque le compte d’utilisateur du point de terminaison source était désactivé.
-
Problème résolu : les tâches s’interrompaient lors de l’utilisation de PostgreSQL en tant que source avec
REPLICA IDENTITY FULL
. -
Problème résolu : les tâches manquaient des transactions lors de l’utilisation de PostgreSQL en tant que source avec le plug-in pglogical.
-
Correction d'un problème qui AWS DMS empêchait de supprimer les fichiers source compressés lors de l'utilisation d'Amazon Redshift comme cible.
-
Problème résolu : les tâches de validation signalaient de faux négatifs lors de l’utilisation de MySQL à la fois en tant que source et cible avec le type de données
BIGINT UNSIGNED
. -
Problème résolu : les tâches de validation signalaient des faux positifs lors de l’utilisation de SQL Server en tant que source avec une colonne de clé primaire de type CHAR.
-
Correction d'un problème en raison duquel les objets cibles AWS DMS ne sont pas effacés lors
start-replication
de l'utilisation pour démarrer des tâches de réplication en utilisant S3 comme cible. -
Plusieurs problèmes résolus relatifs à la validation des données lors de l’utilisation de Db2 en tant que source.
-
Problème résolu : les tâches de validation se bloquaient lors de l’utilisation de SQL Server en tant que source avec la colonne VARCHAR comme clé primaire.
-
Ajout de la prise en charge du type de données TIMESTAMP WITH TIMEZONE lors de l’utilisation de PostgreSQL en tant que source
AWS Notes de mise à jour de Database Migration Service 3.4.1 bêta
Le tableau suivant présente les nouvelles fonctionnalités et améliorations introduites dans AWS DMS version 3.4.1 bêta.
Nouvelle fonction ou amélioration | Description |
---|---|
Nouvelle version de MongoDB |
La version 4.0 de MongoDB est désormais prise en charge en tant que source. |
Prise en charge du protocole TLS 1.2 pour SQL Server |
AWS DMS prend désormais en charge le protocole TLS 1.2 pour les points de terminaison SQL Server. |
Les problèmes résolus dans la version AWS DMS 3.4.1 bêta sont les suivants :
-
Amélioration de la prise en charge d’Oracle 19c TDE.
-
Prise en charge améliorée du jeu de caractères utf8mb4 et du type de données d'identité en utilisant Amazon Redshift comme cible.
-
Amélioration de la gestion des échecs des tâches de réplication lors de l’utilisation de MySQL en tant que source et en l’absence de journal binaire.
-
Amélioration de la prise en charge de la validation des données pour différents types de données et jeux de caractères.
-
Amélioration de la gestion des valeurs null avec un nouveau paramètre de point de terminaison
IncludeNullAndEmpty
lors de l’utilisation de Kinesis et de Kafka en tant que cible. -
Amélioration de la gestion et de la journalisation des erreurs lors de l’utilisation de Kafka en tant que cible.
-
Amélioration du décalage horaire DST lors de l’utilisation de SQL Server en tant que source.
-
Problème résolu : les tâches de réplication tentaient de créer des tables existantes pour Oracle en tant que cible.
-
Problème résolu : les tâches de réplication se bloquaient lorsque la connexion à la base de données était interrompue lors de l’utilisation d’Oracle en tant que source.
-
Problème résolu : les tâches de réplication ne parvenaient pas à détecter le nouveau principal et à s’y reconnecter lors de l’utilisation de SQL Server en tant que source avec le paramètre AlwaysON.
-
Problème résolu : les tâches de réplication n’ajoutaient pas un
"D"
pour la colonne"OP"
dans certaines conditions pour S3 en tant que cible.
AWS Notes de mise à jour de Database Migration Service 3.4.0 bêta
Le tableau suivant présente les nouvelles fonctionnalités et améliorations introduites dans AWS DMS version 3.4.0.
Nouvelle fonction ou amélioration | Description |
---|---|
Nouvelle version de MySQL |
AWS DMS supporte désormais la version 8.0 de MySQL en tant que source, sauf lorsque la charge utile de la transaction est compressée. |
Prise en charge du protocole TLS 1.2 pour MySQL |
AWS DMS supporte désormais le protocole TLS 1.2 pour les points de terminaison MySQL. |
Nouvelle version de MariaDB |
AWS DMS supporte désormais la version 10.3.13 de MariaDB en tant que source. |
Absence SysAdmin d'accès aux sources Microsoft SQL Server autogérées |
AWS DMS permet désormais aux SysAdmin non-utilisateurs d'accéder aux points de terminaison source SQL Server sur site et EC2 hébergés. NoteCette fonctionnalité est actuellement en version bêta. Si vous souhaitez l'essayer, contactez le AWS support pour plus d'informations. |
Tâches CDC et tables sources Oracle créées à l’aide de CREATE TABLE
AS |
AWS DMS prend désormais en charge à la fois les tâches à chargement complet, les tâches CDC et CDC uniquement exécutées sur les tables sources Oracle créées à l'aide de l'instruction. |
Les problèmes résolus dans la AWS DMS version 3.4.0 sont les suivants :
-
Amélioration des évaluations des tâches de prémigration. Pour de plus amples informations, veuillez consulter Activation et utilisation des évaluations de prémigration pour une tâche.
-
Amélioration de la validation des données pour les types de données float, real et double.
-
Amélioration d’Amazon Redshift en tant que cible avec une meilleure gestion de l’erreur : « The specified key does not exist. »
-
Prend en charge les paramètres des tâches de chargement CDC multithread
ParallelApplyThreads
, y comprisParallelApplyBufferSize
, etParallelApplyQueuesPerThread
, pour Amazon OpenSearch Service (OpenSearch Service) en tant que cible. -
OpenSearch Service en tant que cible amélioré en soutenant son utilisation de clés primaires composites.
-
Problème résolu : le test de connexion échouait lors de l’utilisation de PostgreSQL en tant que source, si le mot de passe contenait des caractères spéciaux.
-
Correction d’un problème lié à l’utilisation de SQL Server en tant que source lorsque certaines colonnes
VARCHAR
étaient tronquées. -
Correction d'un problème qui AWS DMS empêchait de fermer les transactions ouvertes lors de l'utilisation d'Amazon RDS SQL Server comme source. Cela pouvait entraîner une perte de données si le paramètre d’intervalle d’interrogation était mal défini. Pour plus d’informations sur la configuration d’une valeur d’intervalle d’interrogation recommandée, consultez Utilisation d'une base de données Microsoft SQL Server comme source pour AWS DMS.
-
Correction d’un problème lié à Oracle Standby en tant que source : les tâches de CDC s’arrêtaient de façon inattendue lors de l’utilisation de Binary Reader.
-
Correction d'un problème pour IBM DB2 for LUW en raison duquel la tâche échouait avec le message « Le littéral numérique 0 n'est pas valide car sa valeur est hors de portée ».
-
Correction d’un problème de migration de PostgreSQL vers PostgreSQL lorsqu’une nouvelle colonne était ajoutée dans la source PostgreSQL et que la colonne était créée avec un type de données différent de celui pour lequel la colonne avait été initialement créée dans la source.
-
Correction d’un problème lié à une source MySQL : la tâche de migration s’arrêtait de façon inattendue lorsqu’elle ne parvenait pas à récupérer les journaux binaires.
-
Correction d’un problème lié à une cible Oracle quand
BatchApply
était utilisé. -
Correction d’un problème lié à MySQL et MariaDB lors de la migration du type de données
TIME
. -
Correction d'un problème dans une source IBM DB2 LUW où la migration de tables LOBs échouait lorsque les tables ne possédaient pas de clé primaire ou de clé unique.
AWS Notes de mise à jour du Database Migration Service 3.3.4
Les problèmes résolus dans la version AWS DMS 3.3.4 sont les suivants :
-
Problème résolu : les transactions étaient supprimées ou dupliquées lors de l’utilisation de PostgreSQL en tant que source.
-
Amélioration de la prise en charge de l’utilisation du signe dollar ($) dans les noms de schéma.
-
Problème résolu : les instances de réplication ne fermaient pas les transactions ouvertes lors de l’utilisation de RDS SQL Server en tant que source.
-
Problème résolu : le test de connexion échouait lors de l’utilisation de PostgreSQL en tant que source, si le mot de passe contenait des caractères spéciaux.
-
Amazon Redshift a été amélioré en tant que cible en gérant mieux cette erreur : « La clé spécifiée n'existe pas ».
-
Amélioration de la prise en charge de la validation des données pour différents types de données et jeux de caractères.
-
Problème résolu : les tâches de réplication tentaient de créer des tables existantes pour Oracle en tant que cible.
-
Problème résolu : les tâches de réplication n’ajoutaient pas un
"D"
pour la colonne"OP"
dans certaines conditions pour Amazon S3 en tant que cible.
AWS Notes de mise à jour du Database Migration Service 3.3.3
Le tableau suivant présente les nouvelles fonctionnalités et améliorations introduites dans AWS DMS version 3.3.3.
Nouvelle fonction ou amélioration | Description |
---|---|
Nouvelle version de PostgreSQL |
PostgreSQL version 12 est désormais pris en charge en tant que source et cible. |
Support pour la clé primaire composite avec Amazon OpenSearch Service comme cible |
À partir de AWS DMS 3.3.3, l'utilisation d'une clé primaire composite est prise en charge par les cibles du OpenSearch service. |
Prise en charge des types de données étendus Oracle |
Les types de données étendus Oracle pour la source et les cibles Oracle sont désormais pris en charge. |
Augmentation du nombre de AWS DMS ressources par compte | La limite du nombre de AWS DMS ressources que vous pouvez créer a été augmentée. Pour de plus amples informations, veuillez consulter Quotas pour AWS Database Migration Service. |
Les problèmes résolus dans la version AWS DMS 3.3.3 sont les suivants :
-
Problème résolu : une tâche s’interrompait en utilisant une instruction de mise à jour spécifique avec une application parallèle dans Amazon Kinesis.
-
Problème résolu : une tâche s’interrompait sur l’instruction ALTER TABLE avec Amazon S3 en tant que cible.
-
Correction d'un problème à cause duquel des valeurs des colonnes de polygone étaient tronquées lors de l'utilisation de Microsoft SQL Server en tant que source.
-
Correction d'un problème sur le convertisseur Unicode de JA16 SJISTILDE et JA16 EUCTILDE lors de l'utilisation d'Oracle comme source.
-
Correction d'un problème qui empêchait la migration des colonnes MEDIUMTEXT et LONGTEXT de MySQL vers S3 au format CSV (valeur séparée par des virgules).
-
Correction d'un problème provoquant la transformation des colonnes booléennes en types incorrects avec la sortie Apache Parquet.
-
Correction d'un problème avec les colonnes varchar étendues dans Oracle.
-
Correction d'un problème qui faisait échouer les tâches de validation des données en raison de certaines combinaisons d'horodatage.
-
Correction d'un problème avec la réplication du langage de définition de données (DDL) Sybase.
-
Correction d'un problème impliquant une source Oracle Real Application Clusters (RAC) qui plantait avec Oracle Binary Reader.
-
Correction d'un problème lors de la validation des cibles Oracle avec la casse des noms de schéma.
-
Correction d'un problème lors de la validation des versions 9.7 et 10 d'IBM Db2.
-
Correction d'un problème lié à une tâche qui ne s'arrêtait pas deux fois avec
StopTaskCachedChangesApplied
etStopTaskCachedChangesNotApplied
activées.