Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
AWS Notas de la versión de DMS
A continuación, encontrará las notas de la versión actual y anterior de AWS Database Migration Service (AWS DMS).
AWS DMS no diferencia entre las versiones principales y secundarias cuando habilita la actualización automática de versiones para su instancia de replicación. DMS actualiza de forma automática la versión de la instancia de replicación durante el periodo de mantenimiento si está obsoleta.
Tenga en cuenta que para actualizar la versión de la instancia de replicación de forma manual (mediante la API o la CLI) de la versión 3.4.x a la 3.5.x, debe establecer el parámetro AllowMajorVersionUpgrade
en true
. Para obtener información sobre el AllowMajorVersionUpgrade
parámetro, consulte la documentación ModifyReplicationInstancede la API de DMS.
nota
La versión actual del motor por defecto AWS DMS es la 3.5.3.
En la tabla a continuación se muestran las siguientes fechas para las versiones de DMS activas:
Fecha en la que se lanza la versión.
Fecha a partir de la cual no se pueden crear nuevas instancias con la versión.
Fecha en la que DMS actualiza de forma automática las instancias de esa versión (la fecha EOL).
Versión | Fecha de lanzamiento | Fecha de fin de creación de instancias | Fecha de EOL |
---|---|---|---|
3.6.0 | 27 de diciembre de 2024 | 27 de abril de 2026 | 27 de junio de 2026 |
3.5.4 | 15 de noviembre de 2024 | 15 de marzo de 2026 | 15 de mayo de 2026 |
3.5.3 | 17 de mayo de 2024 | 31 de agosto de 2025 | 31 de octubre de 2025 |
3.5.2 | 29 de octubre de 2023 | 30 de marzo de 2025 | 29 de abril de 2025 |
3.5.1 | 30 de junio de 2023 | 30 de noviembre de 2024 | 15 de marzo de 2025 |
3.4.7 | 31 de mayo de 2022 | 30 de septiembre de 2024 | 31 de octubre de 2024 |
3.4.6 | 30 de noviembre de 2021 | 30 de septiembre de 2024 | 31 de octubre de 2024 |
nota
La AWS DMS versión 3.6.0 está disponible actualmente en Asia Pacífico (Sídney): región ap-southeast-2.
AWS Notas de la versión 3.6.0 de Database Migration Service
Nueva característica o mejora | Descripción |
---|---|
Nuevas variables de metadatos para las transformaciones | Se introdujeron dos nuevas variables de metadatos para las reglas de transformación: $AR_M_MODIFIED_SCHEMA y$AR_M_MODIFIED_TABLE_NAME . Estas variables le permiten crear transformaciones más dinámicas y flexibles que pueden adaptarse a los cambios de nombre de esquema o tabla durante el proceso de migración. |
Support para la replicación de columnas LOB en el modo de gestión de errores UPSERT |
Se introdujo la compatibilidad con la replicación de columnas de objetos grandes (LOB) al utilizar la opción de gestión de errores «No se encontró ningún registro al aplicar una ACTUALIZACIÓN: inserta el registro de destino faltante». Con esta mejora, ahora puede replicar con precisión las columnas LOB, lo que garantiza una replicación de datos completa y precisa. |
AWS La versión 3.6.0 del DMS incluye los siguientes problemas resueltos:
Problema resuelto | Descripción |
---|---|
Problema con la memoria de PostgreSQL |
Se ha resuelto el consumo excesivo de memoria al utilizar PostgreSQL como fuente. Se solucionó un problema que provocaba que el espacio para el registro de escritura anticipada (WAL) creciera continuamente, lo que reducía el rendimiento. Esta actualización mejora la estabilidad y la eficiencia de las migraciones a PostgreSQL, especialmente para bases de datos grandes o tareas de larga duración. |
Problema con Oracle Character Large Object (CLOB) y Character (CHAR) | Se solucionó el problema por el que los valores de caracteres anchos de objetos grandes (CLOB) y caracteres (CHAR) que contenían caracteres no ASCII (por ejemplo, símbolos especiales o caracteres internacionales) no se replicaban correctamente. Esta corrección garantiza la replicación precisa de los datos de texto de gran tamaño, lo que reduce los errores y mantiene la coherencia de los datos. |
Problema de latencia incorrecta de Microsoft SQL Server | Se resolvió un problema por el que el punto final de origen de Microsoft SQL Server informaba incorrectamente de una latencia muy alta. Esta corrección proporciona métricas de rendimiento más precisas, lo que le permite supervisar y optimizar mejor las tareas de migración de SQL Server. |
Problema con los metadatos de Microsoft SQL Server | Se ha corregido un problema relacionado con las llamadas redundantes para recuperar los metadatos de otras tablas, lo que provocaba una disminución del rendimiento y la latencia tras la modificación de los metadatos de una tabla. Esta optimización mejora el rendimiento general de las tareas, especialmente en el caso de las bases de datos con cambios de esquema frecuentes. |
Problema de actualización de Microsoft SQL Server |
Se ha corregido un problema por el que las operaciones de ACTUALIZACIÓN no estándar provocaban que las tareas finalizaran inesperadamente sin generar mensajes de error. Esta corrección garantiza que dichas operaciones se procesen correctamente, lo que evita errores en las tareas durante situaciones de actualización complejas. |
Problema de aplicación de objetos grandes (LOB) por lotes | Se ha corregido un problema en el modo Aplicación optimizada por lotes que provocaba que la búsqueda de objetos grandes (LOB) no encontrara un registro cuando una operación DELETE y una operación INSERT se combinaban en una sola operación de ACTUALIZACIÓN. Esta solución mejora la coherencia e integridad de los datos durante las migraciones que implican datos LOB y operaciones complejas en el lenguaje de manipulación de datos (DML). |
Problema de inicio de la tarea de transformaciones | Se solucionó un problema por el que las tareas que implicaban numerosas transformaciones se bloqueaban durante el inicio. Esta solución garantiza la estabilidad y la fiabilidad de las tareas con una lógica de transformación compleja, lo que le permite ejecutar tareas de procesamiento de datos con confianza. |
Problema con el lenguaje de definición de datos (DDL) de MySQL | Se ha corregido un error al capturar los cambios en el lenguaje de definición de datos (DDL) en un formato especial durante la fase de cambio de captura de datos (CDC). Esta corrección garantiza que todos los cambios de esquema se repliquen correctamente, manteniendo la coherencia del esquema entre las bases de datos de origen y destino durante todo el proceso de migración. |
AWS Notas de la versión 3.5.4 de Database Migration Service
Nueva característica o mejora | Descripción |
---|---|
Enmascaramiento de datos | Se introdujo el enmascaramiento de datos, que permitía transformar los datos confidenciales con opciones de aleatorización de dígitos, enmascaramiento o cifrado a nivel de columna. |
Rendimiento mejorado de validación de datos | Se introdujo un rendimiento mejorado de validación de datos, lo que permite un procesamiento más rápido de conjuntos de datos de gran tamaño durante las tareas de carga completa y de migración de los CDC en determinadas rutas de migración. |
Problema de Unicode en el código fuente de PostgreSQL | Se ha corregido un problema en la fuente de PostgreSQL por el que se observaba un rendimiento de migración degradado al utilizar el filtrado. Se introdujo el disableUnicodeSource filtro ECA para controlar este comportamiento. |
Soporte de transformación para una función de rendimiento mejorada | Introduzca la compatibilidad con todas las reglas de transformación para la función de rendimiento mejorado. |
Problema de rendimiento de migración de MySQL | Se ha corregido un problema en el destino de MySQL que provocaba que la migración tuviera un rendimiento deficiente en las recopilaciones de objetivos distintas de UTF8MB4. Se introdujo una nueva configuración de punto final para controlar este comportamiento: "temporaryTableCollation». |
AWS DMS la versión 3.5.4 incluye los siguientes problemas resueltos:
Problema resuelto | Descripción |
---|---|
PostgresQL, problema con test_decoding | Se ha corregido un problema en el código fuente de PostgreSQL por el que algunos eventos no se replicaban al utilizar el complemento test_decoding. |
Problema con la marca de tiempo de MySQL a Redshift | Se ha corregido un problema en las migraciones de MySQL a Redshift por el que una columna de fecha y hora no se definía correctamente en el destino. |
Problema con la fuente de alimentación de Oracle en julio de 2024 | Se solucionó un problema en la fuente de Oracle con un lector binario por el que la tarea de DMS se bloqueaba después de aplicar la PSU de Oracle de julio de 2024. |
Problema con el administrador de secretos de MySQL | Se ha corregido un problema en el punto final de MySQL que provocaba que las credenciales se dañaran al utilizar el administrador de secretos. |
Problema de manejo de registros de datos de Amazon DocumentDB/MongoDB | Se ha corregido un problema en los puntos de enlace de Amazon DocumentDB/MongoDB por el que algunos registros se enviaban al destino dos veces, lo que provocaba una excepción de clave duplicada y un error en la tarea. AWS DMS |
Problema relacionado con la migración a NoSQL | Se ha corregido un problema en las migraciones de RDS for SQL Server a NoSQL por el que la estructura del documento era incorrecta debido a un manejo incorrecto de la PK. |
Problema de validación de datos con el terminal de Oracle | Se solucionó un problema en la fuente de Oracle por el que la validación de datos arrojaba falsos positivos si eran nulos o vacíos LOBs. |
Problema con el identificador único PK con el objetivo de Babelfish. | Se ha corregido un error que provocaba que PG - Babelfish la AWS DMS tarea fallara al replicar tablas con el PK definido como uniqueidentifier. |
Problema con el código fuente de PostgreSQL con MAZ. | Se ha corregido un problema en la fuente de PostgreSQL que provocaba AWS DMS que la conmutación por error de MAZ provocara un error grave en la tarea. AWS DMS |
Problema de orden de columnas | Se ha corregido un problema por el que los datos del LOB no se replicaban correctamente cuando el orden de las columnas difería entre el origen y el destino. |
Problema de contención de la base de datos interna AWS DMS | Se ha corregido un problema en la base de datos interna del DMS que provocaba que la AWS DMS tarea fallara debido a problemas de concurrencia de la AWS DMS base de datos interna. |
Problema de estructura de AWS DMS base de datos interna | Se ha corregido un problema en la AWS DMS base de datos interna por el que la AWS DMS tarea fallaba debido a la falta de presencia de determinados objetos de la base de datos interna. |
Problema de validación de datos fuente de Oracle | Se ha corregido un problema en la fuente de Oracle que provocaba que la validación de datos arrojara falsos positivos en algunos tipos poco frecuentes de eventos replicados. |
Problema de validación de datos para tipos de datos Unicode | Se ha corregido un problema en la función de validación de datos que provocaba que algunos tipos de datos de Unicode no se compararan correctamente, lo que generaba falsos positivos. |
El problema de la marca de tiempo objetivo de Parquet | Se ha corregido un error en Parquet Target por el que la marca de tiempo cero se replicaba como nula. |
Problema con el tipo de datos de destino de Babelfish. GeoSpacial | Se ha corregido un problema en el destino de Babelfish por el que no se admitía el tipo GeoSpacial de datos. |
Amazon S3 apunta a un problema con la adición de columnas durante los CDC | Se ha corregido un problema en el objetivo de Amazon S3 por el que las adiciones de nuevas columnas no se gestionaban correctamente cuando se activaba la configuración anterior a la imagen. |
Problema con SQL Server 2022 CU12 | Se ha corregido un problema en el código fuente de SQL Server AWS DMS que impedía implementar automáticamente los requisitos previos de MS Replication en fuentes que utilizaban SQL Server 2022 con CU12 o una versión superior. |
Problema booleano de PostgreSQL | Se ha corregido un problema en la fuente de PostgreSQL por el que el tipo de datos booleano no se migraba correctamente MapBooleanAsBoolean mientras estaba configurado true en y se utilizaba el complemento pglogical. |
TaskrecoveryTableEnabled problema de configuración |
Se ha corregido un error en la TaskrecoveryTableEnabled configuración, que provocaba que la AWS DMS tarea fallara al detenerla si se configuraba en true. |
Duplicación de datos con TaskrecoveryTableEnabled la configuración |
Se ha corregido un problema que provocaba que algunas transacciones se replicaran dos veces cuando la TaskrecoveryTableEnabled configuración estaba habilitada. |
Problema con el código fuente de MySQL 5.5 | Se ha corregido un error en el código fuente de MySQL que provocaba un error en la AWS DMS tarea debido a la imposibilidad de leer la BINLOG versión 5.5 de MySQL. |
AWS Notas de la versión 3.5.3 de Database Migration Service
Nueva característica o mejora | Descripción |
---|---|
Punto de conexión de origen de PostgreSQL mejorado para la compatibilidad con Babelfish | AWS DMS ha mejorado su punto final de origen PostgreSQL para que sea compatible con los tipos de datos de Babelfish. Para obtener más información, consulte Uso de una SQL base de datos Postgre como fuente AWS DMS. |
Compatibilidad con Parquet de S3 como origen | AWS DMS admite S3 Parquet como fuente. Para obtener más información, consulte Uso de Amazon S3 como origen para AWS DMS |
Compatibilidad con PostgreSQL 16.x | AWS DMS es compatible con la versión 16.x de PostgreSQL. Para obtener más información, consulte Uso de una SQL base de datos Postgre como fuente AWS DMS y Uso de una base de datos de PostgreSQL como destino para AWS Database Migration Service. |
Rendimiento mejorado para migraciones de Oracle a Amazon Redshift de carga completa | AWS DMS Serverless proporciona un rendimiento de rendimiento significativamente mejorado para las migraciones a carga completa de Oracle a Amazon Redshift. Para obtener más información, consulte Rendimiento mejorado para migraciones de Oracle a Amazon Redshift de carga completa. |
Compatibilidad con RDS para copias de seguridad del registro de SQL Server | AWS DMS admite la replicación continua desde las copias de seguridad de los registros de transacciones para fuentes de RDS o SQL Server. Esta función solo está disponible para los puntos finales de AWS DMS origen nuevos y modificados que lean desde RDS para SQL Server. Para obtener más información, consulte Configuración de la replicación continua en una instancia de base de datos de SQL Server de la nube. |
AWS DMS la versión 3.5.3 incluye los siguientes problemas resueltos:
Problema resuelto | Descripción |
---|---|
Función de anulación de la validación de datos | Se ha corregido un problema en la función de validación de datos por el AWS DMS que no se respetaba el filtrado de fuentes cuando se establecía una acción de regla override-validation-function en las asignaciones de tablas. |
Errores de CDC en MySQL como origen | Se ha corregido un problema de MySQL como fuente que provocaba que la migración de CDC fallara con la UTF16 codificación. |
Diferencias de intercalación de validación de datos | Se ha corregido un problema en la función de validación de datos AWS DMS que impedía aplicar correctamente la configuración de HandleCollationDiff tareas cuando se utilizaba el filtrado de columnas. |
Bloqueo de la tarea de validación de datos | Se ha corregido un problema en la función de validación de datos que provocaba que la AWS DMS tarea se bloqueara y target se produjera un error de «nula». |
Errores de las tareas de replicación de PostgreSQL a PostgreSQL | Se ha corregido un problema en las migraciones de PostgreSQL a PostgreSQL por el que se producía un error en una tarea al insertar datos de LOB AWS DMS en el destino durante la replicación de CDC. |
Pérdida de datos con PostgreSQL como origen | Se ha corregido un problema de PostgreSQL como origen que provocaba la pérdida de datos en algunos escenarios extremos. |
Errores de CDC en MySQL 5.5 como origen | Se ha corregido un problema de MySQL como origen por el que la replicación de CDC generaba un error con la versión 5.5 de MySQL. |
Problema con la tabla de IOT de Oracle como origen | Se solucionó un problema que provocaba que Oracle AWS DMS no replicara correctamente las UPDATE sentencias de las tablas de IOT con el registro suplementario activado en todas las columnas. |
LOB de MySQL como origen | Se ha corregido un problema en las migraciones de MySQL a Amazon Redshift por el que la AWS DMS tarea fallaba debido a que se LOBs superaba el tamaño máximo permitido por Amazon Redshift. |
Problema de validación con SkipLobColumns |
Se solucionó un problema en la función de validación de datos que provocaba que la AWS DMS tarea fallara SkipLobColumns = true cuando había una clave principal en la última columna de la tabla de origen. |
Omisión de la validación donde la clave única es null |
Se ha corregido un problema en la función de validación de datos que AWS DMS impedía omitir correctamente las filas con claves únicas nulas. |
Mejoras en la validación de datos para el operador COLLATE de Oracle |
Se ha corregido un problema de la característica de validación de datos por el que la validación no se realizaba debido a un error de sintaxis en las versiones de Oracle anteriores a la 12.2. |
Gestión de errores durante la carga completa | Se ha corregido un problema de PostgreSQL como destino por el que la tarea se bloqueaba durante la fase de carga completa tras un error de tabla provocado por datos no válidos. |
Revalidación de las tareas exclusivas de validación de CDC | Se ha mejorado la característica de validación de datos para permitir la revalidación en una tarea exclusiva de validación de CDC. |
Problema de CdcMaxBatchInterval Out of Memory en S3 como destino |
Se ha corregido un error en S3 como objetivo que provocaba que la AWS DMS tarea fallara si la condición de memoria insuficiente estaba CdcMaxBatchInterval establecida. |
Controlador de origen de Oracle | Se actualizó el controlador fuente de AWS DMS Oracle de la versión 12.2 a la versión 19.18. |
Advertencia de truncamiento de LOB con SQL Server como origen | Se ha mejorado el registro de SQL Server como origen para mostrar advertencias sobre el truncamiento de los LOB durante CDC. |
Mejoras en el lector binario de Oracle | Se ha mejorado el lector binario de origen de Oracle para su compatibilidad con lo siguiente:
|
Problema de omisión de cambios en caché después de interrupciones | Se ha corregido un problema que provocaba que se omitieran los cambios en caché en caso de una interrupción inesperada durante la aplicación de esos cambios. |
Problema con el archivo de intercambio de AWS DMS MongoDB | Se ha corregido un problema en el código fuente de MongoDB que provocaba que la tarea no AWS DMS se reanudara AWS DMS después de la actualización AWS DMS cuando había un archivo de intercambio. |
Problema de migración de MySQL a Amazon Redshift JSON. | Se ha corregido un problema en la fuente MySQL por el que el tipo de datos JSON no se gestionaba correctamente con la aplicación por lotes habilitada. |
Problema de validación de datos en las migraciones de SQL Server a APG. | Se ha corregido un problema en la migración de SQL Server a PostgreSQL por el que la validación de datos generaba falsos positivos en determinadas situaciones. |
EmptyAsNull Número de ECA para Amazon Redshift Target CDC | Se ha corregido un problema en el objetivo de Amazon Redshift por el que el EmptyAsNull ECA no funcionaba correctamente. |
Mejora del registro para la fuente de SQL Server | Se ha mejorado el registro de la fuente de SQL Server para incluir el valor de la unidad de almacenamiento. |
Problema de pérdida de memoria | Se ha corregido un error que provocaba una pérdida de memoria en los objetivos que utilizaban archivos CSV para cargar datos en la AWS DMS tarea. |
Problema de destino de Amazon S3 | Se ha corregido un problema en el objetivo de Amazon S3 por el que CdcMaxBatchInterval no CdcMinFileSize se respetaban ni se respetaban cuando se activaba la cdcInsertAnd UpdateOnly configuración. |
Mejora del registro para el objetivo de Kafka | Registro mejorado para el objetivo de Kafka |
Mejora del registro para Oracle Source. | Registro mejorado para el código fuente de Oracle con lector binario para indicar correctamente las tablas que se están omitiendo debido a la falta de claves principales. |
Mejora del registro para la fuente de SQL Server | Se ha mejorado el registro de la fuente de SQL Server en AlwaysOn la configuración para indicar correctamente los permisos faltantes. |
Mejora del registro para migraciones con DDL deshabilitado | Se mejoró el registro de las migraciones con la replicación DDL deshabilitada para indicar una estructura de tabla de destino inesperada después de haberla modificado fuera de ella. AWS DMS |
Problema de destino de DB2 | Se ha corregido un problema en el destino de Db2 por el que la tarea fallaba cuando la tabla de AWS DMS estado estaba habilitada. |
Problema con el administrador secreto de MongoDB/Amazon DocumentDB. | Se ha corregido un problema en los puntos finales de MongoDB y Amazon DocumentDB por el que no se podían recuperar las credenciales de Secret Manager, lo que provocaba un error. |
Problema con el punto de conexión entre MongoDB y Amazon DocumentDB | Se ha corregido un problema en MongoDB o Amazon DocumentDB por el que la tarea fallaba si estaba habilitada al replicar una secuencia ParallelApply de eventos determinada. |
Mejora del registro para Amazon Redshift Target | Registro mejorado para Amazon Redshift Target para incluir información más detallada en el nivel de registro predeterminado. |
Problema de bloqueo de tareas de destino de Amazon S3 | Se ha corregido un problema en el objetivo de Amazon S3 por el que la tarea de DMS se bloqueaba después de recibir el DDL de la tabla alterada cuando GlueCatalogGeneration estaba habilitada. |
Problema de validación de datos | Se ha corregido un problema en la función de validación de datos que provocaba que la validación de los NUL (0x00) caracteres fallara. |
Problema con el punto final de Babelsich | Se ha corregido un error en el punto final de Babelfish que provocaba que se suspendieran los nombres de las tablas con mayúsculas y minúsculas. |
Problema de origen de Amazon S3 | Se ha corregido un problema en la fuente de Amazon S3 por el que los archivos no se procesaban debido a un problema de validación del nombre de archivo. |
Problema con la fuente LUC de Db2 con las reglas de selección. | Se ha corregido un problema en la fuente LUW de Db2 por el que se ignoraba la opción «tipo tabla» en las reglas de selección. |
Amazon Redshift apunta a un problema de datos faltantes. | Se ha corregido un problema en el objetivo de Amazon Redshift por el que la pérdida de datos se producía cuando ParallelLoadThreads estaba >0 en determinadas condiciones. |
Mejora de la validación de datos para Amazon Redshift Target | Se mejoró la función de validación de datos de Amazon Redshift Target para que sea compatible HandleCollationDiff con la configuración. |
Problema de validación de datos de destino de Amazon S3 | Se ha corregido un problema en la validación de los datos de destino de Amazon S3 por el que la validación fallaba cuando no había más columnas que el PK en la tabla. |
Métricas de validación de CloudWatch datos | Se ha corregido un problema en la función de validación de datos por el que faltaban CloudWatch las métricas durante la validación, que tardaba poco tiempo en completarse. |
La opción de revalidación de datos no estaba disponible | Se ha corregido un problema en la función de validación de datos que provocaba que la opción de revalidación no estuviera disponible en determinadas situaciones. |
Problema de replicación de grandes transacciones | Se solucionó un problema por el que el número máximo de eventos por transacción se limitaba a 201.326.592 en determinadas condiciones. |
Problema de pérdida de datos de origen de MySQL | Se ha corregido un problema en la migración de MySQL a Amazon S3 por el que se pasaba por alto el primer DML ejecutado después del DDL «añadir columna», lo que provocaba la pérdida de datos. |
Se produjo un problema de pérdida de memoria en la aplicación por lotes | Se ha corregido un problema de pérdida de memoria en la función de aplicación por lotes que se producía en determinadas condiciones. |
Problema de inicio de tareas de DMS | Se ha corregido un error que provocaba que el inicio de la AWS DMS tarea tardara mucho tiempo y nunca se completara. |
Problema de validación de datos fuente de MySQL. | Se ha corregido un problema en la validación de datos fuente de MySQL que provocaba que las columnas incrementadas automáticamente no se gestionaran correctamente. |
Problema de autenticación de Kerberos en el terminal de Oracle | Se ha corregido un problema con el terminal de Oracle que impedía que la conectividad funcionara con la autenticación Kerberos. |
Problema con el identificador único de Babelfish Target | Se ha corregido un problema en el destino de Babelfish que provocaba que se produjera un error en la replicación de las tablas con claves principales definidas como identificador único. |
Problema de datos faltantes en el origen de PostgreSQL | Se ha corregido un problema en el origen de PostgreSQL que provocaba la pérdida de datos debido a eventos desconocidos en la ranura de replicación. |
Problema de validación de datos para los tipos de datos Unicode. | Se ha corregido un problema en la función de validación de datos que provocaba que algunos tipos de datos de Unicode no se compararan correctamente, lo que generaba falsos positivos. |
Columna Redshift Target Timestamp | Se solucionó un problema con la ColumnType definición por el que los tipos de columnas de marcas de tiempo no estaban configurados correctamente |
Conversión de marcas de tiempo de S3 Target | Se solucionó un problema con el formato de archivo parquet de destino S3 al gestionar valores de marca de tiempo cero (estos valores deberían convertirse a NULL en el destino) |
Orden de las columnas LOB de origen y destino de MySQL | Se ha corregido un problema con la migración de columnas Lob de origen y destino de MySQL. Ahora DMS usa el identificador de columna de la tabla de destino en lugar de la tabla de origen a la hora de decidir en qué columna debemos escribir los datos del LOB |
Tipos de datos de fecha y hora objetivo de Babelfish | Se ha corregido un problema con el objetivo de Babelfish que impedía restringir la precisión fraccionaria de segundos de los tipos de fecha y hora para solucionar los errores de redondeo. |
La tarea de MySQL 5.5 falla al leer el binglog durante la replicación en curso (CDC). | Se ha corregido un problema con el código fuente de MySQL 5.5. Hemos añadido un mecanismo de reintento para evitar errores en las tareas cuando el DMS no pudiera leer los eventos del registro binario durante la replicación en curso (CDC). |
Error de segmentación del código fuente de PostgreSQL y pérdida de memoria al utilizar el complemento de decodificación de prueba. | Se ha corregido un problema con el código fuente de PostgreSQL que provocaba que algunos eventos de replicación continua (CDC) no se analizaran correctamente al utilizar el complemento test_decocoding para PostgreSQL. |
Configuración de aplicación paralela de DocumentDB Target | Se ha corregido un problema con el objetivo de DocumentDB con la configuración de aplicación paralela que impedía el uso de varios subprocesos al utilizar esta función. |
Inserción directa de compresión HCC de Oracle | Se ha corregido un problema con la compresión DIRECT INSERT de Oracle HCC con una sugerencia de DML paralela que provocaba datos faltantes o duplicados. |
Problema con el lector binario de Oracle con la CPU de julio de 2024 | Se solucionó un problema con la fuente de Oracle: la tarea de DMS con el lector binario fallaba debido a una CPU de Oracle en julio de 2024 |
Claves principales del UUID de Babebfish Target | Se ha corregido un error en el objetivo de Babelfish que provocaba que una tarea de DMS fallara al replicar tablas con la clave principal definida como UUID. |
Las tareas de replicación continua de DMS (CDC) fallaban con TaskRecoveryTableEnabled | Se ha corregido un problema con la TaskRecoveryTableEnabled opción Habilitada, que provocaba que DMS intentara actualizar la tabla del sistema de destino una awsdms_txn_state vez finalizada la conexión de destino. |
Registros duplicados de origen de PostgreSQL | Se ha corregido un problema con el código fuente de PostgreSQL que provocaba que algunas transacciones se replicaran dos veces cuando TaskrecoveryTableEnabled la configuración estaba habilitada. |
Problema de replicación de origen/destino en DMS S3 | Se solucionó un problema con el origen S3 al destino S3, por el que la tarea de DMS no replicaba los datos durante la carga completa y la replicación en curso. |
Fallo en la tarea de origen de DMS S3 durante la replicación en curso | Se solucionó un problema en la fuente de S3 por el que se configuraba una tarea de DMS que fallaba durante la replicación en curso para la versión 3.5.3 de DMS |
Fuente DMS: ECA DB2 CcsidMapping | Se ha corregido un problema con la DB2 fuente: el mapeo ECA del CCSID ahora se aplica correctamente a la tarea cuando la página de códigos es 0 y los datos se migran correctamente CcsidMapping |
Replicación de valores booleanos de DMS Aurora PostgreSQL a Redshift Serverless. | Se ha corregido un problema que provocaba que la migración de DMS de Aurora PostgreSQL a Redshift Serverless tuviera un problema con el valor booleano. |
AWS Notas de la versión 3.5.2 de Database Migration Service
Nueva característica o mejora | Descripción |
---|---|
Validación de datos de Amazon Redshift | AWS DMS ahora admite la validación de datos en los destinos de Amazon Redshift. |
Compatibilidad con la versión 2022 de Microsoft SQL Server como origen y destino. | AWS DMS ahora admite el uso de Microsoft SQL Server versión 2022 como origen y destino. |
IBM Db2 LUW como destino | AWS DMS ahora es compatible con IBM Db2 LUW como destino. Con él AWS DMS, ahora puede realizar migraciones en directo de IBM Db2 LUW a IBM Db2 LUW. |
AWS DMS la versión 3.5.2 incluye los siguientes problemas resueltos:
Problema resuelto | Descripción |
---|---|
Carga completa segmentada en IBM Db2 como destino | Se ha agregado compatibilidad para la carga completa segmentada con IBM Db2 como destino. |
Configuración de Amazon Timestream como destino | Se ha mejorado el control de configuraciones de marcas de tiempo no válidas y operaciones de tabla no admitidas para Timestream como destino. |
Bloqueo de tareas con filtro de columnas | Se ha corregido un problema por el que una tarea se bloqueaba al utilizar un filtro en una columna que DMS agregaba de forma dinámica mediante una regla de transformación. |
Registro de lectura del archivo de intercambio de transacciones | Se ha agregado un registro para mostrar cuándo está leyendo DMS desde los archivos de intercambio de transacciones. |
S3 como destino con CdcInsertsAndUpdates |
Se ha corregido un problema para S3 como destino por el que una tarea se bloqueaba si CdcInsertsAndUpdates es true y PreserveTransactions es true . |
Operadores negativos del filtro de origen | Se ha corregido un problema que provocaba un comportamiento incorrecto del operador de filtro de origen cuando se establecía en un operador negativo si la misma columna tenía definida una regla de transformación. |
Se ha agregado un registro para cuando DMS pausa la lectura del origen | Se ha optimizado el registro para mostrar cuándo DMS pausa temporalmente la lectura del origen para mejorar el rendimiento. |
Filtros de origen con caracteres de escape | Se ha corregido un problema en los filtros de origen que provocaba que DMS aplicara caracteres de escape a las tablas recién creadas durante la captura de datos de cambio. |
Eliminaciones replicadas de forma incorrecta en PostgreSQL como destino | Se ha corregido un problema de PostgreSQL como destino que provocaba que DMS replicara las eliminaciones como valores nulos. |
Mejoras del registro en Oracle como origen | Registro optimizado para Oracle como destino a fin de eliminar códigos de error ajenos. |
Registro optimizado de las limitaciones de XMLTYPE | Se ha optimizado el registro de Oracle como origen para mostrar que DMS no admite el modo de LOB completo para el tipo de datos XMLTYPE . |
Pérdida de datos de MySQL | Se ha corregido un problema de MySQL como destino por el que los metadatos de las columnas dañados podían provocar el bloqueo de tareas o la pérdida de datos. |
Filtro aplicado a una columna nueva | Se ha corregido un problema durante la carga completa por el que DMS ignoraba un filtro que una regla de transformación agregaba a una nueva columna. |
S3 como destino: problema de validación | Se ha corregido un problema de S3 como destino que provocaba que la validación de datos generara errores al migrar varias tablas con distintas definiciones de particionamiento de validación. |
Bloqueo de una tarea exclusiva de CDC | Se ha corregido un problema en las tareas exclusivas de CDC que provocaba que la tarea se bloqueara cuando el valor de TaskRecoveryTableEnabled era true . |
Intercalaciones incompatibles de MySQL a MariaDB | Se ha corregido un problema en las migraciones de MySQL a MariaDB por el que DMS no migraba las tablas de MySQL versión 8 con intercalación de tf8mb4_0900_ai_ci . |
Bloqueos de tareas con BatchApplyEnabled |
Se ha corregido un problema de la característica de aplicación por lotes que provocaba que la tarea generara errores en determinadas condiciones. |
Caracteres distintos de UTF-8 en Amazon DocumentDB | Se ha agregado compatibilidad con caracteres que no son UTF-8 en los puntos de conexión de Amazon DocumentDB. |
Bloqueo de la tarea de aplicación por lotes | Se ha corregido un problema de la característica de aplicación por lotes que provocaba que la tarea de DMS se bloqueara al replicar transacciones de gran tamaño. |
Control de la reversión de transacciones de Db2 | Se ha corregido un problema de Db2 como origen que provocaba que DMS replicara un elemento INSERT en el destino, a pesar de revertirse en el origen. |
Validación con filtros de origen | Se ha corregido un problema por el que la validación no respetaba los filtros de origen. |
Problema con el archivo de intercambio de AWS DMS MongoDB | Se ha corregido un problema en el código fuente de MongoDB que provocaba que la tarea de DMS no se reanudara AWS DMS tras la actualización AWS DMS cuando había un archivo de intercambio. |
Problema de migración de MySQL a Amazon Redshift JSON. | Se ha corregido un problema en la fuente MySQL por el que el tipo de datos JSON no se gestionaba correctamente con la aplicación por lotes habilitada. |
Errores de CDC en MySQL 5.5 como origen | Se ha corregido un problema en el código fuente de MySQL por el que la replicación de CDC fallaba con la versión 5.5 de MySQL. |
Problema de migración de LOB | Se ha corregido un problema en la migración de LOB que provocaba que la AWS DMS tarea se bloqueara al procesar determinados tipos de eventos. |
Problema de validación de datos | Se ha corregido un problema en la función de validación de datos que provocaba que la tarea exclusiva de validación se bloqueara en determinados eventos de DDL. |
Problema de validación de datos con los filtros. | Se ha corregido un problema en la función de validación de datos por el que la HandleCollationDiff configuración no se aplicaba cuando había filtros |
Problema SourceEnum de codificación de MySQL. | Se ha corregido un problema en la fuente de MySQL por el que los valores de enumeración codificados en UTF-16 no se migraban correctamente. |
Advertencia de truncamiento de LOB con SQL Server como origen | Se mejoró el registro de la fuente de SQL Server para mostrar una advertencia sobre el truncamiento de un LOB durante la CDC. |
Problema de validación de datos para las migraciones de SQL Server a APG. | Se ha corregido un problema en la migración de SQL Server a PostgreSQL por el que la validación de datos generaba falsos positivos en determinadas situaciones. |
EmptyAsNull Número de ECA para Amazon Redshift Target CDC |
Se ha corregido un problema en el objetivo de Amazon Redshift por el que el EmptyAsNull ECA no funcionaba correctamente. |
Mejora del registro para la fuente de SQL Server | Se ha mejorado el registro de la fuente de SQL Server para incluir el valor de la unidad de almacenamiento. |
Problema de pérdida de memoria | Se ha corregido un error que provocaba una pérdida de memoria en los objetivos que utilizaban archivos CSV para cargar datos en la AWS DMS tarea. |
Problema de destino de Amazon S3 | Se ha corregido un problema en el objetivo de Amazon S3 por el que CdcMaxBatchInterval no CdcMinFileSize se respetaban ni se respetaban cuando se activaba la cdcInsertAndUpdateOnly configuración. |
Mejora del registro para el objetivo de Kafka | Registro mejorado para el objetivo de Kafka |
Mejora del registro para Oracle Source. | Registro mejorado para el código fuente de Oracle con lector binario para indicar correctamente las tablas que se están omitiendo debido a la falta de claves principales. |
Mejora del registro para la fuente de SQL Server | Se ha mejorado el registro de la fuente de SQL Server en AlwaysOn la configuración para indicar correctamente los permisos faltantes. |
Mejora del registro para migraciones con DDL deshabilitado | Se mejoró el registro de las migraciones con la replicación DDL deshabilitada para indicar una estructura de tabla de destino inesperada después de haberla modificado fuera de ella. AWS DMS |
Problema de destino de DB2 | Se ha corregido un problema en el destino de Db2 por el que la tarea fallaba cuando la tabla de estado del DMS estaba habilitada. |
Problema con el administrador secreto de MongoDB/Amazon DocumentDB. | Se ha corregido un problema en los puntos finales de MongoDB y Amazon DocumentDB por el que no se podían recuperar las credenciales de Secret Manager, lo que provocaba un error. |
Problema con el punto de conexión entre MongoDB y Amazon DocumentDB | Se ha corregido un problema en MongoDB o Amazon DocumentDB por el que la tarea fallaba si estaba habilitada al replicar una secuencia ParallelApply de eventos determinada. |
Problema de validación de datos de MongoDB/Amazon DocumentDB | Se ha corregido un problema en la validación de datos de MongoDB y Amazon DocumentDB por el que se producía un error tras detectar diferencias en los datos. |
Mejora del registro para Amazon Redshift Target | Registro mejorado para Amazon Redshift Target para incluir información más detallada en el nivel de registro predeterminado. |
Problema de bloqueo de tareas de destino de Amazon S3 | FIxed un problema para el objetivo de Amazon S3 en el que la AWS DMS tarea se bloqueaba después de recibir el DDL de la tabla alterada cuando estaba GlueCatalogGeneration habilitada. |
Problema de validación de datos | Se ha corregido un problema en la función de validación de datos que provocaba que la validación de los NUL (0x00) caracteres fallara. |
Problema con el punto final de Babelsich | Se ha corregido un error en el punto final de Babelfish que provocaba que se suspendieran los nombres de las tablas con mayúsculas y minúsculas. |
Se produjo un problema con las reglas de selección en la fuente LUC de Db2. | Se ha corregido un problema en la fuente LUW de Db2 por el que se ignoraba la opción «tipo tabla» en las reglas de selección. |
Amazon Redshift apunta a un problema de datos faltantes. | Se ha corregido un problema en el objetivo de Amazon Redshift por el que la pérdida de datos se producía cuando ParallelLoadThreads estaba >0 en determinadas condiciones. |
Mejora de la validación de datos para Amazon Redshift Target | Se mejoró la función de validación de datos de Amazon Redshift Target para que sea compatible HandleCollationDiff con la configuración. |
Problema de validación de datos de destino de Amazon S3 | Se ha corregido un problema en la validación de los datos de destino de Amazon S3 por el que la validación fallaba cuando no había más columnas que el PK en la tabla. |
Métricas de validación de CloudWatch datos | Se ha corregido un problema en la función de validación de datos por el que faltaban CloudWatch las métricas durante la validación, que tardaba poco tiempo en completarse. |
La opción de revalidación de datos no estaba disponible | Se ha corregido un problema en la función de validación de datos que provocaba que la opción de revalidación no estuviera disponible en determinadas situaciones. |
Problema de replicación de grandes transacciones | Se solucionó un problema por el que el número máximo de eventos por transacción se limitaba a 201.326.592 en determinadas condiciones. |
Problema con la recarga de la tabla | Se ha corregido un error que provocaba que se cancelara la recarga de varias mesas cuando al menos una de las tablas no era válida. |
Problema de pérdida de datos de origen de MySQL | Se ha corregido un problema en la migración de MySQL a S3 por el que se pasaba por alto el primer DML ejecutado después del DDL «añadir columna», lo que provocaba la pérdida de datos. |
Se produjo un problema de pérdida de memoria en la aplicación por lotes | Se ha corregido un problema de pérdida de memoria en la función de aplicación por lotes que se producía en determinadas condiciones. |
AWS DMS problema de inicio de tareas | Se ha corregido un error que provocaba que el inicio de la AWS DMS tarea tardara mucho tiempo y nunca se completara. |
Problema de datos faltantes en el origen de PostgreSQL | Se ha corregido un problema en el origen de PostgreSQL que provocaba la pérdida de datos debido a eventos desconocidos en la ranura de replicación. |
Orden de las columnas LOB de origen y destino de MySQL | Se ha corregido un problema con la migración de columnas Lob de origen y destino de MySQL. Ahora DMS usa el identificador de columna de la tabla de destino en lugar de la tabla de origen a la hora de decidir en qué columna debemos escribir los datos del LOB. |
La tarea de MySQL 5.5 falla al leer el binglog durante la replicación en curso (CDC). | Se corrigió un problema con MySQL 5.5 Source y se agregó un mecanismo de reintento para evitar errores en las tareas cuando el DMS no podía leer los eventos del registro binario durante la replicación en curso (CDC). |
Error de segmentación del código fuente de PostgreSQL y pérdida de memoria al utilizar el complemento de decodificación de prueba. |
Se ha corregido un problema con PostgreSQL Source que provocaba que algunos eventos de replicación continua (CDC) no se analizaran correctamente al utilizar el complemento test_decocoding para PostgreSQL. |
Configuración de aplicación paralela de DocumentDB Target | Se ha corregido un problema con el objetivo de DocumentDB con la configuración de aplicación paralela que impedía el uso de varios subprocesos al utilizar esta función. |
Inserción directa de compresión HCC de Oracle | Se ha corregido un problema con la compresión DIRECT INSERT de Oracle HCC con una sugerencia de DML paralela que provocaba datos faltantes o duplicados. |
Problema con el lector binario de Oracle con la CPU de julio de 2024 | Se solucionó un problema con Oracle Source: la tarea de DMS con el lector binario fallaba debido a una CPU de Oracle en julio de 2024. |
Las tareas de replicación continua (CDC) de DMS fallaban con TaskRecoveryTableEnabled | Se ha corregido un problema con la TaskRecoveryTableEnabled opción Habilitada, que provocaba que DMS intentara actualizar la tabla del sistema de destino una awsdms_txn_state vez finalizada la conexión de destino. |
Registros duplicados de origen de PostgreSQL | Se ha corregido un problema con el código fuente de PostgreSQL que provocaba que algunas transacciones se replicaran dos veces cuando TaskrecoveryTableEnabled la configuración estaba habilitada. |
Problema de replicación de origen/destino en DMS S3 | Se solucionó un problema con el origen S3 al destino S3, por el que la tarea de DMS no replicaba los datos durante la carga completa y la replicación en curso. |
Fuente de DMS DB2 : ECA CcsidMapping | Se ha corregido un problema con la DB2 fuente CcsidMapping, ya que el mapeo ECA del CCSID ahora se aplica correctamente a la tarea cuando la página de códigos es 0 y los datos se migran correctamente. |
Replicación de valores booleanos de DMS Aurora PostgreSQL a Redshift Serverless. | Se ha corregido un problema que provocaba que la migración de DMS de Aurora PostgreSQL a Redshift Serverless tuviera un problema con el valor booleano. |
AWS Notas de la versión 3.5.1 de Database Migration Service
Cambio en el manejo de valores numéricos grandes para los destinos de transmisión
En la AWS DMS versión 3.5.1, hay un cambio en la forma en que se gestionan los valores numéricos de alta precisión y enteros grandes al transmitir datos a destinos como Kafka y Kinesis. En concreto, AWS DMS cambió su representación interna del tipo de datos y gestionó estos valores como en lugar de. INT64
INT8
Este cambio puede dar como resultado diferentes formatos de datos en los puntos finales de la transmisión, especialmente cuando los valores superan los límites deINT8
. En consecuencia, la representación de estos tipos numéricos puede diferir de su formato anterior cuando se transmite a destinos como Kafka y Kinesis, lo que podría afectar a los sistemas y procesos posteriores que consumen los datos de estos destinos.
Resumen del cambio:
En versiones anteriores (por ejemplo, 3.4.7/3.4.6), los valores enteros grandes se representaban como enteros.
A partir de la versión 3.5.1, estos valores pueden aparecer en notación científica (por ejemplo,
7.88129934789981E15
), lo que podría provocar diferencias de precisión y formato.
Tipos de datos afectados
El cambio reciente afecta a la representación de varios tipos numéricos cuando se transmiten a puntos finales como Kafka y Kinesis. Los tipos afectados son:
Tipos de enteros grandes (por ejemplo,
bigint
)Tipos de punto flotante ()
FLOAT, DOUBLE
Tipos decimales de alta precisión ()
DECIMAL, NUMERIC
Escenarios afectados:
Migraciones a carga completa a destinos de streaming
Cambie la captura de datos (CDC) a objetivos de streaming
Este cambio afecta específicamente a los puntos finales de streaming, como Kafka y Kinesis, mientras que los destinos que no son de streaming no se ven afectados.
Para mitigar este cambio, puede implementar una transformación del tipo de datos que vuelva al formato anterior y represente los números grandes como enteros. Sin embargo, es importante tener en cuenta que esta solución alternativa puede no ser adecuada para todos los escenarios, ya que podría introducir limitaciones o problemas de compatibilidad.
Recomendaciones:
Pruebe su caso de uso específico en un entorno que no sea de producción antes de implementar la AWS DMS versión 3.5.1 o posterior para identificar y abordar cualquier impacto de este cambio.
Los clientes afectados pueden implementar la solución alternativa de change-data-type transformación, si procede, para volver al formato anterior en el caso de números grandes como enteros. Sin embargo, es posible que este enfoque no se adapte a todos los escenarios.
Estamos revisando este comportamiento para garantizar un manejo uniforme de los tipos de datos en todos los puntos finales en futuras versiones.
La siguiente tabla muestra las nuevas características y mejoras ingresadas en AWS Database Migration Service (AWS DMS) versión 3.5.1.
Nueva característica o mejora | Descripción |
---|---|
Compatibilidad con PostgreSQL 15.x | AWS DMS la versión 3.5.1 es compatible con la versión 15.x de PostgreSQL. Para obtener más información, consulte Uso de Postgre SQL como fuente y Uso de PostgreSQL como destino. |
Compatibilidad con clústeres elásticos de Amazon DocumentDB con recopilaciones fragmentadas | AWS DMS la versión 3.5.1 es compatible con los clústeres elásticos de Amazon DocumentDB con colecciones fragmentadas. Para obtener más información, consulte Uso de Amazon DocumentDB como destino para AWS Database Migration Service. |
Amazon Redshift Serverless como objetivo | Soporte para usar Amazon Redshift Serverless como punto final de destino. Para obtener más información, consulte Uso de una base de datos de Amazon Redshift como destino para AWS Database Migration Service. |
Configuración de punto de conexión de Babelfish | Configuración mejorada del punto de conexión de destino de PostgreSQL para proporcionar compatibilidad con Babelfish. Para obtener más información, consulte Uso de una base de datos de PostgreSQL como destino para AWS Database Migration Service. |
Transacciones abiertas de origen de Oracle | AWS DMS La versión 3.5.1 mejora la metodología de gestión de las transacciones abiertas al iniciar una tarea exclusiva de los CDC desde la posición inicial de una fuente de Oracle. Para obtener más información, consulte OpenTransactionWindow en la sección Configuración del punto final cuando se utiliza Oracle como fuente de AWS DMS. |
Amazon Timestream como destino | Compatibilidad para utilizar Amazon Timestream como punto de conexión de destino. Para obtener más información, consulte Uso de Amazon Timestream como destino para AWS Database Migration Service. |
AWS DMS la versión 3.5.1 incluye los siguientes problemas resueltos:
Problema resuelto | Descripción |
---|---|
Valores numéricos de gran tamaño que gestionan los cambios | Se ha actualizado la representación de valores numéricos grandes en los destinos de transmisión. Consulte la documentación sobre el manejo de valores numéricos grandes en los objetivos de transmisión para obtener más información sobre los posibles impactos. |
Oracle como destino con aumento de sesiones inactivas | Se ha corregido un problema para Oracle como destino por el que las sesiones inactivas de las tareas exclusivas de CDC aumentaban continuamente, lo que generaba la siguiente excepción: ORA-00020: maximum number
of processes exceeded on the source database . |
Replicación de los cambios de UPDATE en DocumentDB | Se ha corregido un problema de DocumentDB como destino por el que las instrucciones UPDATE no se replicaban de forma correcta en algunos escenarios. |
Tarea exclusiva de validación | Se ha mejorado la gestión de errores para que la característica de validación de datos genere correctamente un error de tarea cuando la validación de datos esté deshabilitada para las tareas que son solo de validación. |
Replicación de Amazon Redshift tras la finalización de la conexión | Se ha corregido un problema en el destino de Amazon Redshift por el que la tarea de DMS no volvía a intentar aplicar los cambios en el objetivo cuando el objetivo se ParallelApplyThreads fijaba en un valor superior a cero tras la finalización de la conexión, lo que podía provocar la pérdida de datos. |
Replicación de texto de MySQL a texto mediano | Se ha corregido un problema en la replicación de MySQL a MySQL de tipos de datos de texto mediano con el modo de LOB completo. |
La tarea de CDC no se replica con el secreto rotado | Se ha corregido un problema en las tareas de DMS con BatchApplyEnabled establecido en true por el que DMS dejaba de replicar datos después de que Secrets Manager rotara la contraseña. |
Problema de segmentación de MongoDB/DocumentDB | Se ha corregido un problema en MongoDB/DocDB como origen por el que la segmentación de rangos no funcionaba correctamente cuando la columna de clave principal contenía un valor grande. |
Validación de datos de valores numéricos ilimitados de Oracle | Se ha corregido un problema en Oracle como destino por el que DMS reconocía un valor de tipo de datos ilimitado NUMERIC como STRING durante la validación de los datos. |
Validación de datos de SQL Server | Se ha corregido un problema en los puntos de conexión de SQL Server que provocaba que la validación de datos de DMS generara una instrucción SQL no válida. |
Segmentación automática de MongoDB | Se ha mejorado la funcionalidad de partición automática de datos al migrar documentos en paralelo desde MongoDB como origen. |
Formato Apache Parquet de Amazon S3 | Se ha corregido un problema por el que los archivos de Apache Parquet escritos en S3 como destino se podían ver con Python con Apache Arrow C++. |
Manejo de PostgreSQL como DDL de origen | Se ha corregido un problema con el origen de PostgreSQL por el que las operaciones DDL no compatibles no se ignoraban correctamente. |
Error de datos de timestamptz de PostgreSQL |
Se ha solucionado un problema con las migraciones de PostgreSQL a PostgreSQL por el que la marca temporal con los datos de zona horaria no se migraba correctamente con la aplicación Batch habilitada durante CDC. |
Error de validación de Oracle a PostgreSQL | Se ha corregido un problema con las migraciones de Oracle a PostgreSQL que provocaba un error en la validación de datos para el tipo de datos NUMERIC(38,30). |
Error de tipo de datos extendido de Oracle | Se ha corregido un problema con el origen de Oracle por el que se truncaba el tipo de datos varchar extendido. |
Combinación de operadores de filtro | Se ha corregido un problema en la funcionalidad de filtrado de columnas que impedía combinar el operador de columna nula con otros tipos de operadores. |
Latencia de CDC resultante de un registro excesivo. | Se ha corregido un problema con el origen de PostgreSQL que provocaba que el registro excesivo de las advertencias de los complementos pglogical provocara una latencia de CDC del origen. |
Gestión de replicación bidireccional de creación de DDL de tabla | Se ha corregido un problema de replicación bidireccional de PostgreSQL a PostgreSQL por el que el cambio de creación de DDL de tabla no se replicaba correctamente. |
Error de CDC al utilizar los filtros | Se ha corregido un problema en la característica de filtrado que provocaba un error en la replicación de CDC. |
Validación del nombre de host de la autoridad de certificación para los puntos de conexión de Kafka | Se ha mejorado la funcionalidad de los puntos de conexión de Kafka al agregar la opción de desactivar la validación del nombre de host de la autoridad de certificación (SslEndpointIdentificationAlgorithm ). |
Validación de IBM Db2 LUW | Se ha corregido un problema por el que los tipos de datos de fecha, marca temporal y hora de origen de Db2 LUW no se gestionaban correctamente durante la validación de los datos. |
Validación de S3 | Se ha corregido un problema relacionado con las migraciones de Db2 LUW a S3 por el que la función de validación no gestionaba correctamente el tipo de datos de marca temporal(0). |
Error al reiniciar la tarea de DMS | Se ha corregido un problema con el código fuente de PostgreSQL que provocaba que AWS DMS la tarea no se reiniciara y no pudiera consumir eventos relacionales al utilizar el complemento pglogical. |
Validación de SQL Server del tipo de datos HIERARCHY | Se ha corregido un problema en el origen de SQL Server que provocaba un error en la validación del tipo de datos HIERARCHY. |
Cadenas de SQL Server con caracteres de control | Se ha corregido un problema en el origen de SQL Server por el que las cadenas con caracteres de control no se replicaban correctamente. |
Amazon Redshift con Secrets Manager | Se ha corregido un problema con Amazon Redshift Target que provocaba un error al probar el punto de conexión al utilizar Secrets Manager. |
Incoherencia en ParallelLoadThreads la configuración de MySQL | Se ha corregido un problema con el destino de MySQL por el que la configuración de ParallelLoadThreads no se conservaba correctamente después de cambiar la configuración de la tarea. |
Error al asignar los tipos de datos de PostgreSQL a Oracle | Se solucionó un problema con las migraciones de PostgreSQL a Oracle por el que la tarea fallaba al replicar del tipo de datos TEXT al tipo de datos (2000). VARCHAR2 |
Validación de datos de Oracle a PostgreSQL | Se solucionó un problema con las migraciones de Oracle a PostgreSQL por el que la validación de datos informaba de falsos positivos cuando los caracteres NULOS se replicaban como caracteres ESPACIO. |
Fuente de SQL Server en la configuración AlwaysOn | Se ha corregido un problema con la fuente de SQL Server en AlwaysOn la configuración, que provocaba que la AWS DMS tarea fallara si el nombre de la réplica no coincidía exactamente con el nombre real del servidor. |
Error en la prueba del punto de conexión de origen de Oracle | Se solucionó un problema con Oracle Source que provocaba que la prueba de conexión del AWS DMS punto final fallara debido a la falta de privilegios al recuperar el ID de sesión (SID) de Oracle. |
CDC no recoge tablas nuevas | Se ha solucionado un problema con las tareas exclusivas de CDC, por el que las tablas creadas en el origen después de iniciar la tarea no se replicaban en algunos casos. |
Transacciones abiertas en Oracle como origen | Se ha mejorado la metodología de gestión de las transacciones abiertas al iniciar una tarea exclusiva de CDC desde la posición inicial de un origen de Oracle. |
Problema de datos que faltan | Se ha corregido un problema de falta de datos al reanudar una tarea si esta se detenía después de aplicar los cambios en la memoria caché (opción StopTaskCachedChangesApplied establecida en verdadero). Este problema podía producirse en raras ocasiones si AWS DMS persistían los cambios en caché en el disco de la instancia de AWS DMS replicación debido a un gran volumen de cambios en la fuente. |
Problema de validación de datos en un tipo de datos extendido | Se ha corregido un problema en la validación de datos de PostgreSQL a Oracle que provocaba un error en la validación de los tipos de datos ampliados. |
Problema de validación de datos debido a una codificación de caracteres incoherente | Se ha corregido un problema en la validación de datos de SQL Server a PostgreSQL por el que la validación producía un error cuando la codificación de caracteres era incoherente entre el origen y el destino. |
Problema de validación de datos ORA-01455 | Se ha corregido un problema por el que se producía un error ORA-01455 durante la validación cuando un integer de PostgreSQL se asigna a un number(10) de Oracle. |
Compatibilidad de IDENTITY con SQL Server |
Se ha corregido un problema en la replicación de datos de SQL Server a SQL Server por el que se producía un error al migrar las columnas de identidad cuando la columna de destino tenía la propiedad IDENTITY . |
Problema con el conjunto de caracteres con las instrucciones ALTER | Se ha corregido un problema en la replicación de MySQL a MySQL que AWS DMS cambiaba el juego de caracteres a UTF16 cuando se migraba una ALTER declaración durante la CDC. |
Compatibilidad con los tipos de datos de PostgreSQL a Amazon Redshift Spatial | Se ha agregado compatibilidad con el tipo de datos spatial al migrar de PostgreSQL a Amazon Redshift. |
Compresión GZIP de archivos .parquet | Se solucionó un problema por el que AWS DMS no se podían generar archivos.parquet con compresión GZIP con S3 como destino. |
Migración de orígenes de MongoDB/DocDB | Se ha corregido un error AWS DMS que impedía migrar algunas de las particiones de una fuente de MongoDB. |
Problema de estadísticas de las tablas | Se ha corregido un problema por el que las estadísticas de la tabla no se mostraban cuando al menos una de las tareas de la instancia de replicación contenía más de 1001 tablas. |
Tabla suspendida para las versiones 10.1.0 y anteriores de IBM Db2 LUW | Se ha corregido un problema para el origen LUW de Db2 por el que se suspendía la migración de la tabla y se producía un error TYPESTRINGUNITS is not valid cuando la versión de la base de datos de origen era la 10.1.0 o inferior. |
Problema de particiones de MongoDB | Se ha corregido un problema para MongoDB/DocDB por el que faltaban uno o más segmentos de la partición de origen. |
Problema de particiones de MongoDB | Se solucionó un problema por el que la segmentación basada en una columna del tipo NumberLong () fallaba debido a un error de conversión de tipos. |
Problema de particiones de MongoDB | Rendimiento de segmentación automática mejorado para conjuntos de datos de gran tamaño con MongoDB como origen. |
Versión del controlador de MongoDB | Se ha degradado el controlador de MongoDB a la versión 1.20.0 para seguir siendo compatible con las versiones 3.6 y anteriores de MongoDB. |
Tipo de datos de marca temporal de Amazon S3 Apache Parquet | Se ha corregido un problema con el objetivo de parquet de Amazon S3. AWS DMS ahora establece el parámetro de formato isAdjustedToUTC true para que coincida con el comportamiento de las versiones anteriores de AWS DMS. |
Amazon Redshift como comando de copia de destino | Se ha corregido un problema de Amazon Redshift como destino que provocaba un error en el comando de copia en tablas de gran tamaño al copiar datos de Amazon S3 a Amazon Redshift. |
Tipos de datos geométricos de PostgreSQL | Se ha corregido un problema en las migraciones de PostgreSQL a PostgreSQL por el que la migración producía un error en tipos de datos geométricos de gran tamaño. |
Oracle a PostgreSQL XML | Se ha corregido un problema por el que la migración agregaba un espacio adicional en XML al replicar de Oracle a PostgreSQL. |
Actualización del punto de comprobación de destino en los motores compatibles | AWS DMS ahora actualiza el punto de control de destino en la awsdms_txn_state tabla de la base de datos de destino. |
Registros de MongoDB/DocDB enviados a una recopilación incorrecta | Se ha corregido un problema para MongoDB/DocDB por el que los datos se enviaban a la recopilación de destino incorrecta. |
Fuente Oracle: nueva selección de tablas con configuración de EscapeCharacter punto final | Se ha corregido un problema en el que Oracle Source solo recogía nuevas tablas para replicarlas cuando la tarea se detenía y se reanudaba mientras se establecía la configuración del EscapeCharacter punto final. AWS DMS |
Punto de comprobación de recuperación de CDC | Se ha corregido una incoherencia en el punto de comprobación de recuperación de CDC observada entre el almacén de datos de destino y la consola de AWS DMS . |
Tareas exclusivas de validación de CDC | Se solucionó un problema con las tareas exclusivas de validación de CDC, por el que la tarea no producía un error aunque todas las tablas de la tarea presentaban errores. |
Comportamiento de validación con problemas de conexión de origen o destino | Se ha corregido un problema relacionado con la validación de datos que AWS DMS provocaba que las tablas se suspendieran en el origen o en el destino cuando se cortaba la conexión. |
Falsos positivos en la validación de datos de Oracle a PostgreSQL | Se ha corregido un problema con la validación de datos de Oracle en PostgreSQL que AWS DMS provocaba falsos positivos. Esto debe a las diferencias en la representación de los caracteres NULL de origen en el destino no se tenían en cuenta con tipos de datos basados en texto distintos de VARCHAR. |
Truncamiento de datos de Oracle a PostgreSQL | Se ha corregido un problema con Oracle como origen y PostgreSQL como destino por el que AWS DMS truncaba los datos de las columnas NVARCHAR con la configuración NLS_NCHAR_CHARACTERSET de Oracle establecida en AL16UTF16 . |
Error de validación de datos | Se ha corregido un problema con la validación de datos que provocaba que se produjera un error unable to create where filter clause cuando se utilizaban tanto el filtrado de orígenes como una regla de transformación de adición de columnas. |
Gestión de errores de Amazon Redshift Target | Se solucionó un problema con Amazon Redshift como objetivo por el que la gestión de errores no funcionaba según lo configurado cuando la tarea de CDC tenía la configuración de la ParallelApplyThreads tarea establecida en un valor superior a cero. |
Oracle como un error de comunicación de origen | Se solucionó un problema con Oracle como origen por el que la tarea permanecía en el estado RUNNING , pero no podía migrar ningún dato tras un error de comunicación. |
Tabla de CDC suspendida con filtros de columna | Se ha corregido un problema relacionado con las tareas a plena carga más CDC, que provocaba que una tabla se suspendiera durante la fase de CDC al aplicar filtros de columnas. |
S3 era un error de validación de datos de destino para caracteres especiales | Se ha corregido un problema con la validación de los datos de destino de S3 que provocaba que la tarea fallara si el nombre de la tabla incluía un carácter especial que no fuera un carácter de subrayado. |
Error de carga completa y CDC de origen de MongoDB | Se ha corregido un problema con MongoDB como origen que provocaba que una tarea de plena carga más CDC produjera un error al gestionar los eventos de caché al migrar una recopilación grande. |
Actualizar problema con BatchApplyEnabled establecido en verdadero |
Se solucionó un problema por el que, en algunos casos, una BatchApplyEnabled tarea con la configuración de tareas establecida en True fallaba después de migrar de la AWS DMS versión 3.4.6 a la 3.5.1. |
AlwaysOn Fuente de SQL Server con intercalación que distingue entre mayúsculas y minúsculas | Se ha corregido un problema con SQL Server AlwaysOn como fuente que provocaba que una tarea fallara si se clasificaba entre mayúsculas y minúsculas. |
Bloqueo de la tarea de origen de MySQL | Se ha corregido un problema con MySQL como origen por el que una tarea se bloqueaba en lugar de producir un error cuando el origen no estaba configurado correctamente. |
Error en la tarea de carga completa del origen de S3 | Se ha corregido un problema con S3 como fuente que provocaba un error al reanudarse una tarea tras actualizar de la AWS DMS versión 3.4.6 o 3.4.7 a la versión 3.5.1. |
Fuente de PostgreSQL con DDLs la captura configurada en false | Se ha corregido un problema con PostgreSQL como fuente DDLs que no se gestionaba correctamente con CaptureDDLs la configuración del punto final establecida en false. |
La tarea de origen de Oracle se bloqueaba durante la reanudación | Se solucionó un problema con Oracle como origen por el que una tarea se bloqueaba al reanudarse debido a datos incorrectos en el nombre de la columna. |
Error en la búsqueda de LOB en el origen de MySQL | Se ha corregido un problema con MySQL como origen por el que se producía un error en la búsqueda de LOB cuando la configuración de la tarea ParallelApplyThreads se establecía en un valor superior a cero. |
Error ilógico de LSN en el origen de SQL Server | Se ha corregido un problema con SQL Server como fuente que provocaba un illogical LSN sequencing state error error en una tarea tras la actualización de la AWS DMS versión 3.4.7 a la 3.5.1. |
Origen de PostgreSQL con pglogical | Se ha corregido un problema con PostgreSQL como origen por el que una tarea que utilizaba el complemento pglogical producía un error cuando la tarea se detenía, se eliminaba una tabla de las reglas de selección, se reanudaba la tarea y se realizaban cambios en la tabla eliminada. |
Punto de comprobación de recuperación incorrecto de Aurora MySQL. | Se ha corregido un problema en Aurora MySQL como origen que provocaba que se guardara un punto de comprobación de recuperación incorrecto como resultado de una conmutación por error de Aurora o de una parada e inicio de un origen de Aurora. |
Bloqueo de tarea de SQL Server como origen. | Se ha corregido un problema de SQL Server como origen que provocaba que una tarea se bloqueara cuando SafeguardPolicy estaba establecido en RELY_ON_SQL_SERVER_REPLICATION_AGENT . |
Emisión incorrecta de tipos de datos con MySQL como destino | Se ha corregido un problema en MySQL como destino que provocaba que la replicación de CDC generara un error debido a una emisión incorrecta de los tipos de datos en la fase de aplicación por lotes. |
Error en la tarea con Capture DDLs establecida en false para PostgreSQL como fuente. | Se ha corregido un problema en PostgreSQL como origen que provocaba que una tarea generara un error debido a que un DDL se trataba como un DML cuando la configuración del punto de conexión CaptureDDLs se establecía en false . |
Bloqueo de la recopilación vacía de MongoDB | Se ha corregido un problema de MongoDB como origen que provocaba que la tarea se bloqueara debido a una colección vacía. |
Amazon Redshift como objetivo: bloqueo de tareas a plena carga | Se ha corregido un problema en Amazon Redshift como objetivo que provocaba que una tarea se bloqueara durante la fase de carga completa cuando la tabla de control de puntos de control de recuperación estaba habilitada. |
S3 a S3: no hay movimiento de datos. | Se solucionó un problema en la replicación de S3 a S3 que AWS DMS impedía replicar los datos si no bucketFolder se especificaban. |
Latencia de CDC con GlueCatalogGeneration establecido en true |
Se ha corregido un problema de S3 como destino que provocaba que se produjera una latencia excesiva si GlueCatalogGeneration se establecía en true . |
Truncamiento de datos de Oracle como destino | Se ha corregido un problema con Oracle como objetivo que AWS DMS truncaba los datos en VARCHAR2 columnas. |
Comportamiento de caracteres comodín de subrayado de PostgreSQL | Se ha corregido un problema en PostgreSQL como origen que provocaba que el comportamiento del comodín '_' en las reglas de selección no funcionara según lo documentado. |
Problema de encabezado WAL vacío de PostgreSQL como origen. | Se ha corregido un problema en PostgreSQL como origen que provocaba que la tarea generara un error debido a que se recibía un encabezado WAL vacío de la ranura de replicación. |
MySQL o MariaDB como origen con registros binarios comprimidos | Se ha corregido un problema con MySQL y MariaDB como fuentes por el que no se emitía un mensaje de error adecuado AWS DMS cuando se detectaba una compresión BINLOG. |
Caracteres especiales de validación de datos de S3 | Se ha mejorado la validación de datos de S3 para controlar los caracteres especiales en las columnas de clave principal y no principal. |
Entradas de registro de tareas engañosas con Amazon Redshift como objetivo. | Se ha corregido un problema en Amazon Redshift como objetivo por el que aparecían entradas engañosas en el registro de tareas que informaban de errores en las sentencias de aplicación por lotes en UPDATES y DELETES. |
Bloqueo de tarea de migración de SQL Server a S3. | Se ha corregido un problema en las migraciones de SQL Server a S3 que provocaba que la tarea se bloqueara al aplicar los cambios almacenados en caché. |
Errores de ausencia de datos en la aplicación por lotes. | Se ha corregido un problema en la característica de aplicación por lotes que provocaba que faltaran datos si se producía un error al aplicar un lote. |
Mejora del registro para la fuente de SQL Server | Se mejoró el registro de la fuente de SQL Server para incluir el valor de la unidad de almacenamiento. Se ha mejorado el registro de la fuente de SQL Server en AlwaysOn la configuración para indicar correctamente los permisos faltantes. |
Mejora del registro para el objetivo de Kafka | Se introdujeron varias mejoras de registro para proporcionar una mejor visibilidad y capacidades de solución de problemas para el objetivo de Kafka. |
Mejora del registro para Oracle Source. | Registro mejorado para el código fuente de Oracle con lector binario para indicar correctamente las tablas que se están omitiendo debido a la falta de claves principales. |
Mejora del registro para migraciones con DDL deshabilitado | Se mejoró el registro de las migraciones con la replicación DDL deshabilitada para indicar una estructura de tabla de destino inesperada después de haberla modificado fuera de ella. AWS DMS |
Mejora del registro para la captura de fuentes pausada. | Registro mejorado para explicar mejor la situación de captura de fuentes en pausa. |
Mejora del registro para el intercambio AWS DMS | Registro mejorado para indicar cuándo se AWS DMS está leyendo un archivo de intercambio interno. |
Mejora del registro para Amazon Redshift Target | Registro mejorado para Amazon Redshift Target para incluir información más detallada en el nivel de registro predeterminado. |
Mejora del registro para el administrador de metadatos | Se ha mejorado el registro para informar de problemas con los datos de datos de la tabla por debajo del nivel de registro de información para simplificar la resolución de problemas. |
Mejora de la validación de datos para Amazon Redshift Target | Se mejoró la función de validación de datos de Amazon Redshift Target para que sea compatible HandleCollationDiff con la configuración. |
La opción de revalidación de datos no está disponible | Se ha corregido un problema en la función de validación de datos que provocaba que la opción de revalidación no estuviera disponible en determinadas situaciones. |
Problema de recarga de la tabla | Se ha corregido un error que provocaba que se cancelara la recarga de varias mesas cuando al menos una de las tablas no era válida. |
Problema de migración de MySQL a Amazon Redshift JSON. | Se ha corregido un problema en la fuente MySQL por el que el tipo de datos JSON no se gestionaba correctamente con la aplicación por lotes habilitada. |
Problema de filtrado de columnas | Se ha corregido un problema en la función de filtrado de columnas que provocaba que los filtros no se aplicaran correctamente a las columnas recién añadidas durante la fase de edición limitada. |
Problema con la fuente LUC de Db2 con las reglas de selección. | Se ha corregido un problema en la fuente LUW de Db2 por el que se ignoraba la opción «tipo tabla» en las reglas de selección. |
Problema de validación de datos con las tareas filtradas. | Se ha corregido un problema en la función de validación de datos por el que no se respetaban los filtros al validar los datos. |
Problema de migración de LOB | Se ha corregido un problema en la migración de LOB que provocaba que la AWS DMS tarea se bloqueara al procesar determinados tipos de eventos. |
Problema de validación de datos | Se ha corregido un problema en la función de validación de datos que provocaba que la tarea exclusiva de validación se bloqueara en determinados eventos de DDL. |
Problema de validación de datos con los filtros | Se ha corregido un problema en la función de validación de datos por el que la HandleCollationDiff configuración no se aplicaba cuando había filtros |
Problema SourceEnum de codificación de MySQL. | Se ha corregido un problema en la fuente de MySQL por el que los valores de enumeración codificados en UTF-16 no se migraban correctamente. |
Problema de validación de datos en las migraciones de SQL Server a APG. | Se ha corregido un problema en la migración de SQL Server a PostgreSQL por el que la validación de datos generaba falsos positivos en determinadas situaciones. |
EmptyAsNull Número de ECA para Amazon Redshift Target CDC | Se ha corregido un problema en el objetivo de Amazon Redshift por el que el EmptyAsNull ECA no funcionaba correctamente. |
Problema de pérdida de memoria | Se ha corregido un error que provocaba que la tarea de DMS sufriera pérdidas de memoria en los objetivos que utilizaban archivos CSV para cargar datos. |
Reglas de transformación con validación de datos | Se ha corregido un problema en la función de validación de datos por el que las reglas de transformación se ignoraban cuando existían reglas de anulación. |
Problema con el objetivo de S3 | Se ha corregido un problema en el objetivo de Amazon S3 por el que CdcMaxBatchInterval no CdcMinFileSize se respetaban ni se respetaban cuando se activaba la cdcInsertAndUpdateOnly configuración. |
Problema de destino de MySQL | Se ha corregido un problema en el destino de MySQL que provocaba que los metadatos de las columnas dañados pudieran provocar el bloqueo de la AWS DMS tarea o la pérdida de datos. |
Problema de validación de datos | Se ha corregido un problema en la función de validación de datos que provocaba que el proceso de validación finalizara prematuramente en cualquier suspensión de tablas. |
Problema de aplicación por lotes objetivo de Oracle | Se ha corregido un problema en Oracle Target que provocaba que la AWS DMS tarea se bloqueara con Batch Apply activada. |
Problema de validación de datos de destino de Amazon S3. | FIxed un problema con la validación de los datos de destino de Amazon S3 en el que la tarea fallaba debido a que Athena no almacenaba correctamente los nombres de las tablas. |
Problema con el administrador secreto de MongoDB y Amazon DocumentDB. | Se ha corregido un problema en los puntos finales de MongoDB y Amazon DocumentDB por el que no se podían recuperar las credenciales de Secret Manager, lo que provocaba un error. |
El problema es que la validación de datos de Oracle no se completa nunca. | Se ha corregido un problema en la validación de datos de Oracle por el que la validación de determinadas tablas nunca se completaba. |
La validación de datos está en suspenso | Se ha corregido un problema en la función de validación de datos que provocaba que la validación de determinadas tablas se bloqueara debido a una asignación de memoria insuficiente. |
Problema de bloqueo de tareas de destino de Amazon S3 | Se ha corregido un problema en el objetivo de Amazon S3 por el que la AWS DMS tarea se bloqueaba después de recibir el DDL de la tabla alterada cuando estaba GlueCatalogGeneration habilitada. |
Problema de validación de datos | Se ha corregido un problema en la función de validación de datos que provocaba que la validación de los NUL (0x00) caracteres fallara. |
Problema con el punto final de Babelsich | Se ha corregido un error en el punto final de Babelfish que provocaba que se suspendieran los nombres de las tablas con mayúsculas y minúsculas. |
Amazon Redshift apunta a un problema de datos faltantes | Se ha corregido un problema en el objetivo de Amazon Redshift por el que la pérdida de datos se producía cuando ParallelLoadThreads estaba >0 en determinadas condiciones. |
Problema de validación de datos de destino de Amazon S3 | Se ha corregido un problema en la validación de los datos de destino de Amazon S3 por el que la validación fallaba cuando no había más columnas que el PK en la tabla. |
Métricas de validación de CloudWatch datos | Se ha corregido un problema en la función de validación de datos por el que faltaban CloudWatch las métricas durante la validación, que tardaba poco tiempo en completarse. |
Se produjo un problema de pérdida de memoria durante la aplicación por lotes | Se ha corregido un problema de pérdida de memoria en la función de aplicación por lotes que se producía en determinadas condiciones. |
AWS DMS problema de inicio de tareas | Se ha corregido un error que provocaba que el inicio de la AWS DMS tarea tardara mucho tiempo y nunca se completara. |
Problema de datos faltantes en el origen de PostgreSQL | Se ha corregido un problema en el origen de PostgreSQL que provocaba la pérdida de datos debido a eventos desconocidos en la ranura de replicación. |
Problema de pérdida de datos objetivo en Amazon S3 | Se ha corregido un problema en el destino de Amazon S3 que provocaba que una búsqueda fallida de LOB provocara la pérdida de datos. |
AWS Notas de la versión beta de Database Migration Service 3.5.0
importante
AWS DMS La 3.5.0 es una versión beta del motor de instancias de replicación. AWS DMS admite esta versión de la misma manera que todas las versiones anteriores. Sin embargo, le recomendamos que pruebe la versión beta de la versión AWS DMS 3.5.0 antes de usarla con fines de producción.
En la siguiente tabla se muestran las nuevas funciones y mejoras introducidas en la versión 3.5.0 Beta de AWS Database Migration Service (AWS DMS).
Nueva característica o mejora | Descripción |
---|---|
Viaje en el tiempo para Oracle y Microsoft SQL Server | Ahora puede usar Time Travel en todas AWS las regiones con puntos de enlace de origen de Oracle, Microsoft SQL Server y PostgreSQL compatibles con DMS, y puntos de enlace de destino de PostgreSQL y MySQL compatibles con DMS. |
Validación de S3 | AWS DMS ahora admite la validación de datos replicados en los puntos de enlace de destino de Amazon S3. Para obtener información sobre la validación de los datos de destino de Amazon S3, consulte Validación de datos de destino de Amazon S3. |
Integración del catálogo de Glue | AWS Glue es un servicio que proporciona formas sencillas de categorizar los datos y consta de un repositorio de metadatos conocido como. AWS Glue Data Catalog Ahora puede integrarlo AWS Glue Data Catalog con su terminal de destino de Amazon S3 y consultar los datos de Amazon S3 a través de otros AWS servicios, como Amazon Athena. Para obtener más información, consulte AWS Glue Data Catalog Utilización con un objetivo de Amazon S3 para AWS DMS. |
Solicitar en paralelo DocumentDB como destino | Al utilizar DocumentDB como objetivo con nuevas configuraciones de ParallelApply* tareas, AWS DMS ahora admite un máximo de 5000 registros por segundo durante la replicación de los CDC. Para obtener más información, consulte Uso de Amazon DocumentDB como destino para AWS Database Migration Service. |
Registro centrado en el cliente | Ahora puede examinar y administrar los registros de tareas de manera más eficaz con la AWS DMS versión 3.5.0. Para obtener información sobre cómo ver y administrar los registros de tareas del AWS DMS, consulte. Consulta y administración de registros de tareas de AWS DMS |
SASL_PLAIN mecanismo para los puntos finales de destino de Kafka | Ahora puede utilizar la SASL_PLAIN autenticación para admitir los puntos finales de destino de Kafka MSK. |
Replicación de transacciones XA en MySQL | Ahora puede usar transacciones XA en el origen de MySQL DMS. Antes de la versión 3.5.0 de DMS, los cambios de DML aplicados como parte de las transacciones de XA no se replicaban correctamente. |
Tipos de datos extendidos de Oracle | AWS DMS ahora admite la replicación de tipos de datos ampliados en la versión 12.2 y versiones posteriores de Oracle. |
Entorno Db2 LUW PureScale | AWS DMS ahora admite la replicación desde un entorno LUW de Db2. PureScale Esta funcionalidad solo se admite con la opción Iniciar el procesamiento de los cambios desde la posición de cambio de origen. |
Origen de SQL Server con la opción READ_COMMITTED_SNAPSHOT |
Si utiliza una base de datos de origen de Microsoft SQL Server con la READ_COMMITTED_SNAPSHOT opción establecida enTRUE , puede replicar los cambios de DML correctamente configurando el atributo de conexión de forceDataRowbúsqueda. |
AWS DMS La versión 3.5.0 incluye los siguientes problemas resueltos:
Tema | Resolución |
---|---|
Oracle: compara mayúsculas y minúsculas de una cadena convertida de numérica | Se ha corregido un problema en el origen de Oracle por el que las reglas de filtrado no funcionaban como se esperaba para una columna numérica cuando existía una transformación del tipo de datos en cadena para la misma columna. |
Mejoras en las instalaciones de SQL Server AG | Se mejoró la eficiencia de la gestión de conexiones con el código fuente de SQL Server en la AlwaysOnconfiguración al eliminar las conexiones innecesarias a réplicas que no utiliza el DMS. |
Conversión interna de HIERARCHYID de SQL Server | Se ha solucionado un problema con SQL Server Source, por el que el tipo de datos HIERARCHYID se replicaba como VARCHAR (250) en lugar de HIERARCHYID en el destino de SQL Server. |
Solución de la tarea de traslado de destino de S3 | Se ha corregido un error que provocaba que mover una tarea con un objetivo de S3 tardara mucho tiempo, pareciera estar inmovilizada o no se completara nunca. |
Mecanismo Plain de SASL de Kafka | Se ingresó la compatibilidad con el método de autenticación Plain de SASL para el punto de conexión Kafka MSK. |
La carga o aplicación en paralelo produce un error debido al parámetro _type con Opensearch 2.x | Se ha corregido un problema en el objetivo de Opensearch 2.x por el que la carga paralela o la aplicación paralela producían un error debido a la falta de compatibilidad con el parámetro _type. |
Filtro de asignación de tablas de ayuda con operadores mixtos | Se ha eliminado una limitación por la que solo se podía aplicar un filtro a una columna. |
Puntos de conexión de S3, Kinesis y Kafka: migración de columnas de LOB basada en modificaciones en la fase de CDC | Se ha corregido un problema en los objetivos de Kinesis, Kafka y S3 que impedía replicar los datos de las columnas de LOB agregadas durante CDC. |
Actualización del controlador de MongoDB | Se ha actualizado el controlador de MongoDB a la versión 1.23.2. |
Actualización del controlador de Kafka | Se ha actualizado el controlador de Kafka de 1.5.3 a 1.9.2. |
La configuración del punto de conexión de S3 no funcionaba correctamente | Se ha corregido un problema en el destino de S3 por el que la configuración del punto de conexión de AddTrailingPaddingCharacter no funcionaba cuando los datos contenían el carácter especificado como delimitador del destino de S3. |
La tarea de destino de Kinesis se bloquearía | Se ha corregido un problema en el destino de Kinesis que provocaba que una tarea se bloqueara cuando el valor de PK estaba vacío y se activaba la depuración detallada. |
Cuando los nombres de las columnas de destino de S3 se desplazaban una posición | Se ha corregido un error en un destino de S3 por el que los nombres de las columnas se desplazaban una posición cuando AddColumnName se establecía en true y TimestampColumnName se establecía en "" . |
Se ha mejorado la advertencia de truncamiento de LOB en el registro | Se ha mejorado el registro de advertencias sobre el truncamiento de LOB para que el origen de SQL Server incluya la instrucción de selección utilizada para recuperar el LOB. |
Agregue un error grave para evitar que la tarea de DMS se bloquee si la contraseña de TDE es incorrecta. | Se ha ingresado un mensaje de error significativo y se ha eliminado el problema de bloqueo de la tarea en situaciones en las que la tarea de DMS producía un error sin ningún mensaje de error debido a una contraseña de TDE incorrecta para Oracle como origen. |
Permite la migración de DDL CTAS (crear tabla según lo seleccionado) de PostgreSQL durante CDC. | Se eliminaron las limitaciones que impedían a DMS replicar las CTAS de PostgreSQL (crear la tabla según lo seleccionado) durante los CDC. DDLs |
Corrija el bloqueo de la tarea pg_logical cuando se eliminaban las columnas de la tabla en CDC. | Se ha corregido un problema en el código fuente de PostgreSQL con el destino S3 que provocaba que las columnas estuvieran mal alineadas en el destino cuando el soporte LOBs para estaba deshabilitado y estaba presente. LOBs |
Corregir la pérdida de memoria en el manejo de conexiones de MySQL | Se ha corregido un problema en el origen de MySQL por el que el consumo de memoria de las tareas aumentaba continuamente. |
Configuración del punto de conexión de origen de Oracle: ConvertTimestampWithZoneToUTC |
Establezca este atributo en true para convertir el valor de la marca temporal de las columnas “TIMESTAMP WITH TIME ZONE” y “TIMESTAMP WITH LOCAL TIME ZONE” a UTC. De forma predeterminada, el valor de este atributo es “falso” y los datos se replican con la zona horaria de la base de datos de origen. |
Origen de Oracle: DataTruncationErrorPolicy a SUSPEND_TABLE no funciona |
Se ha corregido un problema del origen de Oracle con destino de S3 por el que las tablas no se suspendían mientras la configuración de la tarea DataTruncationErrorPolicy estaba establecida en SUSPEND_TABLE. |
SQL Server produce un error en un esquema o tabla largos al crear una cláusula de consulta | Se ha solucionado un problema en el origen de SQL Server por el que la tarea producía un error o dejaba de responder cuando la regla de selección contenía una lista de tablas separadas por comas. |
Autenticación de Secret Manager con el punto de conexión de MongoDB | Se ha corregido un problema en los puntos de conexión de MongoDB y DocumentDB por el que la autenticación basada en Secret Manager no funcionaba. |
DMS truncaba los datos durante la CDC para una columna varchar de varios bytes cuando NLS_NCHAR_CHARACTERSET está establecido en UTF8 | Se solucionó un problema en el origen de Oracle con el destino de Oracle, por el que se truncaban los datos de las columnas VARCHAR de varios bytes con el valor NLS_NCHAR_CHARACTERSET establecido en. UTF8 |
filterTransactionsOfUser ECA para Oracle LogMiner |
Se agregó un atributo de conexión adicional (ECA) filterTransactionsOfUser para permitir que DMS ignore las transacciones de un usuario específico al replicar desde Oracle mediante Oracle. LogMiner |
Error recuperable al configurar SQL Server cuando falta lsn en la copia de seguridad | Se ha corregido un problema de SQL Server por el que una tarea no fallaba si faltaba LSN. |
AWS Notas de la versión 3.4.7 de Database Migration Service
En la siguiente tabla se muestran las nuevas funciones y mejoras introducidas en la versión 3.4.7 de AWS Database Migration Service (AWS DMS).
Nueva característica o mejora | Descripción |
---|---|
Compatibilidad con Babelfish como destino |
AWS DMS ahora es compatible con Babelfish como objetivo. Con él AWS DMS, ahora puede migrar datos en tiempo real desde cualquier fuente AWS DMS compatible a un Babelfish, con un tiempo de inactividad mínimo. Para obtener más información, consulte Uso de Babelfish como objetivo para AWS Database Migration Service. |
Compatibilidad con las bases de datos IBM Db2 z/OS como origen solo a plena carga |
AWS DMS ahora es compatible con las bases de datos IBM Db2 z/OS como fuente. Con él AWS DMS, ahora puede realizar migraciones en tiempo real desde mainframes Db2 a cualquier destino compatible. AWS DMS Para obtener más información, consulte Uso de bases de datos IBM Db2 para z/OS como origen para AWS DMS. |
Compatibilidad con las réplicas de lectura de SQL Server como origen |
AWS DMS ahora admite la réplica de lectura de SQL Server como fuente. Con él AWS DMS, ahora puede realizar migraciones en vivo desde la réplica de lectura de SQL Server a cualquier destino AWS DMS compatible. Para obtener más información, consulte Uso de una base de datos de Microsoft SQL Server como origen para AWS DMS. |
Eventos de Support EventBridge DMS |
AWS DMS admite la gestión de suscripciones a eventos mediante eventos EventBridge de DMS. Para obtener más información, consulte Trabajo con eventos y notificaciones de Amazon EventBridge en AWS Database Migration Service. |
Compatibilidad con puntos de conexión de origen y destino de VPC |
AWS DMS ahora admite puntos de enlace de Amazon Virtual Private Cloud (VPC) como orígenes y destinos. AWS DMS ahora pueden conectarse a cualquier AWS servicio con puntos de enlace de VPC cuando las rutas definidas explícitamente a los servicios están definidas en su VPC. AWS DMS notaLas actualizaciones a AWS DMS las versiones 3.4.7 y posteriores requieren que primero se configure AWS DMS para usar puntos de enlace de VPC o rutas públicas. Este requisito se aplica a los puntos de enlace de origen y destino de Amazon S3, Amazon Kinesis Data Streams AWS Secrets Manager, Amazon DynamoDB, Amazon Redshift y Amazon Service. OpenSearch Para obtener más información, consulte Configuración de puntos de conexión de VPC como puntos de conexión de origen y destino de AWS DMS. |
Nueva versión de PostgreSQL | PostgreSQL versión 14.x ahora es compatible como origen y destino. |
Compatibilidad con Aurora sin servidor v2 como destino |
AWS DMS ahora es compatible con Aurora Serverless v2 como objetivo. Con AWS DMSél, ahora puede realizar migraciones en vivo a Aurora Serverless v2. Para obtener información sobre los AWS DMS destinos compatibles, consulte. Destinos para la migración de datos |
Nuevas versiones de IBM Db2 para LUW |
AWS DMS ahora es compatible con las versiones 11.5.6 y 11.5.7 de IBM Db2 for LUW como fuente. Con él AWS DMS, ahora puede realizar migraciones en directo desde las últimas versiones de IBM for LUW. DB2 Para obtener información sobre AWS DMS las fuentes, consulte. Orígenes para la migración de datos Para obtener información sobre AWS DMS los objetivos compatibles, consulteDestinos para la migración de datos. |
AWS DMS La versión 3.4.7 incluye el siguiente comportamiento nuevo o modificado y los problemas resueltos:
-
Ahora puede usar un formato de fecha de la definición de tablas para analizar una cadena de datos y convertirla en un objeto de fecha cuando utilice Amazon S3 como origen.
-
Ya están disponibles los nuevos contadores de estadísticas de tablas:
AppliedInserts
,AppliedDdls
,AppliedDeletes
yAppliedUpdates.
-
Ahora puede elegir el tipo de mapeo predeterminado cuando OpenSearch lo utilice como objetivo.
-
La nueva configuración de
TrimSpaceInChar
punto final para Oracle, PostgreSQL SQLServer y las fuentes le permite especificar si se deben recortar los datos en los tipos de datos CHAR y NCHAR. -
La nueva configuración del punto de conexión
ExpectedBucketOwner
de Amazon S3 evita los saqueos cuando se utiliza S3 como origen o destino. -
Para RDS SQL Server, Azure SQL Server y SQL Server autoadministrado, DMS ahora ofrece una configuración automática de MS-CDC en todas las tablas seleccionadas para una tarea de migración con o sin una CLAVE PRINCIPAL o con un índice único, teniendo en cuenta la prioridad de habilitación de MS-REPLICATION en tablas de SQL Server autoadministradas con CLAVE PRINCIPAL.
-
Se ha agregado compatibilidad para la replicación de las operaciones DDL de particiones y subparticiones de Oracle durante las migraciones homogéneas de Oracle.
-
Se ha corregido un problema que provocaba que una tarea de validación de datos se bloqueara con una clave primaria compuesta al utilizar Oracle como origen y destino.
-
Se ha corregido un error que provocaba convertir correctamente un tipo de personaje variable en un booleano cuando la columna de destino se había creado previamente como booleana cuando se utilizaba Amazon Redshift como objetivo.
-
Se ha corregido un problema que provocaba el truncamiento de los datos para tipos de datos
varchar
migrados comovarchar(255)
debido a un problema conocido de ODBC al utilizar PostgreSQL como destino. -
Se ha solucionado un problema por el que no se respetaba la sugerencia paralela para la operación DELETE con
BatchApplyEnabled
establecido entrue
yBatchApplyPreserveTransaction
enfalse
cuando se utiliza Oracle como destino. -
La nueva configuración de punto de conexión
AddTrailingPaddingCharacter
para Amazon S3 agrega relleno a los datos de cadena cuando se utiliza S3 como destino. -
La nueva configuración de tareas
max_statement_timeout_seconds
amplía el tiempo de espera predeterminado de las consultas de punto de conexión. Actualmente, las consultas de metadatos de puntos de conexión de MySQL utilizan esta configuración. -
Al utilizar PostgreSQL como destino, se ha solucionado un problema por el que una tarea de CDC no utilizaba correctamente la configuración de la tarea de gestión de errores.
-
Se ha corregido un problema por el que DMS no podía identificar correctamente el modo Redis OSS para una instancia de Redis OSS Enterprise.
-
Se ha ampliado la compatibilidad con el atributo de conexión
includeOpForFullLoad
adicional (ECA) para el formato parquet de destino de S3. -
Se ha ingresado una nueva configuración de punto de conexión de PostgreSQL
migrateBooleanAsBoolean
. Si esta configuración se establecetrue
para una migración de PostgreSQL a Amazon Redshift, se migrará un booleano como varchar (1). Cuando se establece enfalse
, un booleano se migra como varchar (15), que es el comportamiento predeterminado. -
Al usar el origen de SQL Server, se ha solucionado un problema de migración con el tipo de datos
datetime
. Esta solución arregla el problema de insertarNull
cuando la precisión está en milisegundos. -
Para el origen de PostgresSQL con PGLOGICAL, se ha solucionado un problema de migración al usar pglogical y eliminar un campo de la tabla de origen durante la fase de CDC, donde el valor después del campo eliminado no se migraba a la tabla de destino.
-
Se ha corregido un problema de migración de bucle invertido de SQL Server que provocaba que la replicación bidireccional generara registros repetidos.
-
Se agregó un nuevo ECA
mapBooleanAsBoolean
para PostgreSQL como origen. Con este atributo de conexión adicional, puede anular la asignación de tipos de datos predeterminada de un tipo de datos booleano de PostgresSQL a un tipo de datos booleano. RedShift -
Se ha corregido un problema de migración que se producía al utilizar SQL Server como origen para corregir la ESCALA DECIMAL/NUMÉRICA de MODIFICAR que no se replica en los destinos.
-
Se ha corregido un problema de conexión con SQL Server 2005.
-
A partir del 17 de octubre de 2022, DMS 3.4.7 ahora admite clases de instancias de Amazon de sexta generación para EC2 instancias de replicación.
-
A partir del 25 de noviembre de 2022, con DMS 3.4.7 puede convertir esquemas de bases de datos y objetos de código mediante la conversión de esquemas del DMS y descubrir bases de datos en el entorno de red que son buenas candidatas para la migración con DMS Fleet Advisor.
-
El 25 de noviembre de 2022, DMS Studio se retiró.
-
A partir del 31 de enero de 2023, la conversión de esquemas del DMS admite Aurora MySQL y Aurora PostgreSQL como proveedor de datos de destino.
-
A partir del 6 de marzo de 2023, puede generar recomendaciones de destino del tamaño adecuado para las bases de datos de origen con DMS Fleet Advisor.
-
A partir del 6 de marzo de 2023, AWS DMS es compatible con la política AWS gestionada que permite publicar puntos de datos métricos en Amazon CloudWatch.
Tema | Resolución |
---|---|
Error en la tarea de origen de PostgreSQL | Se ha corregido un problema en el origen de PostgreSQL por el que las tareas producían un error al superar el máximo permitido de operaciones DDL en un solo evento. |
Falsos positivos de validación de datos de origen de PostgreSQL | Se ha corregido un problema en el origen de PostgreSQL con destino a Oracle que provocaba errores de validación de datos con falsos positivos al convertir incorrectamente el campo de marca temporal. |
Control de errores de origen de MySQL | Se ha solucionado un problema en un origen de MySQL por el que la tarea de DMS no producía un error cuando el siguiente registro BIN no estaba disponible. |
Registro ROTATE_EVENT de origen de MySQL | Registro mejorado para el origen de MySQL relacionado con ROTATE_EVENT: incluye el nombre del registro BIN que se está leyendo. |
Problema de tiempo de espera de validación de datos | Se ha corregido un problema en la característica de validación de datos por el que no se respetaba la configuración del punto de conexión executeTimeout en las consultas relacionadas con la validación de datos. |
Problema de carga completa paralela de destino de PostgreSQL | Se ha corregido un problema en el destino de PostgreSQL por el que la carga completa segmentada (paralela) producía un error debido a un error de “conexión inactiva”. |
Problema de traslado de tareas de DMS | Se ha corregido un problema en el destino de S3 que provocaba que una operación de traslado de una tarea de DMS tardara mucho tiempo o no se completara. |
Problema con el registro duplicado de origen de PostgreSQL | Se ha corregido un problema en el origen de PostgreSQL que provocaba que una tarea de DMS arrojara errores relacionados con duplicados en el destino después de que una tarea se detuviera y se reanudara. |
Falsos positivos en la validación de datos de destino de Oracle | Se ha corregido un problema en el destino de Oracle que provocaba que la validación de datos generara errores de falsos positivos debido a la replicación incorrecta de la zona horaria en los campos de marca temporal. |
Tema | Resolución |
---|---|
Réplicas de SQL Server AG como origen | Se agregó compatibilidad con la fuente de SQL Server en la AlwaysOnconfiguración en la que el puerto TCP del oyente difería del puerto TCP de la réplica. |
Pérdida de datos con Amazon Redshift como destino | Se ha corregido un problema en el destino de Amazon Redshift por el que, en raras ocasiones, un reinicio inesperado de Amazon Redshift podía haber provocado la falta de datos en el destino. |
Asistencia de protección de origen de SQL Server | Se ha corregido un problema en el origen de SQL Server por el que la tarea de DMS podía producir un error que indicaba que no se podían leer las copias de seguridad del registro de transacciones cuando se especifica la configuración del punto de conexión "SafeguardPolicy":
"EXCLUSIVE_AUTOMATIC_TRUNCATION" . |
Error en la tarea de validación de datos para Oracle como origen | Se ha solucionado un problema en el origen de Oracle por el que la tarea de DMS podía producir un error al validar los datos debido a la identificación incorrecta de los valores de la clave principal. |
Kinesis antes de la emisión de datos de imagen | Se ha corregido un problema con los destinos de streaming (Kinesis, Kafka) por el que la configuración de tareas "EnableBeforeImage" solo funcionaba para los tipos de datos de caracteres. |
Archivos de registro de viaje en el tiempo | Se ha corregido un problema de la característica Viaje en el tiempo que provocaba que DMS creara archivos de registro de viajes en el tiempo de cero bytes cuando el origen estaba inactivo. |
Tema | Resolución |
---|---|
BatchApplyEnabled | Se ha corregido un problema que provocaba un registro excesivo cuando BatchApplyEnabled se establecía en True. |
Nueva configuración de punto final de MongoDB: FullLoadNoCursorTimeout | La FullLoadNoCursorTimeout configuración del punto final de MongoDB NoCursorTimeout especifica el cursor de carga completa. NoCursorTimeout es una configuración de conexión de MongoDB que impide que el servidor cierre el cursor si está inactivo. |
MongoDB: función de filtro para segmentación de una sola columna | La nueva función de filtro mejora el rendimiento de la migración de bases de datos de MongoDB mediante una sola columna para la segmentación. |
MongoDB a Amazon Redshift | Al migrar de MongoDB a Amazon Redshift, si la colección de MongoDB tiene un tipo de datos binarios, se solucionó un problema por el que DMS no creaba la tabla de destino en Amazon Redshift. |
Nuevo atributo de conexión SocketTimeout MongoDB MS | El nuevo atributo de conexión extra de SocketTimeout MongoDB MS configura el tiempo de espera de la conexión para los clientes de MongoDB en unidades de milisegundos. Si el valor es menor o igual a cero, se utiliza el valor predeterminado del cliente de MongoDB. |
Se ha corregido un problema que provocaba el bloqueo de una tarea de Amazon Kinesis | Al migrar a Amazon Kinesis Data Streams como destino, se ha solucionado un problema al gestionar los valores nulos si no había una clave principal en la tabla. |
Se admite la validación de datos de Oracle NULL PK/UK | Se ha eliminado la limitación que impedía la validación de datos de valores NULL PK/UK. |
Oracle a Amazon S3 | Al migrar de Oracle a Amazon S3, se ha solucionado un problema por el que algunos registros se migraban incorrectamente como NULL. |
Oracle Standby | Al utilizar Oracle Standby como origen, se ha agregado la capacidad de que DMS gestione las transacciones abiertas. |
Migración de Oracle a Oracle con el tipo de datos espaciales SDO_GEOMETRY | Al migrar de Oracle a Oracle, se ha solucionado un problema por el que la tarea producía un error si la tabla tenía una columna SDO_GEOMETRY en DDL. |
Oracle como origen | Al utilizar Oracle como origen, se ha solucionado un problema por el que, en ocasiones, DMS omite un número secuencial de registro REDO de Oracle. |
Oracle como origen: faltan registros REDO de archivos o en línea | Al utilizar Oracle como origen, se ha solucionado un problema por el que la tarea de DMS produce un error cuando faltan los registros de archivo. |
Corregido: en ocasiones, DMS omite el registro REDO de Oracle Standby | Al utilizar Oracle como origen, se ha solucionado un problema por el que, en ocasiones, DMS omite un número secuencial de registro REDO de Oracle. |
Corregido: los tipos de datos espaciales de Oracle a Oracle no se replican durante CDC | Al replicar de Oracle a Oracle, se ha solucionado un problema por el cual los tipos de datos espaciales no se replicaban durante CDC. |
Oracle como destino | Al utilizar Oracle como destino, se ha solucionado un problema por el que la aplicación de destino producía un error ORA-01747. |
Amazon S3: se ha corregido la pérdida de datos de la tabla de recarga | Al utilizar Amazon S3 como destino, se ha solucionado un problema por el que una operación de recarga de tablas no generaba archivos CDC. |
Corregido: inicialización contextual AlwaysOn de SQL Server en caso de que el servidor principal sea el origen | Al usar SQL Server Always On como fuente, se solucionó un problema que impedía inicializar los grupos de disponibilidad (AG) si la fuente era principal y estaba establecida en true. AlwaysOnSharedSyncedBackupIsEnabled |
Se ha actualizado la configuración del punto de conexión de SQL Server | Cuando un punto final de origen es el grupo de disponibilidad Always On de SQL Server y es una réplica secundaria, se solucionó un problema por el que la tarea de replicación fallaba si AlwaysOnSharedSynchedBackupsIsEnabled estaba establecida en True. |
PostgreSQL como origen | Se solucionó un problema por el que CDC no podía migrar las operaciones de eliminación/actualización en la fuente de PostgreSQL, que se introdujo en la versión 3.4.7 para admitir el booleano. mapBooleanAs |
AWS Notas de la versión 3.4.6 de Database Migration Service
En la siguiente tabla se muestran las nuevas funciones y mejoras introducidas en la versión 3.4.6 de AWS Database Migration Service (AWS DMS).
Nueva característica o mejora | Descripción |
---|---|
AWS DMS Viaje en el tiempo | AWS DMS presenta Time Travel, una función que ofrece a los clientes flexibilidad en sus capacidades de registro y mejora su experiencia de solución de problemas. Con Time Travel, puede almacenar y cifrar AWS DMS registros mediante Amazon S3, y ver, descargar y ocultar los registros dentro de un período de tiempo determinado. |
Compatibilidad con la instancia administrada de Microsoft Azure SQL como origen | AWS DMS ahora admite Microsoft Azure SQL Managed Instance como fuente. Con AWS DMSél, ahora puede realizar migraciones en vivo desde Microsoft Azure SQL Managed Instance a cualquier destino AWS DMS compatible. Para obtener información sobre AWS DMS las fuentes, consulteOrígenes para la migración de datos. Para obtener información sobre AWS DMS los objetivos compatibles, consulteDestinos para la migración de datos. |
Compatibilidad con Google Cloud SQL para MySQL como origen | AWS DMS ahora es compatible con Google Cloud SQL para MySQL como fuente. Con AWS DMSél, ahora puedes realizar migraciones en directo desde Google Cloud SQL for MySQL a cualquier destino AWS DMS compatible. Para obtener información sobre AWS DMS las fuentes, consulteOrígenes para la migración de datos. Para obtener información sobre AWS DMS los objetivos compatibles, consulteDestinos para la migración de datos. |
Compatibilidad con carga paralela para datos particionados en S3 | AWS DMS ahora admite la carga paralela de datos particionados a Amazon S3, lo que mejora los tiempos de carga para migrar datos particionados desde los datos fuente del motor de base de datos compatibles a Amazon S3. Esta característica crea subcarpetas de Amazon S3 para cada partición de la tabla en el origen de la base de datos, lo que permite a AWS DMS ejecutar procesos paralelos para rellenar cada subcarpeta. |
Compatibilidad con múltiples temas de destino de Apache Kafka en una sola tarea | AWS DMS ahora es compatible con los objetivos multitema de Apache Kafka con una sola tarea. Con AWS DMS, ahora puede replicar varios esquemas de una única base de datos a diferentes temas de destino de Apache Kafka mediante la misma tarea. Esto elimina la necesidad de crear varias tareas independientes en situaciones en las que es necesario migrar muchas tablas de la misma base de datos de origen a distintos temas de destino de Kafka. |
Entre los problemas resueltos en la versión AWS DMS 3.4.6 se incluyen los siguientes:
-
Se ha corregido un problema por el que las columnas de las instrucciones UPDATE se rellenaban en columnas incorrectas si la columna de clave principal no era la primera columna cuando se utilizaba Amazon S3 como destino con formato CSV.
-
Se ha corregido un problema que AWS DMS provocaba que las tareas se bloquearan al utilizar el complemento pglogical con
NULL
valores enBYTEA
columnas en el modo LOB limitado cuando se utilizaba PostgreSQL como fuente. -
Se ha corregido un problema que provocaba que AWS DMS las tareas se bloquearan cuando se eliminaba una gran cantidad de tablas de origen al utilizar PostgreSQL como fuente.
-
Se ha mejorado la partición de carpetas basada en fechas de Amazon S3 mediante el ingreso de una nueva configuración de Amazon S3
DatePartitionTimezone
que permite la partición en fechas distintas de UTC. -
Se admitía el mapeo entre los tipos
TIMESTAMP WITH TIME ZONE
de datos desde las fuentes hastaTIMESTAMPTZ
cuando se utilizaba Amazon Redshift como destino -
Se ha mejorado el rendimiento de CDC para las tareas sin reglas de selección de caracteres comodín cuando se utiliza MongoDB o Amazon DocumentDB como origen.
-
Se ha solucionado un problema por el que las tareas de AWS DMS no capturaban los nombres de los esquemas con caracteres comodín de subrayado y una longitud inferior a 8 cuando se utilizaba Db2 LUW como origen.
-
Se solucionó un problema que provocaba que AWS DMS las instancias se quedaran sin memoria debido a un gran volumen de datos al utilizar el OpenSearch servicio como destino.
-
Se ha mejorado el rendimiento de la validación de datos al admitir tareas exclusivas de validación de carga completa.
-
Se ha corregido un error que provocaba que AWS DMS las tareas no se reanudaran tras una conmutación por error forzada al utilizar Sybase como fuente.
-
Se ha corregido un error que provocaba que la advertencia se AWS DMS enviara incorrectamente
Invalid BC timestamp was encountered in column
.
Los problemas resueltos en la versión de mantenimiento de DMS 3.4.6 incluyen lo siguiente:
-
Se ha corregido un error que provocaba que una tarea se bloqueara cuando el modo de aplicación masiva estaba habilitado cuando se utilizaba Oracle como origen y destino.
-
Se ha corregido un problema por el que una tarea de carga completa utiliza correctamente la configuración del punto de conexión
ExecuteTimeout
con PostgreSQL como origen. -
Se ha corregido un problema con la migración de columnas de tipos de datos de matriz cuando la tarea está configurada en modo de LOB limitado mientras se utiliza PostgreSQL como origen.
-
Se ha corregido un problema relacionado con la migración de marcas temporales con zonas horarias anteriores a 1970-01-01 cuando se utiliza PostgreSQL como origen.
-
Se ha corregido un problema que provocaba que DMS tratara una cadena vacía como nula durante la replicación cuando utiliza SQL Server como origen y destino.
-
Se ha corregido un problema que impide respetar la configuración de punto de conexión de tiempo de espera de lectura y escritura de la sesión cuando se utiliza el origen o destino de MySQL.
-
Se ha corregido un problema que provocaba que una tarea de DMS CDC descargara archivos relacionados de carga completa cuando se utiliza Amazon S3 como origen.
-
Se corregido un problema de bloqueo de registros cuando
CdcInsertsAndUpdates
yPreserveTransactions
se establecen entrue
cuando se utiliza Amazon S3 como destino. -
Se ha corregido un problema que provocaba que una tarea se bloqueara cuando la función ParallelApply * estaba habilitada, pero algunas tablas no tenían una clave principal predeterminada cuando se utilizaba Amazon Kinesis Data Streams como fuente.
-
Se ha corregido un problema por el que no se indicaba un error por un error StreamArn al utilizar Amazon Kinesis Data Streams como fuente.
-
Se solucionó un problema por el que el valor de una clave principal en forma de cadena vacía provocaba que una tarea se bloqueara cuando se utilizaba OpenSearch como destino.
-
Se ha corregido un problema por el que la validación de datos utilizaba demasiado espacio en disco.
Tema | Resolución |
---|---|
Controlador ODBC SAP ASE | Se ha corregido un problema con SAP ASE como origen para que el controlador ODBC pueda admitir conjuntos de caracteres. |
Error de clave principal de fecha y hora de SQL Server para la búsqueda de LOB |
Se ha corregido un problema en SQL Server como origen que provocaba que la búsqueda de LOB no funcionara correctamente cuando la clave principal tenía un tipo de datos de fecha y hora, con una precisión en milisegundos. |
De SQL Server a Amazon Redshift: «DateTimeOffset» asignado a «timestamptz» |
Para las migraciones de SQL Server a Amazon Redshift, se ha mejorado el mapeo para que el formato «datetimeoffset» de SQL Server se asigne al formato «timestamptz» de Amazon Redshift. |
SkipLobColumns Validación de datos: ¿es cierto |
Se ha corregido un problema que provocaba que la tarea de DMS SkipLobColumns se bloqueara cuando era verdadera, había un LOB en la fuente, la clave principal estaba en la última columna y la validación detectaba una diferencia de datos. |
Validación de datos con MySQL como origen |
Se ha corregido un problema para MySQL como origen con la validación de datos habilitada, por el que se produce un bloqueo de una tarea de DMS al utilizar una tabla que tiene una clave única compuesta con valores nulos. |
MySQL como origen |
Se ha corregido un problema con MySQL como origen, por el que una tabla se suspende con un error de desbordamiento cuando se modifican las columnas para agregar precisión. |
Actualizar el controlador ODBC de MySQL a la versión 8.0.23 |
Se ha corregido un problema con MySQL como origen, por el que la intercalación “utf8mb4_0900_bin” no era compatible con el controlador mysql utilizado por DMS. |
MySQL: compatibilidad con cambios de DDL para tablas particionadas |
Se introdujo una nueva configuración de punto final de MySQL skipTableSuspension ForPartitionDdl para permitir al usuario omitir la suspensión de tablas por cambios de DDL de partición durante la CDC, de modo que DMS ahora puede admitir cambios de DDL para tablas de MySQL particionadas. |
Migración de MongoDB a Amazon Redshift |
Se ha corregido un problema en las migraciones de MongoDB a Amazon Redshift, por el que DMS no podía crear la tabla de destino en Amazon Redshift si la colección de MongoDB tenía un tipo de datos binarios. |
Amazon Redshift Target: aplicación masiva del segmento de viajes en el tiempo |
Se ha corregido un problema con Amazon Redshift como objetivo, por el que una tarea de DMS se bloqueaba cuando se BatchApplyEnabled establecía en true. |
Amazon Redshift como objetivo |
Se ha corregido un problema para Amazon Redshift como objetivo, por el que, con la carga paralela establecida en type=partitions-auto, los segmentos paralelos escribían archivos CSV masivos en el mismo directorio de tablas e interferían entre sí. |
Amazon Redshift como objetivo |
Se ha corregido un problema con Amazon Redshift como objetivo, por el que durante la CDC la columna de destino era de tipo booleano mientras que la fuente era de tipo caracter variable. |
Amazon Redshift como objetivo |
Se mejoró el registro de tareas para identificar un cambio de DDL que no se puede replicar en Amazon Redshift como objetivo. |
Validación de datos con PostgreSQL |
Se ha corregido un problema de validación con PostgreSQL, por el que la validación produce un error cuando hay tipos de datos booleanos. |
PostgreSQL como origen |
Se ha corregido un problema con PostgreSQL como fuente, de modo que la carga completa utilizaba el campo de ExecuteTimeout los atributos de conexión adicionales. |
PostgreSQL como origen |
Se ha corregido un problema con PostgreSQL como fuente, por el que una tarea fallaba si se LSNs leía un número superior al de la tarea solicitada. Reanudar LSN durante más de 60 minutos para indicar que se trataba de un problema con la ranura de replicación que se estaba utilizando. |
PostgreSQL como origen: timestamptz antes de 1970-01-01 |
Se ha corregido un problema de PostgreSQL como origen por el que timestamptz antes de 1970-01-01 no se migraban correctamente durante la CDC. |
PostgreSQL como origen |
Se ha corregido un problema con PostgreSQL como origen, por el que DMS truncaba los valores de los tipos de datos de caracteres variables durante la CDC. |
PostgreSQL como origen: reanudación de la tarea detenida |
Se ha corregido un problema en PostgreSQL como origen que provoca que, al reanudar la reproducción de una tarea previamente detenida, se pierdan una o más transacciones durante la CDC. |
Amazon S3 como destino |
Se ha corregido un problema para S3 como destino, por el que el encabezado del archivo CSV resultante aparecía desviado en una columna cuando AddColumnName era verdadero y TimestampColumnName pasaba a ser «». |
Amazon S3 como origen: comportamiento de uso de memoria en la fase de carga completa para la tarea |
Se ha corregido un problema relacionado con S3 como origen, por el que una tarea de DMS a plena carga solo liberaba la memoria utilizada después de cargar toda la tabla en la base de datos de destino. |
Amazon S3 como destino: operación de recarga de la tabla |
Se ha corregido un problema de S3 como destino, por el que una operación de recarga de tabla no genera archivos CDC. |
AWS Notas de la versión 3.4.5 de Database Migration Service
En la siguiente tabla se muestran las nuevas funciones y mejoras introducidas en la versión 3.4.5 de AWS Database Migration Service (AWS DMS).
Nueva característica o mejora | Descripción |
---|---|
Compatibilidad con Redis OSS como destino | AWS DMS ahora es compatible con Redis OSS como objetivo. Con él AWS DMS, ahora puede migrar datos en tiempo real desde cualquier fuente AWS DMS compatible a un almacén de datos de Redis OSS, con un tiempo de inactividad mínimo. Para obtener información sobre AWS DMS los objetivos, consulteDestinos para la migración de datos. |
Compatibilidad con MongoDB 4.2 y 4.4 como orígenes | AWS DMS ahora admite MongoDB 4.2 y 4.4 como fuentes. Con él AWS DMS, ahora puede migrar datos desde clústeres de MongoDB 4.2 y 4.4 a AWS DMS cualquier destino compatible, incluido Amazon DocumentDB (compatible con MongoDB), con un tiempo de inactividad mínimo. Para obtener información sobre las fuentes, consulte. AWS DMS Orígenes para la migración de datos |
Compatibilidad con múltiples bases de datos mediante MongoDB como origen | AWS DMS ahora admite la migración de varias bases de datos en una tarea utilizando MongoDB como fuente. Con él AWS DMS, ahora puede agrupar varias bases de datos de un clúster de MongoDB y migrarlas mediante una sola tarea de migración de bases de datos. Puede migrar a cualquier destino AWS DMS compatible, incluido Amazon DocumentDB (compatible con MongoDB), con un tiempo de inactividad mínimo. |
Compatibilidad con la segmentación automática mediante MongoDB o Amazon DocumentDB (con compatibilidad con MongoDB) como origen | AWS DMS ahora admite la segmentación automática con MongoDB o Amazon DocumentDB como fuente. Con él AWS DMS, puede configurar las tareas de migración de bases de datos para segmentar automáticamente la colección de un clúster de MongoDB o DocumentDB. A continuación, puede migrar los segmentos en paralelo a cualquier destino AWS DMS compatible, incluido Amazon DocumentDB, con un tiempo de inactividad mínimo. |
Mejora del rendimiento a plena carga de Amazon Redshift | AWS DMS ahora admite el uso de subprocesos paralelos cuando se utiliza Amazon Redshift como destino durante la carga completa. Al aprovechar la configuración de tareas de carga completa con varios subprocesos, puede mejorar el rendimiento de la migración inicial desde cualquier fuente AWS DMS compatible a Amazon Redshift. Para obtener información sobre los AWS DMS objetivos, consulte. Destinos para la migración de datos |
Entre los problemas resueltos en la AWS DMS versión 3.4.5 se incluyen los siguientes:
-
Se ha corregido un problema por el que podían faltar datos o estar duplicados tras la reanudación al utilizar PostgreSQL como origen con una alta simultaneidad de transacciones.
-
Se ha corregido un problema por el que las tareas de migración de bases de datos producen el error No se podía encontrar el ID de relación... al utilizar PostgreSQL como origen, con el complemento pglogical habilitado.
-
Se ha corregido un problema por el que las columnas
VARCHAR
no se replican correctamente cuando se utiliza PostgreSQL como origen y Oracle como destino. -
Se ha corregido un problema por el que las operaciones de eliminación no se capturan correctamente cuando la clave principal no es la primera columna de la definición de la tabla, cuando se utiliza PostgreSQL como origen.
-
Se ha corregido un problema que provoca que las tareas de migración de bases de datos omitan las actualizaciones de LOB en una configuración de metadatos especial cuando se utiliza MySQL como origen.
-
Se ha corregido un problema por el que las columnas
TIMESTAMP
se tratan comoDATETIME
en modo de LOB completo cuando se utiliza la versión 8 de MySQL como origen. -
Se ha corregido un problema por el que las tareas de migración de bases de datos producen un error al analizar los registros de
NULL DATETIME
cuando se utiliza MySQL 5.6.4 y versiones superiores como origen. -
Se ha corregido un problema que provoca que las tareas de migración de bases de datos se bloqueen al encontrar un error Se está cerrando el subproceso al utilizar Amazon Redshift como destino con aplicación paralela.
-
Se ha corregido un problema que podía provocar la pérdida de datos cuando las tareas de migración de bases de datos se desconectaban de un punto de conexión de destino de Amazon Redshift durante la aplicación por lotes de CDC.
-
Se ha mejorado el rendimiento de carga completa al realizar llamadas
ACCEPTINVCHARS
cuando se utiliza Amazon Redshift como destino. -
Se ha corregido un problema por el que los registros duplicados se replicaban al pasar del modo one-by-one a un modo de aplicación paralela con Amazon Redshift como objetivo.
-
Se ha corregido un problema por el que las tareas de migración de bases de datos no cambian la propiedad del objeto de Amazon S3 al propietario del bucket con
cannedAclForObjects=bucket_owner_full_control
cuando se utiliza Amazon S3 como destino. -
Se ha mejorado AWS DMS al admitir varios destinos de archivado con ECA
additionalArchivedLogDestId
cuando se utiliza Oracle como fuente. -
Se ha corregido un problema por el que las tareas de migración de bases de datos producen el error
OCI_INVALID_HANDLE
al actualizar una columna de LOB en modo de LOB completo. -
Se ha corregido un problema por el que las columnas
NVARCHAR2
no se migran correctamente durante la CDC cuando se utilizaba Oracle como origen. -
Se ha mejorado AWS DMS
SafeguardPolicy
al permitir el uso de RDS para SQL Server como fuente. -
Se ha corregido un problema por el que las tareas de migración de bases de datos informan de errores en
rdsadmin
cuando se utiliza un origen de SQL Server que no era de RDS. -
Se ha corregido un problema por el que la validación de datos produce un error con UUID como clave principal en una configuración de partición cuando se utiliza SQL Server como origen.
-
Se ha corregido un problema por el que las tareas de carga completa y de CDC pueden producir un error si no se puede encontrar el LSN requerido en el registro de la base de datos cuando se utiliza Db2 LUW como origen.
-
Mejorado AWS DMS al admitir marcas de tiempo CDC personalizadas cuando se usa MongoDB como fuente.
-
Se ha corregido un error que provoca que las tareas de migración de bases de datos se atasquen al detenerse, al usar MongoDB como origen, cuando el controlador de MongoDB produce un error en
endSessions
. -
Se ha corregido un problema por el que AWS DMS no se actualizaban los campos no principales cuando se utilizaba DynamoDB como destino
-
Se ha corregido un problema que provoca que la validación de datos informe de falsas discrepancias positivas en las columnas
CLOB
yNCLOB
. -
Se ha corregido un problema por el que la validación de datos produce un error en los registros que solo contienen espacios en blanco cuando se utiliza Oracle como origen.
-
Se ha corregido un problema por el que las tareas de migración de bases de datos se bloquean al truncar una tabla particionada.
-
Se ha corregido un problema por el que las tareas de migración de la base de datos producen un error al crear la tabla de control
awsdms_apply_exceptions
. -
Compatibilidad ampliada del complemento de autenticación
caching_sha2_password
cuando se utiliza la versión 8 de MySQL.
AWS Notas de la versión 3.4.4 de Database Migration Service
La siguiente tabla muestra las nuevas características y mejoras ingresadas en AWS DMS versión 3.4.4.
Nueva característica o mejora | Descripción |
---|---|
Compatibilidad con el cifrado TLS y la autenticación de TLS o SASL con Kafka como destino | AWS DMS ahora admite el cifrado TLS y la autenticación TLS o SASL utilizando Amazon MSK y el clúster Kafka local como destino. Para obtener más información sobre el uso del cifrado y la autenticación en los puntos de conexión de Kafka, consulte Conexión a Kafka mediante Transport Layer Security () TLS. |
Entre los problemas resueltos en la versión 3.4.4 se incluyen los siguientes: AWS DMS
-
Se ha mejorado el AWS DMS registro de los errores de las tareas al utilizar puntos finales de Oracle.
-
La ejecución mejorada de las AWS DMS tareas continúa procesándose cuando los puntos finales de origen de Oracle cambian de función tras una conmutación por error de Oracle Data Guard.
-
La gestión de errores mejorada trata ORA-12561 como un error recuperable cuando se utilizan puntos de conexión de Oracle.
-
Se ha corregido un problema por el que las columnas
EMPTY_BLOB()
yEMPTY_CLOB()
se migran como nulas cuando se utiliza Oracle como origen. -
Se ha corregido un problema que provocaba que AWS DMS las tareas no pudieran actualizar los registros después de añadir cambios en el DDL de la columna cuando se utilizaba SQL Server como fuente.
-
Se ha mejorado PostgreSQL como migración de origen al admitir el tipo de datos
TIMESTAMP WITH TIME ZONE
. -
Se ha corregido un problema por el que la configuración
afterConnectScript
no funciona durante una carga completa cuando se utiliza PostgreSQL como destino. -
Se ha ingresado una nueva configuración
mapUnboundedNumericAsString
para gestionar mejor el tipo de fechas deNUMERIC
sin precisión ni escala cuando se utilizan puntos de conexión de PostgreSQL. -
Se ha corregido un error que provocaba que AWS DMS las tareas fallaran con «0 filas afectadas» tras detenerlas y reanudarlas cuando se utilizaba PostgreSQL como fuente.
-
Se ha corregido un problema por el que AWS DMS no se podía migrar el tipo de
TIMESTAMP
datos con elBC
sufijo cuando se utilizaba PostgreSQL como fuente. -
Se ha corregido un problema por el que AWS DMS no se podía migrar el
TIMESTAMP
valor «±infinity» al utilizar PostgreSQL como fuente. -
Se ha corregido un problema por el que las cadenas vacías se tratan igual que
NULL
cuando se utiliza S3 como origen con la configuración decsvNullValue
establecida en otros valores. -
Se ha mejorado el atributo de conexión adicional
timestampColumnName
en una carga completa con CDC para que se pueda ordenar durante la CDC cuando se utiliza S3 como destino. -
Se ha mejorado el manejo de los tipos de datos binarios en formato hexadecimal como
BYTE
,BINARY
yBLOB
cuando se utiliza S3 como origen. -
Se ha corregido un problema por el que los registros eliminados se migran con caracteres especiales cuando se utiliza S3 como destino.
-
Se ha corregido un problema de control de valores de claves vacías cuando se utiliza Amazon DocumentDB (con compatibilidad con MongoDB) como destino.
-
Se ha corregido un problema por el que AWS DMS no se podían replicar
Decimal128
las columnas cuando se utilizaba MongoDBNumberDecimal
o Amazon DocumentDB (con compatibilidad con MongoDB) como fuente. -
Se ha corregido un problema que permite que las tareas de CDC se reintenten cuando hay una conmutación por error en MongoDB o Amazon DocumentDB (con compatibilidad con MongoDB) como origen.
-
Se ha añadido una opción para eliminar el prefijo hexadecimal «0x» de los valores de
RAW
los tipos de datos al utilizar Kinesis, Kafka o como destino. OpenSearch -
Se ha corregido un problema por el que la validación produce un error en las columnas de caracteres de longitud fija cuando se utiliza Db2 LUW como origen.
-
Se ha corregido un problema por el que la validación produce un error cuando solo el tipo de datos de origen o el tipo de datos de destino es
FLOAT
oDOUBLE
. -
Se ha corregido un problema por el que la validación produce un error en los caracteres
NULL
cuando se utiliza Oracle como origen. -
Se ha corregido un problema por el que la validación produce un error en las columnas XML cuando se utiliza Oracle como origen.
-
Se ha corregido un problema por el que AWS DMS las tareas se bloqueaban cuando había columnas anulables en claves compuestas que utilizaban MySQL como fuente.
-
Se ha corregido un problema por el que AWS DMS no se podían validar
UNIQUEIDENTIFIER
las columnas de los puntos finales de origen de SQL Server ni las columnas del UUID de los puntos finales de destino de PostgreSQL. -
Se ha corregido un problema por el que una tarea de CDC no utiliza una definición de tabla de origen actualizada después de modificarla.
-
Se ha mejorado la AWS DMS conmutación por error para tratar los errores en las tareas causados por un nombre de usuario o una contraseña no válidos como errores recuperables.
-
Se ha corregido un problema por el que AWS DMS las tareas fallaban porque no LSNs se realizaban cuando se utilizaba RDS para SQL Server como fuente.
AWS Notas de la versión 3.4.3 de Database Migration Service
La siguiente tabla muestra las nuevas características y mejoras ingresadas en AWS DMS versión 3.4.3.
Nueva característica o mejora | Descripción |
---|---|
Nueva versión de Amazon DocumentDB | Ahora se admite la versión 4.0 de Amazon DocumentDB como origen. |
Versión nueva de MariaDB | La versión 10.4 de MariaDB ahora es compatible como origen y destino. |
Support for AWS Secrets Manager integration | Puede almacenar de forma segura los detalles de conexión de la base de datos (credenciales de usuario) de los puntos de conexión compatibles en AWS Secrets Manager. A continuación, puede enviar el secreto correspondiente en lugar de las credenciales de texto sin formato AWS DMS al crear o modificar un punto final. AWS DMS a continuación, se conecta a las bases de datos de los puntos finales mediante el secreto. Para obtener más información sobre la creación de secretos para los AWS DMS puntos finales, consulteUso de secretos para acceder a los puntos de conexión de AWS Database Migration Service. |
Opciones más amplias para las instancias de replicación C5 y R5 | Ahora puede crear los siguientes tamaños de instancias de replicación más grandes: tamaños C5 de hasta 96 v CPUs y 192 GiB de memoria y tamaños R5 de hasta 96 v CPUs y 768 GiB de memoria. |
Mejora del rendimiento de Amazon Redshift | AWS DMS ahora admite la aplicación en paralelo cuando se utiliza Amazon Redshift como objetivo para mejorar el rendimiento de la replicación continua. Para obtener más información, consulte Configuración de tareas de subprocesos múltiples para Amazon Redshift. |
Entre los problemas resueltos en la versión AWS DMS 3.4.3 se incluyen los siguientes:
-
Se ha corregido un problema por el que la marca temporal de confirmación pasaba a ser “1970-01-01 00:00:00” para los eventos diferidos al utilizar Db2 LUW como origen.
-
Se solucionó un problema por el que AWS DMS las tareas fallaban con una
NVARCHAR
columna como clave principal cuando se utilizaba SQL Server como fuente con el modo LOB completo. -
Se ha corregido un problema por el que faltan registros durante la fase de cambios en caché al usar SQL Server como origen.
-
Se ha corregido un problema que provocaba que los registros se omitieran después de reanudar AWS DMS las tareas cuando se utilizaba RDS para SQL Server como fuente.
-
Se ha corregido un problema por el que el componente AWS DMS de registro de aserciones generaba registros de gran tamaño para SQL Server.
-
Se ha corregido un problema por el que la validación de datos producía un error durante la fase CDC debido a un desbordamiento del análisis de columnas al utilizar MySQL como origen.
-
Se ha corregido un problema que provocaba que AWS DMS las tareas se bloquearan debido a un error de segmentación durante la validación de datos cuando se utilizaba PostgreSQL como destino.
-
Se ha corregido un problema por el que la validación de datos producía un error en el tipo de datos DOBLE durante la CDC al utilizar PostgreSQL como origen y destino.
-
Se ha corregido un problema por el que los registros insertados mediante el comando copy no se replicaban correctamente cuando se utilizaba PostgreSQL como origen y Amazon Redshift como destino.
-
Se ha corregido un problema de pérdida de datos durante la fase de cambios en caché al usar PostgreSQL como origen.
-
Se ha corregido un problema que podía provocar la pérdida de datos o duplicados de registros al utilizar PostgreSQL como origen.
-
Se ha corregido un problema por el que los esquemas con mayúsculas y minúsculas no se podían migrar con pglogical al usar PostgreSQL como origen.
-
Se ha corregido un error por el que el último mensaje de error no contenía el error ORA al usar Oracle como origen.
-
Se ha corregido un problema que provocaba que AWS DMS las tareas no pudieran generar sentencias UPDATE cuando se utilizaba Oracle como destino.
-
Se solucionó un problema por el que AWS DMS las tareas no replicaban los datos cuando se utilizaba Oracle 12.2 como fuente con una configuración de ASM y base de datos conectable.
-
Se ha mejorado el análisis de registros al conservar las cotizaciones para que se cumplan con RFC 4180 al usar S3 como origen.
-
Se ha mejorado el manejo de
timestampColumnName
para que la columna de carga completa se clasifique desde CDC. -
Al introducir una nueva configuración de punto final
MessageMaxBytes
, se solucionó un problema por el que AWS DMS las tareas fallaban cuando había elementos de LOB de más de 1 MB. -
Se ha corregido un problema que provocaba que AWS DMS las tareas se bloquearan debido a un error de segmentación al utilizar Amazon Redshift como objetivo.
-
Registro de errores mejorado para la conexión de prueba de Amazon Redshift.
-
Se ha corregido un problema por el AWS DMS que no se transferían todos los documentos de MongoDB a DocumentDB durante la carga completa.
-
Se ha corregido un error que provocaba que AWS DMS las tareas produjeran un error grave cuando no se incluía ninguna tabla en las reglas de mapeo de tablas.
-
Se ha corregido un problema por el que los esquemas y las tablas creados antes de reiniciar las tareas de AWS DMS no se replicaban en el destino cuando se utilizaba MySQL como origen.
-
Se ha corregido un problema por el que el comodín escape [_] no puede escapar del comodín “_” en la regla de exclusión al usar MySQL como origen.
-
Se ha corregido un problema por el que la columna del tipo de datos UNSIGNED BIGINT no se replicaba correctamente cuando se utilizaba MySQL como origen.
AWS Notas de la versión 3.4.2 de Database Migration Service
La siguiente tabla muestra las nuevas características y mejoras ingresadas en AWS DMS versión 3.4.2.
Nueva característica o mejora | Descripción |
---|---|
Soporte para conectar de forma privada su Amazon Virtual Private Cloud (Amazon VPC) al AWS Database Migration Service (DMS) sin necesidad de una pasarela de Internet, un dispositivo NAT, una conexión VPN o una conexión. AWS Direct Connect | Ahora puede conectarse y acceder AWS DMS desde su Amazon VPC a través de un punto de enlace de interfaz de VPC que cree. Este punto final de interfaz le permite aislar toda la actividad de red de su instancia de AWS DMS replicación dentro de la infraestructura de red de Amazon. Al incluir una referencia a este punto final de la interfaz en todas las llamadas a la API para AWS DMS utilizar este AWS CLI o un SDK, se asegura de que toda la AWS DMS actividad permanezca invisible para la Internet pública. Para obtener más información, consulte Seguridad de la infraestructura en AWS Database Migration Service.notaEsta función está disponible en todas las versiones de AWS DMS motor compatibles. |
Partición de carpetas basada en fechas de CDC con Amazon S3 como destino |
AWS DMS ahora admite la partición de carpetas basada en fechas al replicar datos utilizando S3 como destino. Para obtener más información, consulte Uso de la partición de carpetas basada en fechas. |
Entre los problemas resueltos en la versión AWS DMS 3.4.2 se incluyen los siguientes:
-
Se agregó una
STATUPDATE
opción al realizar una migración con Amazon Redshift como destino. -
Se han mejorado las tareas de validación mediante el ingreso de una nueva configuración.
ValidQueryCdcDelaySecond
retrasa la primera consulta de validación en los puntos de conexión de origen y destino para ayudar a reducir la contención de recursos cuando la latencia de migración es alta. -
Se solucionó un problema que provocaba que AWS DMS se tardara mucho tiempo en iniciar las tareas de validación.
-
Se ha corregido un problema que provocaba que se generaran registros vacíos al iniciar o detener las tareas de replicación con S3 como destino.
-
Se ha corregido un error que provocaba que las tareas se bloquearan después de completar una carga completa.
-
Se ha corregido un error que provocaba que las tareas se bloquearan cuando una tabla de origen tenía errores de datos al utilizar S3 como origen.
-
Se ha corregido un error que provocaba que las tareas se bloquearan al iniciarse cuando la cuenta de usuario del punto de conexión de origen estaba desactivado.
-
Se ha corregido un error que provocaba que las tareas se bloquearan al utilizar PostgreSQL como origen con
REPLICA IDENTITY FULL
. -
Se ha corregido un problema que provocaba que las tareas omitieran transacciones al utilizar PostgreSQL como origen con el complemento pglogical.
-
Se ha corregido un problema AWS DMS que impedía eliminar los archivos fuente comprimidos cuando se utilizaba Amazon Redshift como destino.
-
Se ha corregido un problema por el que las tareas de validación mostraban falsos negativos al utilizar MySQL como origen y destino con el tipo de datos
BIGINT UNSIGNED
. -
Se ha corregido un problema que provocaba que las tareas de validación arrojaran falsos positivos al usar SQL Server como origen con una columna de clave principal de tipo CHAR.
-
Se solucionó un problema que AWS DMS impedía borrar los objetos de destino cuando se utilizaban
start-replication
para iniciar tareas de replicación con S3 como destino. -
Se han corregido varios problemas relacionados con la validación de datos al utilizar Db2 como origen.
-
Se ha corregido un problema que provocaba que las tareas de validación se bloquearan al usar SQL Server como origen con una columna VARCHAR como clave principal.
-
Se ha agregado compatibilidad con el tipo de datos TIMESTAMP WITH TIMEZONE cuando se usa PostgreSQL como origen
AWS Notas de la versión beta de Database Migration Service 3.4.1
La siguiente tabla muestra las nuevas características y mejoras ingresadas en AWS DMS versión 3.4.1 beta.
Nueva característica o mejora | Descripción |
---|---|
Nueva versión de MongoDB |
Ahora se admite la versión 4.0 de MongoDB como origen. |
Compatibilidad de TLS 1.2 con SQL Server |
AWS DMS ahora es compatible con TLS 1.2 para terminales de SQL Server. |
Entre los problemas resueltos en la versión beta de la versión AWS DMS 3.4.1 se incluyen los siguientes:
-
Soporte mejorado de Oracle 19c TDE.
-
Se ha mejorado la compatibilidad con el conjunto de caracteres utf8mb4 y el tipo de datos de identidad utilizando Amazon Redshift como destino.
-
Se ha mejorado la gestión de errores en las tareas de replicación cuando se utiliza MySQL como origen y el registro binario no está presente.
-
Se ha mejorado la compatibilidad de validación de datos en varios tipos de datos y conjuntos de caracteres.
-
Se ha mejorado la gestión de valores nulos con una nueva configuración de punto de conexión
IncludeNullAndEmpty
cuando se utilizan Kinesis y Kafka como objetivo. -
Se han mejorado el registro y la gestión de errores al utilizar a Kafka como destino.
-
Se ha mejorado el desplazamiento de horario de DST cuando se utiliza SQL Server como origen.
-
Se ha corregido un problema por el que las tareas de replicación intentan crear tablas existentes para Oracle como destino.
-
Se ha corregido un problema que provoca que las tareas de replicación se bloqueen después de interrumpir la conexión de base de datos al usar Oracle como origen.
-
Se ha corregido un problema por el que las tareas de replicación no podían detectar el nuevo servidor principal ni volver a conectarse a él cuando se utilizaba SQL Server como origen con la configuración AlwaysOn.
-
Se ha corregido un problema por el que las tareas de replicación no agregan
"D"
para una columna"OP"
en determinadas condiciones para S3 como destino.
AWS Notas de la versión beta de Database Migration Service 3.4.0
La siguiente tabla muestra las nuevas características y mejoras ingresadas en AWS DMS versión 3.4.0
Nueva característica o mejora | Descripción |
---|---|
Nueva versión de MySQL |
AWS DMS ahora es compatible con la versión 8.0 de MySQL como fuente, excepto cuando la carga útil de la transacción está comprimida. |
Compatibilidad de TLS 1.2 con MySQL |
AWS DMS ahora es compatible con TLS 1.2 para puntos finales de MySQL. |
Versión nueva de MariaDB |
AWS DMS ahora es compatible con la versión 10.3.13 de MariaDB como fuente. |
Falta de SysAdmin acceso a fuentes autogestionadas de Microsoft SQL Server |
AWS DMS ahora admite el acceso de personas que no son SysAdmin usuarios a puntos finales de origen EC2 de SQL Server alojados o locales. notaEsta característica se encuentra actualmente en modo beta. Si quieres probarlo, ponte en contacto con el servicio de AWS asistencia para obtener más información. |
Las tareas de CDC y las tablas de origen de Oracle se crearon con CREATE TABLE
AS |
AWS DMS ahora admite tanto tareas de carga completa como tareas de CDC y únicamente de CDC que se ejecuten en tablas fuente de Oracle creadas con la declaración. |
Entre los problemas resueltos en la AWS DMS versión 3.4.0 se incluyen los siguientes:
-
Evaluaciones de tareas previas a la migración mejoradas. Para obtener más información, consulte Habilitación de las evaluaciones previas a la migración para una tarea y trabajar con ellas.
-
Validación de datos mejorada para tipos de datos flotantes, reales y dobles.
-
Se ha mejorado Amazon Redshift como destino al gestionar mejor este error: “La clave especificada no existe”.
-
Admite configuraciones de tareas de carga de CDC multiproceso
ParallelApplyThreads
, que incluyenParallelApplyBufferSize
ParallelApplyQueuesPerThread
, y para Amazon OpenSearch Service (OpenSearch Servicio) como objetivo. -
Se mejoró el OpenSearch servicio como objetivo al admitir el uso de claves principales compuestas.
-
Se ha corregido un error que provoca que la conexión de prueba produzca un error al utilizar PostgreSQL como origen y la contraseña tenga caracteres especiales.
-
Se ha corregido un problema relacionado con el uso de SQL Server como origen cuando algunas columnas
VARCHAR
se truncan. -
Se ha corregido un problema AWS DMS que impedía cerrar las transacciones abiertas cuando se utilizaba Amazon RDS SQL Server como fuente. Esto puede provocar la pérdida de datos si el parámetro del intervalo de sondeo se establece de forma incorrecta. Para obtener más información sobre cómo configurar un valor de intervalo de sondeo recomendado, consulte Uso de una base de datos de Microsoft SQL Server como origen para AWS DMS.
-
Se ha corregido un problema por el que Oracle Standby como origen provoca que las tareas de CDC se detengan inesperadamente al utilizar Binary Reader.
-
Se solucionó un problema en IBM DB2 para LUW por el que la tarea fallaba y aparecía el mensaje «El literal numérico 0 no es válido porque su valor está fuera del rango».
-
Se ha corregido un problema en la migración de PostgreSQL a PostgreSQL que se producía cuando se agregaba una nueva columna en el origen de PostgreSQL y la columna se creaba con un tipo de datos diferente al tipo de datos para el que se creó originalmente la columna en el origen.
-
Se ha corregido un problema con un origen de MySQL que provocaba que la tarea de migración se detuviera inesperadamente al no poder recuperar binlogs.
-
Se ha corregido un problema relacionado con un objetivo de Oracle cuando se estaba utilizando
BatchApply
. -
Se ha corregido un problema con MySQL y MariaDB al migrar el tipo de datos
TIME
. -
Se ha corregido un problema en una fuente DB2 LUW de IBM que provocaba que la migración de las tablas LOBs fallara cuando las tablas no tenían una clave principal o una clave única.
AWS Notas de la versión 3.3.4 de Database Migration Service
Entre los problemas resueltos en la versión AWS DMS 3.3.4 se incluyen los siguientes:
-
Se ha corregido un problema por el que las transacciones se eliminan o se duplican cuando se utiliza PostgreSQL como origen.
-
Se ha mejorado la compatibilidad con el uso del signo de dólar ($) en los nombres de los esquemas.
-
Se ha corregido un problema por el que las instancias de replicación no cierran las transacciones abiertas al usar Amazon RDS SQL Server como origen.
-
Se ha corregido un error que provoca que la conexión de prueba produzca un error al utilizar PostgreSQL como origen y la contraseña tenga caracteres especiales.
-
Se mejoró Amazon Redshift como objetivo al gestionar mejor este error: «La clave especificada no existe».
-
Se ha mejorado la compatibilidad de validación de datos en varios tipos de datos y conjuntos de caracteres.
-
Se ha corregido un problema por el que las tareas de replicación intentan crear tablas existentes para Oracle como destino.
-
Se ha corregido un problema por el que las tareas de replicación no agregan
"D"
para una columna"OP"
en determinadas condiciones para Amazon S3 como destino.
AWS Notas de la versión 3.3.3 de Database Migration Service
La siguiente tabla muestra las nuevas características y mejoras ingresadas en AWS DMS versión 3.3.3.
Nueva característica o mejora | Descripción |
---|---|
Nueva versión de PostgreSQL |
PostgreSQL versión 12 ahora es compatible como origen y destino. |
Support para clave principal compuesta con Amazon OpenSearch Service como destino |
A partir de la AWS versión 3.3.3 del DMS, los objetivos del OpenSearch servicio admiten el uso de una clave principal compuesta. |
Compatibilidad de tipos de datos extendidos de Oracle |
Ahora se admiten tipos de datos extendidos de Oracle para origen y para destinos. |
Aumento del número de AWS DMS recursos por cuenta | Se ha incrementado el límite de AWS DMS recursos que puedes crear. Para obtener más información, consulte Cuotas para AWS Database Migration Service. |
Entre los problemas resueltos en la AWS DMS versión 3.3.3 se incluyen los siguientes:
-
Se ha corregido un problema que provocaba que una tarea se bloqueara mediante una instrucción de actualización específica con Parallel Apply en Amazon Kinesis.
-
Se ha corregido un problema que provocaba que una tarea se bloqueara en la instrucción ALTER TABLE con Amazon S3 como destino.
-
Se ha corregido un problema que provocaba que los valores de las columnas poligonales se truncaran al utilizar Microsoft SQL Server como origen.
-
Se ha corregido un problema en el conversor Unicode de JA16 SISTILDE y JA16 EUCTILDE al utilizar Oracle como fuente.
-
Se ha corregido un problema que provocaba que las columnas MEDIUMTEXT y LONGTEXT produjeran un error al migrar desde MySQL al formato de valor separado por comas de S3 (CSV).
-
Se ha corregido un problema por el que las columnas booleanas se transformaban en tipos incorrectos con la salida Apache Parquet.
-
Se ha corregido un problema con columnas varchar extendidas en Oracle.
-
Se ha corregido un problema que provocaba que las tareas de validación de datos provocaran un error debido a ciertas combinaciones de marcas temporales.
-
Se ha corregido un problema con la replicación del lenguaje de definición de datos (DDL) de Sybase.
-
Se ha corregido un problema relacionado con un origen de Oracle Real Application Clusters (RAC) que se bloqueaba con Oracle Binary Reader.
-
Se ha corregido un problema con la validación de destinos de Oracle con mayúsculas y minúsculas de nombres de esquema.
-
Se ha corregido un problema con la validación de las versiones 9.7 y 10 de IBM Db2.
-
Se ha corregido un problema que provocaba que una tarea no se parase dos veces con
StopTaskCachedChangesApplied
yStopTaskCachedChangesNotApplied
habilitados.