

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Tutorial: Crear un flujo de Firehose desde la consola
<a name="basic-create"></a>

Puedes usar el Consola de administración de AWS o un AWS SDK para crear una transmisión de Firehose con destino al destino que elijas. 

Puedes actualizar la configuración de tu transmisión de Firehose en cualquier momento después de crearla, mediante la consola Amazon Data Firehose o. [UpdateDestination](https://docs.aws.amazon.com/firehose/latest/APIReference/API_UpdateDestination.html) El flujo de Firehose permanecerá en estado `Active` mientras se actualice la configuración, y podrá continuar enviando datos. La configuración actualizada suele entrar en vigor transcurridos unos minutos. El número de versión de un flujo de Firehose aumenta un valor de `1` después de actualizar la configuración. Se refleja en el nombre del objeto de Amazon S3 entregado. Para obtener más información, consulte [Configuración del formato de nombres de objetos de Amazon S3](s3-object-name.md).

Siga los pasos de los temas siguientes para crear un flujo de Firehose.

**Topics**
+ [

# Elija el origen y el destino del flujo de Firehose
](create-name.md)
+ [

# Configurar los ajustes del origen
](configure-source.md)
+ [

# (Opcional) Configuración de la transformación de registros y de la conversión de formato
](create-transform.md)
+ [

# Configuración de los ajustes de destino
](create-destination.md)
+ [

# Configuración de copias de seguridad
](create-configure-backup.md)
+ [

# Configuración de opciones avanzadas
](create-configure-advanced.md)

# Elija el origen y el destino del flujo de Firehose
<a name="create-name"></a>

****

1. Abra la consola de Firehose en [https://console.aws.amazon.com/firehose/](https://console.aws.amazon.com/firehose/).

1. Seleccione **Crear flujo de Firehose**. 

1. En la página **Crear flujo de Firehose**, elija una fuente para su flujo de Firehose de una de las siguientes opciones.
   + **Direct PUT:** elija esta opción para crear un flujo de Firehose en el que las aplicaciones de los productores escriban directamente. Esta es una lista de servicios y agentes de AWS y servicios de código abierto que se integran con Direct PUT en Amazon Data Firehose. Esta lista no es exhaustiva y es posible que haya servicios adicionales que se puedan utilizar para enviar datos directamente a Firehose.
     + AWS SDK
     + AWS Lambda
     + Registros de AWS CloudWatch
     + Eventos de AWS CloudWatch
     + Flujos de métricas en la nube de AWS
     + AWS IoT
     + AWS EventBridge
     + Amazon Simple Email Service
     + Amazon SNS
     + Registros de ACL web de AWS WAF
     + Amazon API Gateway: registros de acceso
     + Amazon Pinpoint
     + Registro de agente de Amazon MSK
     + Registros de consultas de Amazon Route 53 Resolver
     + Registros de alertas de AWS Network Firewall
     + Registros de flujos de AWS Network Firewall
     + Amazon ElastiCache Redis SLOWLOG
     + Agente de Kinesis (Linux)
     + Kinesis Tap (Windows)
     + Fluentbit
     + Fluentd
     + Apache Nifi
     + Snowflake
   + **Amazon Kinesis Data Streams** seleccione esta opción para configurar un flujo de Firehose que utilice un flujo de datos de Kinesis como origen de datos. A continuación, puede usar Firehose para leer fácilmente los datos de un flujo de datos de Kinesis existente y cargarlos en los destinos. Para obtener más información sobre el uso de Kinesis Data Streams como origen de datos, consulte [Enviar datos a un flujo de Firehose con Kinesis Data Streams](writing-with-kinesis-streams.md).
   + **Amazon MSK:** seleccione esta opción para configurar un flujo de Firehose que utilice Amazon MSK como origen de datos. A continuación, puede utilizar Firehose para leer fácilmente los datos de un clúster existente de Amazon MSK y cargarlos en los buckets de S3 especificados. Para obtener más información, consulte [Envío de datos a un flujo de Firehose con Amazon MSK](writing-with-msk.md).

1. Elija un destino para su flujo de Firehose de uno de los siguientes destinos compatibles con Firehose.
   + Amazon OpenSearch Service
   + Amazon OpenSearch sin servidor
   + Amazon Redshift
   + Amazon S3
   + Tablas de Apache Iceberg
   + Coralogix
   + Datadog
   + Dynatrace
   + Elastic
   + Punto de conexión HTTP
   + Honeycomb
   + Logic Monitor
   + Logz.io
   + MongoDB Cloud
   + New Relic
   + Splunk
   + Splunk Observability Cloud
   + Sumo Logic
   + Snowflake

1. Para el **nombre del flujo de Firehose**, puede usar el nombre que la consola genere para usted o añadir el flujo de Firehose que elija.

# Configurar los ajustes del origen
<a name="configure-source"></a>

Puede configurar los ajustes del origen en función del origen que elija para enviar la información a un flujo de Firehose desde la consola. Puede configurar los ajustes del origen para Amazon MSK y Amazon Kinesis Data Streams como origen. No hay ninguna configuración de origen disponible para Direct PUT como origen.

# Configuración de los ajustes de origen para Amazon MSK
<a name="writing-with-msk"></a>

Cuando elige Amazon MSK para enviar información a un flujo de Firehose, puede elegir entre clústeres aprovisionados por MSK y clústeres sin servidor de MSK. A continuación, puede utilizar Firehose para leer fácilmente los datos de un tema y un clúster de Amazon MSK específicos y cargarlos en el destino de S3 especificado.

En la sección **Configuración de origen** de la página, proporcione valores para los siguientes campos.

****Conectividad de clústeres de Amazon MSK****  
Elija la opción **Agentes de arranque privados** (recomendada) o **Agentes de arranque públicos** en función de la configuración del clúster. Los agentes de arranque es lo que el cliente de Apache Kafka utiliza como punto de partida para conectarse al clúster. Los agentes de arranque públicos están diseñados para el acceso público desde fuera de AWS, mientras que los agentes de arranque privados están diseñados para acceder desde dentro de AWS. Para obtener más información sobre Amazon MSK, consulte [Amazon Managed Streaming para Apache Kafka](https://docs.aws.amazon.com/msk/latest/developerguide/what-is-msk.html).   
Para conectarse a un clúster de Amazon MSK aprovisionado o sin servidor a través de agentes de arranque privados, el clúster debe cumplir todos los requisitos siguientes.  
+ El clúster debe estar activo.
+ El clúster debe tener IAM como uno de sus métodos de control de acceso.
+ La conectividad privada de múltiples VPC debe estar habilitada para el método de control de acceso de IAM.
+ Debe agregar a este clúster una política basada en recursos que conceda a la entidad principal del servicio Firehose el permiso para invocar la operación `CreateVpcConnection` de la API de Amazon MSK.
Para conectarse a un clúster de Amazon MSK aprovisionado a través de agentes de arranque públicos, el clúster debe cumplir todos los requisitos siguientes.  
+ El clúster debe estar activo.
+ El clúster debe tener IAM como uno de sus métodos de control de acceso.
+ El clúster debe ser de acceso público.

****Cuenta del clúster de MSK****  
Puede elegir la cuenta en la que reside el clúster de Amazon MSK. Puede ser una de las siguientes.  
+ **Cuenta actual**: le permite ingerir datos de un clúster de MSK de la cuenta de AWS actual. Para ello, debe especificar el ARN del clúster de Amazon MSK desde el que el flujo de Firehose leerá los datos.
+ **Cuenta cruzada**: le permite ingerir datos de un clúster de MSK de otra cuenta de AWS. Para obtener más información, consulte [Entrega entre cuentas desde Amazon MSK](controlling-access.md#cross-account-delivery-msk).

****Tema****  
Especifique el tema de Apache Kafka del que desea que su flujo de Firehose ingiera datos. No podrá actualizar este tema una vez finalizada la creación del flujo de Firehose.  
Firehose descomprime automáticamente los mensajes de Apache Kafka.

# Configuración de los ajustes de origen de Amazon Kinesis Data Streams
<a name="writing-with-kinesis-streams"></a>

Configure los ajustes de origen de Amazon Kinesis Data Streams de la siguiente manera para que envíe información a un flujo de Firehose.

**importante**  
Si utiliza Kinesis Producer Library (KPL) para escribir datos en un flujo de datos de Kinesis, puede utilizar la agregación para combinar los registros que escriba en ese flujo de datos de Kinesis. Si después utiliza ese flujo de datos como origen del flujo de Firehose, Amazon Data Firehose desagrega los registros antes de entregarlos en el destino. Si configura el flujo de Firehose de modo que transforme los datos, Amazon Data Firehose desagrega los registros antes de entregarlos en AWS Lambda. Para obtener más información, consulte [Desarrollar productores en Amazon Kinesis Data Streams con la Kinesis Producer Library](https://docs.aws.amazon.com/streams/latest/dev/developing-producers-with-kpl.html) y [Agregación](https://docs.aws.amazon.com/streams/latest/dev/kinesis-kpl-concepts.html#kinesis-kpl-concepts-aggretation).

En la **configuración de origen**, elija un flujo existente en la lista de **flujos de datos de Kinesis** o introduzca un ARN de flujo de datos en el formato `arn:aws:kinesis:[Region]:[AccountId]:stream/[StreamName]`.

Si no tiene un flujo de datos existente, elija **Create (Crear)** para crear uno nuevo desde la consola de Amazon Kinesis. Es posible que necesite un rol de IAM que tenga los permisos necesarios en el flujo de Kinesis. Para obtener más información, consulte [Concesión de acceso a Firehose a un destino de Amazon S3](controlling-access.md#using-iam-s3). Después de crear un nuevo flujo, elija el ícono de actualización para actualizar la lista **Flujo de Kinesis**. Si tiene un gran número de flujos, filtre la lista con **Filter by name**. 

**nota**  
Al configurar un flujo de datos de Kinesis como origen de un flujo de Firehose, las operaciones `PutRecord` y `PutRecordBatch` de Amazon Data Firehose se deshabilitan. Para agregar datos al flujo de Firehose en este caso, use las operaciones `PutRecord` y `PutRecords` de Kinesis Data Streams.

Amazon Data Firehose comienza a leer los datos desde la posición `LATEST` del flujo de Kinesis. Para obtener más información sobre las posiciones de Kinesis Data Streams, consulte [GetShardIterator](https://docs.aws.amazon.com/kinesis/latest/APIReference/API_GetShardIterator.html).

 Amazon Data Firehose llama a la operación [GetRecords](https://docs.aws.amazon.com/kinesis/latest/APIReference/API_GetRecords.html) del flujo de datos de Kinesis una vez por segundo para cada partición. Sin embargo, cuando la copia de seguridad completa está habilitada, Firehose llama a la operación `GetRecords` de los flujos de datos de Kinesis dos veces por segundo para cada partición, una para el destino de entrega principal y otra para la copia de seguridad completa.

Se pueden leer varios flujos de Firehose desde el mismo flujo de Kinesis. Otras aplicaciones de Kinesis (consumidores) pueden leer también datos del mismo flujo. Cada llamada desde un flujo de Firehose u otra aplicación consumidora cuenta al calcular la limitación controlada total de solicitudes de la partición. Para evitar las limitaciones, planee sus aplicaciones con especial cuidado. Para obtener más información sobre los límites de Kinesis Data Streams, consulte [Amazon Kinesis Streams Limits](https://docs.aws.amazon.com/streams/latest/dev/service-sizes-and-limits.html). 

Continúe con el siguiente paso para configurar la transformación de registros y la conversión de formato.

# (Opcional) Configuración de la transformación de registros y de la conversión de formato
<a name="create-transform"></a>

Configure Amazon Data Firehose para transformar y convertir los datos de sus registros.

## Si elige Amazon MSK como fuente del flujo de Firehose
<a name="create-transform-msk"></a>

**En la sección **Transformar registros de origen con AWS Lambda**, proporcione valores para el siguiente campo.**

1.   
**Transformación de datos**  
Para crear un flujo de Firehose que no transforme los datos de entrada, no marque la casilla **Habilitar la transformación de datos**.   
Para especificar una función de Lambda que Firehose pueda invocar y utilizar para transformar los datos de entrada antes de entregarlos, marque la casilla **Habilitar la transformación de datos**. Puede configurar una nueva función de Lambda con uno de los esquemas de Lambda o puede elegir una función de Lambda existente. La función de Lambda debe contener el modelo de estados que necesita Firehose. Para obtener más información, consulte [Transformación de los datos de origen en Amazon Data Firehose](data-transformation.md).

1. En la sección **Convert record format (Convertir formato de registros)**, proporcione valores para el siguiente campo:  
**Record format conversion (Conversión del formato de registros)**  
Para crear un flujo de Firehose que no convierta el formato de los registros de datos entrantes, elija **Deshabilitada**.   
Para convertir el formato de los registros entrantes, elija **Enabled (Habilitada)** y, a continuación, especifique el formato de salida que desee. Debe especificar una AWS Glue tabla que contenga el esquema que desea que Firehose utilice para convertir el formato de registro. Para obtener más información, consulte [Conversión del formato de los datos de entrada en Amazon Data Firehose](record-format-conversion.md).  
Para ver un ejemplo de cómo configurar la conversión de formatos de registro CloudFormation, consulta [AWS:::KinesisFirehose: DeliveryStream](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-kinesisfirehose-deliverystream.html#aws-resource-kinesisfirehose-deliverystream--examples).

## Si elige Amazon Kinesis Data Streams o Direct PUT como origen del flujo de Firehose
<a name="create-transform-directput"></a>

 

**En la sección **Configuración de origen**, proporcione valores para los siguientes campos.**

1. En **Transformar registros**, elija una de las siguientes opciones:

   1. Si tu destino es Amazon S3 o Splunk, en la sección **Descomprimir CloudWatch registros fuente de Amazon Logs**, selecciona **Activar** la descompresión.

   1. En la sección **Transformar registros de origen con AWS Lambda**, proporcione valores para el siguiente campo:  
**Transformación de datos**  
Para crear un flujo de Firehose que no transforme los datos de entrada, no marque la casilla **Habilitar la transformación de datos**.   
Para especificar una función de Lambda que Amazon Data Firehose pueda invocar y utilizar para transformar los datos de entrada antes de entregarlos, marque la casilla **Habilitar la transformación de datos**. Puede configurar una nueva función de Lambda con uno de los esquemas de Lambda o puede elegir una función de Lambda existente. La función de Lambda debe contener el modelo de estados que necesita Amazon Data Firehose. Para obtener más información, consulte [Transformación de los datos de origen en Amazon Data Firehose](data-transformation.md).

1. En la sección **Convert record format (Convertir formato de registros)**, proporcione valores para el siguiente campo:  
**Record format conversion (Conversión del formato de registros)**  
Para crear un flujo de Firehose que no convierta el formato de los registros de datos entrantes, elija **Deshabilitada**.   
Para convertir el formato de los registros entrantes, elija **Enabled (Habilitada)** y, a continuación, especifique el formato de salida que desee. Debe especificar una AWS Glue tabla que contenga el esquema que desea que Amazon Data Firehose utilice para convertir el formato de registro. Para obtener más información, consulte [Conversión del formato de los datos de entrada en Amazon Data Firehose](record-format-conversion.md).  
Para ver un ejemplo de cómo configurar la conversión de formatos de registro CloudFormation, consulte [AWS::KinesisFirehose: DeliveryStream](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/aws-resource-kinesisfirehose-deliverystream.html#aws-resource-kinesisfirehose-deliverystream--examples).

# Configuración de los ajustes de destino
<a name="create-destination"></a>

En esta sección, se describen los ajustes que debe configurar para su flujo de Firehose en función del destino que seleccione. 

**Topics**
+ [

## Configuración de los ajustes de destino de Amazon S3
](#create-destination-s3)
+ [

## Configuración de los ajustes de destino de las tablas de Apache Iceberg
](#create-destination-iceberg)
+ [

## Configuración de las opciones de destino de Amazon Redshift
](#create-destination-redshift)
+ [

## OpenSearch Configure los ajustes de destino del servicio
](#create-destination-elasticsearch)
+ [

## Configure los ajustes de destino para Serverless OpenSearch
](#create-destination-opensearch-serverless)
+ [

## Configuración de los ajustes de destino del punto de conexión HTTP
](#create-destination-http)
+ [

## Configuración de los ajustes de destino de Datadog
](#create-destination-datadog)
+ [

## Configuración de los ajustes de destino de Honeycomb
](#create-destination-honeycomb)
+ [

## Configuración de los ajustes de destino de Coralogix
](#create-destination-coralogix)
+ [

## Configuración de los ajustes de destino de Dynatrace
](#create-destination-dynatrace)
+ [

## Configure los ajustes de destino para LogicMonitor
](#create-destination-logicmonitor)
+ [

## Configuración de los ajustes de destino de Logz.io
](#create-destination-logz)
+ [

## Configuración de los ajustes de destino de MongoDB Atlas
](#create-destination-mongodb)
+ [

## Configuración de los ajustes de destino de New Relic
](#create-destination-new-relic)
+ [

## Configuración de los ajustes de destino de Snowflake
](#create-destination-snowflake)
+ [

## Configuración de los ajustes de destino de Splunk
](#create-destination-splunk)
+ [

## Configuración de los ajustes de destino de Splunk Observability Cloud
](#create-destination-splunk-cloud)
+ [

## Configuración de los ajustes de destino de Sumo Logic
](#create-destination-sumo-logic)
+ [

## Configuración de los ajustes de destino de Elastic
](#create-destination-elastic)

## Configuración de los ajustes de destino de Amazon S3
<a name="create-destination-s3"></a>

Debe especificar la siguiente configuración para poder utilizar Amazon S3 como destino del flujo de Firehose.

****
+ Escriba valores en los siguientes campos:  
 **Bucket de S3**   
Seleccione el bucket de S3 de su propiedad adonde se deben entregar los datos de streaming. Puede crear un bucket de S3 nuevo o elegir uno disponible.  
 **Delimitador de nueva línea**   
Puede configurar el flujo de Firehose para agregar un delimitador de nueva línea entre los registros de los objetos que se entregan en Amazon S3. Para ello, elija **Habilitado**. Para no agregar un delimitador de nueva línea entre los registros de los objetos que se entregan en Amazon S3, seleccione **Deshabilitado**. Si planea usar Athena para consultar objetos de S3 con registros agregados, active esta opción.  
 **Particionamiento dinámico**   
Seleccione **Habilitado** para habilitar y configurar el particionamiento dinámico.   
 **Desagregación de varios registros**   
Se trata del proceso de analizar los registros del flujo de Firehose y separarlos en función de un JSON válido o del delimitador de nueva línea especificado.  
Si agregas varios eventos, registros o registros en una sola PutRecord llamada a la PutRecordBatch API, aún puedes habilitar y configurar la partición dinámica. Con los datos agregados, al habilitar el particionamiento dinámico, Amazon Data Firehose analiza los registros y busca varios objetos JSON válidos en cada llamada a la API. Cuando el flujo de Firehose se configura con Kinesis Data Streams como origen, también puede utilizar la agregación integrada en Kinesis Producer Library (KPL). La funcionalidad de partición de datos se ejecuta después de desagregar los datos. Por lo tanto, cada registro de cada llamada a la API se puede entregar en distintos prefijos de Amazon S3. También puede utilizar la integración de la función de Lambda para realizar cualquier otra desagregación o cualquier otra transformación antes de la funcionalidad de particionamiento de datos.  
Si sus datos están agregados, el particionamiento dinámico solo se puede aplicar una vez completada la desagregación de los datos. Por lo tanto, si habilita el particionamiento dinámico en sus datos agregados, debe seleccionar **Habilitado** para habilitar la desagregación de varios registros. 
El flujo de Firehose completa los siguientes pasos de procesamiento en el siguiente orden: desagregación de KPL (protobuf), desagregación de JSON o delimitador, procesamiento de Lambda, particionamiento de datos, conversión de formato de datos y entrega en Amazon S3.  
 **Tipo de desagregación de varios registros**   
Si ha habilitado la desagregación de varios registros, debe especificar el método para que Firehose desagregue los datos. Utilice el menú desplegable para elegir **JSON** o **Delimitado**.   
 **Análisis en línea**   
Este es uno de los mecanismos admitidos para particionar dinámicamente los datos vinculados a Amazon S3. A fin de usar el análisis en línea para el particionamiento dinámico de sus datos, debe especificar los parámetros de registro de datos que se utilizarán como claves de particionamiento y proporcionar un valor para cada clave de particionamiento especificada. Seleccione **Habilitado** para habilitar y configurar el análisis en línea.  
Si especificó una función AWS Lambda en los pasos anteriores para transformar los registros fuente, puede utilizarla para particionar dinámicamente los datos enlazados a S3 y seguir creando las claves de partición con el análisis en línea. Con el particionamiento dinámico, puede utilizar el análisis en línea o la función AWS Lambda para crear las claves de particionamiento. O bien, puede usar el análisis en línea y la función AWS Lambda al mismo tiempo para crear las claves de partición.   
 **Claves de particionamiento dinámico**   
Puede usar los campos **Clave** y **Valor** para especificar los parámetros de registro de datos que se utilizarán como claves de particionamiento dinámico y las consultas jq para generar valores de claves de particionamiento dinámico. Firehose solo admite jq 1.6. Puede especificar hasta 50 claves de particionamiento dinámico. Debe ingresar expresiones jq válidas para los valores de las claves de particionamiento dinámico a fin de configurar correctamente el particionamiento dinámico para su flujo de Firehose.  
 **Prefijo de bucket de S3**   
Al habilitar y configurar el particionamiento dinámico, debe especificar los prefijos de buckets de S3 en los que Amazon Data Firehose entregará los datos particionados.  
Para que el particionamiento dinámico se configure correctamente, el número de prefijos de bucket de S3 debe ser idéntico al número de claves de particionamiento especificadas.  
 Puede particionar los datos de origen con el análisis en línea o con la función Lambda AWS que especifique. Si especificó una función de AWS Lambda para crear claves de partición para los datos de origen, debe escribir manualmente los valores del prefijo del bucket S3 con el siguiente formato: "Lambda:keyID». partitionKeyFrom Si utiliza el análisis en línea para especificar las claves de partición para sus datos de origen, puede escribir manualmente los valores de vista previa del bucket de S3 con el siguiente formato: «partitionKeyFromquery:keyID» o puede elegir el botón **Aplicar claves de partición dinámica para usar sus pares de particiones dinámicas** para generar automáticamente los prefijos de su bucket de S3. key/value Al particionar sus datos con análisis en línea o AWS Lambda, también puede usar las siguientes formas de expresión en el prefijo de su bucket de S3:\$1 \$1namespace:value\$1, donde el espacio de nombres puede ser Query o Lambda. partitionKeyFrom partitionKeyFrom   
 **Zona horaria del prefijo del resultado del bucket S3 y el error de S3**   
Elija la zona horaria que desee usar para la fecha y la hora en los [prefijos personalizados de los objetos de Amazon S3](s3-prefixes.md). De forma predeterminada, Firehose añade un prefijo de hora en UTC. Puede cambiar la zona horaria utilizada en los prefijos de S3 si desea utilizar una zona horaria diferente.   
 **Sugerencias de almacenamiento en búfer**   
Firehose almacena en búfer los datos de entrada antes de entregarlos en el destino especificado. El tamaño del búfer recomendado para el destino varía de un proveedor de servicios a otro.   
 **Compresión en S3**   
Elija la compresión de datos GZIP, Snappy, Zip o Snappy compatible con Hadoop, o sin compresión de datos. Las compresiones Snappy, Zip y Snappy compatible con Hadoop no están disponibles para los flujos de Firehose con Amazon Redshift como destino.   
**Formato de extensión de archivo de S3 (opcional)**  
Especifique un formato de extensión de archivo para los objetos entregados al bucket de destino de Amazon S3. Si habilita esta característica, la extensión de archivo especificada anulará las extensiones de archivo predeterminadas incorporadas por las funciones de conversión de formato de datos o de compresión en S3, como .parquet o .gz. Asegúrese de haber configurado la extensión de archivo correcta cuando utilice esta característica con la conversión de formato de datos o la compresión en S3. La extensión del archivo debe empezar con un punto (.) y puede contener los caracteres permitidos: 0-9a-z\$1-\$1.\$1‘(). La extensión del archivo no puede superar los 128 caracteres.  
**Cifrado de S3**  
Firehose admite el cifrado del lado del servidor de Amazon S3 con AWS Key Management Service (SSE-KMS) para cifrar los datos entregados en Amazon S3. Puede optar por utilizar el tipo de cifrado predeterminado especificado en el depósito S3 de destino o cifrar con una clave de la lista de claves de su propiedad. AWS KMS Si cifra los datos con AWS KMS claves, puede usar la clave AWS administrada predeterminada (aws/s3) o una clave administrada por el cliente. Para obtener más información, consulte [Protección de datos mediante el cifrado del lado del servidor con claves administradas por AWS KMS (SSE-KMS](https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingKMSEncryption.html)). 

## Configuración de los ajustes de destino de las tablas de Apache Iceberg
<a name="create-destination-iceberg"></a>

Firehose admite las tablas Apache Iceberg como destino en todas las regiones, excepto en [Regiones de AWS](https://docs.aws.amazon.com/glossary/latest/reference/glos-chap.html?icmpid=docs_homepage_addtlrcs#region)China AWS GovCloud (US) Regions, Asia Pacífico (Taipéi), Asia Pacífico (Malasia), Asia Pacífico (Nueva Zelanda) y México (Central).

Para obtener más información sobre las tablas de Apache Iceberg como destino, consulte [Entrega de datos a tablas de Apache Iceberg con Amazon Data Firehose](apache-iceberg-destination.md).

## Configuración de las opciones de destino de Amazon Redshift
<a name="create-destination-redshift"></a>

En esta sección, se describe la configuración para usar Amazon Redshift como destino del flujo de Firehose.

Elija uno de los siguientes procedimientos en función de si tiene un clúster aprovisionado de Amazon Redshift o un grupo de trabajo de Amazon Redshift sin servidor.
+ [Clúster aprovisionado de Amazon Redshift](#create-destination-redshift-provisioned)
+ [Configuración de las opciones de destino del grupo de trabajo de Amazon Redshift sin servidor](#create-destination-redshift-serverless)
**nota**  
Firehose no puede escribir en los clústeres de Amazon Redshift que utilizan el enrutamiento de VPC mejorado.

### Clúster aprovisionado de Amazon Redshift
<a name="create-destination-redshift-provisioned"></a>

En esta sección, se describe la configuración para usar el clúster aprovisionado de Amazon Redshift como destino del flujo de Firehose.

****
+ Escriba valores en los siguientes campos:  
 **Clúster**   
Clúster de Amazon Redshift en el que se copian los datos del bucket de S3. Configure el clúster de Amazon Redshift para que sea accesible al público y desbloquee direcciones IP de Amazon Data Firehose. Para obtener más información, consulte [Concesión a Firehose de acceso a un destino de Amazon Redshift](controlling-access.md#using-iam-rs).  
 **Autenticación**   
Puede elegir entre introducirlo username/password directamente o recuperar el secreto AWS Secrets Manager para acceder al clúster de Amazon Redshift.  
  + **Nombre de usuario**

    Especifique un usuario de Amazon Redshift con permisos para acceder al clúster de Amazon Redshift. Este usuario debe tener el permiso `INSERT` de Amazon Redshift para copiar datos del bucket de S3 en el clúster de Amazon Redshift.
  + **Contraseña** 

    Especifique la contraseña del usuario con permisos para obtener acceso al clúster.
  + **Secret**

    Seleccione un secreto AWS Secrets Manager que contenga las credenciales del clúster de Amazon Redshift. Si no ve su secreto en la lista desplegable, cree uno en AWS Secrets Manager para sus credenciales de Amazon Redshift. Para obtener más información, consulte [Autenticate con AWS Secrets Manager Amazon Data Firehose](using-secrets-manager.md).  
 **Base de datos**   
Base de datos de Amazon Redshift en la que se copian los datos.  
 **Tabla**   
Tabla de Amazon Redshift en la que se copian los datos.  
 **Columnas**   
Las columnas específicas de la tabla donde se copian los datos (opcional). Utilice esta opción si la cantidad de columnas definida en los objetos de Amazon S3 es menor que la cantidad de columnas en la tabla Amazon Redshift.   
 **Destino de S3 intermedio**   <a name="redshift-s3-bucket"></a>
Firehose primero entrega los datos en el bucket de S3 y, a continuación, emite un comando **COPY** de Amazon Redshift para cargar los datos en el clúster de Amazon Redshift. Especifique el bucket de S3 de su propiedad adonde se deben entregar los datos de streaming. Cree un nuevo bucket de S3 o elija uno que le pertenezca.  
Firehose no elimina los datos de su bucket de S3 después de cargarlos en el clúster de Amazon Redshift. Puede administrar los datos en el bucket de S3 utilizando una configuración del ciclo de vida. Para obtener más información, consulte [Administración del ciclo de vida de los objetos](https://docs.aws.amazon.com/AmazonS3/latest/userguide/object-lifecycle-mgmt.html) en la *Guía del usuario de Amazon Simple Storage Service*.  
 **Prefijo de S3 intermedio**   
(Opcional) Para utilizar el prefijo predeterminado de los objetos de Amazon S3, deje esta opción en blanco. Firehose utiliza automáticamente un prefijo en formato de tiempo “`YYYY/MM/dd/HH`” UTC para objetos de Amazon S3 entregados. Puede añadir más elementos al comienzo de este prefijo. Para obtener más información, consulte [Configuración del formato de nombres de objetos de Amazon S3](s3-object-name.md).  
 **Opciones de COPY**   <a name="redshift-copy-parameters"></a>
Parámetros que puede especificar en el comando **COPY** de Amazon Redshift. Podrían ser necesarios para la configuración. Por ejemplo, se requiere `GZIP` «» si la compresión de datos de Amazon S3 está habilitada. Se requiere `REGION` «» si el bucket de S3 no se encuentra en la misma AWS región que el clúster de Amazon Redshift. Para más información, consulte [COPY](https://docs.aws.amazon.com/redshift/latest/dg/r_COPY.html) en la *Guía para desarrolladores de bases de datos de Amazon Redshift*.  
 **COPY command**   <a name="redshift-copy-command"></a>
Comando **COPY** de Amazon Redshift. Para más información, consulte [COPY](https://docs.aws.amazon.com/redshift/latest/dg/r_COPY.html) en la *Guía para desarrolladores de bases de datos de Amazon Redshift*.  
 **Retry duration**   
Tiempo (entre 0 y 7200 segundos) para que Firehose vuelva a intentarlo si falla el comando **COPY** sobre los datos en el clúster de Amazon Redshift. Firehose hace reintentos cada 5 minutos hasta que finaliza el tiempo de reintento. Si establece el tiempo de reintento en 0 (cero) segundos, Firehose no lo reintenta tras producirse un error en el comando **COPY**.  
 **Sugerencias de almacenamiento en búfer**   
Firehose almacena en búfer los datos de entrada antes de entregarlos en el destino especificado. El tamaño del búfer recomendado para el destino varía de un proveedor de servicios a otro.  
 **Compresión en S3**   
Elija la compresión de datos GZIP, Snappy, Zip o Snappy compatible con Hadoop, o sin compresión de datos. Las compresiones Snappy, Zip y Snappy compatible con Hadoop no están disponibles para los flujos de Firehose con Amazon Redshift como destino.   
**Formato de extensión de archivo de S3 (opcional)**  
Formato de extensión de archivo S3 (opcional): especifique un formato de extensión de archivo para los objetos entregados al bucket de destino de Amazon S3. Si habilita esta característica, la extensión de archivo especificada anulará las extensiones de archivo predeterminadas incorporadas por las funciones de conversión de formato de datos o de compresión en S3, como .parquet o .gz. Asegúrese de haber configurado la extensión de archivo correcta cuando utilice esta característica con la conversión de formato de datos o la compresión en S3. La extensión del archivo debe empezar con un punto (.) y puede contener los caracteres permitidos: 0-9a-z\$1-\$1.\$1‘(). La extensión del archivo no puede superar los 128 caracteres.  
**Cifrado de S3**  
Firehose admite el cifrado del lado del servidor de Amazon S3 con AWS Key Management Service (SSE-KMS) para cifrar los datos entregados en Amazon S3. Puede optar por utilizar el tipo de cifrado predeterminado especificado en el depósito S3 de destino o cifrar con una clave de la lista de claves de su propiedad. AWS KMS Si cifra los datos con AWS KMS claves, puede usar la clave AWS administrada predeterminada (aws/s3) o una clave administrada por el cliente. Para obtener más información, consulte [Protección de datos mediante el cifrado del lado del servidor con claves administradas por AWS KMS (SSE-KMS](https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingKMSEncryption.html)). 

### Configuración de las opciones de destino del grupo de trabajo de Amazon Redshift sin servidor
<a name="create-destination-redshift-serverless"></a>

En esta sección, se describe la configuración para usar el grupo de trabajo de Amazon Redshift sin servidor como destino del flujo de Firehose.

****
+ Escriba valores en los siguientes campos:  
 **Nombre del grupo de trabajo**   
El grupo de trabajo de Amazon Redshift sin servidor en el que se copian los datos del bucket de S3. Configure el grupo de trabajo de Amazon Redshift sin servidor para que sea accesible al público y desbloquee las direcciones IP de Firehose. Para obtener más información, consulte la sección Conectarse a una instancia de Amazon Redshift sin servidor accesible públicamente en [Conexión a Amazon Redshift sin servidor](https://docs.aws.amazon.com/redshift/latest/mgmt/serverless-connecting.html) y también [Concesión a Firehose de acceso a un destino de Amazon Redshift](controlling-access.md#using-iam-rs).  
 **Autenticación**   
Puede elegir entre introducirlo username/password directamente o recuperar el secreto para acceder AWS Secrets Manager al grupo de trabajo Amazon Redshift Serverless.  
  + **Nombre de usuario**

    Especifique el usuario de Amazon Redshift con permisos para acceder al grupo de trabajo de Amazon Redshift sin servidor. Este usuario debe tener el permiso `INSERT` de Amazon Redshift para copiar datos del bucket de S3 en el grupo de trabajo de Amazon Redshift sin servidor.
  + **Contraseña** 

    Especifique la contraseña del usuario que tiene permisos para acceder al grupo de trabajo de Amazon Redshift sin servidor.
  + **Secret**

    Seleccione un secreto AWS Secrets Manager que contenga las credenciales del grupo de trabajo Amazon Redshift Serverless. Si no ve su secreto en la lista desplegable, cree uno en AWS Secrets Manager para sus credenciales de Amazon Redshift. Para obtener más información, consulte [Autenticate con AWS Secrets Manager Amazon Data Firehose](using-secrets-manager.md).  
 **Base de datos**   
Base de datos de Amazon Redshift en la que se copian los datos.  
 **Tabla**   
Tabla de Amazon Redshift en la que se copian los datos.  
 **Columnas**   
Las columnas específicas de la tabla donde se copian los datos (opcional). Utilice esta opción si la cantidad de columnas definida en los objetos de Amazon S3 es menor que la cantidad de columnas en la tabla Amazon Redshift.   
 **Destino de S3 intermedio**   <a name="redshift-s3-bucket"></a>
Amazon Data Firehose primero entrega los datos en el bucket de S3 y, a continuación, emite un comando **COPY** de Amazon Redshift para cargar los datos en el grupo de trabajo de Amazon Redshift sin servidor. Especifique el bucket de S3 de su propiedad adonde se deben entregar los datos de streaming. Cree un nuevo bucket de S3 o elija uno que le pertenezca.  
Firehose no elimina los datos de su bucket de S3 después de cargarlos en el grupo de trabajo de Amazon Redshift sin servidor. Puede administrar los datos en el bucket de S3 utilizando una configuración del ciclo de vida. Para obtener más información, consulte [Administración del ciclo de vida de los objetos](https://docs.aws.amazon.com/AmazonS3/latest/userguide/object-lifecycle-mgmt.html) en la *Guía del usuario de Amazon Simple Storage Service*.  
 **Prefijo de S3 intermedio**   
(Opcional) Para utilizar el prefijo predeterminado de los objetos de Amazon S3, deje esta opción en blanco. Firehose utiliza automáticamente un prefijo en formato de tiempo “`YYYY/MM/dd/HH`” UTC para objetos de Amazon S3 entregados. Puede añadir más elementos al comienzo de este prefijo. Para obtener más información, consulte [Configuración del formato de nombres de objetos de Amazon S3](s3-object-name.md).  
 **Opciones de COPY**   <a name="redshift-copy-parameters"></a>
Parámetros que puede especificar en el comando **COPY** de Amazon Redshift. Podrían ser necesarios para la configuración. Por ejemplo, se requiere `GZIP` «» si la compresión de datos de Amazon S3 está habilitada. Se requiere `REGION` «» si su bucket de S3 no está en la misma AWS región que su grupo de trabajo Amazon Redshift Serverless. Para más información, consulte [COPY](https://docs.aws.amazon.com/redshift/latest/dg/r_COPY.html) en la *Guía para desarrolladores de bases de datos de Amazon Redshift*.  
 **COPY command**   <a name="redshift-copy-command"></a>
Comando **COPY** de Amazon Redshift. Para más información, consulte [COPY](https://docs.aws.amazon.com/redshift/latest/dg/r_COPY.html) en la *Guía para desarrolladores de bases de datos de Amazon Redshift*.  
 **Retry duration**   
Tiempo (entre 0 y 7200 segundos) para que Firehose vuelva a intentarlo si falla el comando **COPY** sobre los datos en el grupo de trabajo de Amazon Redshift sin servidor. Firehose hace reintentos cada 5 minutos hasta que finaliza el tiempo de reintento. Si establece el tiempo de reintento en 0 (cero) segundos, Firehose no lo reintenta tras producirse un error en el comando **COPY**.  
 **Sugerencias de almacenamiento en búfer**   
Firehose almacena en búfer los datos de entrada antes de entregarlos en el destino especificado. El tamaño del búfer recomendado para el destino varía de un proveedor de servicios a otro.  
 **Compresión en S3**   
Elija la compresión de datos GZIP, Snappy, Zip o Snappy compatible con Hadoop, o sin compresión de datos. Las compresiones Snappy, Zip y Snappy compatible con Hadoop no están disponibles para los flujos de Firehose con Amazon Redshift como destino.   
**Formato de extensión de archivo de S3 (opcional)**  
Formato de extensión de archivo S3 (opcional): especifique un formato de extensión de archivo para los objetos entregados al bucket de destino de Amazon S3. Si habilita esta característica, la extensión de archivo especificada anulará las extensiones de archivo predeterminadas incorporadas por las funciones de conversión de formato de datos o de compresión en S3, como .parquet o .gz. Asegúrese de haber configurado la extensión de archivo correcta cuando utilice esta característica con la conversión de formato de datos o la compresión en S3. La extensión del archivo debe empezar con un punto (.) y puede contener los caracteres permitidos: 0-9a-z\$1-\$1.\$1‘(). La extensión del archivo no puede superar los 128 caracteres.  
**Cifrado de S3**  
Firehose admite el cifrado del lado del servidor de Amazon S3 con AWS Key Management Service (SSE-KMS) para cifrar los datos entregados en Amazon S3. Puede optar por utilizar el tipo de cifrado predeterminado especificado en el depósito S3 de destino o cifrar con una clave de la lista de claves de su propiedad. AWS KMS Si cifra los datos con AWS KMS claves, puede usar la clave AWS administrada predeterminada (aws/s3) o una clave administrada por el cliente. Para obtener más información, consulte [Protección de datos mediante el cifrado del lado del servidor con claves administradas por AWS KMS (SSE-KMS](https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingKMSEncryption.html)). 

## OpenSearch Configure los ajustes de destino del servicio
<a name="create-destination-elasticsearch"></a>

Firehose admite las versiones de Elasticsearch 1.5, 2.3, 5.1, 5.3, 5.5, 5.6, así como todas las versiones 6.\$1, 7.\$1 y 8.\$1. Firehose es compatible con Amazon OpenSearch Service 2.x y 3.x.

En esta sección, se describen las opciones para usar el OpenSearch Servicio en tu destino.

****
+ Escriba valores en los siguientes campos:  
** **OpenSearch Dominio de servicio** **  
El dominio de OpenSearch servicio al que se envían sus datos.  
** **Índice** **  
El nombre del índice de OpenSearch servicios que se utilizará al indexar los datos en su clúster OpenSearch de servicios.  
** **Index rotation** **  
Elija si se debe rotar el índice OpenSearch de servicios y con qué frecuencia. Si la rotación de índices está habilitada, Amazon Data Firehose agrega la marca de tiempo correspondiente al nombre del índice especificado y lo rota. Para obtener más información, consulte [Configura la rotación del índice para el OpenSearch servicio](es-index-rotation.md).  
** **Tipo** **  
El nombre del tipo de OpenSearch servicio que se utilizará al indexar los datos en su clúster de OpenSearch servicios. Para Elasticsearch 7.x y OpenSearch 1.x, solo puede haber un tipo por índice. Si intenta especificar un tipo nuevo para un índice existente que ya tiene otro tipo, Firehose devuelve un error durante el tiempo de ejecución.   
Para Elasticsearch 7.x, deje este campo vacío.  
** **Retry duration** **  
Tiempo que tarda Firehose en volver a intentarlo si se produce un error en una solicitud de indexación. OpenSearch Como duración del reintento, se puede establecer cualquier valor entre 0 y 7200 segundos. El valor de predeterminado para la duración de reintento es de 300 segundos. Firehose reintentará varias veces con una retirada exponencial hasta que se agote el tiempo de reintento.  
Una vez transcurrido el tiempo de reintento, Firehose envía los datos a la cola de mensajes fallidos (DLQ), un bucket de errores de S3 configurado. En el caso de los datos que se envían a DLQ, hay que volver a llevarlos del depósito de errores de S3 configurado al destino. OpenSearch   
Si quieres impedir que Firehose Stream entregue datos a DLQ debido a un tiempo de inactividad o al mantenimiento de OpenSearch los clústeres, puedes configurar la duración del reintento con un valor superior en segundos. Para aumentar el valor de la duración del reintento por encima de los 7200 segundos, comuníquese con el [servicio de asistencia de AWS .](https://aws.amazon.com/contact-us/)   
** **Tipo de DocumentID** **  
Indica el método para configurar el ID de documento. Los métodos admitidos son el ID de documento generado por FireHose y el ID de documento generado por el OpenSearch servicio. El identificador del documento generado por Firehose es la opción predeterminada cuando el valor del identificador del documento no está establecido. OpenSearch La opción recomendada es el identificador de documento generado por el servicio, ya que permite realizar operaciones de escritura intensiva, como el análisis y la observabilidad de los registros, por lo que consume menos recursos de CPU en el dominio del OpenSearch servicio y, por lo tanto, mejora el rendimiento.  
** **Destination VPC connectivity (Conectividad de VPC de destino)** **  
Si su dominio OpenSearch de servicio está en una VPC privada, utilice esta sección para especificar esa VPC. Especifique también las subredes y subgrupos que desea que Amazon Data Firehose utilice cuando envíe datos a su dominio de servicio. OpenSearch Puede usar los mismos grupos de seguridad que usa el dominio del OpenSearch servicio. Si especifica diferentes grupos de seguridad, asegúrese de que permitan el tráfico HTTPS saliente al grupo de seguridad del dominio del OpenSearch servicio. Asegúrese también de que el grupo de seguridad del dominio de OpenSearch servicio permita el tráfico HTTPS desde los grupos de seguridad que especificó al configurar la transmisión de Firehose. Si utilizas el mismo grupo de seguridad tanto para la transmisión de Firehose como para el dominio de OpenSearch servicio, asegúrate de que la regla de entrada del grupo de seguridad permita el tráfico HTTPS. Para obtener más información acerca de las reglas de los grupos de seguridad, consulte [Reglas del grupo de seguridad](https://docs.aws.amazon.com/vpc/latest/userguide/VPC_SecurityGroups.html#SecurityGroupRules) en la documentación de Amazon VPC.  
Cuando especifique subredes para entregar datos al destino en una VPC privada, asegúrese de tener una cantidad suficiente de direcciones IP libres en las subredes elegidas. Si no hay una dirección IP libre disponible en una subred específica, Firehose no podrá crear ni ENIs añadir para la entrega de datos en la VPC privada, y la entrega se degradará o fallará.  
**Sugerencias de almacenamiento en búfer**  
Amazon Data Firehose almacena en búfer los datos de entrada antes de entregarlos en el destino especificado. El tamaño del búfer recomendado para el destino varía de un proveedor de servicios a otro.

## Configure los ajustes de destino para Serverless OpenSearch
<a name="create-destination-opensearch-serverless"></a>

En esta sección se describen las opciones para usar OpenSearch Serverless como destino.

****
+ Escriba valores en los siguientes campos:  
** **OpenSearch Colección sin servidor** **  
El punto final de un grupo de índices OpenSearch sin servidor al que se envían los datos.  
** **Índice** **  
El nombre del índice OpenSearch Serverless que se utilizará al indexar los datos para su colección Serverless. OpenSearch   
** **Destination VPC connectivity (Conectividad de VPC de destino)** **  
Si su colección OpenSearch sin servidor está en una VPC privada, utilice esta sección para especificar esa VPC. Especifique también las subredes y subgrupos que desea que Amazon Data Firehose utilice cuando envíe datos a su colección Serverless. OpenSearch   
Cuando especifique subredes para entregar datos al destino en una VPC privada, asegúrese de tener una cantidad suficiente de direcciones IP libres en las subredes elegidas. Si no hay una dirección IP libre disponible en una subred específica, Firehose no podrá crear ni ENIs añadir para la entrega de datos en la VPC privada, y la entrega se degradará o fallará.  
** **Retry duration** **  
Tiempo que tarda Firehose en volver a intentarlo si se produce un error en una solicitud de índice a OpenSearch Serverless. Como duración del reintento, se puede establecer cualquier valor entre 0 y 7200 segundos. El valor de predeterminado para la duración de reintento es de 300 segundos. Firehose reintentará varias veces con una retirada exponencial hasta que se agote el tiempo de reintento.  
Una vez transcurrido el tiempo de reintento, Firehose envía los datos a la cola de mensajes fallidos (DLQ), un bucket de errores de S3 configurado. En el caso de los datos que se envían a DLQ, hay que volver a llevarlos del depósito de errores de S3 configurado a un destino sin servidor. OpenSearch   
Si quieres impedir que Firehose Stream entregue datos a DLQ debido a un tiempo de inactividad o al mantenimiento de los clústeres OpenSearch sin servidor, puedes configurar la duración del reintento con un valor superior en segundos. Para aumentar el valor de la duración del reintento por encima de los 7200 segundos, comuníquese con el [servicio de asistencia de AWS .](https://aws.amazon.com/contact-us/)   
**Sugerencias de almacenamiento en búfer**  
Amazon Data Firehose almacena en búfer los datos de entrada antes de entregarlos en el destino especificado. El tamaño del búfer recomendado para el destino varía de un proveedor de servicios a otro.

## Configuración de los ajustes de destino del punto de conexión HTTP
<a name="create-destination-http"></a>

En esta sección se describen las opciones de uso de un **punto de conexión HTTP** como destino.

**importante**  
Si elige un punto de conexión HTTP como destino, revise y siga las instrucciones que se ofrecen en [Comprender las especificaciones de solicitudes y respuestas de entrega de puntos de conexión HTTP](httpdeliveryrequestresponse.md).

****
+ Proporcione valores para los siguientes campos:  
 **Nombre del punto de conexión HTTP: opcional**   
Especifique un nombre fácil de recordar para el punto de conexión HTTP. Por ejemplo, `My HTTP Endpoint Destination`.  
 **URL del punto de conexión HTTP**   
Especifique la URL del punto de conexión HTTP en el siguiente formato: `https://xyz.httpendpoint.com`. La URL debe ser una URL HTTPS.  
 **Autenticación**   
Puedes elegir entre introducir la clave de acceso directamente o recuperar el secreto para acceder AWS Secrets Manager al punto final HTTP.  
  + **(Opcional) Clave de acceso** 

    Póngase en contacto con el propietario del punto de conexión para obtener la clave de acceso a fin de permitir la entrega de datos en su punto de conexión desde Firehose.
  + **Secret**

    Seleccione un secreto AWS Secrets Manager que contenga la clave de acceso del punto final HTTP. Si no ve su secreto en la lista desplegable, cree uno AWS Secrets Manager para la clave de acceso. Para obtener más información, consulte [Autenticate con AWS Secrets Manager Amazon Data Firehose](using-secrets-manager.md).  
 **Codificación de contenidos**   
Amazon Data Firehose utiliza la codificación de contenidos para comprimir el cuerpo de una solicitud antes de enviarla al destino. Selecciona **GZIP** o **Desactivado** para codificar enable/disable el contenido de tu solicitud.   
 **Retry duration**   
Especifique durante cuánto tiempo Amazon Data Firehose reintenta el envío de datos al punto de conexión HTTP seleccionado.   
Tras enviar los datos, Amazon Data Firehose espera primero una confirmación del punto de conexión HTTP. Si se produce un error o la confirmación no llega dentro del periodo de tiempo de espera de confirmación, Amazon Data Firehose pone en marcha el contador de tiempo de reintento. Continúa intentándolo hasta que se agota el tiempo de reintento. Después de eso, Amazon Data Firehose considera que se trata de un error de entrega de datos y crea una copia de seguridad de los datos en el bucket de Amazon S3.   
Cada vez que Amazon Data Firehose envía datos al punto de conexión HTTP (ya sea en el intento inicial o en un reintento), reinicia el contador de tiempo de espera de confirmación y espera a que llegue una confirmación del punto de conexión HTTP.   
Aunque se agote el tiempo de reintento, Amazon Data Firehose sigue esperando la confirmación hasta que la recibe o hasta que finaliza el periodo de tiempo de espera de confirmación. Si se agota el tiempo de espera de confirmación, Amazon Data Firehose determina si queda tiempo en el contador de reintento. Si queda tiempo, vuelve a intentarlo y repite la lógica hasta que recibe una confirmación o determina que el tiempo de reintento se ha agotado.  
Si no desea que Amazon Data Firehose vuelva a intentar el envío de datos, establezca este valor en 0.  
 **Parámetros: opcional**   
Amazon Data Firehose incluye estos pares de clave-valor en cada llamada HTTP. Estos parámetros pueden ayudarlo a identificar y organizar sus destinos.  
 **Sugerencias de almacenamiento en búfer**   
Amazon Data Firehose almacena en búfer los datos de entrada antes de entregarlos en el destino especificado. El tamaño del búfer recomendado para el destino varía de un proveedor de servicios a otro.  
Para los destinos de punto final HTTP, si ves 413 códigos de respuesta del punto final de destino en CloudWatch Logs, reduce el tamaño de la sugerencia de almacenamiento en búfer en la transmisión de Firehose e inténtalo de nuevo.

## Configuración de los ajustes de destino de Datadog
<a name="create-destination-datadog"></a>

En esta sección se describen las opciones de uso de **Datadog** como destino. [Para obtener más información sobre Datadog, consulta amazon\$1web\$1services/. https://docs.datadoghq.com/integrations/](https://docs.datadoghq.com/integrations/amazon_web_services/)

****
+ Proporcione valores para los siguientes campos.  
 **URL del punto de conexión HTTP**   
Elija dónde desea enviar los datos desde una de las siguientes opciones del menú desplegable.  
  + **Registros de Datadog - US1**
  + **Registros de Datadog - US3**
  + **Registros de Datadog - US5**
  + **Registros de Datadog - AP1**
  + **Registros de Datadog: UE**
  + **Registros de Datadog: GOV**
  + **Métricas de Datadog: EE. UU.**
  + **Métricas de Datadog - US5**
  + **Métricas de Datadog - AP1**
  + **Métricas de Datadog: UE**
  + **Configuraciones de Datadog - US1**
  + **Configuraciones de Datadog - US3**
  + **Configuraciones de Datadog - US5**
  + **Configuraciones de Datadog - AP1**
  + **Configuraciones de Datadog: UE**
  + **Configuraciones de Datadog: US GOV**  
 **Autenticación**   
Puede elegir entre introducir la clave de API directamente o recuperar el secreto para acceder AWS Secrets Manager a Datadog.  
  + **Clave de API** 

    Póngase en contacto con Datadog para obtener la clave de API necesaria para permitir la entrega de datos en este punto de conexión desde Firehose.
  + **Secret**

    Seleccione un secreto AWS Secrets Manager que contenga la clave de API de Datadog. Si no ve su secreto en la lista desplegable, cree uno en AWS Secrets Manager. Para obtener más información, consulte [Autenticate con AWS Secrets Manager Amazon Data Firehose](using-secrets-manager.md).  
 **Codificación de contenidos**   
Amazon Data Firehose utiliza la codificación de contenidos para comprimir el cuerpo de una solicitud antes de enviarla al destino. Selecciona **GZIP** o **Disabled** para codificar el enable/disable contenido de tu solicitud.   
 **Retry duration**   
Especifique durante cuánto tiempo Amazon Data Firehose reintenta el envío de datos al punto de conexión HTTP seleccionado.   
Tras enviar los datos, Amazon Data Firehose espera primero una confirmación del punto de conexión HTTP. Si se produce un error o la confirmación no llega dentro del periodo de tiempo de espera de confirmación, Amazon Data Firehose pone en marcha el contador de tiempo de reintento. Continúa intentándolo hasta que se agota el tiempo de reintento. Después de eso, Amazon Data Firehose considera que se trata de un error de entrega de datos y crea una copia de seguridad de los datos en el bucket de Amazon S3.   
Cada vez que Amazon Data Firehose envía datos al punto de conexión HTTP (ya sea en el intento inicial o en un reintento), reinicia el contador de tiempo de espera de confirmación y espera a que llegue una confirmación del punto de conexión HTTP.   
Aunque se agote el tiempo de reintento, Amazon Data Firehose sigue esperando la confirmación hasta que la recibe o hasta que finaliza el periodo de tiempo de espera de confirmación. Si se agota el tiempo de espera de confirmación, Amazon Data Firehose determina si queda tiempo en el contador de reintento. Si queda tiempo, vuelve a intentarlo y repite la lógica hasta que recibe una confirmación o determina que el tiempo de reintento se ha agotado.  
Si no desea que Amazon Data Firehose vuelva a intentar el envío de datos, establezca este valor en 0.  
 **Parámetros: opcional**   
Amazon Data Firehose incluye estos pares de clave-valor en cada llamada HTTP. Estos parámetros pueden ayudarlo a identificar y organizar sus destinos.   
 **Sugerencias de almacenamiento en búfer**   
Amazon Data Firehose almacena en búfer los datos de entrada antes de entregarlos en el destino especificado. El tamaño del búfer recomendado para el destino varía de un proveedor de servicios a otro.

## Configuración de los ajustes de destino de Honeycomb
<a name="create-destination-honeycomb"></a>

En esta sección se describen las opciones de uso de **Honeycomb** como destino. Para obtener más información sobre Honeycomb, consulte [https://docs.honeycomb. -cloudwatch-metrics/. io/getting-data-in/metrics/aws](https://docs.honeycomb.io/getting-data-in/metrics/aws-cloudwatch-metrics/ )

****
+ Proporcione valores para los siguientes campos:  
 **Punto de conexión entre Honeycomb y Kinesis**   
Especifique la URL del punto final HTTP en el siguiente formato: b.io/1/kinesis\$1events/ \$1\$1dataset\$1\$1 https://api.honeycom   
 **Autenticación**   
Puede elegir entre introducir la clave de API directamente o recuperar el secreto para acceder a Honeycomb. AWS Secrets Manager   
  + **Clave de API** 

    Póngase en contacto con Honeycomb para obtener la clave de API necesaria para permitir la entrega de datos en este punto de conexión desde Firehose.
  + **Secret**

    Seleccione un secreto AWS Secrets Manager que contenga la clave de API de Honeycomb. Si no ve su secreto en la lista desplegable, cree uno en AWS Secrets Manager. Para obtener más información, consulte [Autenticate con AWS Secrets Manager Amazon Data Firehose](using-secrets-manager.md).  
 **Codificación de contenidos**   
Amazon Data Firehose utiliza la codificación de contenidos para comprimir el cuerpo de una solicitud antes de enviarla al destino. Elija **GZIP** para habilitar la codificación del contenido de su solicitud. Esta es la opción recomendada para el destino de Honeycomb.  
 **Retry duration**   
Especifique durante cuánto tiempo Amazon Data Firehose reintenta el envío de datos al punto de conexión HTTP seleccionado.   
Tras enviar los datos, Amazon Data Firehose espera primero una confirmación del punto de conexión HTTP. Si se produce un error o la confirmación no llega dentro del periodo de tiempo de espera de confirmación, Amazon Data Firehose pone en marcha el contador de tiempo de reintento. Continúa intentándolo hasta que se agota el tiempo de reintento. Después de eso, Amazon Data Firehose considera que se trata de un error de entrega de datos y crea una copia de seguridad de los datos en el bucket de Amazon S3.   
Cada vez que Amazon Data Firehose envía datos al punto de conexión HTTP (ya sea en el intento inicial o en un reintento), reinicia el contador de tiempo de espera de confirmación y espera a que llegue una confirmación del punto de conexión HTTP.   
Aunque se agote el tiempo de reintento, Amazon Data Firehose sigue esperando la confirmación hasta que la recibe o hasta que finaliza el periodo de tiempo de espera de confirmación. Si se agota el tiempo de espera de confirmación, Amazon Data Firehose determina si queda tiempo en el contador de reintento. Si queda tiempo, vuelve a intentarlo y repite la lógica hasta que recibe una confirmación o determina que el tiempo de reintento se ha agotado.  
Si no desea que Amazon Data Firehose vuelva a intentar el envío de datos, establezca este valor en 0.  
 **Parámetros: opcional**   
Amazon Data Firehose incluye estos pares de clave-valor en cada llamada HTTP. Estos parámetros pueden ayudarlo a identificar y organizar sus destinos.   
 **Sugerencias de almacenamiento en búfer**   
Amazon Data Firehose almacena en búfer los datos de entrada antes de entregarlos en el destino especificado. El tamaño del búfer recomendado para el destino varía de un proveedor de servicios a otro.

## Configuración de los ajustes de destino de Coralogix
<a name="create-destination-coralogix"></a>

En esta sección se describen las opciones de uso de **Coralogix** como destino. Para obtener más información sobre Coralogix, consulte [Introducción a Coralogix](https://coralogix.com/docs/guide-first-steps-coralogix/).

****
+ Proporcione valores para los siguientes campos:  
 **URL del punto de conexión HTTP**   
Elija la URL del punto de conexión HTTP entre las siguientes opciones del menú desplegable:  
  + **Coralogix: EE. UU.**
  + **Coralogix: SINGAPUR**
  + **Coralogix: IRLANDA**
  + **Coralogix: INDIA**
  + **Coralogix: ESTOCOLMO**  
 **Autenticación**   
Puede elegir entre introducir la clave privada directamente o recuperar el secreto para acceder AWS Secrets Manager a Coralogix.  
  + **Clave privada** 

    Póngase en contacto con Coralogix para obtener la clave privada necesaria para permitir la entrega de datos en este punto de conexión desde Firehose.
  + **Secret**

    Seleccione un secreto AWS Secrets Manager que contenga la clave privada de Coralogix. Si no ve su secreto en la lista desplegable, cree uno en AWS Secrets Manager. Para obtener más información, consulte [Autenticate con AWS Secrets Manager Amazon Data Firehose](using-secrets-manager.md).  
 **Codificación de contenidos**   
Amazon Data Firehose utiliza la codificación de contenidos para comprimir el cuerpo de una solicitud antes de enviarla al destino. Elija **GZIP** para habilitar la codificación del contenido de su solicitud. Esta es la opción recomendada para el destino de Coralogix.  
 **Retry duration**   
Especifique durante cuánto tiempo Amazon Data Firehose reintenta el envío de datos al punto de conexión HTTP seleccionado.   
Tras enviar los datos, Amazon Data Firehose espera primero una confirmación del punto de conexión HTTP. Si se produce un error o la confirmación no llega dentro del periodo de tiempo de espera de confirmación, Amazon Data Firehose pone en marcha el contador de tiempo de reintento. Continúa intentándolo hasta que se agota el tiempo de reintento. Después de eso, Amazon Data Firehose considera que se trata de un error de entrega de datos y crea una copia de seguridad de los datos en el bucket de Amazon S3.   
Cada vez que Amazon Data Firehose envía datos al punto de conexión HTTP (ya sea en el intento inicial o en un reintento), reinicia el contador de tiempo de espera de confirmación y espera a que llegue una confirmación del punto de conexión HTTP.   
Aunque se agote el tiempo de reintento, Amazon Data Firehose sigue esperando la confirmación hasta que la recibe o hasta que finaliza el periodo de tiempo de espera de confirmación. Si se agota el tiempo de espera de confirmación, Amazon Data Firehose determina si queda tiempo en el contador de reintento. Si queda tiempo, vuelve a intentarlo y repite la lógica hasta que recibe una confirmación o determina que el tiempo de reintento se ha agotado.  
Si no desea que Amazon Data Firehose vuelva a intentar el envío de datos, establezca este valor en 0.  
 **Parámetros: opcional**   
Amazon Data Firehose incluye estos pares de clave-valor en cada llamada HTTP. Estos parámetros pueden ayudarlo a identificar y organizar sus destinos.   
  + applicationName: entorno en el que se ejecuta Data Firehose
  + subsystemName: nombre de la integración de Data Firehose
  + computerName: nombre del flujo de Firehose en uso  
 **Sugerencias de almacenamiento en búfer**   
Amazon Data Firehose almacena en búfer los datos de entrada antes de entregarlos en el destino especificado. El tamaño del búfer recomendado para el destino varía según el proveedor de servicios.

## Configuración de los ajustes de destino de Dynatrace
<a name="create-destination-dynatrace"></a>

En esta sección se describen las opciones de uso de **Dynatrace** como destino. [Para obtener más información, consulte -metric-streams/. https://www.dynatrace.com/support/ help/technology-support/cloud-platforms/amazon-web-services/integrations/cloudwatch](https://www.dynatrace.com/support/help/technology-support/cloud-platforms/amazon-web-services/integrations/cloudwatch-metric-streams/)

****
+ Elija opciones para usar Dynatrace como destino de su flujo de Firehose.  
 **Tipo de ingesta**   
Elija si quiere entregar **métricas** o **registros** (predeterminado) en Dynatrace para su posterior análisis y procesamiento.  
 **URL del punto de conexión HTTP**   
Elija la URL del punto de conexión HTTP (**Dynatrace EE. UU.**, **Dynatrace UE** o **Dynatrace Global**) en el menú desplegable.  
 **Autenticación**   
Puede elegir entre introducir el token de la API directamente o recuperar el secreto para acceder a Dynatrace. AWS Secrets Manager   
  + **Token de la API** 

    Genere el token de la API de Dynatrace que necesita para permitir la entrega de datos en este punto de conexión desde Firehose. Para obtener más información, consulte [API de Dynatrace: tokens y autenticación](https://docs.dynatrace.com/docs/dynatrace-api/basics/dynatrace-api-authentication).
  + **Secret**

    Seleccione un secreto AWS Secrets Manager que contenga el token de API de Dynatrace. Si no ve su secreto en la lista desplegable, cree uno en AWS Secrets Manager. Para obtener más información, consulte [Autenticate con AWS Secrets Manager Amazon Data Firehose](using-secrets-manager.md).  
 **URL de la API**   
Proporcione la URL de la API de su entorno de Dynatrace.  
 **Codificación de contenidos**   
Elija si desea habilitar la codificación de contenido para comprimir el cuerpo de la solicitud. Amazon Data Firehose utiliza la codificación de contenidos para comprimir el cuerpo de una solicitud antes de enviarla al destino. Cuando está habilitada, el contenido se comprime en formato **GZIP**.  
 **Retry duration**   
Especifique durante cuánto tiempo Firehose reintenta el envío de datos al punto de conexión HTTP seleccionado.   
Tras enviar los datos, Firehose espera primero una confirmación del punto de conexión HTTP. Si se produce un error o la confirmación no llega dentro del periodo de tiempo de espera de confirmación, Firehose pone en marcha el contador de tiempo de reintento. Continúa intentándolo hasta que se agota el tiempo de reintento. Después de eso, Firehose considera que se trata de un error de entrega de datos y crea una copia de seguridad de los datos en el bucket de Amazon S3.   
Cada vez que Firehose envía datos al punto de conexión HTTP, ya sea en el intento inicial o en un reintento, reinicia el contador de tiempo de espera de confirmación y espera a que llegue una confirmación del punto de conexión HTTP.   
Aunque se agote el tiempo de reintento, Firehose sigue esperando la confirmación hasta que la recibe o hasta que finaliza el tiempo de espera de confirmación. Si se agota el tiempo de espera de confirmación, Firehose determina si queda tiempo en el contador de reintento. Si queda tiempo, vuelve a intentarlo y repite la lógica hasta que recibe una confirmación o determina que el tiempo de reintento se ha agotado.  
Si no desea que Firehose vuelva a intentar el envío de datos, establezca este valor en 0.  
 **Parámetros: opcional**   
Amazon Data Firehose incluye estos pares de clave-valor en cada llamada HTTP. Estos parámetros pueden ayudarlo a identificar y organizar sus destinos.   
**Sugerencias de almacenamiento en búfer**  
Amazon Data Firehose almacena en búfer los datos de entrada antes de entregarlos en el destino especificado. Las sugerencias del búfer incluyen el tamaño y el intervalo del búfer para los flujos. El tamaño del búfer recomendado para el destino varía según el proveedor de servicios.

## Configure los ajustes de destino para LogicMonitor
<a name="create-destination-logicmonitor"></a>

Esta sección describe las opciones de uso de **LogicMonitor** como destino. Para obtener más información, consulte [https://www.logicmonitor.com](https://www.logicmonitor.com).

****
+ Proporcione valores para los siguientes campos:  
 **URL del punto de conexión HTTP**   
Especifique la URL del punto de conexión HTTP en el siguiente formato.  

  ```
  https://ACCOUNT.logicmonitor.com
  ```  
 **Autenticación**   
Puedes elegir entre introducir la clave de API directamente o recuperar el secreto desde donde AWS Secrets Manager accedes LogicMonitor.  
  + **Clave de API** 

    Póngase en contacto LogicMonitor para obtener la clave de API que necesita para habilitar la entrega de datos a este punto final desde Firehose.
  + **Secret**

    Seleccione un secreto AWS Secrets Manager que contenga la clave de API. LogicMonitor Si no ve su secreto en la lista desplegable, cree uno en AWS Secrets Manager. Para obtener más información, consulte [Autenticate con AWS Secrets Manager Amazon Data Firehose](using-secrets-manager.md).  
 **Codificación de contenidos**   
Amazon Data Firehose utiliza la codificación de contenidos para comprimir el cuerpo de una solicitud antes de enviarla al destino. Selecciona **GZIP** o **Disabled** para codificar enable/disable el contenido de tu solicitud.   
 **Retry duration**   
Especifique durante cuánto tiempo Amazon Data Firehose reintenta el envío de datos al punto de conexión HTTP seleccionado.   
Tras enviar los datos, Amazon Data Firehose espera primero una confirmación del punto de conexión HTTP. Si se produce un error o la confirmación no llega dentro del periodo de tiempo de espera de confirmación, Amazon Data Firehose pone en marcha el contador de tiempo de reintento. Continúa intentándolo hasta que se agota el tiempo de reintento. Después de eso, Amazon Data Firehose considera que se trata de un error de entrega de datos y crea una copia de seguridad de los datos en el bucket de Amazon S3.   
Cada vez que Amazon Data Firehose envía datos al punto de conexión HTTP (ya sea en el intento inicial o en un reintento), reinicia el contador de tiempo de espera de confirmación y espera a que llegue una confirmación del punto de conexión HTTP.   
Aunque se agote el tiempo de reintento, Amazon Data Firehose sigue esperando la confirmación hasta que la recibe o hasta que finaliza el periodo de tiempo de espera de confirmación. Si se agota el tiempo de espera de confirmación, Amazon Data Firehose determina si queda tiempo en el contador de reintento. Si queda tiempo, vuelve a intentarlo y repite la lógica hasta que recibe una confirmación o determina que el tiempo de reintento se ha agotado.  
Si no desea que Amazon Data Firehose vuelva a intentar el envío de datos, establezca este valor en 0.  
 **Parámetros: opcional**   
Amazon Data Firehose incluye estos pares de clave-valor en cada llamada HTTP. Estos parámetros pueden ayudarlo a identificar y organizar sus destinos.   
 **Sugerencias de almacenamiento en búfer**   
Amazon Data Firehose almacena en búfer los datos de entrada antes de entregarlos en el destino especificado. El tamaño del búfer recomendado para el destino varía de un proveedor de servicios a otro.

## Configuración de los ajustes de destino de Logz.io
<a name="create-destination-logz"></a>

En esta sección se describen las opciones de uso de **Logz.io** como destino. Para obtener más información, consulte [https://logz.io/](https://logz.io/).

**nota**  
En la región Europa (Milán), Logz.io no se admite como destino de Amazon Data Firehose.

****
+ Proporcione valores para los siguientes campos:  
 **URL del punto de conexión HTTP**   
Especifique la URL del punto de conexión HTTP en el siguiente formato. La URL debe ser una URL `HTTPS`.  

  ```
  https://listener-aws-metrics-stream-<region>.logz.io/
  ```
Por ejemplo  

  ```
  https://listener-aws-metrics-stream-us.logz.io/
  ```  
 **Autenticación**   
Puedes elegir entre introducir el token de envío directamente o recuperar el secreto AWS Secrets Manager para acceder a Logz.io.  
  + **Token de envío** 

    Póngase en contacto con Logz.io para obtener el token de envío necesario para permitir la entrega de datos en este punto de conexión desde Firehose.
  + **Secret**

    Selecciona un secreto AWS Secrets Manager que contenga el token de envío de Logz.io. Si no ve su secreto en la lista desplegable, cree uno en AWS Secrets Manager. Para obtener más información, consulte [Autenticate con AWS Secrets Manager Amazon Data Firehose](using-secrets-manager.md).  
 **Retry duration**   
Especifique durante cuánto tiempo Amazon Data Firehose reintenta el envío de datos a Logz.io.   
Tras enviar los datos, Amazon Data Firehose espera primero una confirmación del punto de conexión HTTP. Si se produce un error o la confirmación no llega dentro del periodo de tiempo de espera de confirmación, Amazon Data Firehose pone en marcha el contador de tiempo de reintento. Continúa intentándolo hasta que se agota el tiempo de reintento. Después de eso, Amazon Data Firehose considera que se trata de un error de entrega de datos y crea una copia de seguridad de los datos en el bucket de Amazon S3.   
Cada vez que Amazon Data Firehose envía datos al punto de conexión HTTP (ya sea en el intento inicial o en un reintento), reinicia el contador de tiempo de espera de confirmación y espera a que llegue una confirmación del punto de conexión HTTP.   
Aunque se agote el tiempo de reintento, Amazon Data Firehose sigue esperando la confirmación hasta que la recibe o hasta que finaliza el periodo de tiempo de espera de confirmación. Si se agota el tiempo de espera de confirmación, Amazon Data Firehose determina si queda tiempo en el contador de reintento. Si queda tiempo, vuelve a intentarlo y repite la lógica hasta que recibe una confirmación o determina que el tiempo de reintento se ha agotado.  
Si no desea que Amazon Data Firehose vuelva a intentar el envío de datos, establezca este valor en 0.  
 **Parámetros: opcional**   
Amazon Data Firehose incluye estos pares de clave-valor en cada llamada HTTP. Estos parámetros pueden ayudarlo a identificar y organizar sus destinos.   
 **Sugerencias de almacenamiento en búfer**   
Amazon Data Firehose almacena en búfer los datos de entrada antes de entregarlos en el destino especificado. El tamaño del búfer recomendado para el destino varía de un proveedor de servicios a otro.

## Configuración de los ajustes de destino de MongoDB Atlas
<a name="create-destination-mongodb"></a>

En esta sección se describen las opciones de uso de **MongoDB Atlas** como destino. Para obtener más información, consulte [MongoDB Atlas en Amazon Web Services](https://www.mongodb.com/products/platform/atlas-cloud-providers/aws).

****
+ Proporcione valores para los siguientes campos:  
**URL de API Gateway**  
Especifique la URL del punto de conexión HTTP en el siguiente formato.  

  ```
   https://xxxxx.execute-api.region.amazonaws.com/stage
  ```
La URL debe ser una URL `HTTPS`.   
 **Autenticación**   
Puede elegir entre introducir la clave de API directamente o recuperar el secreto AWS Secrets Manager para acceder a MongoDB Atlas.  
  + **Clave de API** 

    Siga las instrucciones de [MongoDB Atlas en Amazon Web Services](https://www.mongodb.com/products/platform/atlas-cloud-providers/aws) para obtener el `APIKeyValue` necesario para la entrega de datos en este punto de conexión desde Firehose.
  + **Secret**

    Seleccione un secreto AWS Secrets Manager que contenga la clave de API para API Gateway respaldada por Lambda que interactúa con MongoDB Atlas. Si no ve su secreto en la lista desplegable, cree uno en AWS Secrets Manager. Para obtener más información, consulte [Autenticate con AWS Secrets Manager Amazon Data Firehose](using-secrets-manager.md).  
**Codificación de contenidos**  
Amazon Data Firehose utiliza la codificación de contenidos para comprimir el cuerpo de una solicitud antes de enviarla al destino. Selecciona **GZIP** o **Disabled** para codificar el enable/disable contenido de tu solicitud.   
**Retry duration**  
Especifique durante cuánto tiempo Amazon Data Firehose reintenta el envío de datos al proveedor de terceros seleccionado.   
Tras enviar los datos, Amazon Data Firehose espera primero una confirmación del punto de conexión HTTP. Si se produce un error o la confirmación no llega dentro del periodo de tiempo de espera de confirmación, Amazon Data Firehose pone en marcha el contador de tiempo de reintento. Continúa intentándolo hasta que se agota el tiempo de reintento. Después de eso, Amazon Data Firehose considera que se trata de un error de entrega de datos y crea una copia de seguridad de los datos en el bucket de Amazon S3.   
Cada vez que Amazon Data Firehose envía datos al punto de conexión HTTP (ya sea en el intento inicial o en un reintento), reinicia el contador de tiempo de espera de confirmación y espera a que llegue una confirmación del punto de conexión HTTP.   
Aunque se agote el tiempo de reintento, Amazon Data Firehose sigue esperando la confirmación hasta que la recibe o hasta que finaliza el periodo de tiempo de espera de confirmación. Si se agota el tiempo de espera de confirmación, Amazon Data Firehose determina si queda tiempo en el contador de reintento. Si queda tiempo, vuelve a intentarlo y repite la lógica hasta que recibe una confirmación o determina que el tiempo de reintento se ha agotado.  
Si no desea que Amazon Data Firehose vuelva a intentar el envío de datos, establezca este valor en 0.  
**Sugerencias de almacenamiento en búfer**  
Amazon Data Firehose almacena en búfer los datos de entrada antes de entregarlos en el destino especificado. El tamaño del búfer recomendado para el destino varía de un proveedor de servicios a otro.  
**Parámetros: opcional**  
Amazon Data Firehose incluye estos pares de clave-valor en cada llamada HTTP. Estos parámetros pueden ayudarlo a identificar y organizar sus destinos. 

## Configuración de los ajustes de destino de New Relic
<a name="create-destination-new-relic"></a>

En esta sección se describen las opciones de uso de **New Relic** como destino. Para obtener más información, consulte [https://newrelic.com](https://newrelic.com). 

****
+ Proporcione valores para los siguientes campos:  
 **URL del punto de conexión HTTP**   
Elija la URL del punto de conexión HTTP entre las siguientes opciones del menú desplegable.  
  + **Registros de New Relic: EE. UU.**
  + **Métricas de New Relic: EE. UU.**
  + **Métricas de New Relic: UE**  
 **Autenticación**   
Puedes elegir entre introducir la clave de API directamente o recuperar el secreto AWS Secrets Manager para acceder a New Relic.  
  + **Clave de API** 

    Ingrese la clave de licencia, que es una cadena hexadecimal de 40 caracteres, en la configuración de la cuenta de New Relic One. Esta clave de API es necesaria para permitir la entrega de datos en este punto de conexión desde Firehose.
  + **Secret**

    Selecciona un secreto AWS Secrets Manager que contenga la clave de API de New Relic. Si no ve su secreto en la lista desplegable, cree uno en AWS Secrets Manager. Para obtener más información, consulte [Autenticate con AWS Secrets Manager Amazon Data Firehose](using-secrets-manager.md).  
 **Codificación de contenidos**   
Amazon Data Firehose utiliza la codificación de contenidos para comprimir el cuerpo de una solicitud antes de enviarla al destino. Selecciona **GZIP** o **Desactivado** para codificar el enable/disable contenido de tu solicitud.   
 **Retry duration**   
Especifique durante cuánto tiempo Amazon Data Firehose reintenta el envío de datos al punto de conexión HTTP de New Relic.   
Tras enviar los datos, Amazon Data Firehose espera primero una confirmación del punto de conexión HTTP. Si se produce un error o la confirmación no llega dentro del periodo de tiempo de espera de confirmación, Amazon Data Firehose pone en marcha el contador de tiempo de reintento. Continúa intentándolo hasta que se agota el tiempo de reintento. Después de eso, Amazon Data Firehose considera que se trata de un error de entrega de datos y crea una copia de seguridad de los datos en el bucket de Amazon S3.   
Cada vez que Amazon Data Firehose envía datos al punto de conexión HTTP (ya sea en el intento inicial o en un reintento), reinicia el contador de tiempo de espera de confirmación y espera a que llegue una confirmación del punto de conexión HTTP.   
Aunque se agote el tiempo de reintento, Amazon Data Firehose sigue esperando la confirmación hasta que la recibe o hasta que finaliza el periodo de tiempo de espera de confirmación. Si se agota el tiempo de espera de confirmación, Amazon Data Firehose determina si queda tiempo en el contador de reintento. Si queda tiempo, vuelve a intentarlo y repite la lógica hasta que recibe una confirmación o determina que el tiempo de reintento se ha agotado.  
Si no desea que Amazon Data Firehose vuelva a intentar el envío de datos, establezca este valor en 0.  
 **Parámetros: opcional**   
Amazon Data Firehose incluye estos pares de clave-valor en cada llamada HTTP. Estos parámetros pueden ayudarlo a identificar y organizar sus destinos.   
 **Sugerencias de almacenamiento en búfer**   
Amazon Data Firehose almacena en búfer los datos de entrada antes de entregarlos en el destino especificado. El tamaño del búfer recomendado para el destino varía de un proveedor de servicios a otro.

## Configuración de los ajustes de destino de Snowflake
<a name="create-destination-snowflake"></a>

En esta sección, se describen las opciones de uso de Snowflake como destino.

**nota**  
La integración de Firehose con Snowflake está disponible en EE. UU. Este (Virginia del Norte), EE. UU. Oeste (Oregón), Europa (Irlanda), EE. UU. Este (Ohio), Asia Pacífico (Tokio), Europa (Fráncfort), Asia Pacífico (Singapur), Asia Pacífico (Seúl) y Asia Pacífico (Sídney), Asia Pacífico (Bombay), Europa (Londres), Sudamérica (São Paulo), Canadá (), Europa (París), Asia Pacífico (Osaka), Europa (Estocolmo), Asia Pacífico (Yakarta). Regiones de AWS

**Configuraciones de conexión**

****
+ Proporcione valores para los siguientes campos:  
 **URL de la cuenta de Snowflake**   
Especifique la URL de una cuenta de Snowflake. Por ejemplo: `xy12345.us-east-1.aws.snowflakecomputing.com`. Consulte la [documentación de Snowflake](https://docs.snowflake.com/en/user-guide/admin-account-identifier#format-2-legacy-account-locator-in-a-region) para saber cómo determinar la URL de su cuenta. Tenga en cuenta que no debe especificar el número de puerto, y el protocolo (https://) es opcional.  
 **Autenticación**   
Puede optar por introducir el nombre de usuario, la clave privada y la frase de contraseña manualmente o recuperar el secreto AWS Secrets Manager para acceder a Snowflake.  
  + **Inicio de sesión de usuario**

    Especifique el usuario de Snowflake que se utilizará para cargar los datos. Asegúrese de que el usuario tenga acceso para insertar datos en la tabla de Snowflake.
  + **Clave privada**

    Especifique la clave privada para la autenticación con Snowflake en formato `PKCS8`. Además, no incluya el encabezado y el pie de página PEM como parte de la clave privada. Si la clave está dividida en varias líneas, elimine los saltos de línea. A continuación, se muestra un ejemplo de cómo debe ser su clave privada.

    ```
    -----BEGIN PRIVATE KEY-----
    KEY_CONTENT
    -----END PRIVATE KEY-----
    ```

    Elimine el espacio en `KEY_CONTENT` y colóquela en Firehose. No se requieren caracteres header/footer de línea o de nueva línea.
  + **Contraseña** 

    Especifique la contraseña para descifrar la clave privada cifrada. Puede dejar este campo vacío si la clave privada no está cifrada. Para obtener más información, consulte [Uso de la autenticación de pares de claves y la rotación de claves](https://docs.snowflake.com/en/user-guide/data-load-snowpipe-streaming-configuration#using-key-pair-authentication-key-rotation).
  + **Secret**

    Seleccione un secreto AWS Secrets Manager que contenga las credenciales de Snowflake. Si no ve su secreto en la lista desplegable, cree uno en AWS Secrets Manager. Para obtener más información, consulte [Autenticate con AWS Secrets Manager Amazon Data Firehose](using-secrets-manager.md).  
 **Configuración de roles**   
Usar el rol de Snowflake predeterminado: si se selecciona esta opción, Firehose no pasará ningún rol a Snowflake. Se asume que el rol predeterminado carga los datos. Asegúrese de que el rol predeterminado tenga permiso para insertar datos en la tabla de Snowflake.  
Usar un rol de Snowflake personalizado: introduzca un rol de Snowflake no predeterminado para que lo asuma Firehose al cargar datos en la tabla de Snowflake.  
 **Conexión a Snowflake**   
Las opciones son **Privada** o **Pública**.  
 **ID de VPCE privado (opcional)**   
El ID de VPCE para que Firehose se conecte de forma privada con Snowflake. El formato de ID es com.amazonaws.vpce. [región] .vpce-svc-. *[id]* [Para obtener más información, consulte & Snowflake.AWS PrivateLink ](https://docs.snowflake.com/en/user-guide/admin-security-privatelink)  
Si su clúster de Snowflake tiene habilitados los enlaces privados, utilice una política de red basada en `AwsVpceIds` para permitir los datos de Amazon Data Firehose. Firehose no requiere que configure una política de red basada en IP en su cuenta de Snowflake. Si tiene habilitada una política de red basada en IP, podría interferir con la conectividad de Firehose. En un caso extremo que requiera una política basada en IP, póngase en contacto con el equipo de Firehose enviando un [ticket de soporte](https://support.console.aws.amazon.com/support/home?region=us-east-1#/case/create). Para obtener una lista de los VPCE IDs que puede utilizar, consulte la. [Acceso a Snowflake en VPC](controlling-access.md#using-iam-snowflake-vpc)

**Configuración de las bases de datos**
+ Debe especificar la siguiente configuración para poder utilizar Snowflake como destino del flujo de Firehose.
  + Base de datos de Snowflake: todos los datos de Snowflake se mantienen en bases de datos.
  + Esquema de Snowflake: cada base de datos consta de uno o más esquemas, que son agrupaciones lógicas de objetos de base de datos, como tablas y vistas.
  + Tabla de Snowflake: todos los datos de Snowflake se almacenan en tablas de bases de datos, estructuradas de forma lógica como conjuntos de columnas y filas.

 **Opciones de carga de datos para la tabla de Snowflake** 
+ Utilice claves JSON como nombres de columnas 
+ Utilice columnas VARIANT
  + Nombre de la columna de contenido: especifique un nombre de columna en la tabla, donde se deben cargar los datos sin procesar.
  + Nombre de la columna de metadatos (opcional): especifique un nombre de columna en la tabla, donde se debe cargar la información de los metadatos. Al habilitar este campo, verá la siguiente columna en la tabla Snowflake según el tipo de origen. 

    **Para Direct PUT como origen**

    ```
    {
    "firehoseDeliveryStreamName" : "streamname",
    "IngestionTime" : "timestamp"
    }
    ```

    **Para Kinesis Data Stream como origen**

    ```
    {
    "kinesisStreamName" : "streamname",
    "kinesisShardId" : "Id",
    "kinesisPartitionKey" : "key",
    "kinesisSequenceNumber" : "1234",
    "subsequenceNumber" : "2334",
    "IngestionTime" : "timestamp"
    }
    ```

 **Retry duration** 

Tiempo (entre 0 y 7200 segundos) para que Firehose vuelva a intentarlo si falla la apertura del canal o la entrega a Snowflake debido a problemas con el servicio de Snowflake. Firehose hace reintentos con un retroceso exponencial hasta que finaliza el tiempo de reintento. Si establece la duración del reintento en 0 (cero) segundos, Firehose no lo reintenta tras producirse errores en Snowflake y enruta los datos al bucket de errores de Amazon S3.

 **Sugerencias de almacenamiento en búfer** 

Amazon Data Firehose almacena en búfer los datos de entrada antes de entregarlos en el destino especificado. El tamaño del búfer recomendado para el destino varía de un proveedor de servicios a otro. Para obtener más información, consulte [Configuración de sugerencias de almacenamiento en búfer](create-configure-backup.md#buffering-hints).

## Configuración de los ajustes de destino de Splunk
<a name="create-destination-splunk"></a>

Esta sección describe las opciones de uso de Splunk como destino.

**nota**  
Firehose entrega los datos a los clústeres de Splunk configurados con equilibrador de carga clásico o un equilibrador de carga de aplicación. 

****
+ Proporcione valores para los siguientes campos:  
 **Splunk cluster endpoint**   
Para determinar el punto de conexión, consulte [Configuración de Amazon Data Firehose para enviar datos a la plataforma Spunk](http://docs.splunk.com/Documentation/AddOns/latest/Firehose/ConfigureFirehose) en la documentación de Splunk.  
 **Splunk endpoint type**   
Elija `Raw endpoint` en la mayoría de los casos. Elija `Event endpoint` si ha preprocesado sus datos AWS Lambda para enviarlos a diferentes índices por tipo de evento. Para obtener información sobre el punto de conexión que debe utilizar, consulte [Configuración de Amazon Data Firehose para enviar datos a la plataforma de Spunk](http://docs.splunk.com/Documentation/AddOns/released/Firehose/ConfigureFirehose) en la documentación de Splunk.  
 **Autenticación**   
Puedes elegir entre introducir el token de autenticación directamente o recuperar el secreto para acceder AWS Secrets Manager a Splunk.  
  + **Authentication token** 

    Para configurar un punto de conexión de Splunk que pueda recibir datos de Amazon Data Firehose, consulte [Descripción general de la instalación y la configuración del complemento de Splunk en Amazon Kinesis Firehose](http://docs.splunk.com/Documentation/AddOns/released/Firehose/Installationoverview) en la documentación de Splunk. Guarde el token que obtiene de Splunk al configurar el punto de conexión de este flujo de Firehose y añádalo aquí.
  + **Secret**

    Seleccione un secreto AWS Secrets Manager que contenga el token de autenticación de Splunk. Si no ve su secreto en la lista desplegable, cree uno en AWS Secrets Manager. Para obtener más información, consulte [Autenticate con AWS Secrets Manager Amazon Data Firehose](using-secrets-manager.md).  
 **HEC acknowledgement timeout**   
Especifique durante cuánto tiempo debe esperar Amazon Data Firehose la confirmación de índices de Splunk. Si Splunk no envía la confirmación antes de que finalice el tiempo de espera, Amazon Data Firehose considera que ha habido un error en la entrega de datos. A continuación, Amazon Data Firehose hace un reintento o crea una copia de seguridad de los datos en el bucket de Amazon S3, según el valor que se haya establecido para el tiempo de reintento.   
 **Retry duration**   
Especifique durante cuánto tiempo Amazon Data Firehose reintenta el envío de datos a Splunk.   
Tras enviar los datos, Amazon Data Firehose espera primero una confirmación de Splunk. Si se produce un error o la confirmación no llega dentro del periodo de tiempo de espera de confirmación, Amazon Data Firehose pone en marcha el contador de tiempo de reintento. Continúa intentándolo hasta que se agota el tiempo de reintento. Después de eso, Amazon Data Firehose considera que se trata de un error de entrega de datos y crea una copia de seguridad de los datos en el bucket de Amazon S3.   
Cada vez que Amazon Data Firehose envía datos a Splunk (ya sea en el intento inicial o en un reintento), reinicia el contador de tiempo de espera de confirmación y espera a que llegue una confirmación de Splunk.   
Aunque se agote el tiempo de reintento, Amazon Data Firehose sigue esperando la confirmación hasta que la recibe o hasta que finaliza el periodo de tiempo de espera de confirmación. Si se agota el tiempo de espera de confirmación, Amazon Data Firehose determina si queda tiempo en el contador de reintento. Si queda tiempo, vuelve a intentarlo y repite la lógica hasta que recibe una confirmación o determina que el tiempo de reintento se ha agotado.  
Si no desea que Amazon Data Firehose vuelva a intentar el envío de datos, establezca este valor en 0.  
 **Sugerencias de almacenamiento en búfer**   
Amazon Data Firehose almacena en búfer los datos de entrada antes de entregarlos en el destino especificado. El tamaño del búfer recomendado para el destino varía según el proveedor de servicios.

## Configuración de los ajustes de destino de Splunk Observability Cloud
<a name="create-destination-splunk-cloud"></a>

En esta sección se describen las opciones de uso de **Splunk Observability Cloud** como destino. Para obtener más información, consulte [https://docs.splunk.com/observability/en/gdi/get-data-in/connect/aws/aws-apiconfig.html\$1 - -api connect-to-aws-using](https://docs.splunk.com/Observability/gdi/get-data-in/connect/aws/aws-apiconfig.html#connect-to-aws-using-the-splunk-observability-cloud-api). the-splunk-observability-cloud

****
+ Proporcione valores para los siguientes campos:  
 **URL del punto de conexión de ingesta de la nube**   
Puede encontrar la URL de ingesta de datos en tiempo real de Splunk Observability Cloud en Profile > Organizations > Real-time Data Ingest Endpoint, en la consola de Splunk Observability.   
 **Autenticación**   
Puede elegir entre introducir el token de acceso directamente o recuperar el secreto para acceder a Splunk Observability Cloud. AWS Secrets Manager   
  + **Token de acceso** 

    Copie su token de acceso a Splunk Observability con el ámbito de autorización de INGEST desde **Tokens de acceso** en **Ajustes** en la consola de Splunk Observability.
  + **Secret**

    Seleccione un secreto AWS Secrets Manager que contenga el token de acceso a Splunk Observability Cloud. Si no ve su secreto en la lista desplegable, cree uno en AWS Secrets Manager. Para obtener más información, consulte [Autenticate con AWS Secrets Manager Amazon Data Firehose](using-secrets-manager.md).  
 **Codificación de contenidos**   
Amazon Data Firehose utiliza la codificación de contenidos para comprimir el cuerpo de una solicitud antes de enviarla al destino. Seleccione **GZIP** o **Desactivado** para codificar el enable/disable contenido de su solicitud.   
 **Retry duration**   
Especifique durante cuánto tiempo Amazon Data Firehose reintenta el envío de datos al punto de conexión HTTP seleccionado.   
Tras enviar los datos, Amazon Data Firehose espera primero una confirmación del punto de conexión HTTP. Si se produce un error o la confirmación no llega dentro del periodo de tiempo de espera de confirmación, Amazon Data Firehose pone en marcha el contador de tiempo de reintento. Continúa intentándolo hasta que se agota el tiempo de reintento. Después de eso, Amazon Data Firehose considera que se trata de un error de entrega de datos y crea una copia de seguridad de los datos en el bucket de Amazon S3.   
Cada vez que Amazon Data Firehose envía datos al punto de conexión HTTP (ya sea en el intento inicial o en un reintento), reinicia el contador de tiempo de espera de confirmación y espera a que llegue una confirmación del punto de conexión HTTP.   
Aunque se agote el tiempo de reintento, Amazon Data Firehose sigue esperando la confirmación hasta que la recibe o hasta que finaliza el periodo de tiempo de espera de confirmación. Si se agota el tiempo de espera de confirmación, Amazon Data Firehose determina si queda tiempo en el contador de reintento. Si queda tiempo, vuelve a intentarlo y repite la lógica hasta que recibe una confirmación o determina que el tiempo de reintento se ha agotado.  
Si no desea que Amazon Data Firehose vuelva a intentar el envío de datos, establezca este valor en 0.  
 **Parámetros: opcional**   
Amazon Data Firehose incluye estos pares de clave-valor en cada llamada HTTP. Estos parámetros pueden ayudarlo a identificar y organizar sus destinos.   
 **Sugerencias de almacenamiento en búfer**   
Amazon Data Firehose almacena en búfer los datos de entrada antes de entregarlos en el destino especificado. El tamaño del búfer recomendado para el destino varía de un proveedor de servicios a otro.

## Configuración de los ajustes de destino de Sumo Logic
<a name="create-destination-sumo-logic"></a>

En esta sección se describen las opciones de uso de **Sumo Logic** como destino. Para obtener más información, consulte [https://www.sumologic.com](https://www.sumologic.com).

****
+ Proporcione valores para los siguientes campos:  
 **URL del punto de conexión HTTP**   
Especifique la URL del punto de conexión HTTP en el siguiente formato: `https://deployment name.sumologic.net/receiver/v1/kinesis/dataType/access token`. La URL debe ser una URL HTTPS.   
 **Codificación de contenidos**   
Amazon Data Firehose utiliza la codificación de contenidos para comprimir el cuerpo de una solicitud antes de enviarla al destino. Selecciona **GZIP** o **Desactivado** para codificar el enable/disable contenido de tu solicitud.   
 **Retry duration**   
Especifique durante cuánto tiempo Amazon Data Firehose reintenta el envío de datos a Sumo Logic.   
Tras enviar los datos, Amazon Data Firehose espera primero una confirmación del punto de conexión HTTP. Si se produce un error o la confirmación no llega dentro del periodo de tiempo de espera de confirmación, Amazon Data Firehose pone en marcha el contador de tiempo de reintento. Continúa intentándolo hasta que se agota el tiempo de reintento. Después de eso, Amazon Data Firehose considera que se trata de un error de entrega de datos y crea una copia de seguridad de los datos en el bucket de Amazon S3.   
Cada vez que Amazon Data Firehose envía datos al punto de conexión HTTP (ya sea en el intento inicial o en un reintento), reinicia el contador de tiempo de espera de confirmación y espera a que llegue una confirmación del punto de conexión HTTP.   
Aunque se agote el tiempo de reintento, Amazon Data Firehose sigue esperando la confirmación hasta que la recibe o hasta que finaliza el periodo de tiempo de espera de confirmación. Si se agota el tiempo de espera de confirmación, Amazon Data Firehose determina si queda tiempo en el contador de reintento. Si queda tiempo, vuelve a intentarlo y repite la lógica hasta que recibe una confirmación o determina que el tiempo de reintento se ha agotado.  
Si no desea que Amazon Data Firehose vuelva a intentar el envío de datos, establezca este valor en 0.  
 **Parámetros: opcional**   
Amazon Data Firehose incluye estos pares de clave-valor en cada llamada HTTP. Estos parámetros pueden ayudarlo a identificar y organizar sus destinos.   
 **Sugerencias de almacenamiento en búfer**   
Amazon Data Firehose almacena en búfer los datos de entrada antes de entregarlos en el destino especificado. El tamaño del búfer recomendado para el destino de Elastic varía de un proveedor de servicios a otro.

## Configuración de los ajustes de destino de Elastic
<a name="create-destination-elastic"></a>

En esta sección se describen las opciones de uso de **Elastic** como destino. 

****
+ Proporcione valores para los siguientes campos:  
 **URL del punto de conexión de Elastic**   
Especifique la URL del punto de conexión HTTP en el siguiente formato: `https://<cluster-id>.es.<region>.aws.elastic-cloud.com`. La URL debe ser una URL HTTPS.   
 **Autenticación**   
Puedes elegir entre introducir la clave de API directamente o recuperar el secreto AWS Secrets Manager para acceder a Elastic.  
  + **Clave de API** 

    Póngase en contacto con Elastic para obtener la clave de API necesaria para permitir la entrega de datos en su servicio desde Firehose.
  + **Secret**

    Selecciona un secreto AWS Secrets Manager que contenga la clave de API de Elastic. Si no ve su secreto en la lista desplegable, cree uno en AWS Secrets Manager. Para obtener más información, consulte [Autenticate con AWS Secrets Manager Amazon Data Firehose](using-secrets-manager.md).  
 **Codificación de contenidos**   
Amazon Data Firehose utiliza la codificación de contenidos para comprimir el cuerpo de una solicitud antes de enviarla al destino. Selecciona **GZIP** (que es lo que está seleccionado de forma predeterminada) o **Inhabilitado** para codificar enable/disable el contenido de tu solicitud.   
 **Retry duration**   
Especifique durante cuánto tiempo Amazon Data Firehose reintenta el envío de datos a Elastic.   
Tras enviar los datos, Amazon Data Firehose espera primero una confirmación del punto de conexión HTTP. Si se produce un error o la confirmación no llega dentro del periodo de tiempo de espera de confirmación, Amazon Data Firehose pone en marcha el contador de tiempo de reintento. Continúa intentándolo hasta que se agota el tiempo de reintento. Después de eso, Amazon Data Firehose considera que se trata de un error de entrega de datos y crea una copia de seguridad de los datos en el bucket de Amazon S3.   
Cada vez que Amazon Data Firehose envía datos al punto de conexión HTTP (ya sea en el intento inicial o en un reintento), reinicia el contador de tiempo de espera de confirmación y espera a que llegue una confirmación del punto de conexión HTTP.   
Aunque se agote el tiempo de reintento, Amazon Data Firehose sigue esperando la confirmación hasta que la recibe o hasta que finaliza el periodo de tiempo de espera de confirmación. Si se agota el tiempo de espera de confirmación, Amazon Data Firehose determina si queda tiempo en el contador de reintento. Si queda tiempo, vuelve a intentarlo y repite la lógica hasta que recibe una confirmación o determina que el tiempo de reintento se ha agotado.  
Si no desea que Amazon Data Firehose vuelva a intentar el envío de datos, establezca este valor en 0.  
 **Parámetros: opcional**   
Amazon Data Firehose incluye estos pares de clave-valor en cada llamada HTTP. Estos parámetros pueden ayudarlo a identificar y organizar sus destinos.   
 **Sugerencias de almacenamiento en búfer**   
Amazon Data Firehose almacena en búfer los datos de entrada antes de entregarlos en el destino especificado. El tamaño de búfer recomendado para el destino de Elastic es de 1 MiB.

# Configuración de copias de seguridad
<a name="create-configure-backup"></a>

Amazon Data Firehose utiliza Amazon S3 para hacer copias de seguridad de todos los datos, o solo aquellos que han fallado, que intenta entregar en el destino elegido. 

**importante**  
La configuración de copias de seguridad solo se admite si el origen del flujo de Firehose es Direct PUT o Kinesis Data Streams.
La característica de almacenamiento en búfer cero solo está disponible para los destinos de la aplicación y no está disponible para el destino de copias de seguridad de Amazon S3.

Puede especificar la configuración de copias de seguridad de S3 para el flujo de Firehose si ha elegido una de las siguientes opciones.
+ Si establece Amazon S3 como destino de la transmisión de Firehose y elige especificar una función de AWS Lambda para transformar los registros de datos o si decide convertir los formatos de registro de datos para la transmisión de Firehose.
+ Si establece Amazon Redshift como destino de la transmisión de Firehose y decide especificar una función AWS Lambda para transformar los registros de datos.
+ Si configuras alguno de los siguientes servicios como destino de tu transmisión de Firehose: Amazon OpenSearch Service, Datadog, Dynatrace, HTTP Endpoint, LogicMonitor MongoDB Cloud, New Relic, Splunk o Sumo Logic, Snowflake o Apache Iceberg Tables.

A continuación, se indica la configuración de copias de seguridad del flujo de Firehose:
+ Copia de seguridad de registros de origen en Amazon S3: si el destino seleccionado es S3 o Amazon Redshift, esta configuración indica si desea habilitar la copia de seguridad de los datos de origen o mantenerla deshabilitada. Si hay algún otro servicio admitido (que no sea S3 o Amazon Redshift) como destino seleccionado, esta configuración indica si desea hacer una copia de seguridad de todos los datos de origen o solo de los datos fallidos.
+ Bucket de copias de seguridad de S3: es el bucket de S3 en el que Amazon Data Firehose hace una copia de seguridad de sus datos.
+ Prefijo del bucket de copias de seguridad de S3: es el prefijo en el que Amazon Data Firehose hace una copia de seguridad de sus datos.
+ Prefijo de salida de errores del bucket de copias de seguridad de S3: se hace una copia de seguridad de todos los datos fallidos en este prefijo de salida de errores del bucket de S3.
+ Sugerencias de almacenamiento en búfer, compresión y cifrado para copia de seguridad: Amazon Data Firehose utiliza Amazon S3 para hacer copias de seguridad de todos los datos, o solo aquellos que han fallado, que intenta entregar en el destino elegido. Amazon Data Firehose almacena en búfer los datos de entrada antes de entregarlos (hacer una copia de seguridad de ellos) en Amazon S3. Puedes elegir un tamaño de búfer de 1 a 128 segundos y un intervalo de búfer de 60 a 900 segundos. MiBs La condición que primero se cumpla desencadenará la entrega de datos en Amazon S3. Si habilita la transformación de datos, el intervalo del búfer se aplica a partir del momento en que Amazon Data Firehose recibe los datos transformados hasta la entrega de los datos en Amazon S3. Si la entrega de los datos en el destino se realiza a una velocidad inferior a la de la escritura de datos en el flujo de Firehose, Amazon Data Firehose aumenta el tamaño del búfer de forma dinámica para alcanzar esa velocidad. Esta acción ayuda a garantizar que todos los datos se entregan en el destino. 
+ Compresión en S3: elija la compresión de datos GZIP, Snappy, Zip o Snappy compatible con Hadoop, o sin compresión de datos. Las compresiones Snappy, Zip y Snappy compatible con Hadoop no están disponibles para los flujos de Firehose con Amazon Redshift como destino. 
+ Formato de extensión de archivo S3 (opcional): especifique un formato de extensión de archivo para los objetos entregados al bucket de destino de Amazon S3. Si habilita esta característica, la extensión de archivo especificada anulará las extensiones de archivo predeterminadas incorporadas por las funciones de conversión de formato de datos o de compresión en S3, como .parquet o .gz. Asegúrese de haber configurado la extensión de archivo correcta cuando utilice esta característica con la conversión de formato de datos o la compresión en S3. La extensión del archivo debe empezar con un punto (.) y puede contener los caracteres permitidos: 0-9a-z\$1-\$1.\$1‘(). La extensión del archivo no puede superar los 128 caracteres.
+ Firehose admite el cifrado del lado del servidor de Amazon S3 con AWS Key Management Service (SSE-KMS) para cifrar los datos entregados en Amazon S3. Puede optar por utilizar el tipo de cifrado predeterminado especificado en el depósito S3 de destino o cifrar con una clave de la lista de claves de su propiedad. AWS KMS Si cifra los datos con AWS KMS claves, puede usar la clave AWS administrada predeterminada (aws/s3) o una clave administrada por el cliente. Para obtener más información, consulte [Protección de datos mediante el cifrado del lado del servidor con claves administradas por AWS KMS (SSE-KMS](https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingKMSEncryption.html)). 

## Configuración de sugerencias de almacenamiento en búfer
<a name="buffering-hints"></a>

Amazon Data Firehose almacena en búfer una cantidad determinada de datos de streaming de entrada (tamaño del almacenamiento en búfer) durante un periodo determinado (intervalo del almacenamiento en búfer) antes de entregarlos en los destinos especificados. Debería utilizar sugerencias de almacenamiento en búfer cuando desee entregar archivos de tamaño óptimo a Amazon S3 y obtener un mejor rendimiento de las aplicaciones de procesamiento de datos o para ajustar la tasa de entrega de Firehose para que coincida con la velocidad de destino.

Puede configurar el tamaño y el intervalo del búfer al crear nuevos flujos de Firehose o actualizar el tamaño y el intervalo del búfer en sus flujos de Firehose existentes. El tamaño del búfer se mide en segundos y el intervalo de almacenamiento en MBs búfer. Sin embargo, si especifica un valor para uno de ellos, también deberá proporcionar un valor para el otro. La primera condición del búfer que se cumpla ordenará a Firehose que entregue los datos. Si no configura los valores de almacenamiento en búfer, se utilizarán los valores predeterminados.

Puede configurar las sugerencias de almacenamiento en búfer de Firehose a través de,, o. Consola de administración de AWS AWS Command Line Interface AWS SDKs Para las transmisiones existentes, puedes reconfigurar las sugerencias de almacenamiento en búfer con un valor que se adapte a tus casos de uso mediante la opción **Editar de la consola o** mediante la API. [UpdateDestination](https://docs.aws.amazon.com/firehose/latest/APIReference/API_UpdateDestination.html) En el caso de las transmisiones nuevas, puedes configurar las sugerencias de almacenamiento en búfer como parte de la creación de nuevas transmisiones mediante la consola o la API. [CreateDeliveryStream](https://docs.aws.amazon.com/firehose/latest/APIReference/API_CreateDeliveryStream.html) Para ajustar el tamaño del búfer, establece `SizeInMBs` y `IntervalInSeconds` en el `DestinationConfiguration` parámetro específico de destino de la API o. [CreateDeliveryStream[UpdateDestination](https://docs.aws.amazon.com/firehose/latest/APIReference/API_UpdateDestination.html)](https://docs.aws.amazon.com/firehose/latest/APIReference/API_CreateDeliveryStream.html) 

**nota**  
Las sugerencias de búfer se aplican a nivel de fragmento o partición, mientras que las sugerencias de búfer de partición dinámica se aplican a nivel de flujo o tema.
Para reducir las latencias en los casos de uso en tiempo real, puede utilizar una sugerencia de intervalo de almacenamiento en búfer cero. Al configurar el intervalo de almacenamiento en búfer como cero segundos, Firehose no almacenará los datos en búfer y los entregará en unos segundos. Antes de cambiar las sugerencias de almacenamiento en búfer por un valor inferior, consulte con el proveedor las sugerencias de almacenamiento en búfer recomendadas de Firehose para sus destinos.
La característica de almacenamiento en búfer cero solo está disponible para los destinos de la aplicación y no está disponible para el destino de copias de seguridad de Amazon S3.
La característica de almacenamiento en búfer cero no está disponible para el particionamiento dinámico.
Firehose utiliza la carga en varias partes para el destino de S3 cuando configura un intervalo de tiempo de búfer inferior a 60 segundos para ofrecer latencias más bajas. Debido a que la carga se realiza en varias partes para el destino de S3, los costos de la API `PUT` de S3 aumentarán en cierta medida si elige un intervalo de tiempo de almacenamiento inferior a 60 segundos.

Para ver los rangos de sugerencias de almacenamiento en búfer específicos del destino y los valores predeterminados, consulte la siguiente tabla:


| Destino | Tamaño del búfer en MB (valor predeterminado entre paréntesis) | Intervalo del búfer en segundos (valor predeterminado entre paréntesis) | 
| --- | --- | --- | 
| Amazon S3 | 1-128 (5) | 0-900 (300) | 
| Tablas de Apache Iceberg | 1-128 (5) | 0-900 (300) | 
| Amazon Redshift | 1-128 (5)  | 0-900 (300) | 
| OpenSearch Sin servidor | 1-100 (5)  | 0-900 (300) | 
| OpenSearch | 1-100 (5) | 0-900 (300) | 
| Splunk | 1-5 (5) | 0-60 (60) | 
| Datadog | 1-4 (4) | 0-900 (60) | 
| Coralogix | 1-64 (6) | 0-900 (60) | 
| Dynatrace | 1-64 (5) | 0-900 (60) | 
| Elastic | 1 | 0-900 (60) | 
| Honeycomb | 1-64 (15) | 0-900 (60) | 
| Punto de conexión HTTP | 1-64 (5) | 0-900 (60) | 
| LogicMonitor | 1-64 (5) | 0-900 (60) | 
| Logzio | 1-64 (5) | 0-900 (60) | 
| mongoDB  | 1-16 (5) | 0-900 (60) | 
| newRelic | 1-64 (5) | 0-900 (60) | 
| sumoLogic | 1-64 (1) | 0-900 (60) | 
| Splunk Observability Cloud  | 1-64 (1) | 0-900 (60) | 
| Snowflake | 1 - 128 (1) | 0 - 900 (0) | 

# Configuración de opciones avanzadas
<a name="create-configure-advanced"></a>

En la sección siguiente, se indica la configuración avanzada del flujo de Firehose.
+ Cifrado del lado del servidor: Amazon Data Firehose admite el cifrado del lado del servidor de Amazon S3 con el Servicio de administración de AWS claves (AWS KMS) para cifrar los datos entregados en Amazon S3. Para obtener más información, consulte [Protección de datos mediante el cifrado del lado del servidor con claves administradas por KMS (SSE-KMS). AWS](https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingKMSEncryption.html)
+ Registro de errores: Amazon Data Firehose registra los errores relacionados con el procesamiento y la entrega. Además, cuando la transformación de datos está habilitada, puede registrar las invocaciones de Lambda y enviar los errores de entrega de datos a Logs. CloudWatch Para obtener más información, consulte [Supervise Amazon Data Firehose mediante registros CloudWatch](monitoring-with-cloudwatch-logs.md).
**importante**  
Si bien es opcional, se recomienda encarecidamente habilitar el registro de errores de Amazon Data Firehose durante la creación del flujo de Firehose. Esta práctica garantiza que pueda acceder a los detalles de los errores en caso de que se produzcan fallas en el procesamiento o la entrega de los registros.
+ Permisos: Amazon Data Firehose utiliza roles de IAM para todos los permisos que necesita el flujo de Firehose. Puede crear un nuevo rol en el que los permisos necesarios se asignen automáticamente o elegir un rol existente creado para Amazon Data Firehose. La función se utiliza para conceder a Firehose acceso a varios servicios, como el bucket de S3, la clave de AWS KMS (si el cifrado de datos está activado) y la función Lambda (si la transformación de datos está habilitada). La consola podría crear un rol con marcadores de posición. Para obtener más información, consulte [¿Qué es IAM?](https://docs.aws.amazon.com/IAM/latest/UserGuide/introduction.html). 
**nota**  
El rol de IAM (incluidos los marcadores de posición) se crea en función de la configuración que se elija al crear un flujo de Firehose. Si realiza algún cambio en el origen o destino del flujo de Firehose, debe actualizar manualmente el rol de IAM.
+ Etiquetas: puede añadir etiquetas para organizar sus AWS recursos, realizar un seguimiento de los costes y controlar el acceso.

  Si se especifican etiquetas en la acción `CreateDeliveryStream`, Amazon Data Firehose realiza una autorización adicional en la acción `firehose:TagDeliveryStream` para verificar que los usuarios tengan permisos para crear etiquetas. Si no concede este permiso, las solicitudes para crear nuevos flujos de Firehose con etiquetas de recursos de IAM fallarán con un resultado `AccessDeniedException` como el siguiente.

  ```
  AccessDeniedException 
  User: arn:aws:sts::x:assumed-role/x/x is not authorized to perform: firehose:TagDeliveryStream on resource: arn:aws:firehose:us-east-1:x:deliverystream/x with an explicit deny in an identity-based policy.
  ```

  En el ejemplo siguiente, se muestra una política que permite que los usuarios creen un flujo de Firehose y apliquen etiquetas.

Una vez que haya elegido la configuración de copias de seguridad y la configuración avanzada, revise sus opciones y, a continuación, seleccione **Create Firehose stream (Crear flujo de Firehose)**.

El nuevo flujo de Firehose se encontrará en el estado **Creating (En creación)** durante algún tiempo antes de estar disponible. Podrá comenzar a enviar los datos de su productor cuando el flujo de Firehose pase al estado **Active (Activo)**.