

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Guida introduttiva ad Amazon OpenSearch Ingestion
<a name="osis-getting-started-tutorials"></a>

Amazon OpenSearch Ingestion supporta l'importazione di dati in domini di OpenSearch servizio gestiti e raccolte Serverless. OpenSearch I seguenti tutorial illustrano i passaggi di base per rendere operativa una pipeline.

Il primo tutorial mostra come usare Amazon OpenSearch Ingestion per configurare una pipeline semplice e inserire dati in un dominio Amazon Service. OpenSearch 

Il secondo tutorial mostra come usare Amazon OpenSearch Ingestion per configurare una pipeline semplice e inserire dati in una raccolta Amazon Serverless. OpenSearch 

**Nota**  
La creazione della pipeline avrà esito negativo se non configuri le autorizzazioni corrette. Vedi [Configurazione di ruoli e utenti in Amazon OpenSearch Ingestion](pipeline-security-overview.md) per una migliore comprensione dei ruoli richiesti prima di creare una pipeline.

**Topics**
+ [Tutorial: importazione di dati in un dominio utilizzando Amazon Ingestion OpenSearch](osis-get-started.md)
+ [Tutorial: Inserimento di dati in una raccolta con Amazon Ingestion OpenSearch](osis-serverless-get-started.md)

# Tutorial: importazione di dati in un dominio utilizzando Amazon Ingestion OpenSearch
<a name="osis-get-started"></a>

Questo tutorial mostra come usare Amazon OpenSearch Ingestion per configurare una pipeline semplice e inserire dati in un dominio Amazon Service. OpenSearch Una *pipeline* è una risorsa che OpenSearch Ingestion fornisce e gestisce. È possibile utilizzare una pipeline per filtrare, arricchire, trasformare, normalizzare e aggregare i dati per l'analisi e la visualizzazione a valle in Service. OpenSearch 

Questo tutorial illustra i passaggi di base per avviare rapidamente una pipeline. Per istruzioni più complete, consulta[Creazione di pipeline](creating-pipeline.md#create-pipeline).

In questo tutorial completerai le seguenti fasi:

1. [Crea un dominio](#osis-get-started-access).

1. [Crea una pipeline.](#osis-get-started-pipeline)

1. [Inserisci alcuni dati di esempio](#osis-get-started-ingest).

All'interno del tutorial, creerai le seguenti risorse:
+ Un dominio denominato su `ingestion-domain` cui la pipeline scrive
+ Una pipeline denominata `ingestion-pipeline`

## Autorizzazioni richieste
<a name="osis-get-started-permissions"></a>

Per completare questo tutorial, l'utente o il ruolo deve avere una [politica basata sull'identità](security-iam-serverless.md#security-iam-serverless-id-based-policies) allegata con le seguenti autorizzazioni minime. Queste autorizzazioni consentono di creare un ruolo di pipeline e allegare una policy (`iam:Create*`e`iam:Attach*`), creare o modificare un dominio () e lavorare con `es:*` pipelines (). `osis:*`

------
#### [ JSON ]

****  

```
{
   "Version":"2012-10-17",		 	 	 
   "Statement":[
      {
         "Effect":"Allow",
         "Resource":"*",
         "Action":[
            "osis:*",
            "iam:Create*",
            "iam:Attach*",
            "es:*"
         ]
      },
      {
         "Resource":[
            "arn:aws:iam::111122223333:role/OpenSearchIngestion-PipelineRole"
         ],
         "Effect":"Allow",
         "Action":[
            "iam:CreateRole",
            "iam:AttachRolePolicy",
            "iam:PassRole"
         ]
      }
   ]
}
```

------

## Fase 1: Creare il ruolo della pipeline
<a name="osis-get-started-role"></a>

Innanzitutto, crea un ruolo che la pipeline assumerà per accedere al OpenSearch service domain sink. Includerai questo ruolo nella configurazione della pipeline più avanti in questo tutorial.

**Per creare il ruolo della pipeline**

1. Apri la AWS Identity and Access Management console all'indirizzo [https://console.aws.amazon.com/iamv2/](https://console.aws.amazon.com/iamv2/ ).

1. Scegli **Politiche**, quindi scegli **Crea politica**.

1. In questo tutorial, inserirai i dati in un dominio chiamato`ingestion-domain`, che creerai nel passaggio successivo. Seleziona **JSON** e incolla la seguente politica nell'editor. Sostituiscilo `your-account-id` con l'ID del tuo account e, se necessario, modifica la regione.

------
#### [ JSON ]

****  

   ```
   {
       "Version":"2012-10-17",		 	 	 
       "Statement": [
           {
               "Effect": "Allow",
               "Action": "es:DescribeDomain",
               "Resource": "arn:aws:es:us-east-1:111122223333:domain/ingestion-domain"
           },
           {
               "Effect": "Allow",
               "Action": "es:ESHttp*",
               "Resource": "arn:aws:es:us-east-1:111122223333:domain/ingestion-domain/*"
           }
       ]
   }
   ```

------

   Se desideri scrivere dati su un dominio *esistente*, sostituiscili `ingestion-domain` con il nome del tuo dominio.
**Nota**  
Per semplicità in questo tutorial, utilizziamo un'ampia politica di accesso. Negli ambienti di produzione, tuttavia, ti consigliamo di applicare una politica di accesso più restrittiva al tuo ruolo di pipeline. Per un esempio di policy che fornisce le autorizzazioni minime richieste, vedi. [Concedere alle pipeline OpenSearch di Amazon Ingestion l'accesso ai domini](pipeline-domain-access.md)

1. Scegliete **Avanti**, scegliete **Avanti** e assegnate un nome alla vostra policy **pipeline-policy**.

1. Scegli **Crea policy**.

1. Quindi, crea un ruolo e allega la policy ad esso. Selezionare **Roles (Ruoli)**, quindi selezionare **Create role (Crea ruolo)**.

1. Scegli una **politica di fiducia personalizzata** e incolla la seguente politica nell'editor:

------
#### [ JSON ]

****  

   ```
   {
      "Version":"2012-10-17",		 	 	 
      "Statement":[
         {
            "Effect":"Allow",
            "Principal":{
               "Service":"osis-pipelines.amazonaws.com"
            },
            "Action":"sts:AssumeRole"
         }
      ]
   }
   ```

------

1. Scegli **Next (Successivo)**. Quindi cerca e seleziona **pipeline-policy** (che hai appena creato).

1. Scegli **Avanti** e assegna un nome al ruolo. **PipelineRole**

1. Scegli **Crea ruolo**.

Ricorda l'Amazon Resource Name (ARN) del ruolo (ad esempio,`arn:aws:iam::your-account-id:role/PipelineRole`). Ne avrai bisogno quando creerai la tua pipeline.

## Passaggio 2: crea un dominio
<a name="osis-get-started-access"></a>

Innanzitutto, crea un dominio denominato in `ingestion-domain` cui inserire i dati.

Accedi alla console di Amazon OpenSearch Service da [https://console.aws.amazon.com/aos/casa](https://console.aws.amazon.com/aos/home) e [crea un dominio](createupdatedomains.md) che soddisfi i seguenti requisiti:
+ È in esecuzione OpenSearch 1.0 o versione successiva oppure Elasticsearch 7.4 o versione successiva
+ Utilizza l'accesso pubblico
+ Non utilizza un controllo degli accessi a grana fine

**Nota**  
Questi requisiti hanno lo scopo di garantire la semplicità di questo tutorial. Negli ambienti di produzione, puoi configurare un dominio con accesso VPC utilizzando un controllo degli and/or accessi granulare. [Per utilizzare un controllo granulare degli accessi, consulta Mappare il ruolo della pipeline.](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/pipeline-domain-access.html#pipeline-access-domain)

Il dominio deve avere una politica di accesso che conceda l'autorizzazione al ruolo `OpenSearchIngestion-PipelineRole` IAM, che OpenSearch Service creerà per te nella fase successiva. La pipeline assumerà questo ruolo per inviare i dati al domain sink.

Assicurati che il dominio abbia la seguente politica di accesso a livello di dominio, che concede al ruolo della pipeline l'accesso al dominio. Sostituisci la regione e l'ID dell'account con i tuoi:

------
#### [ JSON ]

****  

```
{
  "Version":"2012-10-17",		 	 	 
  "Statement": [
    {
      "Effect": "Allow",
      "Principal": {
        "AWS": "arn:aws:iam::111122223333:role/OpenSearchIngestion-PipelineRole"
      },
      "Action": "es:*",
      "Resource": "arn:aws:es:us-east-1:111122223333:domain/ingestion-domain/*"
    }
  ]
}
```

------

Per ulteriori informazioni sulla creazione di politiche di accesso a livello di dominio, consulta. [Policy basate sulle risorse](ac.md#ac-types-resource)

Se hai già creato un dominio, modifica la politica di accesso esistente per fornire le autorizzazioni di cui sopra. `OpenSearchIngestion-PipelineRole`

## Fase 3: Creare una pipeline
<a name="osis-get-started-pipeline"></a>

Ora che hai un dominio, puoi creare una pipeline.

**Come creare una pipeline**

1. Nella console di Amazon OpenSearch Service, scegli **Pipelines** dal riquadro di navigazione a sinistra.

1. Scegliere **Create pipeline (Crea pipeline)**.

1. Seleziona la pipeline **vuota**, quindi scegli **Seleziona** blueprint.

1. In questo tutorial, creeremo una semplice pipeline che utilizza il plug-in di origine [HTTP](https://opensearch.org/docs/latest/data-prepper/pipelines/configuration/sources/http-source/). Il plugin accetta i dati di registro in un formato di matrice JSON. Specificheremo un singolo dominio di OpenSearch servizio come sink e inseriremo tutti i dati nell'`application_logs`indice.

   Nel menu **Sorgente**, scegli **HTTP**. Per il **percorso**, inserisci **/logs.**

1. Per semplicità, in questo tutorial, configureremo l'accesso pubblico alla pipeline. Per le **opzioni di rete di origine**, scegli **Accesso pubblico**. Per informazioni sulla configurazione dell'accesso al VPC, vedere. [Configurazione dell'accesso VPC per le pipeline di Amazon Ingestion OpenSearch](pipeline-security.md)

1. Scegli **Next (Successivo)**.

1. **Per **Processore**, inserisci **Data** e scegli Aggiungi.**

1. Abilita **A partire dall'ora di ricezione**. Lascia tutte le altre impostazioni come predefinite.

1. Scegli **Next (Successivo)**.

1. Configura i dettagli del lavandino. Per il **tipo di OpenSearch risorsa**, scegli **Cluster gestito**. Quindi scegli il dominio di OpenSearch servizio che hai creato nella sezione precedente.

   Per il **nome dell'indice**, inserisci **application\$1logs**. OpenSearch Ingestion crea automaticamente questo indice nel dominio se non esiste già.

1. Scegli **Next (Successivo)**.

1. **Assegna un nome alla pipeline di ingestione-pipeline.** Lasciate le impostazioni di capacità come predefinite.

1. Per il **ruolo Pipeline**, seleziona **Crea e usa un nuovo** ruolo di servizio. Il ruolo pipeline fornisce le autorizzazioni necessarie affinché una pipeline possa scrivere nel domain sink e leggere da fonti basate su pull. Selezionando questa opzione, OpenSearch consenti a Ingestion di creare il ruolo per te, anziché crearlo manualmente in IAM. Per ulteriori informazioni, consulta [Configurazione di ruoli e utenti in Amazon OpenSearch Ingestion](pipeline-security-overview.md).

1. Per il **suffisso del nome del ruolo di servizio**, immettere. **PipelineRole** In IAM, il ruolo avrà il seguente formato`arn:aws:iam::your-account-id:role/OpenSearchIngestion-PipelineRole`.

1. Scegli **Next (Successivo)**. Controlla la configurazione della pipeline e scegli **Crea pipeline**. La pipeline impiega 5-10 minuti per diventare attiva.

## Fase 4: Inserimento di alcuni dati di esempio
<a name="osis-get-started-ingest"></a>

Quando lo stato della pipeline è impostato`Active`, puoi iniziare a importare i dati al suo interno. [È necessario firmare tutte le richieste HTTP alla pipeline utilizzando Signature Version 4.](https://docs.aws.amazon.com/general/latest/gr/signature-version-4.html) Utilizza uno strumento HTTP come [Postman](https://www.getpostman.com/) o [awscurl](https://github.com/okigan/awscurl) per inviare alcuni dati alla pipeline. [Come per l'indicizzazione dei dati direttamente su un dominio, l'importazione dei dati in una pipeline richiede sempre un ruolo IAM o una chiave di accesso IAM e una chiave segreta.](https://docs.aws.amazon.com/powershell/latest/userguide/pstools-appendix-sign-up.html) 

**Nota**  
Il principale che firma la richiesta deve disporre dell'autorizzazione IAM. `osis:Ingest`

Innanzitutto, ottieni l'URL di importazione dalla pagina delle impostazioni di **Pipeline**:

![\[Pipeline settings page showing ingestion URL and other configuration details.\]](http://docs.aws.amazon.com/it_it/opensearch-service/latest/developerguide/images/pipeline-endpoint.png)


Quindi, inserisci alcuni dati di esempio. La seguente richiesta utilizza [awscurl](https://github.com/okigan/awscurl) per inviare un singolo file di registro alla pipeline:

```
awscurl --service osis --region us-east-1 \
    -X POST \
    -H "Content-Type: application/json" \
    -d '[{"time":"2014-08-11T11:40:13+00:00","remote_addr":"122.226.223.69","status":"404","request":"GET http://www.k2proxy.com//hello.html HTTP/1.1","http_user_agent":"Mozilla/4.0 (compatible; WOW64; SLCC2;)"}]' \
    https://pipeline-endpoint.us-east-1.osis.amazonaws.com/logs
```

Dovresti vedere una risposta. `200 OK` Se ricevi un errore di autenticazione, potrebbe essere dovuto al fatto che stai importando dati da un account diverso da quello in cui si trova la pipeline. Per informazioni, consulta [Risoluzione dei problemi relativi alle autorizzazioni](#osis-get-started-troubleshoot).

Ora, interroga l'`application_logs`indice per assicurarti che la voce di registro sia stata inserita correttamente:

```
awscurl --service es --region us-east-1 \
     -X GET \
     https://search-ingestion-domain.us-east-1.es.amazonaws.com/application_logs/_search | json_pp
```

**Esempio di risposta**:

```
{
   "took":984,
   "timed_out":false,
   "_shards":{
      "total":1,
      "successful":5,
      "skipped":0,
      "failed":0
   },
   "hits":{
      "total":{
         "value":1,
         "relation":"eq"
      },
      "max_score":1.0,
      "hits":[
         {
            "_index":"application_logs",
            "_type":"_doc",
            "_id":"z6VY_IMBRpceX-DU6V4O",
            "_score":1.0,
            "_source":{
               "time":"2014-08-11T11:40:13+00:00",
               "remote_addr":"122.226.223.69",
               "status":"404",
               "request":"GET http://www.k2proxy.com//hello.html HTTP/1.1",
               "http_user_agent":"Mozilla/4.0 (compatible; WOW64; SLCC2;)",
               "@timestamp":"2022-10-21T21:00:25.502Z"
            }
         }
      ]
   }
}
```

## Risoluzione dei problemi relativi alle autorizzazioni
<a name="osis-get-started-troubleshoot"></a>

Se hai seguito i passaggi del tutorial e continui a riscontrare errori di autenticazione quando tenti di importare dati, è possibile che il ruolo della scrittura in una pipeline sia Account AWS diverso da quello della pipeline stessa. In questo caso, devi creare e [assumere un ruolo](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_roles_use.html) che ti consenta specificamente di importare dati. Per istruzioni, consulta [Fornire l'accesso all'importazione su più account](configure-client.md#configure-client-cross-account).

## Risorse correlate
<a name="osis-get-started-next"></a>

Questo tutorial ha presentato un semplice caso d'uso di ingestione di un singolo documento tramite HTTP. Negli scenari di produzione, configurerai le tue applicazioni client (come Fluent Bit, Kubernetes o OpenTelemetry Collector) per inviare dati a una o più pipeline. Le tue pipeline saranno probabilmente più complesse del semplice esempio di questo tutorial.

Per iniziare a configurare i client e ad acquisire dati, consulta le seguenti risorse:
+ [Creazione e gestione delle pipeline](creating-pipeline.md#create-pipeline)
+ [Configurazione dei client per l'invio di dati a Ingestion OpenSearch ](configure-client.md)
+ [Documentazione Data Prepper](https://opensearch.org/docs/latest/clients/data-prepper/index/)

# Tutorial: Inserimento di dati in una raccolta con Amazon Ingestion OpenSearch
<a name="osis-serverless-get-started"></a>

Questo tutorial mostra come usare Amazon OpenSearch Ingestion per configurare una pipeline semplice e inserire dati in una raccolta Amazon Serverless. OpenSearch Una *pipeline* è una risorsa che Ingestion fornisce e gestisce. OpenSearch È possibile utilizzare una pipeline per filtrare, arricchire, trasformare, normalizzare e aggregare i dati per l'analisi e la visualizzazione a valle in Service. OpenSearch 

*Per un tutorial che dimostra come inserire dati in un dominio di servizio fornito, consulta. OpenSearch * [Tutorial: importazione di dati in un dominio utilizzando Amazon Ingestion OpenSearch](osis-get-started.md)

Completerai i seguenti passaggi in questo tutorial:.

1. [Creare una raccolta](#osis-serverless-get-started-access).

1. [Crea una pipeline.](#osis-serverless-get-started-pipeline)

1. [Inserisci alcuni dati di esempio](#osis-serverless-get-started-ingest).

All'interno del tutorial, creerai le seguenti risorse:
+ Una raccolta denominata su `ingestion-collection` cui la pipeline scriverà
+ Una pipeline denominata `ingestion-pipeline-serverless`

## Autorizzazioni richieste
<a name="osis-serverless-get-started-permissions"></a>

Per completare questo tutorial, l'utente o il ruolo deve avere una [politica basata sull'identità](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/security-iam-serverless.html#security-iam-serverless-id-based-policies) allegata con le seguenti autorizzazioni minime. Queste autorizzazioni consentono di creare un ruolo di pipeline e allegare una policy (`iam:Create*`e`iam:Attach*`), creare o modificare una raccolta () e lavorare con `aoss:*` pipelines (). `osis:*`

Inoltre, sono necessarie diverse autorizzazioni IAM per creare automaticamente il ruolo della pipeline e passarlo a OpenSearch Ingestion in modo che possa scrivere dati nella raccolta.

------
#### [ JSON ]

****  

```
{
   "Version":"2012-10-17",		 	 	 
   "Statement":[
      {
         "Effect":"Allow",
         "Resource":"*",
         "Action":[
            "osis:*",
            "iam:Create*",
            "iam:Attach*",
            "aoss:*"
         ]
      },
      {
         "Resource":[
            "arn:aws:iam::111122223333:role/OpenSearchIngestion-PipelineRole"
         ],
         "Effect":"Allow",
         "Action":[
            "iam:CreateRole",
            "iam:AttachRolePolicy",
            "iam:PassRole"
         ]
      }
   ]
}
```

------

## Fase 1: Creare una raccolta
<a name="osis-serverless-get-started-access"></a>

Innanzitutto, crea una raccolta in cui inserire i dati. Daremo un nome alla raccolta`ingestion-collection`.

1. Accedi alla console di Amazon OpenSearch Service da [https://console.aws.amazon.com/aos/casa](https://console.aws.amazon.com/aos/home).

1. Scegli **Raccolte** dalla barra di navigazione a sinistra e scegli **Crea raccolta**.

1. Assegna un nome alla raccolta **ingestion-collection**.

1. **Per **Sicurezza**, scegliete Standard create.**

1. In **Impostazioni di accesso alla rete**, modifica il tipo di accesso in **Pubblico**.

1. Mantenere tutte le altre impostazioni come valori predefiniti e scegliere **Successivo**.

1. Ora configura una politica di accesso ai dati per la raccolta. Deseleziona **Abbina automaticamente le impostazioni dei criteri di accesso**.

1. Per il **metodo di definizione**, scegli **JSON** e incolla la seguente politica nell'editor. Questa politica fa due cose:
   + Consente al ruolo della pipeline di scrivere nella raccolta.
   + Consente di *leggere i contenuti* della raccolta. Successivamente, dopo aver inserito alcuni dati di esempio nella pipeline, interrogherete la raccolta per assicurarvi che i dati siano stati inseriti e scritti correttamente nell'indice.

     ```
     [
       {
         "Rules": [
           {
             "Resource": [
               "index/ingestion-collection/*"
             ],
             "Permission": [
               "aoss:CreateIndex",
               "aoss:UpdateIndex",
               "aoss:DescribeIndex",
               "aoss:ReadDocument",
               "aoss:WriteDocument"
             ],
             "ResourceType": "index"
           }
         ],
         "Principal": [
           "arn:aws:iam::your-account-id:role/OpenSearchIngestion-PipelineRole",
           "arn:aws:iam::your-account-id:role/Admin"
         ],
         "Description": "Rule 1"
       }
     ]
     ```

1. Modifica `Principal` gli elementi per includere il tuo ID. Account AWS Per il secondo principale, specificate un utente o un ruolo che potete utilizzare per interrogare la raccolta in un secondo momento.

1. Scegli **Next (Successivo)**. Assegna un nome alla politica di accesso **pipeline-collection-access**e scegli nuovamente **Avanti**.

1. Rivedi la configurazione della raccolta e scegli **Submit** (Invia).

## Fase 2: Creare una pipeline
<a name="osis-serverless-get-started-pipeline"></a>

Ora che hai una collezione, puoi creare una pipeline.

**Come creare una pipeline**

1. Nella console di Amazon OpenSearch Service, scegli **Pipelines** dal riquadro di navigazione a sinistra.

1. Scegliere **Create pipeline (Crea pipeline)**.

1. Seleziona la pipeline **vuota**, quindi scegli **Seleziona** blueprint.

1. In questo tutorial, creeremo una semplice pipeline che utilizza il plug-in di origine [HTTP](https://opensearch.org/docs/latest/data-prepper/pipelines/configuration/sources/http-source/). Il plugin accetta i dati di registro in un formato di matrice JSON. Specificheremo una singola raccolta OpenSearch Serverless come sink e inseriremo tutti i dati nell'indice. `my_logs`

   **Nel menu **Sorgente**, scegli HTTP.** Per il **percorso**, inserisci **/logs.**

1. Per semplicità, in questo tutorial, configureremo l'accesso pubblico alla pipeline. Per le **opzioni di rete di origine**, scegli **Accesso pubblico**. Per informazioni sulla configurazione dell'accesso al VPC, vedere. [Configurazione dell'accesso VPC per le pipeline di Amazon Ingestion OpenSearch](pipeline-security.md)

1. Scegli **Next (Successivo)**.

1. **Per **Processore**, inserisci **Data** e scegli Aggiungi.**

1. Abilita **A partire dall'ora di ricezione**. Lascia tutte le altre impostazioni come predefinite.

1. Scegli **Next (Successivo)**.

1. Configura i dettagli del lavandino. Per il **tipo di OpenSearch risorsa**, scegli **Collection (Serverless).** Quindi scegli la raccolta OpenSearch di servizi che hai creato nella sezione precedente.

   Lasciate il nome della politica di rete come predefinito. Per il **nome dell'indice**, inserisci **my\$1logs**. OpenSearch Ingestion crea automaticamente questo indice nella raccolta se non esiste già.

1. Scegli **Next (Successivo)**.

1. Assegna un nome alla pipeline. **ingestion-pipeline-serverless** Lasciate le impostazioni di capacità come predefinite.

1. Per il **ruolo Pipeline**, seleziona **Crea e usa un nuovo** ruolo di servizio. Il ruolo pipeline fornisce le autorizzazioni necessarie affinché una pipeline possa scrivere nel sink di raccolta e leggere da fonti basate su pull. Selezionando questa opzione, OpenSearch consenti a Ingestion di creare il ruolo per te, anziché crearlo manualmente in IAM. Per ulteriori informazioni, consulta [Configurazione di ruoli e utenti in Amazon OpenSearch Ingestion](pipeline-security-overview.md).

1. Per il **suffisso del nome del ruolo di servizio**, immettere. **PipelineRole** In IAM, il ruolo avrà il seguente formato`arn:aws:iam::your-account-id:role/OpenSearchIngestion-PipelineRole`.

1. Scegli **Next (Successivo)**. Controlla la configurazione della pipeline e scegli **Crea pipeline**. La pipeline impiega 5-10 minuti per diventare attiva.

## Fase 3: Inserimento di alcuni dati di esempio
<a name="osis-serverless-get-started-ingest"></a>

Quando lo stato della pipeline è impostato`Active`, puoi iniziare a importare dati al suo interno. [È necessario firmare tutte le richieste HTTP alla pipeline utilizzando Signature Version 4.](https://docs.aws.amazon.com/general/latest/gr/signature-version-4.html) Utilizza uno strumento HTTP come [Postman](https://www.getpostman.com/) o [awscurl](https://github.com/okigan/awscurl) per inviare alcuni dati alla pipeline. [Come per l'indicizzazione dei dati direttamente in una raccolta, l'importazione dei dati in una pipeline richiede sempre un ruolo IAM o una chiave di accesso IAM e una chiave segreta.](https://docs.aws.amazon.com/powershell/latest/userguide/pstools-appendix-sign-up.html) 

**Nota**  
Il principale che firma la richiesta deve disporre dell'autorizzazione IAM. `osis:Ingest`

Innanzitutto, ottieni l'URL di importazione dalla pagina delle impostazioni di **Pipeline**:

![\[Pipeline settings page showing ingestion URL and other configuration details.\]](http://docs.aws.amazon.com/it_it/opensearch-service/latest/developerguide/images/pipeline-endpoint.png)


Quindi, invia alcuni dati di esempio al percorso di ingestione. La seguente richiesta di esempio utilizza [awscurl](https://github.com/okigan/awscurl) per inviare un singolo file di registro alla pipeline:

```
awscurl --service osis --region us-east-1 \
    -X POST \
    -H "Content-Type: application/json" \
    -d '[{"time":"2014-08-11T11:40:13+00:00","remote_addr":"122.226.223.69","status":"404","request":"GET http://www.k2proxy.com//hello.html HTTP/1.1","http_user_agent":"Mozilla/4.0 (compatible; WOW64; SLCC2;)"}]' \
    https://pipeline-endpoint.us-east-1.osis.amazonaws.com/logs
```

Dovresti vedere una risposta. `200 OK`

Ora, interroga l'`my_logs`indice per assicurarti che la voce di registro sia stata inserita correttamente:

```
awscurl --service aoss --region us-east-1 \
     -X GET \
     https://collection-id.us-east-1.aoss.amazonaws.com/my_logs/_search | json_pp
```

**Esempio di risposta**:

```
{
   "took":348,
   "timed_out":false,
   "_shards":{
      "total":0,
      "successful":0,
      "skipped":0,
      "failed":0
   },
   "hits":{
      "total":{
         "value":1,
         "relation":"eq"
      },
      "max_score":1.0,
      "hits":[
         {
            "_index":"my_logs",
            "_id":"1%3A0%3ARJgDvIcBTy5m12xrKE-y",
            "_score":1.0,
            "_source":{
               "time":"2014-08-11T11:40:13+00:00",
               "remote_addr":"122.226.223.69",
               "status":"404",
               "request":"GET http://www.k2proxy.com//hello.html HTTP/1.1",
               "http_user_agent":"Mozilla/4.0 (compatible; WOW64; SLCC2;)",
               "@timestamp":"2023-04-26T05:22:16.204Z"
            }
         }
      ]
   }
}
```

## Risorse correlate
<a name="osis-serverless-get-started-next"></a>

Questo tutorial ha presentato un semplice caso d'uso di assimilazione di un singolo documento tramite HTTP. Negli scenari di produzione, configurerai le tue applicazioni client (come Fluent Bit, Kubernetes o OpenTelemetry Collector) per inviare dati a una o più pipeline. Le tue pipeline saranno probabilmente più complesse del semplice esempio di questo tutorial.

Per iniziare a configurare i client e ad acquisire dati, consulta le seguenti risorse:
+ [Creazione e gestione delle pipeline](creating-pipeline.md#create-pipeline)
+ [Configurazione dei client per l'invio di dati a Ingestion OpenSearch ](configure-client.md)
+ [Documentazione Data Prepper](https://opensearch.org/docs/latest/clients/data-prepper/index/)