

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Passaggio 5: produzione e utilizzo di dati
<a name="produce-consume"></a>

In questa fase di [Get Started Using Amazon MSK](getting-started.md), produci e consumi dati.

**Per produrre e consumare messaggi**Produci e consuma messaggi

1. Eseguire il comando seguente per avviare un produttore della console.

   ```
   $KAFKA_ROOT/bin/kafka-console-producer.sh --broker-list $BOOTSTRAP_SERVER --producer.config $KAFKA_ROOT/config/client.properties --topic MSKTutorialTopic
   ```

1. Immettere qualsiasi messaggio desiderato e premere **Enter (Invio)**. Ripetere questa fase due o tre volte. Ogni volta che si immette una riga e si preme **Enter (Invio)**, tale riga viene inviata al cluster Apache Kafka come un messaggio separato.

1. Mantenere aperta la connessione al computer client, quindi aprire una seconda connessione separata al computer in una nuova finestra. Poiché si tratta di una nuova sessione, imposta nuovamente le variabili `KAFKA_ROOT` e di `BOOTSTRAP_SERVER` ambiente. Per informazioni su come impostare queste variabili di ambiente, consulta[Creazione di un argomento sul computer client](create-topic.md#create-topic-client-machine).

1. Esegui il comando seguente con la tua seconda stringa di connessione al computer client per creare un utente di console.

   ```
   $KAFKA_ROOT/bin/kafka-console-consumer.sh --bootstrap-server $BOOTSTRAP_SERVER --consumer.config $KAFKA_ROOT/config/client.properties --topic MSKTutorialTopic --from-beginning
   ```

   Dovresti iniziare a vedere i messaggi che hai inserito in precedenza quando hai usato il comando console producer.

1. Immettere altri messaggi nella finestra del produttore e guardali apparire nella finestra del consumatore.

**Fase successiva**

[Fase 6: Usa Amazon CloudWatch per visualizzare i parametri di Amazon MSK](view-metrics.md)