Étape 5 : Produire et consommer des données - Amazon Managed Streaming for Apache Kafka

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Étape 5 : Produire et consommer des données

Dans cette étape, vous produisez et consommez des données à l'aide de la rubrique que vous avez créée à l'étape précédente.

Pour produire et consommer des messages
  1. Exécutez la commande suivante pour créer un producteur de console.

    <path-to-your-kafka-installation>/bin/kafka-console-producer.sh --broker-list $BS --producer.config client.properties --topic msk-serverless-tutorial
  2. Saisissez le message souhaité, puis appuyez sur Entrée. Répétez cette étape deux ou trois fois. Chaque fois que vous entrez une ligne et appuyez sur Entrée, cette ligne est envoyée à votre cluster sous forme de message distinct.

  3. Gardez la connexion à l'ordinateur client ouverte, puis ouvrez une deuxième connexion séparée à cet ordinateur dans une nouvelle fenêtre.

  4. Utilisez votre deuxième connexion à l'ordinateur client pour créer un consommateur de console avec la commande suivante. Remplacez my-endpoint par la chaîne du serveur d'amorçage que vous avez enregistrée après avoir créé le cluster.

    <path-to-your-kafka-installation>/bin/kafka-console-consumer.sh --bootstrap-server my-endpoint --consumer.config client.properties --topic msk-serverless-tutorial --from-beginning

    Vous commencez à voir les messages que vous avez entrés plus tôt lorsque vous avez utilisé la commande du producteur de la console.

  5. Entrez d'autres messages dans la fenêtre du producteur et regardez-les apparaître dans la fenêtre du consommateur.

Étape suivante

Étape 6 : Supprimer des ressources