Schritt 1: Vorbereitung der Daten - Entwicklerhandbuch für Amazon Kinesis Data Analytics for SQL Applications

Nach reiflicher Überlegung haben wir beschlossen, Amazon Kinesis Data Analytics für SQL Anwendungen in zwei Schritten einzustellen:

1. Ab dem 15. Oktober 2025 können Sie keine neuen Kinesis Data Analytics für SQL Anwendungen erstellen.

2. Wir werden Ihre Anwendungen ab dem 27. Januar 2026 löschen. Sie können Ihre Amazon Kinesis Data Analytics for SQL Applications weder starten noch betreiben. SQLAb diesem Zeitpunkt ist kein Support mehr für Amazon Kinesis Data Analytics verfügbar. Weitere Informationen finden Sie unter Einstellung von Amazon Kinesis Data Analytics for SQL Applications.

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Schritt 1: Vorbereitung der Daten

Bevor Sie für dieses Beispiel eine Amazon Kinesis Data Analytics-Anwendung erstellen, erstellen Sie einen Kinesis-Datenstrom zur Verwendung als Streaming-Quelle für Ihre Anwendung. Sie führen auch Python-Code aus, um simulierte Blutdruckdaten in den Stream zu schreiben.

Schritt 1.1: Erstellen eines Kinesis-Datenstrom

In diesem Abschnitt erstellen Sie einen Kinesis-Datenstrom mit dem Namen ExampleInputStream. Sie können diese Daten-Streams mithilfe der AWS Management Console oder der AWS CLI erstellen.

  • So verwenden Sie die Konsole:

    1. Melden Sie sich bei AWS Management Console an und öffnen Sie die Kinesis-Konsole unter https://console.aws.amazon.com/kinesis.

    2. Klicken Sie im Navigationsbereich auf Data Streams (Daten-Streams). Wählen Sie dann Create Kinesis-Stream (Kinesis-Stream erstellen).

    3. Geben Sie als Name ExampleInputStream ein. Geben Sie für die Anzahl von Shards 1 ein.

  • Um den Daten-Stream alternativ mithilfe der AWS CLI zu erstellen, führen Sie den folgenden Befehl aus:

    $ aws kinesis create-stream --stream-name ExampleInputStream --shard-count 1

Schritt 1.2: Schreiben Sie Beispieldatensätze in den Eingabe-Stream

In diesem Schritt führen Sie Python-Code aus, um kontinuierlich Beispieldatensätze zu generieren und in den von Ihnen erstellten Daten-Stream zu schreiben.

  1. Installieren Sie Python und pip.

    Informationen zum Installieren von Python finden Sie unter Python.

    Sie können mithilfe von pip Abhängigkeiten installieren. Informationen zum Installieren von pip finden Sie unter Installation in der Dokumentation zu pip.

  2. Führen Sie den folgenden Python-Code aus. Sie können zu der Region wechseln, die Sie in diesem Beispiel verwenden möchten. Der Befehl put-record im Code schreibt die JSON-Datensätze zum Stream.

    from enum import Enum import json import random import boto3 STREAM_NAME = "ExampleInputStream" class PressureType(Enum): low = "LOW" normal = "NORMAL" high = "HIGH" def get_blood_pressure(pressure_type): pressure = {"BloodPressureLevel": pressure_type.value} if pressure_type == PressureType.low: pressure["Systolic"] = random.randint(50, 80) pressure["Diastolic"] = random.randint(30, 50) elif pressure_type == PressureType.normal: pressure["Systolic"] = random.randint(90, 120) pressure["Diastolic"] = random.randint(60, 80) elif pressure_type == PressureType.high: pressure["Systolic"] = random.randint(130, 200) pressure["Diastolic"] = random.randint(90, 150) else: raise TypeError return pressure def generate(stream_name, kinesis_client): while True: rnd = random.random() pressure_type = ( PressureType.low if rnd < 0.005 else PressureType.high if rnd > 0.995 else PressureType.normal ) blood_pressure = get_blood_pressure(pressure_type) print(blood_pressure) kinesis_client.put_record( StreamName=stream_name, Data=json.dumps(blood_pressure), PartitionKey="partitionkey", ) if __name__ == "__main__": generate(STREAM_NAME, boto3.client("kinesis"))
Nächster Schritt

Schritt 2: Erstellen einer Analyseanwendung