Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Datenaufgliederung in Token
Aufgliederung in Token ist der Vorgang der Ersetzung tatsächlicher Werte durch nicht transparente Werte zu Datensicherheitszwecken. Sicherheitssensible Anwendungen verwenden eine Aufgliederung in Token, um sensible Daten wie persönlich identifizierbare Informationen (PII) oder geschützte Gesundheitsinformationen (PHI) durch Token zu ersetzen, um Sicherheitsrisiken zu mindern. Die Aufhebung der Aufgliederung in Token ersetzt Token für autorisierte Benutzer mit entsprechenden Sicherheitsrichtlinien wieder durch tatsächliche Werte.
Für die Integration mit Tokenisierungsdiensten von Drittanbietern können Sie benutzerdefinierte Funktionen (UDFs) von Amazon Redshift verwenden, die Sie mit erstellen. AWS Lambda
Amazon Redshift sendet Anforderungen zur Aufgliederung in Token an einen Tokenisierungsserver, auf den über eine REST API oder einen vordefinierten Endpunkt zugegriffen wird. Zwei oder mehr ergänzende Lambda-Funktionen verarbeiten die Anforderungen zur Aufgliederung in Token und zur Aufhebung der Aufgliederung in Token. Für diese Verarbeitung können Sie Lambda Funktionen verwenden, die von einem Drittanbieter für Aufgliederung in Token bereitgestellt werden. Sie können auch Lambda-Funktionen verwenden, die Sie UDFs in Amazon Redshift als Lambda registrieren.
Angenommen, eine Abfrage wird gesendet, die eine UDF zur Aufgliederung in Token oder zur Aufhebung der Aufgliederung in Token für eine Spalte aufruft. Der Amazon-Redshift-Cluster spoolt die entsprechenden Argumentzeilen und sendet diese Zeilen parallel in Batches an die Lambda-Funktion. Die Daten zwischen den Amazon-Redshift-Rechenknoten und Lambda werden in einer separaten, isolierten Netzwerkverbindung übertragen, auf die Clients nicht zugreifen können. Die Lambda-Funktion übergibt die Daten an den Endpunkt des Tokenisierungsservers. Der Tokenisierungsserver gliedert die Daten nach Bedarf auf bzw. hebt ihre Aufgliederung auf und gibt sie zurück. Die Lambda-Funktionen übermitteln dann die Ergebnisse zur weiteren Verarbeitung an den Amazon-Redshift-Cluster, falls erforderlich, und geben dann die Abfrageergebnisse zurück.