Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Generative KI-Upgrades für Apache Spark in AWS Glue
Die generativen KI-Upgrades für Apache Spark Preview sind für AWS Glue in den folgenden AWS Regionen verfügbar: USA Ost (Ohio), USA Ost (Nord-Virginia), USA West (Oregon), Asien-Pazifik (Tokio) und Asien-Pazifik (Sydney). Die Vorschaufunktionen können sich ändern. |
Mit Spark-Upgrades in AWS Glue können Dateningenieure und Entwickler ihre bestehenden AWS Glue Spark-Jobs mithilfe generativer KI auf die neuesten Spark-Versionen aktualisieren und migrieren. Dateningenieure können damit ihre AWS Glue Spark-Jobs scannen, Upgrade-Pläne erstellen, Pläne ausführen und Ergebnisse validieren. Es reduziert den Zeit- und Kostenaufwand für Spark-Upgrades, indem es die undifferenzierte Arbeit der Identifizierung und Aktualisierung von Spark-Skripten, Konfigurationen, Abhängigkeiten, Methoden und Funktionen automatisiert.
Funktionsweise
Wenn Sie die Upgrade-Analyse verwenden, identifiziert AWS Glue Unterschiede zwischen Versionen und Konfigurationen im Code Ihres Jobs, um einen Upgrade-Plan zu generieren. Der Upgrade-Plan beschreibt alle Codeänderungen und die erforderlichen Migrationsschritte. Als Nächstes erstellt AWS Glue die aktualisierte Anwendung und führt sie in einer Sandbox-Umgebung aus, um Änderungen zu validieren, und generiert eine Liste mit Codeänderungen, damit Sie Ihren Job migrieren können. Sie können sich das aktualisierte Skript zusammen mit der Zusammenfassung der vorgeschlagenen Änderungen ansehen. Nachdem Sie Ihre eigenen Tests ausgeführt haben, akzeptieren Sie die Änderungen und der AWS Glue-Job wird automatisch mit dem neuen Skript auf die neueste Version aktualisiert.
Der Upgrade-Analyseprozess kann je nach Komplexität des Jobs und Arbeitslast einige Zeit in Anspruch nehmen. Die Ergebnisse der Upgrade-Analyse werden im angegebenen Amazon S3 S3-Pfad gespeichert, der überprüft werden kann, um das Upgrade und mögliche Kompatibilitätsprobleme zu verstehen. Nachdem Sie die Ergebnisse der Upgrade-Analyse überprüft haben, können Sie entscheiden, ob Sie mit dem eigentlichen Upgrade fortfahren oder vor dem Upgrade die erforderlichen Änderungen am Job vornehmen möchten.
Voraussetzungen
Die folgenden Voraussetzungen sind erforderlich, um generative KI zum Upgrade von Jobs in AWS Glue zu verwenden:
-
AWS Glue 2 PySpark Jobs — Nur AWS Glue 2-Jobs können auf AWS Glue 4 aktualisiert werden.
-
IAMUm die Analyse zu starten, die Ergebnisse zu überprüfen und Ihren Job zu aktualisieren, sind Genehmigungen erforderlich. Weitere Informationen finden Sie in den Beispielen im folgenden Berechtigungen Abschnitt.
-
Wenn AWS KMS Sie entweder Analyseartefakte oder einen Service zum Verschlüsseln der für die Analyse verwendeten Daten verwenden, sind zusätzliche AWS KMS Berechtigungen erforderlich. Weitere Informationen finden Sie in den Beispielen im folgenden AWS KMS Richtlinie Abschnitt.
Berechtigungen
-
Aktualisieren Sie die IAM Richtlinie des Aufrufers mit der folgenden Berechtigung:
{ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": ["glue:StartJobUpgradeAnalysis", "glue:StartJobRun", "glue:GetJobRun", "glue:GetJob", "glue:BatchStopJobRun" ], "Resource": [ "arn:aws:glue:us-east-1:123456789012:job/jobName" ] }, { "Effect": "Allow", "Action": ["s3:GetObject"], "Resource": [ "<s3 script location associated with the job>" ] }, { "Effect": "Allow", "Action": ["s3:PutObject"], "Resource": [ "<result s3 path provided on API>" ] }, { "Effect": "Allow", "Action": [ "kms:Decrypt", "kms:GenerateDataKey", ], "Resource": "<key-arn-passed in the API>" } ] }
Anmerkung
Wenn Sie zwei verschiedene AWS KMS Schlüssel verwenden, einen für die Verschlüsselung von Ergebnisartefakten und einen anderen für die Verschlüsselung von Dienstmetadaten, muss die Richtlinie eine ähnliche Richtlinie für beide Schlüssel enthalten.
-
Aktualisieren Sie die Ausführungsrolle des Jobs, den Sie aktualisieren, sodass sie die folgende Inline-Richtlinie enthält:
{ "Effect": "Allow", "Action": ["s3:GetObject"], "Resource": [ "ARN of the Amazon S3 path provided on API", "ARN of the Amazon S3 path provided on API/*" ] }
Wenn Sie beispielsweise den Amazon S3-Pfad verwenden
s3://amzn-s3-demo-bucket/upgraded-result
, lautet die Richtlinie:{ "Effect": "Allow", "Action": ["s3:GetObject"], "Resource": [ "arn:aws:s3:::amzn-s3-demo-bucket/upgraded-result/", "arn:aws:s3:::amzn-s3-demo-bucket/upgraded-result/*" ] }
{ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": ["glue:GetJobUpgradeAnalysis"], "Resource": [ "arn:aws:glue:us-east-1:123456789012:job/jobName" ] } ] }
{ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": ["glue:StopJobUpgradeAnalysis", "glue:BatchStopJobRun" ], "Resource": [ "arn:aws:glue:us-east-1:123456789012:job/jobName" ] } ] }
{ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": ["glue:ListJobUpgradeAnalyses"], "Resource": [ "arn:aws:glue:us-east-1:123456789012:job/jobName" ] } ] }
{ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": ["glue:UpdateJob", "glue:UpgradeJob" ], "Resource": [ "arn:aws:glue:us-east-1:123456789012:job/jobName" ] }, { "Effect": "Allow", "Action": ["iam:PassRole"], "Resource": [ "<Role arn associated with the job>" ] } ] }
AWS KMS Richtlinie
Um beim Starten einer Analyse Ihren eigenen benutzerdefinierten AWS KMS Schlüssel zu übergeben, lesen Sie bitte den folgenden Abschnitt, um die entsprechenden Berechtigungen für die AWS KMS Schlüssel zu konfigurieren.
Sie benötigen eine Genehmigung (Verschlüsseln/Entschlüsseln), um den Schlüssel weiterzugeben. Im folgenden Richtlinienbeispiel darf das AWS Konto oder die Rolle, die von angegeben wurde, die <IAM Customer caller ARN>
zulässigen Aktionen ausführen:
-
kms:Decrypt ermöglicht die Entschlüsselung mit dem angegebenen Schlüssel. AWS KMS
-
kms: GenerateDataKey ermöglicht die Generierung eines Datenschlüssels unter Verwendung des angegebenen Schlüssels. AWS KMS
{ "Effect": "Allow", "Principal":{ "AWS": "<IAM Customer caller ARN>" }, "Action": [ "kms:Decrypt", "kms:GenerateDataKey", ], "Resource": "<key-arn-passed-on-start-api>" }
Sie müssen AWS Glue die Erlaubnis geben, den AWS KMS Schlüssel sowohl für die Verschlüsselung als auch für die Entschlüsselung des Schlüssels zu verwenden.
{ "Effect": "Allow", "Principal":{ "Service": "glue.amazonaws.com" }, "Action": [ "kms:Decrypt", "kms:GenerateDataKey", ], "Resource": "<key-arn>", "Condition": { "StringLike": { "aws:SourceArn": "arn:aws:glue:<region>:<aws_account_id>:job/job-name" } } }
Diese Richtlinie stellt sicher, dass Sie sowohl über die Verschlüsselungs- als auch über die Entschlüsselungsberechtigungen für den AWS KMS Schlüssel verfügen.
{ "Effect": "Allow", "Principal":{ "AWS": "<IAM Customer caller ARN>" }, "Action": [ "kms:Decrypt", "kms:GenerateDataKey", ], "Resource": "<key-arn-passed-on-start-api>" }
Ausführen einer Upgrade-Analyse und Anwenden des Upgrade-Skripts
Sie können eine Upgrade-Analyse ausführen, die einen Upgrade-Plan für einen Job generiert, den Sie in der Ansicht Jobs auswählen.
-
Wählen Sie unter Jobs einen AWS Glue 2.0-Job aus und wählen Sie dann im Menü Aktionen die Option Upgrade-Analyse ausführen aus.
-
Wählen Sie im Modal einen Pfad aus, um Ihren generierten Upgrade-Plan im Ergebnispfad zu speichern. Dies muss ein Amazon S3 S3-Bucket sein, auf den Sie zugreifen und in den Sie schreiben können.
-
Konfigurieren Sie bei Bedarf zusätzliche Optionen:
-
Konfiguration ausführen — optional: Die Ausführungskonfiguration ist eine optionale Einstellung, mit der Sie verschiedene Aspekte der während der Upgrade-Analyse durchgeführten Validierungsläufe anpassen können. Diese Konfiguration wird zur Ausführung des aktualisierten Skripts verwendet und ermöglicht Ihnen die Auswahl der Eigenschaften der Rechenumgebung (Workertyp, Anzahl der Worker usw.). Beachten Sie, dass Sie Ihre Entwicklerkonten außerhalb der Produktionsumgebung verwenden sollten, um die Validierungen von Beispieldatensätzen durchzuführen, bevor Sie die Änderungen überprüfen, akzeptieren und auf Produktionsumgebungen anwenden. Die Ausführungskonfiguration umfasst die folgenden anpassbaren Parameter:
-
Workertyp: Sie können den Workertyp angeben, der für die Validierungsläufe verwendet werden soll, sodass Sie je nach Ihren Anforderungen die geeigneten Rechenressourcen auswählen können.
-
Anzahl der Mitarbeiter: Sie können die Anzahl der Mitarbeiter definieren, die für die Validierungsläufe bereitgestellt werden sollen, sodass Sie die Ressourcen entsprechend Ihren Workload-Anforderungen skalieren können.
-
Job-Timeout (in Minuten): Mit diesem Parameter können Sie ein Zeitlimit für die Validierungsläufe festlegen und so sicherstellen, dass die Jobs nach einer bestimmten Dauer beendet werden, um einen übermäßigen Ressourcenverbrauch zu vermeiden.
-
Sicherheitskonfiguration: Sie können Sicherheitseinstellungen wie Verschlüsselung und Zugriffskontrolle konfigurieren, um den Schutz Ihrer Daten und Ressourcen während der Validierungsläufe zu gewährleisten.
-
Zusätzliche Job-Parameter: Bei Bedarf können Sie neue Job-Parameter hinzufügen, um die Ausführungsumgebung für die Validierungsläufe weiter anzupassen.
Durch die Nutzung der Ausführungskonfiguration können Sie die Validierungsläufe an Ihre spezifischen Anforderungen anpassen. Sie können die Validierungsläufe beispielsweise so konfigurieren, dass ein kleinerer Datensatz verwendet wird, wodurch die Analyse schneller abgeschlossen werden kann und die Kosten optimiert werden. Dieser Ansatz stellt sicher, dass die Upgrade-Analyse effizient durchgeführt wird und gleichzeitig die Ressourcenauslastung und die damit verbundenen Kosten während der Validierungsphase minimiert werden.
-
-
Verschlüsselungskonfiguration — optional:
-
Verschlüsselung von Upgrade-Artefakten aktivieren: Aktiviert die Verschlüsselung im Ruhezustand, wenn Daten in den Ergebnispfad geschrieben werden. Wenn Sie Ihre Upgrade-Artefakte nicht verschlüsseln möchten, lassen Sie diese Option deaktiviert.
-
Passen Sie die Verschlüsselung von Dienstmetadaten an: Ihre Dienstmetadaten werden standardmäßig mit AWS eigenen Schlüsseln verschlüsselt. Wählen Sie diese Option, wenn Sie Ihren eigenen Schlüssel für die Verschlüsselung verwenden möchten.
-
-
-
Wählen Sie Ausführen, um die Upgrade-Analyse zu starten. Während die Analyse ausgeführt wird, können Sie die Ergebnisse auf der Registerkarte Upgrade-Analyse anzeigen. Im Fenster mit den Analysedetails werden Informationen zur Analyse sowie Links zu den Upgrade-Artefakten angezeigt.
-
Ergebnispfad — Hier werden die Zusammenfassung der Ergebnisse und das Upgrade-Skript gespeichert.
-
Aktualisiertes Skript in Amazon S3 — der Speicherort des Upgrade-Skripts in Amazon S3. Sie können sich das Skript ansehen, bevor Sie das Upgrade anwenden.
-
Upgrade-Zusammenfassung in Amazon S3 — der Speicherort der Upgrade-Zusammenfassung in Amazon S3. Sie können sich die Upgrade-Zusammenfassung ansehen, bevor Sie das Upgrade durchführen.
-
-
Wenn die Upgrade-Analyse erfolgreich abgeschlossen wurde, können Sie das Upgrade-Skript anwenden, um Ihren Job automatisch zu aktualisieren, indem Sie Upgrade-Skript anwenden wählen.
Nach der Anwendung wird die AWS Glue-Version auf 4.0 aktualisiert. Sie können das neue Skript auf der Registerkarte Skript anzeigen.
Verstehen Sie Ihre Upgrade-Zusammenfassung
Dieses Beispiel zeigt, wie ein AWS Glue-Job von Version 2.0 auf Version 4.0 aktualisiert wird. Der Beispieljob liest Produktdaten aus einem Amazon S3 S3-Bucket, wendet mithilfe von Spark SQL mehrere Transformationen auf die Daten an und speichert die transformierten Ergebnisse anschließend wieder in einem Amazon S3 S3-Bucket.
from awsglue.transforms import * from pyspark.context import SparkContext from awsglue.context import GlueContext from pyspark.sql.types import * from pyspark.sql.functions import * from awsglue.job import Job import json from pyspark.sql.types import StructType sc = SparkContext.getOrCreate() glueContext = GlueContext(sc) spark = glueContext.spark_session job = Job(glueContext) gdc_database = "s3://aws-glue-scripts-us-east-1-gamma/demo-database/" schema_location = ( "s3://aws-glue-scripts-us-east-1-gamma/DataFiles/" ) products_schema_string = spark.read.text( f"{schema_location}schemas/products_schema" ).first()[0] product_schema = StructType.fromJson(json.loads(products_schema_string)) products_source_df = ( spark.read.option("header", "true") .schema(product_schema) .option( "path", f"{gdc_database}products/", ) .csv(f"{gdc_database}products/") ) products_source_df.show() products_temp_view_name = "spark_upgrade_demo_product_view" products_source_df.createOrReplaceTempView(products_temp_view_name) query = f"select {products_temp_view_name}.*, format_string('%0$s-%0$s', category, subcategory) as unique_category from {products_temp_view_name}" products_with_combination_df = spark.sql(query) products_with_combination_df.show() products_with_combination_df.createOrReplaceTempView(products_temp_view_name) product_df_attribution = spark.sql( f""" SELECT *, unbase64(split(product_name, ' ')[0]) as product_name_decoded, unbase64(split(unique_category, '-')[1]) as subcategory_decoded FROM {products_temp_view_name} """ ) product_df_attribution.show() product_df_attribution.write.mode("overwrite").option("header", "true").option( "path", f"{gdc_database}spark_upgrade_demo_product_agg/" ).saveAsTable("spark_upgrade_demo_product_agg", external=True) spark_upgrade_demo_product_agg_table_df = spark.sql( f"SHOW TABLE EXTENDED in default like 'spark_upgrade_demo_product_agg'" ) spark_upgrade_demo_product_agg_table_df.show() job.commit()
from awsglue.transforms import * from pyspark.context import SparkContext from awsglue.context import GlueContext from pyspark.sql.types import * from pyspark.sql.functions import * from awsglue.job import Job import json from pyspark.sql.types import StructType sc = SparkContext.getOrCreate() glueContext = GlueContext(sc) spark = glueContext.spark_session # change 1 spark.conf.set("spark.sql.adaptive.enabled", "false") # change 2 spark.conf.set("spark.sql.legacy.pathOptionBehavior.enabled", "true") job = Job(glueContext) gdc_database = "s3://aws-glue-scripts-us-east-1-gamma/demo-database/" schema_location = ( "s3://aws-glue-scripts-us-east-1-gamma/DataFiles/" ) products_schema_string = spark.read.text( f"{schema_location}schemas/products_schema" ).first()[0] product_schema = StructType.fromJson(json.loads(products_schema_string)) products_source_df = ( spark.read.option("header", "true") .schema(product_schema) .option( "path", f"{gdc_database}products/", ) .csv(f"{gdc_database}products/") ) products_source_df.show() products_temp_view_name = "spark_upgrade_demo_product_view" products_source_df.createOrReplaceTempView(products_temp_view_name) # change 3 query = f"select {products_temp_view_name}.*, format_string('%1$s-%1$s', category, subcategory) as unique_category from {products_temp_view_name}" products_with_combination_df = spark.sql(query) products_with_combination_df.show() products_with_combination_df.createOrReplaceTempView(products_temp_view_name) # change 4 product_df_attribution = spark.sql( f""" SELECT *, try_to_binary(split(product_name, ' ')[0], 'base64') as product_name_decoded, try_to_binary(split(unique_category, '-')[1], 'base64') as subcategory_decoded FROM {products_temp_view_name} """ ) product_df_attribution.show() product_df_attribution.write.mode("overwrite").option("header", "true").option( "path", f"{gdc_database}spark_upgrade_demo_product_agg/" ).saveAsTable("spark_upgrade_demo_product_agg", external=True) spark_upgrade_demo_product_agg_table_df = spark.sql( f"SHOW TABLE EXTENDED in default like 'spark_upgrade_demo_product_agg'" ) spark_upgrade_demo_product_agg_table_df.show() job.commit()
Basierend auf der Zusammenfassung werden von AWS Glue vier Änderungen vorgeschlagen, um das Skript erfolgreich von AWS Glue 2.0 auf Glue 4.0 zu AWS aktualisieren:
-
SQLSpark-Konfiguration (spark.sql.adaptive.enabled): Diese Änderung dient der Wiederherstellung des Anwendungsverhaltens, da ab Spark 3.2 eine neue Funktion für die SQL adaptive Spark-Abfrageausführung eingeführt wird. Sie können diese Konfigurationsänderung überprüfen und sie je nach Wunsch weiter aktivieren oder deaktivieren.
-
DataFrame APIÄnderung: Die Pfadoption kann nicht zusammen mit anderen DataFrameReader Operationen wie
load()
existieren. Um das vorherige Verhalten beizubehalten, hat AWS Glue das Skript aktualisiert, um eine neue SQL Konfiguration hinzuzufügen (spark.sql.legacy). pathOptionBehavior.aktiviert). -
SQLAPISpark-Änderung: Das Verhalten von
strfmt
informat_string(strfmt, obj, ...)
wurde aktualisiert und ist nun nicht mehr0$
das erste Argument. Um die Kompatibilität zu gewährleisten, hat AWS Glue das Skript so geändert, dass es stattdessen1$
als erstes Argument verwendet wird. -
SQLAPISpark-Änderung: Die
unbase64
Funktion erlaubt keine fehlerhaften Zeichenketteneingaben. Um das vorherige Verhalten beizubehalten, hat AWS Glue das Skript aktualisiert, um dietry_to_binary
Funktion zu verwenden.
Eine laufende Upgrade-Analyse wird gestoppt
Sie können eine laufende Upgrade-Analyse abbrechen oder die Analyse einfach beenden.
-
Wählen Sie die Registerkarte „Analyse aktualisieren“.
-
Wählen Sie den Job aus, der gerade ausgeführt wird, und klicken Sie dann auf Beenden. Dadurch wird die Analyse beendet. Anschließend können Sie eine weitere Upgrade-Analyse für denselben Job ausführen.
Überlegungen
Wenn Sie in der Vorschauphase mit der Nutzung von Spark-Upgrades beginnen, müssen Sie mehrere wichtige Aspekte berücksichtigen, um den Service optimal nutzen zu können.
-
Serviceumfang und Einschränkungen: Die Vorschauversion konzentriert sich auf PySpark Code-Upgrades von AWS Glue-Versionen 2.0 auf Version 4.0. Derzeit verarbeitet der Service PySpark Code, der nicht auf zusätzlichen Bibliotheksabhängigkeiten angewiesen ist. Sie können automatisierte Upgrades für bis zu 10 Jobs gleichzeitig in einem AWS Konto ausführen, sodass Sie mehrere Jobs effizient aktualisieren und gleichzeitig die Systemstabilität aufrechterhalten können.
-
Es werden nur PySpark Jobs unterstützt.
-
Die Upgrade-Analyse läuft nach 24 Stunden ab.
-
Für einen Job kann jeweils nur eine aktive Upgrade-Analyse ausgeführt werden. Auf Kontoebene können bis zu 10 aktive Upgrade-Analysen gleichzeitig ausgeführt werden.
-
-
Optimierung der Kosten während des Upgrade-Prozesses: Da Spark-Upgrades generative KI verwenden, um den Upgrade-Plan über mehrere Iterationen hinweg zu validieren, wobei jede Iteration als AWS Glue-Job in Ihrem Konto ausgeführt wird, ist es wichtig, die Konfigurationen der Validierungsjob-Ausführung aus Kostengründen zu optimieren. Um dies zu erreichen, empfehlen wir, beim Start einer Upgrade-Analyse eine Run-Konfiguration wie folgt anzugeben:
-
Verwenden Sie Entwicklerkonten, die nicht zur Produktion gehören, und wählen Sie für die Validierung mit Spark-Upgrades Beispieldatensätze aus, die Ihre Produktionsdaten repräsentieren, aber kleiner sind.
-
Verwenden Sie Rechenressourcen mit der richtigen Größe, wie z. B. G.1X-Worker, und wählen Sie eine angemessene Anzahl von Workern für die Verarbeitung Ihrer Beispieldaten aus.
-
Aktivieren AWS Sie gegebenenfalls die auto-scaling von Glue-Jobs, um Ressourcen automatisch an die Arbeitslast anzupassen.
Wenn Ihr Produktionsjob beispielsweise Terabyte an Daten mit 20 G.2X-Workern verarbeitet, können Sie den Upgrade-Job so konfigurieren, dass er einige Gigabyte repräsentativer Daten mit 2 G.2X-Workern verarbeitet und auto-scaling für die Validierung aktiviert ist.
-
-
Bewährte Methoden in der Vorschau: Während der Vorschauphase empfehlen wir dringend, Ihr Upgrade mit Aufträgen zu beginnen, die nicht zur Produktion gehören. Dieser Ansatz ermöglicht es Ihnen, sich mit dem Upgrade-Workflow vertraut zu machen und zu verstehen, wie der Service mit verschiedenen Arten von Spark-Codemustern umgeht.
-
Alarme und Benachrichtigungen: Wenn Sie die Generative AI-Upgrade-Funktion für einen Job verwenden, stellen Sie sicher, dass Alarme/Benachrichtigungen für fehlgeschlagene Jobausführungen deaktiviert sind. Während des Upgrade-Vorgangs kann es in Ihrem Konto bis zu 10 fehlgeschlagene Jobausführungen geben, bevor die aktualisierten Artefakte bereitgestellt werden.
-
Regeln zur Erkennung von Anomalien: Deaktivieren Sie alle Regeln zur Erkennung von Anomalien für den Job, der ebenfalls aktualisiert wird, da die Daten, die während zwischengeschalteter Jobausführungen in die Ausgabeordner geschrieben werden, möglicherweise nicht das erwartete Format haben, während die Upgrade-Validierung läuft.
Regionsübergreifende Inferenz bei Spark-Upgrades
Spark Upgrades basiert auf regionsübergreifender Inferenz () Amazon Bedrock und nutzt diese. CRIS Mit CRIS Spark Upgrades wählt Spark automatisch die optimale Region innerhalb Ihrer Region aus (wie hier ausführlicher beschrieben), um Ihre Inferenzanfrage zu bearbeiten, die verfügbaren Rechenressourcen und die Modellverfügbarkeit zu maximieren und das beste Kundenerlebnis zu bieten. Für die Nutzung regionsübergreifender Inferenz fallen keine zusätzlichen Kosten an.
Regionsübergreifende Inferenzanfragen werden in den AWS Regionen gespeichert, die Teil der Region sind, in der sich die Daten ursprünglich befinden. Beispielsweise wird eine in den USA gestellte Anfrage innerhalb der AWS Regionen in den USA aufbewahrt. Obwohl die Daten nur in der Primärregion gespeichert bleiben, können sich Ihre Eingabeaufforderungen und Ausgabeergebnisse bei Verwendung regionsübergreifender Inferenz möglicherweise außerhalb Ihrer primären Region bewegen. Alle Daten werden verschlüsselt über das sichere Netzwerk von Amazon übertragen.