Erstellen eines Batch-Inferenzauftrags - Amazon Bedrock

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Erstellen eines Batch-Inferenzauftrags

Nachdem Sie einen Amazon S3 S3-Bucket mit Dateien für die Ausführung von Modellinferenzen eingerichtet haben, können Sie einen Batch-Inferenzjob erstellen.

Anmerkung

Um einen Batch-Inferenzjob mit einem einzureichenVPC, müssen Sie den verwenden. API Wählen Sie die API Registerkarte aus, um zu erfahren, wie Sie die VPC Konfiguration einbeziehen.

Um zu erfahren, wie Sie einen Batch-Inferenz-Job erstellen, wählen Sie die Registerkarte für Ihre bevorzugte Methode und folgen Sie dann den Schritten:

Console
Um einen Batch-Inferenzjob zu erstellen
  1. Melden Sie sich als Benutzer mit IAM Amazon Bedrock-Berechtigungen an und öffnen Sie die Amazon Bedrock-Konsole AWS Management Console unter. https://console.aws.amazon.com/bedrock/

  2. Wählen Sie im linken Navigationsbereich Batch-Inferenz aus.

  3. Wählen Sie im Abschnitt Batch-Inferenzjobs die Option Job erstellen aus.

  4. Geben Sie im Abschnitt Auftragsdetails dem Batch-Inferenz-Job einen Job-Namen und wählen Sie ein Modell aus, das für den Batch-Inferenz-Job verwendet werden soll, indem Sie Modell auswählen wählen.

  5. Wählen Sie im Abschnitt Eingabedaten die Option S3 durchsuchen und wählen Sie den S3-Speicherort aus, der die Dateien für Ihren Batch-Inferenzjob enthält. Vergewissern Sie sich, dass die Dateien dem unter beschriebenen Format entsprechen. Formatieren Sie Ihre Batch-Inferenzdaten und laden Sie sie hoch

    Anmerkung

    Wenn sich die Eingabedaten in einem S3-Bucket befinden, der zu einem anderen Konto gehört als dem, von dem aus Sie den Job einreichen, müssen Sie das verwenden, API um den Batch-Inferenz-Job zu senden. Um zu erfahren, wie das geht, wählen Sie die API Registerkarte oben aus.

  6. Wählen Sie im Abschnitt Ausgabedaten die Option S3 durchsuchen und wählen Sie einen S3-Speicherort aus, an dem die Ausgabedateien Ihres Batch-Inferenzjobs gespeichert werden sollen. Standardmäßig werden die Ausgabedaten mit einem verschlüsselt. Von AWS verwalteter Schlüssel Um einen benutzerdefinierten KMS Schlüssel auszuwählen, wählen Sie Verschlüsselungseinstellungen anpassen (erweitert) und wählen Sie einen Schlüssel aus. Weitere Informationen zur Verschlüsselung von Amazon Bedrock-Ressourcen und zur Einrichtung eines benutzerdefinierten KMS Schlüssels finden Sie unterDatenverschlüsselung.

    Anmerkung

    Wenn Sie beabsichtigen, die Ausgabedaten in einen S3-Bucket zu schreiben, der zu einem anderen Konto gehört als dem, von dem aus Sie den Job einreichen, müssen Sie den API zum Senden des Batch-Inferenz-Jobs verwenden. Um zu erfahren, wie das geht, wählen Sie die API Registerkarte oben aus.

  7. Wählen Sie im Abschnitt Servicezugriff eine der folgenden Optionen aus:

    • Eine vorhandene Servicerolle verwenden – Wählen Sie eine Servicerolle aus der Dropdown-Liste aus. Weitere Informationen zum Einrichten einer benutzerdefinierten Rolle mit den entsprechenden Berechtigungen finden Sie unter Erforderliche Berechtigungen für Batch-Inferenz.

    • Neue Servicerolle erstellen und verwenden – Geben Sie einen Namen für die Servicerolle ein.

  8. (Optional) Um dem Batch-Inferenzjob Tags zuzuordnen, erweitern Sie den Abschnitt „Tags“ und fügen Sie für jedes Tag einen Schlüssel und einen optionalen Wert hinzu. Weitere Informationen finden Sie unter Taggen von Amazon Bedrock-Ressourcen.

  9. Wählen Sie Create batch inference job (Batch-Inferenzauftrag erstellen).

API

Um einen Batch-Inferenzjob zu erstellen, senden Sie eine CreateModelInvocationJobAnfrage mit einem Endpunkt der Amazon Bedrock-Steuerebene.

Die folgenden Felder sind erforderlich:

Feld Anwendungsfall
jobName Um einen Namen für den Job anzugeben.
roleArn Um den Amazon-Ressourcennamen (ARN) der Servicerolle mit den Berechtigungen zum Erstellen und Verwalten des Jobs anzugeben. Weitere Informationen finden Sie unter Erstellen Sie eine benutzerdefinierte Servicerolle für Batch-Inferenz.
modelId Um die ID oder ARN das Modell anzugeben, das als Inferenz verwendet werden soll.
inputDataConfig Um den S3-Speicherort anzugeben, der die Eingabeaufforderungen und Konfigurationen enthält, die an den Job gesendet werden sollen. Weitere Informationen finden Sie unter Formatieren Sie Ihre Batch-Inferenzdaten und laden Sie sie hoch.
outputDataConfig Um den S3-Speicherort anzugeben, an den die Modellantworten geschrieben werden sollen.

Die folgenden Felder sind optional:

Feld Anwendungsfall
timeoutDurationInStunden Um die Dauer in Stunden anzugeben, nach deren Ablauf der Job abläuft.
tags Um alle Tags anzugeben, die mit dem Job verknüpft werden sollen. Weitere Informationen finden Sie unter Taggen von Amazon Bedrock-Ressourcen.
vpcConfig Um die VPC Konfiguration anzugeben, die zum Schutz Ihrer Daten während des Jobs verwendet werden soll. Weitere Informationen finden Sie unter Schützen Sie Batch-Inferenzjobs mit einem VPC.
clientRequestToken Um sicherzustellen, dass die API Anfrage nur einmal abgeschlossen wird. Weitere Informationen finden Sie unter Sicherstellung der Idempotenz.

Die Antwort gibt a zurückjobArn, mit der Sie auf den Job verweisen können, wenn Sie andere Aufrufe im Zusammenhang mit API Batch-Inferenzen ausführen.