Formatieren Sie Ihre Batch-Inferenzdaten und laden Sie sie hoch - Amazon Bedrock

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Formatieren Sie Ihre Batch-Inferenzdaten und laden Sie sie hoch

Um Eingaben für die Batch-Inferenz vorzubereiten, erstellen Sie eine.jsonl-Datei im folgenden Format:

{ "recordId" : "11 character alphanumeric string", "modelInput" : {JSON body} } ...

Jede Zeile enthält ein JSON-Objekt mit einem recordId Feld und einem modelInput Feld, das den Anfragetext für eine Eingabe enthält, die Sie einreichen möchten. Das Format des modelInput JSON-Objekts muss mit dem body Feld für das Modell übereinstimmen, das Sie in der InvokeModel Anfrage verwenden. Weitere Informationen finden Sie unter Inferenzanforderungsparameter und Antwortfelder für Foundation-Modelle.

Anmerkung
  • Wenn Sie das recordId Feld weglassen, fügt Amazon Bedrock es der Ausgabe hinzu.

  • Sie geben das Modell an, das Sie verwenden möchten, wenn Sie den Batch-Inferenzjob erstellen.

Sie könnten beispielsweise eine JSONL-Datei bereitstellen, die die folgende Zeile enthält, wenn Sie die Batch-Inferenz mit dem Anthropic Claude 3 Haiku Modell:

{ "recordId": "CALL0000001", "modelInput": { "anthropic_version": "bedrock-2023-05-31", "max_tokens": 1024, "messages": [ { "role": "user", "content": [ { "type": "text", "text": "Summarize the following call transcript: ..." } ] } ] } }

Nachdem Sie Ihre Eingabedateien vorbereitet haben, laden Sie sie in einen S3-Bucket hoch. Ordnen Sie Ihrer Batch-Inferenz-Servicerolle die folgenden Berechtigungen zu und ${{s3-bucket-input}} ersetzen Sie sie durch den Bucket, in den Sie die Eingabedateien hochgeladen haben, und ${{s3-bucket-output}} durch den Bucket, in den Sie die Ausgabedateien schreiben möchten.

{ "Version": "2012-10-17", "Statement": [ { "Action": [ "s3:GetObject", "s3:PutObject", "s3:ListBucket" ], "Resource": [ "arn:aws:s3:::${{s3-bucket-input}}", "arn:aws:s3:::${{s3-bucket-input}}/*", "arn:aws:s3:::${{s3-bucket-output}}", "arn:aws:s3:::${{s3-bucket-output}}/*" ], "Effect": "Allow" } ] }

Wenn Sie Batch-Inferenz für das Verständnis von Videos mit den Modellen Nova Lite und Nova Pro verwenden, stellen Sie sicher, dass der Amazon S3 S3-Pfad, der im InputDataConfig Feld der CreateModelInvocationJob API-Eingabe angegeben wird, ein Amazon S3 S3-Ordner ist, der alle JSONL-Eingabedateien enthält, die Sie verarbeiten möchten, sowie alle Videoobjekte, auf die in den Eingabedatensätzen verwiesen wird.

Wenn Sie beispielsweise den Amazon S3 S3-Pfad s3://batch-inference-input-data/job-input-folder-data/ als Pfad InputDataConfig für einen Batch-Job angeben, würde eine entsprechende Datenkonfiguration wie folgt aussehen:

batch-inference-input-data/ job-input-folder-data/ input.jsonl video.mp4

Ein Beispiel s3://batch-inference-input-data/job-input-folder-data/input.jsonl mit einem Aufrufdatensatz für die Verarbeitung eines Videoobjekts ist unten dargestellt. Beachten Sie hier, dass sich die Amazon S3 S3-URI des Video-Objekts unter demselben Amazon S3 S3-Objekt wie die JSONL-Datei befindet.

{ "recordId": "RECORD01", "modelInput": { "messages": [ { "role": "user", "content": [ { "text": "You are an expert in recipe videos. Describe this video in less than 200 words following these guidelines: ..." }, { "video": { "format": "mp4", "source": { "s3Location": { "uri": "s3://batch-inference-input-bucket/job-input-folder-data/video.mp4", "bucketOwner": "123456789012" } } } } ] } ] } }

Unter der Annahme gültiger Amazon S3 S3-URI-Pfade kann das Videoobjekt an einer beliebigen Stelle unter dem angegebenen InputDataConfig Amazon S3 S3-URI-Pfad verschachtelt werden. In diesem Amazon S3-URL-Parsing-Blog erfahren Sie, wie Sie Amazon S3 URIs in einer Eingabeanforderung proaktiv validieren können.

Weitere Informationen zur Einrichtung von Aufrufaufzeichnungen für das Verständnis von Videos mit Nova finden Sie in den Amazon Nova Vision Prompting Guidelines.