Wählen Sie Ihre Cookie-Einstellungen aus

Wir verwenden essentielle Cookies und ähnliche Tools, die für die Bereitstellung unserer Website und Services erforderlich sind. Wir verwenden Performance-Cookies, um anonyme Statistiken zu sammeln, damit wir verstehen können, wie Kunden unsere Website nutzen, und Verbesserungen vornehmen können. Essentielle Cookies können nicht deaktiviert werden, aber Sie können auf „Anpassen“ oder „Ablehnen“ klicken, um Performance-Cookies abzulehnen.

Wenn Sie damit einverstanden sind, verwenden AWS und zugelassene Drittanbieter auch Cookies, um nützliche Features der Website bereitzustellen, Ihre Präferenzen zu speichern und relevante Inhalte, einschließlich relevanter Werbung, anzuzeigen. Um alle nicht notwendigen Cookies zu akzeptieren oder abzulehnen, klicken Sie auf „Akzeptieren“ oder „Ablehnen“. Um detailliertere Entscheidungen zu treffen, klicken Sie auf „Anpassen“.

Luma AI Modelle

Fokusmodus
Luma AI Modelle - Amazon Bedrock

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

In diesem Abschnitt werden die Anforderungsparameter und Antwortfelder für Luma-AI-Modelle beschrieben. Verwenden Sie diese Informationen, um im Rahmen der Operation Rückschlüsse auf Luma-AI-Modelle zu ziehen. StartAsyncInvoke Dieser Abschnitt enthält auch Python-Codebeispiele, die zeigen, wie Luma-KI-Modelle aufgerufen werden. Um ein Modell in einer Inferenzoperation zu verwenden, benötigen Sie die Modell-ID für das Modell.

  • Modell-ID: luma.ray-v 2:0

  • Modellname: Luma Ray 2

  • Text zum Videomodell

Luma AI modelliert Prozessmodell-Eingabeaufforderungen asynchron mithilfe von Async, APIs einschließlich, StartAsyncInvokeund. GetAsyncInvokeListAsyncInvokes

Das Luma AI-Modell verarbeitet Eingabeaufforderungen mithilfe der folgenden Schritte.

  • Der Benutzer fordert das Modell mithilfe von auf. StartAsyncInvoke

  • Warten Sie, bis der fertig InvokeJob ist. Sie können GetAsyncInvoke oder verwendenListAsyncInvokes, um den Status der Auftragsabwicklung zu überprüfen.

  • Die Modellausgabe wird im angegebenen Amazon S3 S3-Ausgabe-Bucket platziert

Weitere Informationen zur Verwendung der Luma-AI-Modelle mit dem APIs finden Sie unter Videogenerierung.

Luma AI Inferenzgespräch.

POST /async-invoke HTTP/1.1 Content-type: application/json { "modelId": "luma.ray-v2:0", "modelInput": { "prompt": "your input text here", "aspect_ratio": "16:9", "loop": false, "duration": "5s", "resolution": "720p" }, "outputDataConfig": { "s3OutputDataConfig": { "s3Uri": "s3://your-bucket-name" } } }

Felder

  • prompt — (Zeichenfolge) Der für das Ausgabevideo benötigte Inhalt (1 <= Länge <= 5000 Zeichen).

  • aspect_ratio — (enum) Das Seitenverhältnis des Ausgabevideos (“ 1:1 „," 16:9 „," 9:16 „," 4:3 „," 3:4 „," 21:9 „," 9:21 „).

  • loop — (boolean) Ob das Ausgabevideo wiederholt werden soll.

  • Dauer — (enum) — Die Dauer des Ausgabevideos („5s“, „9s“).

  • Auflösung — (Enum) Die Auflösung des Ausgabevideos („540p“, „720p“).

Die MP4 Datei wird im Amazon S3 S3-Bucket gespeichert, wie in der Antwort konfiguriert.

DatenschutzNutzungsbedingungen für die WebsiteCookie-Einstellungen
© 2025, Amazon Web Services, Inc. oder Tochtergesellschaften. Alle Rechte vorbehalten.