Richtlinien und Kontingente - Amazon Comprehend

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Richtlinien und Kontingente

Sofern nicht anders angegeben, gelten die Amazon Comprehend Comprehend-Kontingente pro Region. Sie können eine Erhöhung der anpassbaren Kontingente beantragen, falls dies für Ihre Anwendungen erforderlich ist. Informationen zu Kontingenten und zur Beantragung einer Kontingenterhöhung finden Sie unter AWS Service Quotas.

Unterstützte Regionen

Amazon Comprehend ist in den folgenden AWS Regionen verfügbar:

  • US East (Ohio)

  • USA Ost (Nord-Virginia)

  • USA West (Oregon)

  • Asia Pacific (Mumbai)

  • Asia Pacific (Seoul)

  • Asien-Pazifik (Singapur)

  • Asien-Pazifik (Sydney)

  • Asien-Pazifik (Tokio)

  • Canada (Central)

  • Europe (Frankfurt)

  • Europa (Irland)

  • Europe (London)

  • AWS GovCloud (US-West)

Standardmäßig bietet Amazon Comprehend alle API-Operationen in jeder der unterstützten Regionen. Ausnahmen finden Sie unter. Dokumentenverarbeitung

Informationen zu API-Endpunkten finden Sie unter Amazon Comprehend Regions and Endpoints in der Amazon Web Services General Reference.

Um die aktuellen Kontingente in einer Region zu überprüfen oder um Kontingenterhöhungen für anpassbare Kontingente zu beantragen, öffnen Sie die Service-Kontingents-Konsole.

Kontingente für integrierte Modelle

Amazon Comprehend bietet integrierte Modelle für die Analyse von UTF-8-Textdokumenten. Amazon Comprehend bietet synchrone und asynchrone Operationen, die die integrierten Modelle verwenden.

(synchrone) Analyse in Echtzeit

In diesem Abschnitt werden die Kontingente im Zusammenhang mit Echtzeitanalysen unter Verwendung der integrierten Modelle beschrieben.

Operationen für einzelne Dokumente

Die Amazon Comprehend API bietet Operationen, die ein einzelnes Dokument als Eingabe verwenden. Die folgenden Kontingente gelten für diese Operationen.

Allgemeine Kontingente für Operationen mit nur einem Dokument

Die folgenden Kontingente gelten für Echtzeitanalysen zur Erkennung von Entitäten, Schlüsselwörtern oder dominanter Sprache. Für die Erkennung von Entitäten gelten diese Kontingente für die Erkennung mit den integrierten Modellen. Informationen zur benutzerdefinierten Entitätserkennung finden Sie in den Kontingenten unterBenutzerdefinierte Entitätserkennung .

Beschreibung Kontingent/Richtlinie
Maximale Dokumentgröße 100 KB
Vorgangsspezifische Kontingente für Operationen mit einzelnen Dokumenten

Die folgenden Kontingente gelten für Echtzeitanalysen zur Erkennung von Stimmungen, gezielter Stimmungen und Syntax.

Beschreibung Quot/Richtlinie
Maximale Dokumentgröße 5 KB

Operationen mit mehreren Dokumenten

Die Amazon Comprehend API bietet Batch-Operationen, die mehrere Dokumente mit einer einzigen API-Anfrage verarbeiten. Die folgenden Kontingente gelten für die Batch-Operationen.

Beschreibung Kontingent/Richtlinie
Maximale Dokumentgröße 5 KB
Maximale Anzahl Dokumente pro Anfrage 25

Weitere Hinweise zur Verwendung der Batch-Dokumentoperationen finden Sie unterSynchrone Verarbeitung mehrerer Dokumente.

Anforderungsdrosselung für (synchrone) Anfragen in Echtzeit

Amazon Comprehend wendet dynamische Drosselung auf synchrone Anfragen an. Wenn Bandbreite für die Systemverarbeitung verfügbar ist, erhöht Amazon Comprehend schrittweise die Anzahl Ihrer Anfragen, die es verarbeitet. Um die Nutzung der synchronen API-Operationen durch Ihre Anwendung zu kontrollieren, empfehlen wir Ihnen, Abrechnungswarnungen zu aktivieren oder eine Gebührenbegrenzung in Ihrer Anwendung zu implementieren.

Asynchrone Analyse

In diesem Abschnitt werden Kontingente im Zusammenhang mit asynchroner Analyse unter Verwendung der integrierten Modelle beschrieben.

Asynchrone API-Operationen unterstützen jeweils maximal 10 aktive Jobs. Die Kontingente für jeden API-Vorgang finden Sie in der Tabelle Service Quotas in Amazon Comprehend Endpoints und Kontingente in der Amazon Web Services General Reference.

Für anpassbare Kontingente können Sie über die Service Quotas-Konsole eine Erhöhung des Kontingents beantragen.

Allgemeine Kontingente für asynchrone Operationen

Sie können asynchrone Analysejobs mithilfe der Konsole oder einer der Start* API-Operationen ausführen. Hinweise dazu, wann asynchrone Operationen verwendet werden sollten, finden Sie unter. Asynchrone Batchverarbeitung Die folgenden Kontingente gelten für die meisten Start* API-Operationen für integrierte Modelle. Die Ausnahmen finden Sie unterVorgangsspezifische Kontingente für asynchrone Jobs.

Beschreibung Kontingent/Richtlinie
Maximale Größe jedes Dokuments in Jobs, bei denen Entitäten, Schlüsselausdrücke, personenbezogene Daten und Sprachen erkannt werden 1 MB
Maximale Gesamtgröße aller Dateien in einer Anfrage 5 GB
Minimale Gesamtgröße aller Dateien in einer Anfrage 500 Byte
Maximale Anzahl von Dateien, ein Dokument pro Datei 1 000 000
Maximale Gesamtzahl der Zeilen, ein Dokument pro Zeile 1 000 000

Vorgangsspezifische Kontingente für asynchrone Jobs

In diesem Abschnitt werden Kontingente für bestimmte asynchrone Operationen beschrieben. Wenn in den folgenden Tabellen kein Kontingent angegeben ist, gilt der allgemeine Kontingentwert.

Stimmung

Asynchrone Sentiment-Jobs, die Sie mit dem StartSentimentDetectionJobVorgang erstellen, haben die folgenden Kontingente.

Beschreibung Kontingent/Richtlinie
Maximale Größe jedes Eingabedokuments 5 KB
Zielgerichtete Stimmung

Asynchrone, gezielte Stimmungsjobs, die Sie mit dem StartTargetedSentimentDetectionJobVorgang erstellen, haben die folgenden Kontingente.

Beschreibung Kontingent/Richtlinie
Unterstützte Dokumentenformate UTF-8
Maximale Größe jedes Dokuments in einem Job 10 KB
Maximale Größe aller Dokumente in einem Job 300 MB
Maximale Anzahl von Dateien, ein Dokument pro Datei 30 000
Maximale Gesamtzahl von Zeilen, ein Dokument pro Zeile (für alle Dateien in einer Anfrage) 30 000
Ereignisse

Für Aufträge zur Erkennung asynchroner Ereignisse, die Sie mit dem StartEventsDetectionJobVorgang erstellen, gelten die folgenden Kontingente.

Beschreibung Kontingente
Zeichencodierung UTF-8
Gesamtgröße aller Dateien in einem Auftrag 50 MB
Maximale Größe jedes Dokuments in einem Job 10 KB
Maximale Anzahl von Dateien, ein Dokument pro Datei 5,000
Maximale Gesamtzahl der Zeilen, ein Dokument pro Zeile (für alle angeforderten Dateien) 5,000
Themenmodellierung

Asynchrone Themenmodellierungsaufträge, die Sie mit dem StartTopicsDetectionJobVorgang erstellen, haben die folgenden Kontingente.

Beschreibung Kontingent/Richtlinie
Zeichencodierung UTF-8
Maximale Anzahl von Themen, die zurückgegeben werden sollen 100
Maximale Dateigröße für eine Datei, ein Dokument pro Datei 100 MB

Weitere Informationen finden Sie unter Themenmodellierung.

Drosselung von Anfragen für asynchrone Anfragen

Jeder asynchrone API-Vorgang unterstützt eine maximale Anzahl von Anfragen pro Sekunde (pro Region, pro Konto) sowie maximal 10 aktive Jobs. Die Kontingente für jeden API-Vorgang finden Sie in der Tabelle Service Quotas in Amazon Comprehend Endpoints und Kontingente in der Amazon Web Services General Reference.

Für anpassbare Kontingente können Sie über die Service Quotas-Konsole eine Erhöhung des Kontingents beantragen.

Kontingente für benutzerdefinierte Modelle

Sie können Amazon Comprehend verwenden, um Ihre eigenen benutzerdefinierten Modelle für die benutzerdefinierte Klassifizierung und benutzerdefinierte Entitätserkennung zu erstellen. Dieser Abschnitt enthält die Richtlinien und Kontingente für Schulungen und die Verwendung benutzerdefinierter Modelle. Weitere Informationen zu benutzerdefinierten Modellen finden Sie unterAmazon Comprehend Custom.

Allgemeine Kontingente

Amazon Comprehend legt allgemeine Größenkontingente für jeden Typ von Eingabedokument fest, die Sie mit benutzerdefinierten Modellen analysieren können. Informationen zu Quoten für Analysen in Echtzeit finden Sie unter. Maximale Dokumentgrößen für Echtzeitanalysen Informationen zu asynchronen Analysequoten finden Sie unterEingaben für asynchrone benutzerdefinierte Analysen.

Jeder asynchrone API-Vorgang unterstützt eine maximale Anzahl von Anfragen pro Sekunde (pro Region, pro Konto) sowie maximal 10 aktive Jobs. Die Kontingente für jeden API-Vorgang finden Sie in der Tabelle Service Quotas in Amazon Comprehend Endpoints und Kontingente in der Amazon Web Services General Reference.

Für anpassbare Kontingente können Sie über die Service Quotas-Konsole eine Erhöhung des Kontingents beantragen.

Kontingente für Endgeräte

Sie erstellen einen Endpunkt, um Echtzeitanalysen mit einem benutzerdefinierten Modell durchzuführen. Informationen zu Endpunkten finden Sie unterVerwalten von Amazon Comprehend-Endpunkten.

Die folgenden Kontingente gelten für die Endgeräte. Informationen dazu, wie Sie eine Kontingenterhöhung beantragen können, finden Sie unter AWS Service Quotas.

Beschreibung Kontingent/Richtlinie
Maximale Anzahl aktiver Endpunkte pro Region für jedes Konto 20
Maximale Anzahl von Inferenzeinheiten pro Region für jedes Konto 200
Maximale Anzahl von Inferenzeinheiten pro Endpunkt pro Region 50
Maximaler Durchsatz pro Inferenzeinheit (Zeichen) 100/Sekunde
Maximaler Durchsatz pro Inferenzeinheit (Dokumente) 2/Sekunde

Klassifizierung von Dokumenten

In diesem Abschnitt werden die Richtlinien und Kontingente für die folgenden Verfahren zur Klassifizierung von Dokumenten beschrieben:

Allgemeine Kontingente für die Klassifizierung von Dokumenten

In der folgenden Tabelle werden allgemeine Kontingente für das Training benutzerdefinierter Klassifikatoren beschrieben.

Beschreibung Kontingent/Richtlinie
Maximale Länge des Klassennamens 5.000 Zeichen
Anzahl der Klassen (Mehrklassenmodus) 2—1.000
Anzahl der Klassen (Multi-Label-Modus) 2—100
Format der Anmerkungen
Mindestanzahl von Anmerkungen pro Klasse (Mehrklassenmodus) 10
Mindestanzahl von Anmerkungen pro Klasse (Multi-Label-Modus) 10
Mindestanzahl von Anmerkungen (Multi-Label-Modus) 50
CSV-Dateiformat
Mindestanzahl von Schulungsdokumenten pro Kurs (Mehrklassenmodus) 50
Mindestanzahl von Schulungsdokumenten pro Kurs (Modus mit mehreren Bezeichnungen) 10
Mindestanzahl von Schulungsdokumenten (Modus mit mehreren Labels) 50

Klassifizierung für Klartextdokumente

Sie erstellen und trainieren ein Klartext-Modell mithilfe von Eingabedokumenten im Klartext-Format. Amazon Comprehend bietet asynchrone Echtzeitoperationen zur Klassifizierung von Klartext-Dokumenten mithilfe eines Klartext-Modells.

Training

In der folgenden Tabelle werden die Kontingente für das Training eines benutzerdefinierten Klassifikators mit Klartextdokumenten beschrieben.

Beschreibung Kontingent/Richtlinie
Gesamtgröße aller Dateien im Trainingsjob 5 GB
Maximale Anzahl erweiterter Manifestdateien für das Training eines benutzerdefinierten Klassifikators 5
Maximale Anzahl von Attributnamen für jede erweiterte Manifestdatei 5
Maximale Länge des Attributnamens 63 Zeichen
(synchrone) Analyse in Echtzeit

In der folgenden Tabelle werden die Kontingente für die Echtzeitklassifizierung von Klartextdokumenten beschrieben.

Beschreibung Kontingent/Richtlinie
Maximale Anzahl von Dokumenten pro synchroner Anfrage 1
Maximale Größe von Textdokumenten (UTF-8-kodiert) 10 KB
Asynchrone Analyse

In der folgenden Tabelle werden die Kontingente für die asynchrone Klassifizierung von Klartextdokumenten beschrieben.

Beschreibung Kontingent/Richtlinie
Gesamtgröße aller Dateien im asynchronen Job 5 GB
Maximale Dateigröße für eine Datei, ein Dokument pro Datei 10 MB
Maximale Anzahl von Dateien, ein Dokument pro Datei 1 000 000
Maximale Gesamtzahl der Zeilen, ein Dokument pro Zeile (für alle angeforderten Dateien) 1 000 000

Klassifizierung für halbstrukturierte Dokumente

In diesem Abschnitt werden die Richtlinien und Quoten für die Klassifizierung halbstrukturierter Dokumente beschrieben. Verwenden Sie zur Klassifizierung halbstrukturierter Dokumente ein systemeigenes Dokumentenmodell, das Sie mit systemeigenen Eingabedokumenten trainiert haben.

Trainieren eines systemeigenen Dokumentenmodells mit halbstrukturierten Dokumenten

In der folgenden Tabelle werden die Kontingente für das Training eines benutzerdefinierten Klassifikators mit halbstrukturierten Dokumenten wie PDF-Dokumenten, Word-Dokumenten und Bilddateien beschrieben.

Beschreibung Kontingent/Richtlinie
Maximale Seitenanzahl für alle Dokumente 10.000
Maximale Dateigröße für Anmerkungen (alle CSV-Dateigrößen zusammen) 5 MB
Größe des Dokumentkorpus (Schulungs- und Testdokumente) 10 GB
Dateigrößen für Trainings- und Testdateien
Größe der Bilddatei (JPG, PNG, TIFF). 1 Byte — 10 MB.

TIFF-Dateien: maximal eine Seite.

Seitengröße für PDF-Dokumente 1 Byte — 10 MB
Seitengröße für Word-Dokumente 1 Byte — 10 MB
JSON-Ausgabegröße der Amazon Textract Textract-API 1 Byte — 1 MB
(synchrone) Analyse in Echtzeit

In diesem Abschnitt werden Quoten für die Echtzeitklassifizierung von halbstrukturierten Dokumenten beschrieben.

Die folgende Tabelle zeigt die maximalen Dateigrößen für Eingabedokumente. Für alle Eingabedokumenttypen beträgt das Maximum der Eingabedatei eine Seite mit nicht mehr als 10.000 Zeichen.

Dateityp Maximale Größe (API) Maximale Größe (Konsole)
UTF-8-Textdokumente 10 KB 10 KB
PDF-Dokumente 10 MB 5 MB
Word-Dokumente 10 MB 5 MB
Abbildungsdateien 10 MB 5 MB
Ausgabegröße der Amazon Textract Textract-API 1 MB
Asynchrone Analyse

In der folgenden Tabelle werden die Kontingente für die asynchrone Klassifizierung halbstrukturierter Dokumente beschrieben.

Beschreibung Kontingent/Richtlinie
Maximale Seitenanzahl aller Eingabedokumente für einen Job 25,000
Größe des Dokumentkorpus 25 GB
Größe der Bilddatei (JPG, PNG oder TIFF) 1 Byte — 10 MB.

TIFF-Dateien: maximal eine Seite.

Seitengröße für PDF-Dokumente 1 Byte — 10 MB
Seitengröße für Word-Dokumente 1 Byte — 10 MB
JSON-Ausgabegröße der Textract-API 1 Byte — 1 MB.

Benutzerdefinierte Entitätserkennung

In diesem Abschnitt werden die Richtlinien und Kontingente für die folgenden Operationen zur benutzerdefinierten Entitätserkennung beschrieben:

Benutzerdefinierte Entitätserkennung für Klartextdokumente

Amazon Comprehend bietet asynchrone und synchrone Operationen zur Analyse von Klartextdokumenten mit einer benutzerdefinierten Entitätserkennung.

Training

In diesem Abschnitt werden die Kontingente für das Training eines benutzerdefinierten Entity Recognizers zur Analyse von Klartext-Dokumenten beschrieben. Um das Modell zu trainieren, können Sie eine Entitätsliste oder einen Satz kommentierter Textdokumente bereitstellen.

In der folgenden Tabelle werden die Kontingente für das Trainieren des Modells mit einer Entitätsliste beschrieben.

Beschreibung Kontingent/Richtlinie
Anzahl der Einheiten pro Modell 1—25
Größe des Dokuments (UTF-8) 1—5.000 Byte
Anzahl der Elemente in der Entitätsliste 1—1 Million
Länge des einzelnen Eintrags (Post-Strip) in der Eintragsliste 1—5.000
Korpusgröße der Entitätsliste (alle Dokumente im Klartext zusammengefasst) 5 KB —200 MB

In der folgenden Tabelle werden die Kontingente für das Training des Modells mit kommentierten Textdokumenten beschrieben.

Beschreibung Kontingent/Richtlinie
Anzahl der Entitäten pro Modell/benutzerdefinierter Entitätenerkennung 1—25
Größe des Dokuments (UTF-8) 1—5.000 Byte
Anzahl der Dokumente (siehe Klartext-Anmerkungen) 3—200.000
Größe des Dokumentkorpus (alle Dokumente im Klartext-Format zusammen) 5 KB - 200 MB
Mindestanzahl von Anmerkungen pro Entität 25
(synchrone) Analyse in Echtzeit

In der folgenden Tabelle werden die Kontingente für die Echtzeitanalyse von Klartextdokumenten beschrieben.

Beschreibung Kontingent/Richtlinie
Maximale Anzahl von Dokumenten pro synchroner Anfrage 1
Maximale Größe von Textdokumenten (UTF-8-kodiert) 5 KB
Asynchrone Analyse

In der folgenden Tabelle werden die Kontingente für die asynchrone Entitätserkennung von Klartextdokumenten beschrieben.

Beschreibung Kontingent/Richtlinie
Größe des Dokuments (UTF-8) 1 Byte — 1 MB
Maximale Anzahl von Dateien, ein Dokument pro Datei 1 000 000
Maximale Gesamtzahl der Zeilen, ein Dokument pro Zeile (für alle angeforderten Dateien) 1 000 000
Korpusgröße des Dokuments (alle Dokumente im Klartext zusammengefasst) 1 Byte — 5 GB

Benutzerdefinierte Entitätserkennung für halbstrukturierte Dokumente

Amazon Comprehend bietet asynchrone und synchrone Operationen zur Analyse halbstrukturierter Dokumente mit einer benutzerdefinierten Entitätserkennung. Sie müssen das Modell mithilfe von kommentierten PDF-Dokumenten trainieren.

Training

In der folgenden Tabelle werden die Kontingente für das Training eines benutzerdefinierten Entity Recognizers (CreateEntityRecognizer) zur Analyse halbstrukturierter Dokumente beschrieben.

Beschreibung Kontingent/Richtlinie
Anzahl der Entitäten pro Modell/benutzerdefinierter Entitätenerkennung 1—25
Maximale Größe der Annotationsdatei (UTF-8 JSON) 5 MB
Anzahl der Dokumente 250—10.000
Größe des Dokumentkorpus (alle Dokumente im Klartext-Format zusammen) 5 KB — 1 GB
Mindestanzahl von Anmerkungen pro Entität 100
Maximale Anzahl erweiterter Manifestdateien zum Trainieren eines benutzerdefinierten Entitätserkenners 5
Maximale Anzahl von Attributnamen für jede erweiterte Manifestdatei 5
Maximale Länge des Attributnamens 63 Zeichen
(synchrone) Analyse in Echtzeit

In diesem Abschnitt werden die Kontingente für die Echtzeitanalyse halbstrukturierter Dokumente beschrieben.

Die folgende Tabelle zeigt die maximalen Dateigrößen für Eingabedokumente. Für alle Eingabedokumenttypen beträgt das Maximum der Eingabedatei eine Seite mit nicht mehr als 10.000 Zeichen.

Dateityp Maximale Größe (API) Maximale Größe (Konsole)
UTF-8-Textdokumente 10 KB 10 KB
PDF-Dokumente 10 MB 5 MB
Word-Dokumente 10 MB 5 MB
Abbildungsdateien 10 MB 5 MB
Textausgabedateien 1 MB
Asynchrone Analyse

In diesem Abschnitt werden Kontingente für die asynchrone Analyse halbstrukturierter Dokumente beschrieben.

Beschreibung Kontingent/Richtlinie
Bildgröße (JPG oder PNG) 1 Byte — 10 MB
Bildgröße (TIFF) 1 Byte — 10 MB. Maximal eine Seite.
Größe des Dokuments (PDF) 1 Byte — 50 MB
Größe des Dokuments (Docx) 1 Byte — 5 MB
Größe des Dokuments (UTF-8) 1 Byte — 1 MB
Maximale Anzahl von Dateien, ein Dokument pro Datei (ein Dokument pro Zeile ist für Bilddateien oder PDF-/Word-Dokumente nicht zulässig) 500
Maximale Anzahl von Seiten für eine PDF- oder Docx-Datei 100
Korpusgröße des Dokuments nach der Textextraktion (Klartext, alle Dateien zusammen) 1 Byte — 5 GB

Weitere Informationen zu Grenzwerten für Bilder finden Sie unter Harte Grenzwerte in Amazon Textract

Kontingente für Schwungräder

Verwenden Sie Schwungräder, um das Training und die Nachverfolgung benutzerdefinierter Modellversionen für die benutzerdefinierte Klassifizierung und Erkennung benutzerdefinierter Entitäten zu verwalten. Weitere Informationen zu Schwungrädern finden Sie unter. Flywheels

Allgemeine Kontingente für Schwungräder

Die folgenden Kontingente gelten für Schwungräder und Schwungrad-Iterationen.

Beschreibung Kontingent/Richtlinie
Maximale Anzahl von Schwungrädern 50
Maximale Anzahl von Schwungrädern im Status CREATING 10
Maximale Anzahl von Trainingsdatensätzen pro Schwungrad 50
Maximale Anzahl von Testdatensätzen pro Schwungrad 50
Maximale Anzahl von Datensätzen mit dem Status INGESTING 10
Maximale Anzahl laufender Schwungraditerationen pro Konto 10

Datensatzquoten für benutzerdefinierte Klassifizierungsmodelle

Wenn Sie einen Datensatz für ein Schwungrad aufnehmen, das einem benutzerdefinierten Klassifikationsmodell zugeordnet ist, gelten die folgenden Kontingente.

Beschreibung Kontingent/Richtlinie
Mindestanzahl von Schulungsdokumenten pro Kurs (Modus mit mehreren Labels) 50
Maximale Anzahl von Schulungsdokumenten 1 000 000
Minimale Datensatzgröße 500 Byte
Maximale Datensatzgröße 5 GB
Maximale Dateigröße für eine Datei, ein Dokument pro Datei 10 MB

Datensatzquoten für benutzerdefinierte Modelle zur Erkennung von Entitäten

Wenn Sie einen Datensatz für ein Schwungrad aufnehmen, das einem benutzerdefinierten Entitätserkennungsmodell zugeordnet ist, gelten die folgenden Kontingente.

Beschreibung Kontingent/Richtlinie
Maximale Dokumentgröße 5 KB
Mindestanzahl von Schulungsunterlagen 3
Maximale Anzahl von Schulungsdokumenten 200 000
Mindestanzahl von Anmerkungen pro Entität 25
Maximale Datensatzgröße 200 MB