Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Richtlinien und Kontingente
Sofern nicht anders angegeben, gelten die Amazon Comprehend Comprehend-Kontingente pro Region. Sie können eine Erhöhung der anpassbaren Kontingente beantragen, falls dies für Ihre Anwendungen erforderlich ist. Informationen zu Kontingenten und zur Beantragung einer Kontingenterhöhung finden Sie unter AWS Service Quotas.
Themen
Unterstützte Regionen
Amazon Comprehend ist in den folgenden AWS Regionen verfügbar:
-
US East (Ohio)
-
USA Ost (Nord-Virginia)
-
USA West (Oregon)
-
Asia Pacific (Mumbai)
-
Asia Pacific (Seoul)
-
Asien-Pazifik (Singapur)
-
Asien-Pazifik (Sydney)
-
Asien-Pazifik (Tokio)
-
Canada (Central)
-
Europe (Frankfurt)
-
Europa (Irland)
-
Europe (London)
-
AWS GovCloud (US-West)
Standardmäßig bietet Amazon Comprehend alle API-Operationen in jeder der unterstützten Regionen. Ausnahmen finden Sie unter. Dokumentenverarbeitung
Informationen zu API-Endpunkten finden Sie unter Amazon Comprehend Regions and Endpoints in der Amazon Web Services General Reference.
Um die aktuellen Kontingente in einer Region zu überprüfen oder um Kontingenterhöhungen für anpassbare Kontingente zu beantragen, öffnen Sie die Service-Kontingents-Konsole
Kontingente für integrierte Modelle
Amazon Comprehend bietet integrierte Modelle für die Analyse von UTF-8-Textdokumenten. Amazon Comprehend bietet synchrone und asynchrone Operationen, die die integrierten Modelle verwenden.
(synchrone) Analyse in Echtzeit
In diesem Abschnitt werden die Kontingente im Zusammenhang mit Echtzeitanalysen unter Verwendung der integrierten Modelle beschrieben.
Themen
Operationen für einzelne Dokumente
Die Amazon Comprehend API bietet Operationen, die ein einzelnes Dokument als Eingabe verwenden. Die folgenden Kontingente gelten für diese Operationen.
Allgemeine Kontingente für Operationen mit nur einem Dokument
Die folgenden Kontingente gelten für Echtzeitanalysen zur Erkennung von Entitäten, Schlüsselwörtern oder dominanter Sprache. Für die Erkennung von Entitäten gelten diese Kontingente für die Erkennung mit den integrierten Modellen. Informationen zur benutzerdefinierten Entitätserkennung finden Sie in den Kontingenten unterBenutzerdefinierte Entitätserkennung .
Beschreibung | Kontingent/Richtlinie |
---|---|
Maximale Dokumentgröße | 100 KB |
Vorgangsspezifische Kontingente für Operationen mit einzelnen Dokumenten
Die folgenden Kontingente gelten für Echtzeitanalysen zur Erkennung von Stimmungen, gezielter Stimmungen und Syntax.
Beschreibung | Quot/Richtlinie |
---|---|
Maximale Dokumentgröße | 5 KB |
Operationen mit mehreren Dokumenten
Die Amazon Comprehend API bietet Batch-Operationen, die mehrere Dokumente mit einer einzigen API-Anfrage verarbeiten. Die folgenden Kontingente gelten für die Batch-Operationen.
Beschreibung | Kontingent/Richtlinie |
---|---|
Maximale Dokumentgröße | 5 KB |
Maximale Anzahl Dokumente pro Anfrage | 25 |
Weitere Hinweise zur Verwendung der Batch-Dokumentoperationen finden Sie unterSynchrone Verarbeitung mehrerer Dokumente.
Anforderungsdrosselung für (synchrone) Anfragen in Echtzeit
Amazon Comprehend wendet dynamische Drosselung auf synchrone Anfragen an. Wenn Bandbreite für die Systemverarbeitung verfügbar ist, erhöht Amazon Comprehend schrittweise die Anzahl Ihrer Anfragen, die es verarbeitet. Um die Nutzung der synchronen API-Operationen durch Ihre Anwendung zu kontrollieren, empfehlen wir Ihnen, Abrechnungswarnungen zu aktivieren oder eine Gebührenbegrenzung in Ihrer Anwendung zu implementieren.
Asynchrone Analyse
In diesem Abschnitt werden Kontingente im Zusammenhang mit asynchroner Analyse unter Verwendung der integrierten Modelle beschrieben.
Asynchrone API-Operationen unterstützen jeweils maximal 10 aktive Jobs. Die Kontingente für jeden API-Vorgang finden Sie in der Tabelle Service Quotas in Amazon Comprehend Endpoints und Kontingente in der Amazon Web Services General Reference.
Für anpassbare Kontingente können Sie über die Service Quotas-Konsole eine Erhöhung des Kontingents
Themen
Allgemeine Kontingente für asynchrone Operationen
Sie können asynchrone Analysejobs mithilfe der Konsole oder einer der Start*
API-Operationen ausführen. Hinweise dazu, wann asynchrone Operationen verwendet werden sollten, finden Sie unter. Asynchrone Batchverarbeitung Die folgenden Kontingente gelten für die meisten Start*
API-Operationen für integrierte Modelle. Die Ausnahmen finden Sie unterVorgangsspezifische Kontingente für asynchrone Jobs.
Beschreibung | Kontingent/Richtlinie |
---|---|
Maximale Größe jedes Dokuments in Jobs, bei denen Entitäten, Schlüsselausdrücke, personenbezogene Daten und Sprachen erkannt werden | 1 MB |
Maximale Gesamtgröße aller Dateien in einer Anfrage | 5 GB |
Minimale Gesamtgröße aller Dateien in einer Anfrage | 500 Byte |
Maximale Anzahl von Dateien, ein Dokument pro Datei | 1 000 000 |
Maximale Gesamtzahl der Zeilen, ein Dokument pro Zeile | 1 000 000 |
Vorgangsspezifische Kontingente für asynchrone Jobs
In diesem Abschnitt werden Kontingente für bestimmte asynchrone Operationen beschrieben. Wenn in den folgenden Tabellen kein Kontingent angegeben ist, gilt der allgemeine Kontingentwert.
Stimmung
Asynchrone Sentiment-Jobs, die Sie mit dem StartSentimentDetectionJobVorgang erstellen, haben die folgenden Kontingente.
Beschreibung | Kontingent/Richtlinie |
---|---|
Maximale Größe jedes Eingabedokuments | 5 KB |
Zielgerichtete Stimmung
Asynchrone, gezielte Stimmungsjobs, die Sie mit dem StartTargetedSentimentDetectionJobVorgang erstellen, haben die folgenden Kontingente.
Beschreibung | Kontingent/Richtlinie |
---|---|
Unterstützte Dokumentenformate | UTF-8 |
Maximale Größe jedes Dokuments in einem Job | 10 KB |
Maximale Größe aller Dokumente in einem Job | 300 MB |
Maximale Anzahl von Dateien, ein Dokument pro Datei | 30 000 |
Maximale Gesamtzahl von Zeilen, ein Dokument pro Zeile (für alle Dateien in einer Anfrage) | 30 000 |
Ereignisse
Für Aufträge zur Erkennung asynchroner Ereignisse, die Sie mit dem StartEventsDetectionJobVorgang erstellen, gelten die folgenden Kontingente.
Beschreibung | Kontingente |
---|---|
Zeichencodierung | UTF-8 |
Gesamtgröße aller Dateien in einem Auftrag | 50 MB |
Maximale Größe jedes Dokuments in einem Job | 10 KB |
Maximale Anzahl von Dateien, ein Dokument pro Datei | 5,000 |
Maximale Gesamtzahl der Zeilen, ein Dokument pro Zeile (für alle angeforderten Dateien) | 5,000 |
Themenmodellierung
Asynchrone Themenmodellierungsaufträge, die Sie mit dem StartTopicsDetectionJobVorgang erstellen, haben die folgenden Kontingente.
Beschreibung | Kontingent/Richtlinie |
---|---|
Zeichencodierung | UTF-8 |
Maximale Anzahl von Themen, die zurückgegeben werden sollen | 100 |
Maximale Dateigröße für eine Datei, ein Dokument pro Datei | 100 MB |
Weitere Informationen finden Sie unter Themenmodellierung.
Drosselung von Anfragen für asynchrone Anfragen
Jeder asynchrone API-Vorgang unterstützt eine maximale Anzahl von Anfragen pro Sekunde (pro Region, pro Konto) sowie maximal 10 aktive Jobs. Die Kontingente für jeden API-Vorgang finden Sie in der Tabelle Service Quotas in Amazon Comprehend Endpoints und Kontingente in der Amazon Web Services General Reference.
Für anpassbare Kontingente können Sie über die Service Quotas-Konsole eine Erhöhung des Kontingents
Kontingente für benutzerdefinierte Modelle
Sie können Amazon Comprehend verwenden, um Ihre eigenen benutzerdefinierten Modelle für die benutzerdefinierte Klassifizierung und benutzerdefinierte Entitätserkennung zu erstellen. Dieser Abschnitt enthält die Richtlinien und Kontingente für Schulungen und die Verwendung benutzerdefinierter Modelle. Weitere Informationen zu benutzerdefinierten Modellen finden Sie unterAmazon Comprehend Custom.
Themen
Allgemeine Kontingente
Amazon Comprehend legt allgemeine Größenkontingente für jeden Typ von Eingabedokument fest, die Sie mit benutzerdefinierten Modellen analysieren können. Informationen zu Quoten für Analysen in Echtzeit finden Sie unter. Maximale Dokumentgrößen für Echtzeitanalysen Informationen zu asynchronen Analysequoten finden Sie unterEingaben für asynchrone benutzerdefinierte Analysen.
Jeder asynchrone API-Vorgang unterstützt eine maximale Anzahl von Anfragen pro Sekunde (pro Region, pro Konto) sowie maximal 10 aktive Jobs. Die Kontingente für jeden API-Vorgang finden Sie in der Tabelle Service Quotas in Amazon Comprehend Endpoints und Kontingente in der Amazon Web Services General Reference.
Für anpassbare Kontingente können Sie über die Service Quotas-Konsole eine Erhöhung des Kontingents
Kontingente für Endgeräte
Sie erstellen einen Endpunkt, um Echtzeitanalysen mit einem benutzerdefinierten Modell durchzuführen. Informationen zu Endpunkten finden Sie unterVerwalten von Amazon Comprehend-Endpunkten.
Die folgenden Kontingente gelten für die Endgeräte. Informationen dazu, wie Sie eine Kontingenterhöhung beantragen können, finden Sie unter AWS Service Quotas.
Beschreibung | Kontingent/Richtlinie |
---|---|
Maximale Anzahl aktiver Endpunkte pro Region für jedes Konto | 20 |
Maximale Anzahl von Inferenzeinheiten pro Region für jedes Konto | 200 |
Maximale Anzahl von Inferenzeinheiten pro Endpunkt pro Region | 50 |
Maximaler Durchsatz pro Inferenzeinheit (Zeichen) | 100/Sekunde |
Maximaler Durchsatz pro Inferenzeinheit (Dokumente) | 2/Sekunde |
Klassifizierung von Dokumenten
In diesem Abschnitt werden die Richtlinien und Kontingente für die folgenden Verfahren zur Klassifizierung von Dokumenten beschrieben:
-
Classifier-Schulungsaufgaben, die Sie mit der CreateDocumentClassifierOperation beginnen.
Asynchrone Aufträge zur Dokumentenklassifizierung, die Sie mit der StartDocumentClassificationJobOperation starten.
-
Synchrone Dokumentklassifizierungsanforderungen, die den ClassifyDocumentVorgang verwenden.
Allgemeine Kontingente für die Klassifizierung von Dokumenten
In der folgenden Tabelle werden allgemeine Kontingente für das Training benutzerdefinierter Klassifikatoren beschrieben.
Beschreibung | Kontingent/Richtlinie |
---|---|
Maximale Länge des Klassennamens | 5.000 Zeichen |
Anzahl der Klassen (Mehrklassenmodus) | 2—1.000 |
Anzahl der Klassen (Multi-Label-Modus) | 2—100 |
Format der Anmerkungen | |
Mindestanzahl von Anmerkungen pro Klasse (Mehrklassenmodus) | 10 |
Mindestanzahl von Anmerkungen pro Klasse (Multi-Label-Modus) | 10 |
Mindestanzahl von Anmerkungen (Multi-Label-Modus) | 50 |
CSV-Dateiformat | |
Mindestanzahl von Schulungsdokumenten pro Kurs (Mehrklassenmodus) | 50 |
Mindestanzahl von Schulungsdokumenten pro Kurs (Modus mit mehreren Bezeichnungen) | 10 |
Mindestanzahl von Schulungsdokumenten (Modus mit mehreren Labels) | 50 |
Klassifizierung für Klartextdokumente
Sie erstellen und trainieren ein Klartext-Modell mithilfe von Eingabedokumenten im Klartext-Format. Amazon Comprehend bietet asynchrone Echtzeitoperationen zur Klassifizierung von Klartext-Dokumenten mithilfe eines Klartext-Modells.
Training
In der folgenden Tabelle werden die Kontingente für das Training eines benutzerdefinierten Klassifikators mit Klartextdokumenten beschrieben.
Beschreibung | Kontingent/Richtlinie |
---|---|
Gesamtgröße aller Dateien im Trainingsjob | 5 GB |
Maximale Anzahl erweiterter Manifestdateien für das Training eines benutzerdefinierten Klassifikators | 5 |
Maximale Anzahl von Attributnamen für jede erweiterte Manifestdatei | 5 |
Maximale Länge des Attributnamens | 63 Zeichen |
(synchrone) Analyse in Echtzeit
In der folgenden Tabelle werden die Kontingente für die Echtzeitklassifizierung von Klartextdokumenten beschrieben.
Beschreibung | Kontingent/Richtlinie |
---|---|
Maximale Anzahl von Dokumenten pro synchroner Anfrage | 1 |
Maximale Größe von Textdokumenten (UTF-8-kodiert) | 10 KB |
Asynchrone Analyse
In der folgenden Tabelle werden die Kontingente für die asynchrone Klassifizierung von Klartextdokumenten beschrieben.
Beschreibung | Kontingent/Richtlinie |
---|---|
Gesamtgröße aller Dateien im asynchronen Job | 5 GB |
Maximale Dateigröße für eine Datei, ein Dokument pro Datei | 10 MB |
Maximale Anzahl von Dateien, ein Dokument pro Datei | 1 000 000 |
Maximale Gesamtzahl der Zeilen, ein Dokument pro Zeile (für alle angeforderten Dateien) | 1 000 000 |
Klassifizierung für halbstrukturierte Dokumente
In diesem Abschnitt werden die Richtlinien und Quoten für die Klassifizierung halbstrukturierter Dokumente beschrieben. Verwenden Sie zur Klassifizierung halbstrukturierter Dokumente ein systemeigenes Dokumentenmodell, das Sie mit systemeigenen Eingabedokumenten trainiert haben.
Trainieren eines systemeigenen Dokumentenmodells mit halbstrukturierten Dokumenten
In der folgenden Tabelle werden die Kontingente für das Training eines benutzerdefinierten Klassifikators mit halbstrukturierten Dokumenten wie PDF-Dokumenten, Word-Dokumenten und Bilddateien beschrieben.
Beschreibung | Kontingent/Richtlinie |
---|---|
Maximale Seitenanzahl für alle Dokumente | 10.000 |
Maximale Dateigröße für Anmerkungen (alle CSV-Dateigrößen zusammen) | 5 MB |
Größe des Dokumentkorpus (Schulungs- und Testdokumente) | 10 GB |
Dateigrößen für Trainings- und Testdateien | |
Größe der Bilddatei (JPG, PNG, TIFF). | 1 Byte — 10 MB. TIFF-Dateien: maximal eine Seite. |
Seitengröße für PDF-Dokumente | 1 Byte — 10 MB |
Seitengröße für Word-Dokumente | 1 Byte — 10 MB |
JSON-Ausgabegröße der Amazon Textract Textract-API | 1 Byte — 1 MB |
(synchrone) Analyse in Echtzeit
In diesem Abschnitt werden Quoten für die Echtzeitklassifizierung von halbstrukturierten Dokumenten beschrieben.
Die folgende Tabelle zeigt die maximalen Dateigrößen für Eingabedokumente. Für alle Eingabedokumenttypen beträgt das Maximum der Eingabedatei eine Seite mit nicht mehr als 10.000 Zeichen.
Dateityp | Maximale Größe (API) | Maximale Größe (Konsole) |
---|---|---|
UTF-8-Textdokumente | 10 KB | 10 KB |
PDF-Dokumente | 10 MB | 5 MB |
Word-Dokumente | 10 MB | 5 MB |
Abbildungsdateien | 10 MB | 5 MB |
Ausgabegröße der Amazon Textract Textract-API | 1 MB | – |
Asynchrone Analyse
In der folgenden Tabelle werden die Kontingente für die asynchrone Klassifizierung halbstrukturierter Dokumente beschrieben.
Beschreibung | Kontingent/Richtlinie |
---|---|
Maximale Seitenanzahl aller Eingabedokumente für einen Job | 25,000 |
Größe des Dokumentkorpus | 25 GB |
Größe der Bilddatei (JPG, PNG oder TIFF) | 1 Byte — 10 MB. TIFF-Dateien: maximal eine Seite. |
Seitengröße für PDF-Dokumente | 1 Byte — 10 MB |
Seitengröße für Word-Dokumente | 1 Byte — 10 MB |
JSON-Ausgabegröße der Textract-API | 1 Byte — 1 MB. |
Benutzerdefinierte Entitätserkennung
In diesem Abschnitt werden die Richtlinien und Kontingente für die folgenden Operationen zur benutzerdefinierten Entitätserkennung beschrieben:
Die Trainingsaufträge für Entity Recognizer wurden mit dem CreateEntityRecognizerVorgang gestartet.
Asynchrone Entitätserkennungsaufträge wurden mit dem StartEntitiesDetectionJobVorgang gestartet.
Synchrone Anfragen zur Entitätserkennung, die den DetectEntitiesVorgang verwenden.
Benutzerdefinierte Entitätserkennung für Klartextdokumente
Amazon Comprehend bietet asynchrone und synchrone Operationen zur Analyse von Klartextdokumenten mit einer benutzerdefinierten Entitätserkennung.
Training
In diesem Abschnitt werden die Kontingente für das Training eines benutzerdefinierten Entity Recognizers zur Analyse von Klartext-Dokumenten beschrieben. Um das Modell zu trainieren, können Sie eine Entitätsliste oder einen Satz kommentierter Textdokumente bereitstellen.
In der folgenden Tabelle werden die Kontingente für das Trainieren des Modells mit einer Entitätsliste beschrieben.
Beschreibung | Kontingent/Richtlinie |
---|---|
Anzahl der Einheiten pro Modell | 1—25 |
Größe des Dokuments (UTF-8) | 1—5.000 Byte |
Anzahl der Elemente in der Entitätsliste | 1—1 Million |
Länge des einzelnen Eintrags (Post-Strip) in der Eintragsliste | 1—5.000 |
Korpusgröße der Entitätsliste (alle Dokumente im Klartext zusammengefasst) | 5 KB —200 MB |
In der folgenden Tabelle werden die Kontingente für das Training des Modells mit kommentierten Textdokumenten beschrieben.
Beschreibung | Kontingent/Richtlinie |
---|---|
Anzahl der Entitäten pro Modell/benutzerdefinierter Entitätenerkennung | 1—25 |
Größe des Dokuments (UTF-8) | 1—5.000 Byte |
Anzahl der Dokumente (siehe Klartext-Anmerkungen) | 3—200.000 |
Größe des Dokumentkorpus (alle Dokumente im Klartext-Format zusammen) | 5 KB - 200 MB |
Mindestanzahl von Anmerkungen pro Entität | 25 |
(synchrone) Analyse in Echtzeit
In der folgenden Tabelle werden die Kontingente für die Echtzeitanalyse von Klartextdokumenten beschrieben.
Beschreibung | Kontingent/Richtlinie |
---|---|
Maximale Anzahl von Dokumenten pro synchroner Anfrage | 1 |
Maximale Größe von Textdokumenten (UTF-8-kodiert) | 5 KB |
Asynchrone Analyse
In der folgenden Tabelle werden die Kontingente für die asynchrone Entitätserkennung von Klartextdokumenten beschrieben.
Beschreibung | Kontingent/Richtlinie |
---|---|
Größe des Dokuments (UTF-8) | 1 Byte — 1 MB |
Maximale Anzahl von Dateien, ein Dokument pro Datei | 1 000 000 |
Maximale Gesamtzahl der Zeilen, ein Dokument pro Zeile (für alle angeforderten Dateien) | 1 000 000 |
Korpusgröße des Dokuments (alle Dokumente im Klartext zusammengefasst) | 1 Byte — 5 GB |
Benutzerdefinierte Entitätserkennung für halbstrukturierte Dokumente
Amazon Comprehend bietet asynchrone und synchrone Operationen zur Analyse halbstrukturierter Dokumente mit einer benutzerdefinierten Entitätserkennung. Sie müssen das Modell mithilfe von kommentierten PDF-Dokumenten trainieren.
Training
In der folgenden Tabelle werden die Kontingente für das Training eines benutzerdefinierten Entity Recognizers (CreateEntityRecognizer) zur Analyse halbstrukturierter Dokumente beschrieben.
Beschreibung | Kontingent/Richtlinie |
---|---|
Anzahl der Entitäten pro Modell/benutzerdefinierter Entitätenerkennung | 1—25 |
Maximale Größe der Annotationsdatei (UTF-8 JSON) | 5 MB |
Anzahl der Dokumente | 250—10.000 |
Größe des Dokumentkorpus (alle Dokumente im Klartext-Format zusammen) | 5 KB — 1 GB |
Mindestanzahl von Anmerkungen pro Entität | 100 |
Maximale Anzahl erweiterter Manifestdateien zum Trainieren eines benutzerdefinierten Entitätserkenners | 5 |
Maximale Anzahl von Attributnamen für jede erweiterte Manifestdatei | 5 |
Maximale Länge des Attributnamens | 63 Zeichen |
(synchrone) Analyse in Echtzeit
In diesem Abschnitt werden die Kontingente für die Echtzeitanalyse halbstrukturierter Dokumente beschrieben.
Die folgende Tabelle zeigt die maximalen Dateigrößen für Eingabedokumente. Für alle Eingabedokumenttypen beträgt das Maximum der Eingabedatei eine Seite mit nicht mehr als 10.000 Zeichen.
Dateityp | Maximale Größe (API) | Maximale Größe (Konsole) |
---|---|---|
UTF-8-Textdokumente | 10 KB | 10 KB |
PDF-Dokumente | 10 MB | 5 MB |
Word-Dokumente | 10 MB | 5 MB |
Abbildungsdateien | 10 MB | 5 MB |
Textausgabedateien | 1 MB | – |
Asynchrone Analyse
In diesem Abschnitt werden Kontingente für die asynchrone Analyse halbstrukturierter Dokumente beschrieben.
Beschreibung | Kontingent/Richtlinie |
---|---|
Bildgröße (JPG oder PNG) | 1 Byte — 10 MB |
Bildgröße (TIFF) | 1 Byte — 10 MB. Maximal eine Seite. |
Größe des Dokuments (PDF) | 1 Byte — 50 MB |
Größe des Dokuments (Docx) | 1 Byte — 5 MB |
Größe des Dokuments (UTF-8) | 1 Byte — 1 MB |
Maximale Anzahl von Dateien, ein Dokument pro Datei (ein Dokument pro Zeile ist für Bilddateien oder PDF-/Word-Dokumente nicht zulässig) | 500 |
Maximale Anzahl von Seiten für eine PDF- oder Docx-Datei | 100 |
Korpusgröße des Dokuments nach der Textextraktion (Klartext, alle Dateien zusammen) | 1 Byte — 5 GB |
Weitere Informationen zu Grenzwerten für Bilder finden Sie unter Harte Grenzwerte in Amazon Textract
Kontingente für Schwungräder
Verwenden Sie Schwungräder, um das Training und die Nachverfolgung benutzerdefinierter Modellversionen für die benutzerdefinierte Klassifizierung und Erkennung benutzerdefinierter Entitäten zu verwalten. Weitere Informationen zu Schwungrädern finden Sie unter. Flywheels
Allgemeine Kontingente für Schwungräder
Die folgenden Kontingente gelten für Schwungräder und Schwungrad-Iterationen.
Beschreibung | Kontingent/Richtlinie |
---|---|
Maximale Anzahl von Schwungrädern | 50 |
Maximale Anzahl von Schwungrädern im Status CREATING | 10 |
Maximale Anzahl von Trainingsdatensätzen pro Schwungrad | 50 |
Maximale Anzahl von Testdatensätzen pro Schwungrad | 50 |
Maximale Anzahl von Datensätzen mit dem Status INGESTING | 10 |
Maximale Anzahl laufender Schwungraditerationen pro Konto | 10 |
Datensatzquoten für benutzerdefinierte Klassifizierungsmodelle
Wenn Sie einen Datensatz für ein Schwungrad aufnehmen, das einem benutzerdefinierten Klassifikationsmodell zugeordnet ist, gelten die folgenden Kontingente.
Beschreibung | Kontingent/Richtlinie |
---|---|
Mindestanzahl von Schulungsdokumenten pro Kurs (Modus mit mehreren Labels) | 50 |
Maximale Anzahl von Schulungsdokumenten | 1 000 000 |
Minimale Datensatzgröße | 500 Byte |
Maximale Datensatzgröße | 5 GB |
Maximale Dateigröße für eine Datei, ein Dokument pro Datei | 10 MB |
Datensatzquoten für benutzerdefinierte Modelle zur Erkennung von Entitäten
Wenn Sie einen Datensatz für ein Schwungrad aufnehmen, das einem benutzerdefinierten Entitätserkennungsmodell zugeordnet ist, gelten die folgenden Kontingente.
Beschreibung | Kontingent/Richtlinie |
---|---|
Maximale Dokumentgröße | 5 KB |
Mindestanzahl von Schulungsunterlagen | 3 |
Maximale Anzahl von Schulungsdokumenten | 200 000 |
Mindestanzahl von Anmerkungen pro Entität | 25 |
Maximale Datensatzgröße | 200 MB |