Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
StartCallAnalyticsStreamTranscription
Startet einen bidirektionalen HTTP/2- oder WebSocket -Stream, bei dem Audio an Amazon Transcribe und die Transkriptionsergebnisse an Ihre Anwendung gestreamt werden. Verwenden Sie diesen Vorgang für Call Analytics-Transkriptionen.
Die folgenden Parameter sind erforderlich:
-
language-code
-
media-encoding
-
sample-rate
Weitere Informationen zum Streamen mit Amazon Transcribe finden Sie unter Transkribieren von Streaming-Audio.
Anforderungssyntax
POST /call-analytics-stream-transcription HTTP/2
x-amzn-transcribe-language-code: LanguageCode
x-amzn-transcribe-sample-rate: MediaSampleRateHertz
x-amzn-transcribe-media-encoding: MediaEncoding
x-amzn-transcribe-vocabulary-name: VocabularyName
x-amzn-transcribe-session-id: SessionId
x-amzn-transcribe-vocabulary-filter-name: VocabularyFilterName
x-amzn-transcribe-vocabulary-filter-method: VocabularyFilterMethod
x-amzn-transcribe-language-model-name: LanguageModelName
x-amzn-transcribe-enable-partial-results-stabilization: EnablePartialResultsStabilization
x-amzn-transcribe-partial-results-stability: PartialResultsStability
x-amzn-transcribe-content-identification-type: ContentIdentificationType
x-amzn-transcribe-content-redaction-type: ContentRedactionType
x-amzn-transcribe-pii-entity-types: PiiEntityTypes
Content-type: application/json
{
"AudioStream": {
"AudioEvent": {
"AudioChunk": blob
},
"ConfigurationEvent": {
"ChannelDefinitions": [
{
"ChannelId": number
,
"ParticipantRole": "string
"
}
],
"PostCallAnalyticsSettings": {
"ContentRedactionOutput": "string
",
"DataAccessRoleArn": "string
",
"OutputEncryptionKMSKeyId": "string
",
"OutputLocation": "string
"
}
}
}
}
URI-Anfrageparameter
Die Anforderung verwendet die folgenden URI-Parameter.
- ContentIdentificationType
-
Kennungswert alle persönlich identifizierbaren Informationen (PII), die in Ihrem Transkript identifiziert wurden.
Die Inhaltsidentifikation erfolgt auf Segmentebene. Die in
PiiEntityTypes
angegebenen personenbezogenen Daten werden nach vollständiger Transkription eines Audiosegments gekennzeichnet.Sie können nicht
ContentIdentificationType
undContentRedactionType
in derselben Anfrage festlegen. Wenn Sie beide einstellen, gibt Ihre Anfrage a zurückBadRequestException
.Weitere Informationen finden Sie unter Personenbezogene Daten redigieren oder identifizieren.
Zulässige Werte:
PII
- ContentRedactionType
-
Redigiert alle persönlich identifizierbaren Informationen (PII), die in Ihrem Transkript identifiziert wurden.
Die Inhaltsredigierung erfolgt auf Segmentebene. Die in
PiiEntityTypes
angegebenen PII werden nach vollständiger Transkription eines Audiosegments redigiert.Sie können nicht
ContentRedactionType
undContentIdentificationType
in derselben Anfrage festlegen. Wenn Sie beide einstellen, gibt Ihre Anfrage a zurückBadRequestException
.Weitere Informationen finden Sie unter Personenbezogene Daten redigieren oder identifizieren.
Zulässige Werte:
PII
- EnablePartialResultsStabilization
-
Ermöglicht eine teilweise Stabilisierung der Ergebnisse für Ihre Transkription. Eine teilweise Stabilisierung der Ergebnisse kann die Latenz bei der Ausgabe verringern, kann jedoch die Genauigkeit beeinträchtigen. Weitere Informationen finden Sie unter Partielle Ergebnisstabilisierung.
- LanguageCode
-
Geben Sie den Sprachcode an, der die in Ihrem Audio gesprochene Sprache darstellt.
Wenn Sie sich nicht sicher sind, welche Sprache in Ihrem Audio gesprochen wird, sollten Sie erwägen, diese Option
IdentifyLanguage
zu verwenden, um die automatische Sprachenidentifikation zu aktivieren.Eine Liste der Sprachen, die von Call Analytics in Echtzeit unterstützt werden, finden Sie in der Tabelle Unterstützte Sprachen.
Zulässige Werte:
en-US | en-GB | es-US | fr-CA | fr-FR | en-AU | it-IT | de-DE | pt-BR
Erforderlich: Ja
- LanguageModelName
-
Geben Sie den Namen des benutzerdefinierten Sprachmodells an, das Sie bei der Verarbeitung Ihrer Transkription verwenden möchten. Beachten Sie, dass bei Namen von Sprachmodellen zwischen Groß- und Kleinschreibung unterschieden wird.
Die Sprache des angegebenen Sprachmodells muss mit dem Sprachcode übereinstimmen, den Sie in Ihrer Transkriptionsanfrage angegeben haben. Wenn die Sprachen nicht übereinstimmen, wird das benutzerdefinierte Sprachmodell nicht angewendet. Es gibt keine Fehler oder Warnungen, die mit einer Sprachinkongruenz verbunden sind.
Weitere Informationen finden Sie unter Benutzerdefinierte Sprachmodelle.
Längenbeschränkungen: Minimale Länge von 1. Höchstlänge = 200 Zeichen.
Pattern:
^[0-9a-zA-Z._-]+
- MediaEncoding
-
Geben Sie die Kodierung Ihres Eingangs-Audios an. Unterstützte Formate sind:
-
FLAC
-
OPUS-kodiertes Audio in einem Ogg-Container
-
PCM (nur signierte 16-Bit-Little-Endian-Audioformate, die WAV nicht enthalten)
Weitere Informationen finden Sie unter Medienformate.
Zulässige Werte:
pcm | ogg-opus | flac
Erforderlich: Ja
-
- MediaSampleRateHertz
-
Die Samplerate des Eingangs-Audios (in Hertz). Audio von geringer Qualität, wie z. B. Telefonaudio, liegt typischerweise bei etwa 8.000 Hz. Die hohe Audioqualität reicht normalerweise von 16.000 Hz bis 48.000 Hz. Beachten Sie, dass die von Ihnen angegebene Samplerate mit der Ihres Audios übereinstimmen muss.
Gültiger Bereich: Mindestwert 8000. Maximaler Wert von 48000.
Erforderlich: Ja
- PartialResultsStability
-
Geben Sie den Stabilitätsgrad an, der verwendet werden soll, wenn Sie die Stabilisierung von Teilergebnissen aktivieren (
EnablePartialResultsStabilization
).Eine geringe Stabilität sorgt für höchste Genauigkeit. Hohe Stabilität transkribiert schneller, aber mit etwas geringerer Genauigkeit.
Weitere Informationen finden Sie unter Partielle Ergebnisstabilisierung.
Zulässige Werte:
high | medium | low
- PiiEntityTypes
-
Geben Sie in Ihrem Protokoll an, welche Arten von personenbezogenen Daten (PII) Sie redigieren möchten. Sie können so viele Typen hinzufügen, wie Sie möchten, oder Sie können auswählen
ALL
.Um es
PiiEntityTypes
in Ihre Call Analytics-Anfrage aufzunehmen, müssen Sie auch entwederContentIdentificationType
oder angebenContentRedactionType
.Werte müssen durch Kommas getrennt sein und können Folgendes beinhalten:
ADDRESS
,,BANK_ACCOUNT_NUMBER
,BANK_ROUTING
,,CREDIT_DEBIT_CVV
,CREDIT_DEBIT_EXPIRY
,CREDIT_DEBIT_NUMBER
,EMAIL
,,NAME
,PHONE
,PIN
,SSN
,, oderALL
.Längenbeschränkungen: Minimale Länge von 1. Maximale Länge beträgt 300 Zeichen.
Pattern:
^[A-Z_, ]+
- SessionId
-
Geben Sie einen Namen für Ihre Call Analytics-Transkriptionssitzung an. Wenn Sie diesen Parameter nicht in Ihre Anfrage aufnehmen, generiert Amazon Transcribe eine ID und gibt sie in der Antwort zurück.
Längenbeschränkungen: Feste Länge von 36.
Pattern:
[a-fA-F0-9]{8}-[a-fA-F0-9]{4}-[a-fA-F0-9]{4}-[a-fA-F0-9]{4}-[a-fA-F0-9]{12}
- VocabularyFilterMethod
-
Geben Sie an, wie Ihr Vokabelfilter auf Ihr Transkript angewendet werden soll.
Um Wörter zu ersetzen durch
***
, wählen Siemask
.Um Wörter zu löschen, wählen Sie
remove
.Um Wörter zu kennzeichnen, ohne sie zu ändern, wählen Sie
tag
.Zulässige Werte:
remove | mask | tag
- VocabularyFilterName
-
Geben Sie den Namen des benutzerdefinierten Vokabelfilters an, den Sie bei der Verarbeitung Ihrer Transkription verwenden möchten. Beachten Sie, dass bei Namen von Vokabelfiltern zwischen Groß- und Kleinschreibung unterschieden wird.
Wenn die Sprache des angegebenen benutzerdefinierten Vokabelfilters nicht mit der in Ihren Medien identifizierten Sprache übereinstimmt, wird der Vokabelfilter nicht auf Ihre Transkription angewendet.
Weitere Informationen finden Sie unter Verwenden der Wortschatzfilterung mit unerwünschten Wörtern.
Längenbeschränkungen: Minimale Länge von 1. Höchstlänge = 200 Zeichen.
Pattern:
^[0-9a-zA-Z._-]+
- VocabularyName
-
Geben Sie den Namen des benutzerdefinierten Vokabulars an, das Sie bei der Verarbeitung Ihrer Transkription verwenden möchten. Beachten Sie, dass bei Vokabelnamen zwischen Groß- und Kleinschreibung unterschieden wird.
Wenn die Sprache des angegebenen benutzerdefinierten Wortschatzes nicht mit der in Ihren Medien angegebenen Sprache übereinstimmt, wird das benutzerdefinierte Vokabular nicht auf Ihre Transkription angewendet.
Weitere Informationen finden Sie unter Benutzerdefiniertes Vokabular.
Längenbeschränkungen: Minimale Länge von 1. Höchstlänge = 200 Zeichen.
Pattern:
^[0-9a-zA-Z._-]+
Anforderungstext
Die Anforderung akzeptiert die folgenden Daten im JSON-Format.
- AudioStream
-
Ein kodierter Stream von Audio-Blobs. Audiostreams werden entweder als HTTP/2 oder als WebSocket Datenrahmen codiert.
Weitere Informationen finden Sie unter Transkriptionsprotokolle von Streaming-Audio.
Typ: CallAnalyticsAudioStream Objekt
Erforderlich: Ja
Antwortsyntax
HTTP/2 200
x-amzn-request-id: RequestId
x-amzn-transcribe-language-code: LanguageCode
x-amzn-transcribe-sample-rate: MediaSampleRateHertz
x-amzn-transcribe-media-encoding: MediaEncoding
x-amzn-transcribe-vocabulary-name: VocabularyName
x-amzn-transcribe-session-id: SessionId
x-amzn-transcribe-vocabulary-filter-name: VocabularyFilterName
x-amzn-transcribe-vocabulary-filter-method: VocabularyFilterMethod
x-amzn-transcribe-language-model-name: LanguageModelName
x-amzn-transcribe-enable-partial-results-stabilization: EnablePartialResultsStabilization
x-amzn-transcribe-partial-results-stability: PartialResultsStability
x-amzn-transcribe-content-identification-type: ContentIdentificationType
x-amzn-transcribe-content-redaction-type: ContentRedactionType
x-amzn-transcribe-pii-entity-types: PiiEntityTypes
Content-type: application/json
{
"CallAnalyticsTranscriptResultStream": {
"BadRequestException": {
},
"CategoryEvent": {
"MatchedCategories": [ "string" ],
"MatchedDetails": {
"string" : {
"TimestampRanges": [
{
"BeginOffsetMillis": number,
"EndOffsetMillis": number
}
]
}
}
},
"ConflictException": {
},
"InternalFailureException": {
},
"LimitExceededException": {
},
"ServiceUnavailableException": {
},
"UtteranceEvent": {
"BeginOffsetMillis": number,
"EndOffsetMillis": number,
"Entities": [
{
"BeginOffsetMillis": number,
"Category": "string",
"Confidence": number,
"Content": "string",
"EndOffsetMillis": number,
"Type": "string"
}
],
"IsPartial": boolean,
"IssuesDetected": [
{
"CharacterOffsets": {
"Begin": number,
"End": number
}
}
],
"Items": [
{
"BeginOffsetMillis": number,
"Confidence": number,
"Content": "string",
"EndOffsetMillis": number,
"Stable": boolean,
"Type": "string",
"VocabularyFilterMatch": boolean
}
],
"ParticipantRole": "string",
"Sentiment": "string",
"Transcript": "string",
"UtteranceId": "string"
}
}
}
Antwortelemente
Wenn die Aktion erfolgreich ist, sendet der Service eine HTTP 200-Antwort zurück.
Die Antwort gibt die folgenden HTTP-Header zurück.
- ContentIdentificationType
-
Zeigt an, ob die Inhaltsidentifikation für Ihre Call Analytics-Transkription aktiviert wurde.
Zulässige Werte:
PII
- ContentRedactionType
-
Zeigt an, ob die Inhaltsredaktion für Ihre Call Analytics-Transkription aktiviert wurde.
Zulässige Werte:
PII
- EnablePartialResultsStabilization
-
Zeigt an, ob die Stabilisierung der teilweisen Ergebnisse für Ihre Call Analytics-Transkription aktiviert wurde.
- LanguageCode
-
Stellt den Sprachcode bereit, den Sie in Ihrer Call Analytics-Anfrage angegeben haben.
Zulässige Werte:
en-US | en-GB | es-US | fr-CA | fr-FR | en-AU | it-IT | de-DE | pt-BR
- LanguageModelName
-
Stellt den Namen des benutzerdefinierten Sprachmodells bereit, das Sie in Ihrer Call Analytics-Anfrage angegeben haben.
Längenbeschränkungen: Minimale Länge von 1. Höchstlänge = 200 Zeichen.
Pattern:
^[0-9a-zA-Z._-]+
- MediaEncoding
-
Stellt die Medienkodierung bereit, die Sie in Ihrer Call Analytics-Anfrage angegeben haben.
Zulässige Werte:
pcm | ogg-opus | flac
- MediaSampleRateHertz
-
Stellt die Samplerate bereit, die Sie in Ihrer Call Analytics-Anfrage angegeben haben.
Gültiger Bereich: Mindestwert 8000. Maximaler Wert von 48000.
- PartialResultsStability
-
Stellt den Stabilisierungsgrad bereit, der für Ihre Transkription verwendet wurde.
Zulässige Werte:
high | medium | low
- PiiEntityTypes
-
Listet die PII-Entitätstypen auf, die Sie in Ihrer Call Analytics-Anfrage angegeben haben.
Längenbeschränkungen: Minimale Länge von 1. Maximale Länge beträgt 300 Zeichen.
Pattern:
^[A-Z_, ]+
- RequestId
-
Stellt die Kennung für Ihre Call Analytics-Anfrage in Echtzeit bereit.
- SessionId
-
Stellt die Kennung für Ihre Call Analytics-Transkriptionssitzung bereit.
Längenbeschränkungen: Feste Länge von 36.
Pattern:
[a-fA-F0-9]{8}-[a-fA-F0-9]{4}-[a-fA-F0-9]{4}-[a-fA-F0-9]{4}-[a-fA-F0-9]{12}
- VocabularyFilterMethod
-
Stellt die Methode zur Wortschatzfilterung bereit, die in Ihrer Call Analytics-Transkription verwendet wird.
Zulässige Werte:
remove | mask | tag
- VocabularyFilterName
-
Gibt den Namen des benutzerdefinierten Vokabelfilters an, den Sie in Ihrer Call Analytics-Anfrage angegeben haben.
Längenbeschränkungen: Minimale Länge von 1. Höchstlänge = 200 Zeichen.
Pattern:
^[0-9a-zA-Z._-]+
- VocabularyName
-
Gibt den Namen des benutzerdefinierten Vokabulars an, das Sie in Ihrer Call Analytics-Anfrage angegeben haben.
Längenbeschränkungen: Minimale Länge von 1. Höchstlänge = 200 Zeichen.
Pattern:
^[0-9a-zA-Z._-]+
Die folgenden Daten werden vom Service im JSON-Format zurückgegeben.
- CallAnalyticsTranscriptResultStream
-
Stellt detaillierte Informationen zu Ihrer Call Analytics-Sitzung in Echtzeit bereit.
Typ: CallAnalyticsTranscriptResultStream Objekt
Fehler
Hinweise zu den Fehlern, die allen Aktionen gemeinsam sind, finden Sie unterHäufige Fehler.
- BadRequestException
-
Ein oder mehrere Argumente für die
StartCallAnalyticsStreamTranscription
OperationStartStreamTranscription
StartMedicalStreamTranscription
,, oder waren nicht gültig. Zum BeispielMediaEncoding
oderLanguageCode
verwendete nicht unterstützte Werte. Überprüfen Sie die angegebenen Parameter und versuchen Sie es erneut mit Ihrer Anfrage.HTTP Status Code: 400
- ConflictException
-
Ein neuer Stream wurde mit derselben Sitzungs-ID gestartet. Der aktuelle Stream wurde beendet.
HTTP-Statuscode: 409
- InternalFailureException
-
Bei der Verarbeitung des Audios ist ein Problem aufgetreten. Amazon Transcribe hat die Verarbeitung beendet.
HTTP Status Code: 500
- LimitExceededException
-
Ihr Kunde hat eines der Amazon Transcribe Transcribe-Grenzwerte überschritten. Dies ist normalerweise die Audiolängenbeschränkung. Teilen Sie Ihren Audiostream in kleinere Teile auf und versuchen Sie es erneut mit Ihrer Anfrage.
HTTP-Statuscode: 429
- ServiceUnavailableException
-
Der Service ist derzeit nicht verfügbar. Versuchen Sie Ihre Anfrage später erneut.
HTTP Status Code: 503
Weitere Informationen finden Sie unter:
Weitere Informationen zur Verwendung dieser API in einem der sprachspezifischen AWS-SDKs finden Sie unter: