

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# StartCallAnalyticsStreamTranscription
<a name="API_streaming_StartCallAnalyticsStreamTranscription"></a>

Lance un HTTP/2 ou un WebSocket flux bidirectionnel où l'audio est diffusé vers Amazon Transcribe et les résultats de la transcription sont diffusés sur votre application. Utilisez cette opération pour les transcriptions [d'Call Analytics](https://docs.aws.amazon.com/transcribe/latest/dg/call-analytics.html).

Les paramètres suivants sont obligatoires :
+  `language-code` 
+  `media-encoding` 
+  `sample-rate` 

Pour plus d'informations sur le streaming avec Amazon Transcribe, consultez la section [Transcription du streaming audio](https://docs.aws.amazon.com/transcribe/latest/dg/streaming.html).

## Syntaxe de la demande
<a name="API_streaming_StartCallAnalyticsStreamTranscription_RequestSyntax"></a>

```
POST /call-analytics-stream-transcription HTTP/2
x-amzn-transcribe-language-code: LanguageCode
x-amzn-transcribe-sample-rate: MediaSampleRateHertz
x-amzn-transcribe-media-encoding: MediaEncoding
x-amzn-transcribe-vocabulary-name: VocabularyName
x-amzn-transcribe-session-id: SessionId
x-amzn-transcribe-vocabulary-filter-name: VocabularyFilterName
x-amzn-transcribe-vocabulary-filter-method: VocabularyFilterMethod
x-amzn-transcribe-language-model-name: LanguageModelName
x-amzn-transcribe-enable-partial-results-stabilization: EnablePartialResultsStabilization
x-amzn-transcribe-partial-results-stability: PartialResultsStability
x-amzn-transcribe-content-identification-type: ContentIdentificationType
x-amzn-transcribe-content-redaction-type: ContentRedactionType
x-amzn-transcribe-pii-entity-types: PiiEntityTypes
Content-type: application/json

{
   "AudioStream": { 
      "AudioEvent": { 
         "AudioChunk": blob
      },
      "ConfigurationEvent": { 
         "ChannelDefinitions": [ 
            { 
               "ChannelId": number,
               "ParticipantRole": "string"
            }
         ],
         "PostCallAnalyticsSettings": { 
            "ContentRedactionOutput": "string",
            "DataAccessRoleArn": "string",
            "OutputEncryptionKMSKeyId": "string",
            "OutputLocation": "string"
         }
      }
   }
}
```

## Paramètres de demande URI
<a name="API_streaming_StartCallAnalyticsStreamTranscription_RequestParameters"></a>

La demande utilise les paramètres URI suivants.

 ** [ContentIdentificationType](#API_streaming_StartCallAnalyticsStreamTranscription_RequestSyntax) **   <a name="transcribe-streaming_StartCallAnalyticsStreamTranscription-request-ContentIdentificationType"></a>
Étiquette toutes les données d'identification personnelle (PII) identifiées dans votre relevé de notes.  
L'identification du contenu est effectuée au niveau du segment ; les informations d'identification personnelles spécifiées dans`PiiEntityTypes` sont signalées lors de la transcription complète d'un segment audio.  
Vous ne pouvez pas définir`ContentIdentificationType` et`ContentRedactionType` dans la même demande. Si vous définissez les deux, votre demande renvoie un`BadRequestException`.  
Pour plus d'informations, voir [Suppression ou identification d'informations personnelles identifiables](https://docs.aws.amazon.com/transcribe/latest/dg/pii-redaction.html).  
Valeurs valides :` PII` 

 ** [ContentRedactionType](#API_streaming_StartCallAnalyticsStreamTranscription_RequestSyntax) **   <a name="transcribe-streaming_StartCallAnalyticsStreamTranscription-request-ContentRedactionType"></a>
Supprime toutes les données d'identification personnelle (PII) identifiées dans votre relevé de notes.  
La rédaction du contenu est effectuée au niveau du segment ; les informations personnelles spécifiées dans`PiiEntityTypes` sont supprimées lors de la transcription complète d'un segment audio.  
Vous ne pouvez pas définir`ContentRedactionType` et`ContentIdentificationType` dans la même demande. Si vous définissez les deux, votre demande renvoie un`BadRequestException`.  
Pour plus d'informations, voir [Suppression ou identification d'informations personnelles identifiables](https://docs.aws.amazon.com/transcribe/latest/dg/pii-redaction.html).  
Valeurs valides :` PII` 

 ** [EnablePartialResultsStabilization](#API_streaming_StartCallAnalyticsStreamTranscription_RequestSyntax) **   <a name="transcribe-streaming_StartCallAnalyticsStreamTranscription-request-EnablePartialResultsStabilization"></a>
Permet une stabilisation partielle des résultats de votre transcription. La stabilisation partielle des résultats peut réduire la latence de votre sortie, mais peut avoir un impact sur la précision. Pour plus d'informations, voir [Stabilisation des résultats partiels](https://docs.aws.amazon.com/transcribe/latest/dg/streaming.html#streaming-partial-result-stabilization).

 ** [LanguageCode](#API_streaming_StartCallAnalyticsStreamTranscription_RequestSyntax) **   <a name="transcribe-streaming_StartCallAnalyticsStreamTranscription-request-LanguageCode"></a>
Spécifiez le code de langue qui représente la langue parlée dans votre fichier audio.  
Si vous n'êtes pas sûr de la langue parlée dans votre fichier audio, pensez`IdentifyLanguage` à l'utiliser pour activer l'identification automatique de la langue.  
Pour obtenir la liste des langues prises en charge par l'analyse des appels en temps réel, consultez le tableau des [langues prises en charge](https://docs.aws.amazon.com/transcribe/latest/dg/supported-languages.html).  
Valeurs valides :` en-US | en-GB | es-US | fr-CA | fr-FR | en-AU | it-IT | de-DE | pt-BR`   
Obligatoire : oui

 ** [LanguageModelName](#API_streaming_StartCallAnalyticsStreamTranscription_RequestSyntax) **   <a name="transcribe-streaming_StartCallAnalyticsStreamTranscription-request-LanguageModelName"></a>
Spécifiez le nom du modèle de langue personnalisé que vous voulez utiliser pour traiter votre transcription. Notez que les noms des modèles de langage sont sensibles à la casse.  
La langue du modèle linguistique spécifié doit correspondre au code de langue que vous spécifiez dans votre demande de transcription. Si les langues ne correspondent pas, le modèle de langue personnalisé n'est pas appliqué. Aucune erreur ou avertissement n'est associé à une incompatibilité linguistique.  
Pour de plus amples informations, veuillez consulter [Modèles de langue personnalisés](https://docs.aws.amazon.com/transcribe/latest/dg/custom-language-models.html).  
Contraintes de longueur : Longueur minimum de 1. Longueur maximum de 200.  
Modèle : `^[0-9a-zA-Z._-]+` 

 ** [MediaEncoding](#API_streaming_StartCallAnalyticsStreamTranscription_RequestSyntax) **   <a name="transcribe-streaming_StartCallAnalyticsStreamTranscription-request-MediaEncoding"></a>
Spécifiez l'encodage de votre entrée audio. Formats pris en charge :  
+ FLAC
+ Audio codé OPUS dans un conteneur Ogg
+ PCM (uniquement formats audio Little-Endian 16 bits signés, qui n'incluent pas le WAV)
Pour de plus amples informations, veuillez consulter [Formats de média](https://docs.aws.amazon.com/transcribe/latest/dg/how-input.html#how-input-audio).  
Valeurs valides :` pcm | ogg-opus | flac`   
Obligatoire : oui

 ** [MediaSampleRateHertz](#API_streaming_StartCallAnalyticsStreamTranscription_RequestSyntax) **   <a name="transcribe-streaming_StartCallAnalyticsStreamTranscription-request-MediaSampleRateHertz"></a>
Fréquence d'échantillonnage du signal audio d'entrée (en hertz). Le son de faible qualité, tel que le son du téléphone, se situe généralement autour de 8 000 Hz. Le son de haute qualité varie généralement entre 16 000 Hz et 48 000 Hz. Notez que la fréquence d'échantillonnage que vous spécifiez doit correspondre à celle de votre audio.  
Plage valide : Valeur minimale de 8 000. Valeur maximum de 48 000.  
Obligatoire : oui

 ** [PartialResultsStability](#API_streaming_StartCallAnalyticsStreamTranscription_RequestSyntax) **   <a name="transcribe-streaming_StartCallAnalyticsStreamTranscription-request-PartialResultsStability"></a>
Spécifiez le niveau de stabilité à utiliser lorsque vous activez la stabilisation partielle des résultats (`EnablePartialResultsStabilization`).  
Une faible stabilité fournit la plus grande précision. La haute stabilité permet de transcrire plus rapidement, mais avec une précision légèrement inférieure.  
Pour plus d'informations, voir [Stabilisation des résultats partiels](https://docs.aws.amazon.com/transcribe/latest/dg/streaming.html#streaming-partial-result-stabilization).  
Valeurs valides :` high | medium | low` 

 ** [PiiEntityTypes](#API_streaming_StartCallAnalyticsStreamTranscription_RequestSyntax) **   <a name="transcribe-streaming_StartCallAnalyticsStreamTranscription-request-PiiEntityTypes"></a>
Spécifiez les types d'informations personnelles identifiables (PII) que vous souhaitez supprimer dans votre relevé de notes. Vous pouvez inclure autant de types que vous le souhaitez, ou vous pouvez sélectionner`ALL`.  
Pour inclure`PiiEntityTypes` dans votre demande Call Analytics, vous devez également inclure l'un`ContentIdentificationType` ou l'autre`ContentRedactionType`.  
Les valeurs doivent être séparées par des virgules et peuvent inclure :`ADDRESS``BANK_ACCOUNT_NUMBER``BANK_ROUTING``CREDIT_DEBIT_CVV`,`CREDIT_DEBIT_EXPIRY`,`CREDIT_DEBIT_NUMBER`,`EMAIL`,,`NAME`,`PHONE`,`PIN`,`SSN`, ou`ALL`.  
Contraintes de longueur : Longueur minimum de 1. Longueur maximum de 300.  
Modèle : `^[A-Z_, ]+` 

 ** [SessionId](#API_streaming_StartCallAnalyticsStreamTranscription_RequestSyntax) **   <a name="transcribe-streaming_StartCallAnalyticsStreamTranscription-request-SessionId"></a>
Spécifiez un nom pour votre session de transcription de Call Analytics. Si vous n'incluez pas ce paramètre dans votre demande, Amazon Transcribe génère un identifiant et le renvoie dans la réponse.  
Contraintes de longueur : longueur fixe de 36.  
Modèle : `[a-fA-F0-9]{8}-[a-fA-F0-9]{4}-[a-fA-F0-9]{4}-[a-fA-F0-9]{4}-[a-fA-F0-9]{12}` 

 ** [VocabularyFilterMethod](#API_streaming_StartCallAnalyticsStreamTranscription_RequestSyntax) **   <a name="transcribe-streaming_StartCallAnalyticsStreamTranscription-request-VocabularyFilterMethod"></a>
Spécifiez comment vous souhaitez que votre filtre de vocabulaire soit appliqué à votre relevé de notes.  
Pour remplacer les mots par`***`, choisissez`mask`.  
Pour supprimer des mots, choisissez`remove`.  
Pour signaler des mots sans les modifier, choisissez`tag`.  
Valeurs valides :` remove | mask | tag` 

 ** [VocabularyFilterName](#API_streaming_StartCallAnalyticsStreamTranscription_RequestSyntax) **   <a name="transcribe-streaming_StartCallAnalyticsStreamTranscription-request-VocabularyFilterName"></a>
Spécifiez le nom du filtre de vocabulaire personnalisé que vous souhaitez utiliser lors du traitement de votre transcription. Notez que les noms des filtres de vocabulaire sont sensibles à la casse.  
Si la langue du filtre de vocabulaire personnalisé spécifié ne correspond pas à la langue identifiée dans votre média, le filtre de vocabulaire n'est pas appliqué à votre transcription.  
Pour plus d'informations, voir [Utilisation du filtrage du vocabulaire avec des mots indésirables](https://docs.aws.amazon.com/transcribe/latest/dg/vocabulary-filtering.html).  
Contraintes de longueur : Longueur minimum de 1. Longueur maximum de 200.  
Modèle : `^[0-9a-zA-Z._-]+` 

 ** [VocabularyName](#API_streaming_StartCallAnalyticsStreamTranscription_RequestSyntax) **   <a name="transcribe-streaming_StartCallAnalyticsStreamTranscription-request-VocabularyName"></a>
Spécifiez le nom du vocabulaire personnalisé que vous souhaitez utiliser lors du traitement de votre transcription. Notez que les noms de vocabulaire sont sensibles à la casse.  
Si la langue du vocabulaire personnalisé spécifié ne correspond pas à la langue identifiée dans votre média, le vocabulaire personnalisé n'est pas appliqué à votre transcription.  
Pour plus d'informations, veuillez consulter [Vocabulaires personnalisés](https://docs.aws.amazon.com/transcribe/latest/dg/custom-vocabulary.html).  
Contraintes de longueur : Longueur minimum de 1. Longueur maximum de 200.  
Modèle : `^[0-9a-zA-Z._-]+` 

## Corps de la demande
<a name="API_streaming_StartCallAnalyticsStreamTranscription_RequestBody"></a>

Cette demande accepte les données suivantes au format JSON.

 ** [AudioStream](#API_streaming_StartCallAnalyticsStreamTranscription_RequestSyntax) **   <a name="transcribe-streaming_StartCallAnalyticsStreamTranscription-request-AudioStream"></a>
Un flux codé de blobs audio. Les flux audio sont codés sous forme de HTTP/2 ou de trames de WebSocket données.  
Pour de plus amples informations, veuillez consulter [Transcription de l'audio diffusé en continu](https://docs.aws.amazon.com/transcribe/latest/dg/streaming.html).  
Type : objet [CallAnalyticsAudioStream](API_streaming_CallAnalyticsAudioStream.md)  
Obligatoire : oui

## Syntaxe de la réponse
<a name="API_streaming_StartCallAnalyticsStreamTranscription_ResponseSyntax"></a>

```
HTTP/2 200
x-amzn-request-id: RequestId
x-amzn-transcribe-language-code: LanguageCode
x-amzn-transcribe-sample-rate: MediaSampleRateHertz
x-amzn-transcribe-media-encoding: MediaEncoding
x-amzn-transcribe-vocabulary-name: VocabularyName
x-amzn-transcribe-session-id: SessionId
x-amzn-transcribe-vocabulary-filter-name: VocabularyFilterName
x-amzn-transcribe-vocabulary-filter-method: VocabularyFilterMethod
x-amzn-transcribe-language-model-name: LanguageModelName
x-amzn-transcribe-enable-partial-results-stabilization: EnablePartialResultsStabilization
x-amzn-transcribe-partial-results-stability: PartialResultsStability
x-amzn-transcribe-content-identification-type: ContentIdentificationType
x-amzn-transcribe-content-redaction-type: ContentRedactionType
x-amzn-transcribe-pii-entity-types: PiiEntityTypes
Content-type: application/json

{
   "CallAnalyticsTranscriptResultStream": { 
      "BadRequestException": { 
      },
      "CategoryEvent": { 
         "MatchedCategories": [ "string" ],
         "MatchedDetails": { 
            "string" : { 
               "TimestampRanges": [ 
                  { 
                     "BeginOffsetMillis": number,
                     "EndOffsetMillis": number
                  }
               ]
            }
         }
      },
      "ConflictException": { 
      },
      "InternalFailureException": { 
      },
      "LimitExceededException": { 
      },
      "ServiceUnavailableException": { 
      },
      "UtteranceEvent": { 
         "BeginOffsetMillis": number,
         "EndOffsetMillis": number,
         "Entities": [ 
            { 
               "BeginOffsetMillis": number,
               "Category": "string",
               "Confidence": number,
               "Content": "string",
               "EndOffsetMillis": number,
               "Type": "string"
            }
         ],
         "IsPartial": boolean,
         "IssuesDetected": [ 
            { 
               "CharacterOffsets": { 
                  "Begin": number,
                  "End": number
               }
            }
         ],
         "Items": [ 
            { 
               "BeginOffsetMillis": number,
               "Confidence": number,
               "Content": "string",
               "EndOffsetMillis": number,
               "Stable": boolean,
               "Type": "string",
               "VocabularyFilterMatch": boolean
            }
         ],
         "ParticipantRole": "string",
         "Sentiment": "string",
         "Transcript": "string",
         "UtteranceId": "string"
      }
   }
}
```

## Eléments de réponse
<a name="API_streaming_StartCallAnalyticsStreamTranscription_ResponseElements"></a>

Si l'action aboutit, le service renvoie une réponse HTTP 200.

La réponse renvoie les en-têtes HTTP suivants.

 ** [ContentIdentificationType](#API_streaming_StartCallAnalyticsStreamTranscription_ResponseSyntax) **   <a name="transcribe-streaming_StartCallAnalyticsStreamTranscription-response-ContentIdentificationType"></a>
Indique si l'identification du contenu a été activée pour la transcription de votre Call Analytics.  
Valeurs valides :` PII` 

 ** [ContentRedactionType](#API_streaming_StartCallAnalyticsStreamTranscription_ResponseSyntax) **   <a name="transcribe-streaming_StartCallAnalyticsStreamTranscription-response-ContentRedactionType"></a>
Indique si la rédaction du contenu a été activée pour la transcription de votre Call Analytics.  
Valeurs valides :` PII` 

 ** [EnablePartialResultsStabilization](#API_streaming_StartCallAnalyticsStreamTranscription_ResponseSyntax) **   <a name="transcribe-streaming_StartCallAnalyticsStreamTranscription-response-EnablePartialResultsStabilization"></a>
Indique si la stabilisation partielle des résultats a été activée pour votre transcription de Call Analytics.

 ** [LanguageCode](#API_streaming_StartCallAnalyticsStreamTranscription_ResponseSyntax) **   <a name="transcribe-streaming_StartCallAnalyticsStreamTranscription-response-LanguageCode"></a>
Fournit le code de langue que vous avez spécifié dans votre demande Call Analytics.  
Valeurs valides :` en-US | en-GB | es-US | fr-CA | fr-FR | en-AU | it-IT | de-DE | pt-BR` 

 ** [LanguageModelName](#API_streaming_StartCallAnalyticsStreamTranscription_ResponseSyntax) **   <a name="transcribe-streaming_StartCallAnalyticsStreamTranscription-response-LanguageModelName"></a>
Fournit le nom du modèle de langue personnalisé que vous avez spécifié dans votre demande Call Analytics.  
Contraintes de longueur : Longueur minimum de 1. Longueur maximum de 200.  
Modèle : `^[0-9a-zA-Z._-]+` 

 ** [MediaEncoding](#API_streaming_StartCallAnalyticsStreamTranscription_ResponseSyntax) **   <a name="transcribe-streaming_StartCallAnalyticsStreamTranscription-response-MediaEncoding"></a>
Fournit le codage multimédia que vous avez spécifié dans votre demande Call Analytics.  
Valeurs valides :` pcm | ogg-opus | flac` 

 ** [MediaSampleRateHertz](#API_streaming_StartCallAnalyticsStreamTranscription_ResponseSyntax) **   <a name="transcribe-streaming_StartCallAnalyticsStreamTranscription-response-MediaSampleRateHertz"></a>
Fournit la fréquence d'échantillonnage que vous avez spécifiée dans votre demande Call Analytics.  
Plage valide : Valeur minimale de 8 000. Valeur maximum de 48 000.

 ** [PartialResultsStability](#API_streaming_StartCallAnalyticsStreamTranscription_ResponseSyntax) **   <a name="transcribe-streaming_StartCallAnalyticsStreamTranscription-response-PartialResultsStability"></a>
Indique le niveau de stabilisation utilisé pour votre transcription.  
Valeurs valides :` high | medium | low` 

 ** [PiiEntityTypes](#API_streaming_StartCallAnalyticsStreamTranscription_ResponseSyntax) **   <a name="transcribe-streaming_StartCallAnalyticsStreamTranscription-response-PiiEntityTypes"></a>
Répertorie les types d'entités PII que vous avez spécifiés dans votre demande Call Analytics.  
Contraintes de longueur : Longueur minimum de 1. Longueur maximum de 300.  
Modèle : `^[A-Z_, ]+` 

 ** [RequestId](#API_streaming_StartCallAnalyticsStreamTranscription_ResponseSyntax) **   <a name="transcribe-streaming_StartCallAnalyticsStreamTranscription-response-RequestId"></a>
Fournit l'identifiant de votre demande Call Analytics en temps réel.

 ** [SessionId](#API_streaming_StartCallAnalyticsStreamTranscription_ResponseSyntax) **   <a name="transcribe-streaming_StartCallAnalyticsStreamTranscription-response-SessionId"></a>
Fournit l'identifiant de votre session de transcription de Call Analytics.  
Contraintes de longueur : longueur fixe de 36.  
Modèle : `[a-fA-F0-9]{8}-[a-fA-F0-9]{4}-[a-fA-F0-9]{4}-[a-fA-F0-9]{4}-[a-fA-F0-9]{12}` 

 ** [VocabularyFilterMethod](#API_streaming_StartCallAnalyticsStreamTranscription_ResponseSyntax) **   <a name="transcribe-streaming_StartCallAnalyticsStreamTranscription-response-VocabularyFilterMethod"></a>
Fournit la méthode de filtrage du vocabulaire utilisée dans la transcription de votre Call Analytics.  
Valeurs valides :` remove | mask | tag` 

 ** [VocabularyFilterName](#API_streaming_StartCallAnalyticsStreamTranscription_ResponseSyntax) **   <a name="transcribe-streaming_StartCallAnalyticsStreamTranscription-response-VocabularyFilterName"></a>
Fournit le nom du filtre de vocabulaire personnalisé que vous avez spécifié dans votre demande Call Analytics.  
Contraintes de longueur : Longueur minimum de 1. Longueur maximum de 200.  
Modèle : `^[0-9a-zA-Z._-]+` 

 ** [VocabularyName](#API_streaming_StartCallAnalyticsStreamTranscription_ResponseSyntax) **   <a name="transcribe-streaming_StartCallAnalyticsStreamTranscription-response-VocabularyName"></a>
Fournit le nom du vocabulaire personnalisé que vous avez spécifié dans votre demande Call Analytics.  
Contraintes de longueur : Longueur minimum de 1. Longueur maximum de 200.  
Modèle : `^[0-9a-zA-Z._-]+` 

Les données suivantes sont renvoyées au format JSON par le service.

 ** [CallAnalyticsTranscriptResultStream](#API_streaming_StartCallAnalyticsStreamTranscription_ResponseSyntax) **   <a name="transcribe-streaming_StartCallAnalyticsStreamTranscription-response-CallAnalyticsTranscriptResultStream"></a>
Fournit des informations détaillées sur votre session Call Analytics en temps réel.  
Type : objet [CallAnalyticsTranscriptResultStream](API_streaming_CallAnalyticsTranscriptResultStream.md)

## Erreurs
<a name="API_streaming_StartCallAnalyticsStreamTranscription_Errors"></a>

Pour plus d'informations sur les erreurs communes à toutes les actions, reportez-vous à la section[Erreurs courantes](CommonErrors.md).

 ** BadRequestException **   
Un ou plusieurs arguments en faveur de l'`StartCallAnalyticsStreamTranscription`opération`StartStreamTranscription``StartMedicalStreamTranscription`, ou n'étaient pas valides. Par exemple,`MediaEncoding` ou vous avez`LanguageCode` utilisé des valeurs non prises en charge. Vérifiez les paramètres spécifiés et réessayez votre demande.  
Code d'état HTTP : 400

 ** ConflictException **   
Un nouveau flux a commencé avec le même identifiant de session. Le flux actuel a été interrompu.  
Code d'état HTTP : 409

 ** InternalFailureException **   
Un problème est survenu lors du traitement de l'audio. Amazon Transcribe a mis fin au traitement.  
Code d'état HTTP : 500

 ** LimitExceededException **   
Votre client a dépassé l'une des limites d'Amazon Transcribe. Il s'agit généralement de la limite de longueur audio. Divisez votre flux audio en petits morceaux et réessayez votre demande.  
Code d'état HTTP : 429

 ** ServiceUnavailableException **   
Le service est actuellement indisponible. Réessayez votre demande plus tard.  
HTTP Status Code: 503

## Voir aussi
<a name="API_streaming_StartCallAnalyticsStreamTranscription_SeeAlso"></a>

Pour plus d'informations sur l'utilisation de cette API dans l'un des kits SDK AWS spécifiques au langage, consultez les ressources suivantes :
+  [Interface de ligne de commande AWS](https://docs.aws.amazon.com/goto/aws-cli/transcribe-streaming-2017-10-26/StartCallAnalyticsStreamTranscription) 
+  [AWS SDK pour .NET](https://docs.aws.amazon.com/goto/DotNetSDKV3/transcribe-streaming-2017-10-26/StartCallAnalyticsStreamTranscription) 
+  [Kit AWS SDK pour C\$1\$1](https://docs.aws.amazon.com/goto/SdkForCpp/transcribe-streaming-2017-10-26/StartCallAnalyticsStreamTranscription) 
+  [Kit AWS SDK pour Go](https://docs.aws.amazon.com/goto/SdkForGoV1/transcribe-streaming-2017-10-26/StartCallAnalyticsStreamTranscription) 
+  [Kit SDK AWS pour Java V2](https://docs.aws.amazon.com/goto/SdkForJavaV2/transcribe-streaming-2017-10-26/StartCallAnalyticsStreamTranscription) 
+  [AWSSDK pour JavaScript](https://docs.aws.amazon.com/goto/AWSJavaScriptSDK/transcribe-streaming-2017-10-26/StartCallAnalyticsStreamTranscription) 
+  [AWS SDK pour PHP V3](https://docs.aws.amazon.com/goto/SdkForPHPV3/transcribe-streaming-2017-10-26/StartCallAnalyticsStreamTranscription) 
+  [AWS SDK pour Python](https://docs.aws.amazon.com/goto/boto3/transcribe-streaming-2017-10-26/StartCallAnalyticsStreamTranscription) 
+  [Kit SDK AWS pour Ruby V3](https://docs.aws.amazon.com/goto/SdkForRubyV3/transcribe-streaming-2017-10-26/StartCallAnalyticsStreamTranscription) 