Régions et modèles pris en charge pour les bases de connaissances Amazon Bedrock - Amazon Bedrock

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Régions et modèles pris en charge pour les bases de connaissances Amazon Bedrock

Les bases de connaissances Amazon Bedrock sont prises en charge dans des régions d'Amérique, d'Asie et d'Europe. Certains modèles fournis par Amazon, Cohere et Anthropic sont pris en charge pour les bases de connaissances. Vous utilisez un modèle pour convertir vos données en intégrations vectorielles et un modèle pour la récupération d'informations et la génération de réponses.

Vous devez activer l'accès au modèle pour utiliser un modèle pris en charge par les bases de connaissances.

Si vous utilisez Amazon BedrockAPI, prenez note de votre modèle Amazon Resource Name (ARN) qui est requis pour convertir vos données en intégrations vectorielles et pour récupérer et générer des bases de connaissances. Copiez l'ID du modèle que vous avez choisi pour les bases de connaissances et construisez le modèle à ARN l'aide de l'ID du modèle (ressource), en suivant les ARNexemples fournis pour le type de ressource de votre modèle.

Si vous utilisez la console Amazon Bedrock, vous n'êtes pas obligé de créer un modèleARN, car vous pouvez sélectionner un modèle disponible dans le cadre des étapes de création d'une base de connaissances.

Les bases de connaissances Amazon Bedrock sont prises en charge dans les régions suivantes :

Note

Amazon Titan Text Premier n'est actuellement disponible que dans la us-east-1 région.

Région
USA Est (Virginie du Nord)
USA Ouest (Oregon)
Canada (Centre)
Asie-Pacifique (Mumbai)
Asie-Pacifique (Singapour) (accès sécurisé)
Asie-Pacifique (Sydney)
Asie-Pacifique (Tokyo)
Europe (Francfort)
Europe (Londres)
Europe (Paris)
Europe (Irlande) (accès sécurisé)
Amérique du Sud (São Paulo)
AWS GovCloud (US-Ouest)

Vous pouvez utiliser les modèles suivants pour convertir vos données en une représentation vectorielle incorporée des données :

Note

Vous ne pouvez plus créer de nouvelle boutique vectorielle avec Amazon Titan Embeddings G1 - Text. Magasins vectoriels créés précédemment à l'aide d'Amazon Titan Embeddings G1 - Text sont toujours pris en charge.

Nom du modèle ID du modèle
Amazon Titan Embeddings G1 - Text amazon. titan-embed-text-v1
Amazon Titan Text Embeddings V2 amazon. titan-embed-text-v2:0
Cohere Embed (en anglais) cohérer. embed-english-v3
Cohere Embed (Multilingue) cohérer. embed-multilingual-v3

Vous pouvez utiliser les modèles suivants avec RetrieveAndGenerateAPIopération pour générer des réponses après avoir récupéré les informations des bases de connaissances :

Note

Il RetrieveAndGenerateAPIinterroge la base de connaissances et utilise les modèles de base de connaissances Amazon Bedrock pris en charge pour générer des réponses à partir des informations qu'il récupère. Le Retrieve interroge API uniquement la base de connaissances ; il ne génère pas de réponses. Par conséquent, après avoir récupéré les résultats avec le RetrieveAPI, vous pouvez utiliser les résultats dans une InvokeModel demande avec n'importe quel SageMaker modèle ou Amazon Bedrock pour générer des réponses.

Modèle ID du modèle
Amazon Titan Text Premier amazon. titan-text-premier-v1:0
Anthropic Claude v2.0 anthropic.claude-v2
Anthropic Claude v2.1 anthropic.claude-v 2:1
Anthropic Claude 3 Sonnet v1 anthropic.claude-3-sonnet-20240229-v 1:0
Anthropic Claude 3.5 Sonnet anthropic.claude-3-5-sonnet-20240620-v 1:0
Anthropic Claude 3 Haiku v1 anthropic.claude-3-haiku-20240307-v 1:0
Anthropic Claude Instant v1 anthropique. claude-instant-v1
Meta Llama 3.1 8B Instruct meta.llama3-1-8 1:0 b-instruct-v
Meta Llama 3.1 70B Instruct meta.llama3-1-70 1:0 b-instruct-v
Meta Llama 3.1 405B Instruct meta.llama3-1-405 1:0 b-instruct-v

L'interface RetrieveAndGenerateAPIl'opération prend en charge les types de débit suivants :

  • À la demande : envoie des demandes d'inférence de modèles à votre région actuelle. Le taux ou le volume de vos demandes peuvent être limités pendant les pics d'utilisation. Choisissez le débit à la demande dans la console ou spécifiez l'ID du modèle dans un RetrieveAndGenerate de la demande.

  • Inférence entre régions : distribue les demandes d'inférence de modèles sur un ensemble de régions afin d'augmenter le débit et de renforcer la résilience. Spécifiez un profil d'inférence, qui définit les points de terminaison régionaux auxquels envoyer des demandes d'invocation de modèles, dans un RetrieveAndGeneratedemande ou CreateDataSource. Pour de plus amples informations, veuillez consulter Améliorez la résilience grâce à l'inférence interrégionale.

    Important

    Si vous utilisez l'inférence entre régions, vos données peuvent être partagées entre régions.