Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Régions et modèles pris en charge pour les bases de connaissances Amazon Bedrock
Les bases de connaissances Amazon Bedrock sont prises en charge dans des régions d'Amérique, d'Asie et d'Europe. Certains modèles fournis par Amazon, Cohere et Anthropic sont pris en charge pour les bases de connaissances. Vous utilisez un modèle pour convertir vos données en intégrations vectorielles et un modèle pour la récupération d'informations et la génération de réponses.
Vous devez activer l'accès au modèle pour utiliser un modèle pris en charge par les bases de connaissances.
Si vous utilisez Amazon BedrockAPI, prenez note de votre modèle Amazon Resource Name (ARN) qui est requis pour convertir vos données en intégrations vectorielles et pour récupérer et générer des bases de connaissances. Copiez l'ID du modèle que vous avez choisi pour les bases de connaissances et construisez le modèle à ARN l'aide de l'ID du modèle (ressource), en suivant les ARNexemples fournis pour le type de ressource de votre modèle.
Si vous utilisez la console Amazon Bedrock, vous n'êtes pas obligé de créer un modèleARN, car vous pouvez sélectionner un modèle disponible dans le cadre des étapes de création d'une base de connaissances.
Les bases de connaissances Amazon Bedrock sont prises en charge dans les régions suivantes :
Note
Amazon Titan Text Premier n'est actuellement disponible que dans la us-east-1
région.
Région |
---|
USA Est (Virginie du Nord) |
USA Ouest (Oregon) |
Canada (Centre) |
Asie-Pacifique (Mumbai) |
Asie-Pacifique (Singapour) (accès sécurisé) |
Asie-Pacifique (Sydney) |
Asie-Pacifique (Tokyo) |
Europe (Francfort) |
Europe (Londres) |
Europe (Paris) |
Europe (Irlande) (accès sécurisé) |
Amérique du Sud (São Paulo) |
AWS GovCloud (US-Ouest) |
Vous pouvez utiliser les modèles suivants pour convertir vos données en une représentation vectorielle incorporée des données :
Note
Vous ne pouvez plus créer de nouvelle boutique vectorielle avec Amazon Titan Embeddings G1 - Text. Magasins vectoriels créés précédemment à l'aide d'Amazon Titan Embeddings G1 - Text sont toujours pris en charge.
Nom du modèle | ID du modèle |
---|---|
Amazon Titan Embeddings G1 - Text | amazon. titan-embed-text-v1 |
Amazon Titan Text Embeddings V2 | amazon. titan-embed-text-v2:0 |
Cohere Embed (en anglais) | cohérer. embed-english-v3 |
Cohere Embed (Multilingue) | cohérer. embed-multilingual-v3 |
Vous pouvez utiliser les modèles suivants avec RetrieveAndGenerateAPIopération pour générer des réponses après avoir récupéré les informations des bases de connaissances :
Note
Il RetrieveAndGenerateAPIinterroge la base de connaissances et utilise les modèles de base de connaissances Amazon Bedrock pris en charge pour générer des réponses à partir des informations qu'il récupère. Le Retrieve interroge API uniquement la base de connaissances ; il ne génère pas de réponses. Par conséquent, après avoir récupéré les résultats avec le Retrieve
API, vous pouvez utiliser les résultats dans une InvokeModel
demande avec n'importe quel SageMaker modèle ou Amazon Bedrock pour générer des réponses.
Modèle | ID du modèle |
---|---|
Amazon Titan Text Premier | amazon. titan-text-premier-v1:0 |
Anthropic Claude v2.0 | anthropic.claude-v2 |
Anthropic Claude v2.1 | anthropic.claude-v 2:1 |
Anthropic Claude 3 Sonnet v1 | anthropic.claude-3-sonnet-20240229-v 1:0 |
Anthropic Claude 3.5 Sonnet | anthropic.claude-3-5-sonnet-20240620-v 1:0 |
Anthropic Claude 3 Haiku v1 | anthropic.claude-3-haiku-20240307-v 1:0 |
Anthropic Claude Instant v1 | anthropique. claude-instant-v1 |
Meta Llama 3.1 8B Instruct | meta.llama3-1-8 1:0 b-instruct-v |
Meta Llama 3.1 70B Instruct | meta.llama3-1-70 1:0 b-instruct-v |
Meta Llama 3.1 405B Instruct | meta.llama3-1-405 1:0 b-instruct-v |
L'interface RetrieveAndGenerateAPIl'opération prend en charge les types de débit suivants :
-
À la demande : envoie des demandes d'inférence de modèles à votre région actuelle. Le taux ou le volume de vos demandes peuvent être limités pendant les pics d'utilisation. Choisissez le débit à la demande dans la console ou spécifiez l'ID du modèle dans un RetrieveAndGenerate de la demande.
-
Inférence entre régions : distribue les demandes d'inférence de modèles sur un ensemble de régions afin d'augmenter le débit et de renforcer la résilience. Spécifiez un profil d'inférence, qui définit les points de terminaison régionaux auxquels envoyer des demandes d'invocation de modèles, dans un RetrieveAndGeneratedemande ou CreateDataSource. Pour de plus amples informations, veuillez consulter Améliorez la résilience grâce à l'inférence interrégionale.
Important
Si vous utilisez l'inférence entre régions, vos données peuvent être partagées entre régions.