Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Texte d'intégration d'Amazon Titan
Titan Embeddings G1 - Text ne prend pas en charge l'utilisation de paramètres d'inférence. Les sections suivantes détaillent les formats de demande et de réponse et fournissent un exemple de code.
Rubriques
Demande et réponse
Le corps de la demande est transmis dans le body
champ d'une InvokeModeldemande.
- V2 Request
-
Le inputText paramètre est obligatoire. Les paramètres de normalisation et de dimensions sont facultatifs.
-
inputText — Entrez le texte à convertir en intégrations.
-
normalize — (facultatif) Indicateur indiquant s'il faut ou non normaliser les intégrations de sortie. La valeur par défaut est true (vrai).
-
dimensions — (facultatif) Le nombre de dimensions que doivent avoir les intégrations de sortie. Les valeurs suivantes sont acceptées : 1024 (par défaut), 512, 256.
-
embeddingTypes — (facultatif) Accepte une liste contenant « float », « binary » ou les deux. La valeur par défaut est
float
.
{ "inputText": string, "dimensions": int, "normalize": boolean, "embeddingTypes": list }
-
- V2 Response
-
Les champs sont décrits ci-dessous.
-
incorporation — Tableau qui représente le vecteur d'intégration de l'entrée que vous avez fournie. Ce sera toujours du type
float
. -
inputTextTokenNombre : nombre de jetons dans l'entrée.
-
embeddingsByType — Un dictionnaire ou une carte de la liste incorporée. Cela dépend de l'entrée, des listes « flottantes », « binaires » ou des deux.
-
Exemple :
"embeddingsByType": {"binary": [int,..], "float": [float,...]}
-
Ce champ apparaîtra toujours. Même si vous ne le spécifiez pas
embeddingTypes
dans votre saisie, il y aura toujours un « float ». Exemple :"embeddingsByType": {"float": [float,...]}
-
{ "embedding": [float, float, ...], "inputTextTokenCount": int, "embeddingsByType": {"binary": [int,..], "float": [float,...]} }
-
- G1 Request
-
Le seul champ disponible est celui
inputText
dans lequel vous pouvez inclure du texte à convertir en éléments incorporés.{ "inputText": string }
- G1 Response
-
La
body
réponse contient les champs suivants.{ "embedding": [float, float, ...], "inputTextTokenCount": int }
Les champs sont décrits ci-dessous.
-
incorporation — Tableau qui représente le vecteur d'intégration de l'entrée que vous avez fournie.
-
inputTextTokenNombre : nombre de jetons dans l'entrée.
-
Exemple de code
Les exemples suivants montrent comment appeler les modèles d'intégration Amazon Titan pour générer l'intégration. Sélectionnez l'onglet correspondant au modèle que vous utilisez :
- Amazon Titan Embeddings G1 - Text
-
# Copyright Amazon.com, Inc. or its affiliates. All Rights Reserved. # SPDX-License-Identifier: Apache-2.0 """ Shows how to generate embeddings with the Amazon Titan Embeddings G1 - Text model (on demand). """ import json import logging import boto3 from botocore.exceptions import ClientError logger = logging.getLogger(__name__) logging.basicConfig(level=logging.INFO) def generate_embeddings(model_id, body): """ Generate a vector of embeddings for a text input using Amazon Titan Embeddings G1 - Text on demand. Args: model_id (str): The model ID to use. body (str) : The request body to use. Returns: response (JSON): The embedding created by the model and the number of input tokens. """ logger.info("Generating embeddings with Amazon Titan Embeddings G1 - Text model %s", model_id) bedrock = boto3.client(service_name='bedrock-runtime') accept = "application/json" content_type = "application/json" response = bedrock.invoke_model( body=body, modelId=model_id, accept=accept, contentType=content_type ) response_body = json.loads(response.get('body').read()) return response_body def main(): """ Entrypoint for Amazon Titan Embeddings G1 - Text example. """ logging.basicConfig(level=logging.INFO, format="%(levelname)s: %(message)s") model_id = "amazon.titan-embed-text-v1" input_text = "What are the different services that you offer?" # Create request body. body = json.dumps({ "inputText": input_text, }) try: response = generate_embeddings(model_id, body) print(f"Generated embeddings: {response['embedding']}") print(f"Input Token count: {response['inputTextTokenCount']}") except ClientError as err: message = err.response["Error"]["Message"] logger.error("A client error occurred: %s", message) print("A client error occured: " + format(message)) else: print(f"Finished generating embeddings with Amazon Titan Embeddings G1 - Text model {model_id}.") if __name__ == "__main__": main()
- Amazon Titan Text Embeddings V2
-
Lors de l'utilisation Titan Text Embeddings V2, le
embedding
champ ne figure pas dans la réponse si leembeddingTypes
seul contientbinary
.# Copyright Amazon.com, Inc. or its affiliates. All Rights Reserved. # SPDX-License-Identifier: Apache-2.0 """ Shows how to generate embeddings with the Amazon Titan Text Embeddings V2 Model """ import json import logging import boto3 from botocore.exceptions import ClientError logger = logging.getLogger(__name__) logging.basicConfig(level=logging.INFO) def generate_embeddings(model_id, body): """ Generate a vector of embeddings for a text input using Amazon Titan Text Embeddings G1 on demand. Args: model_id (str): The model ID to use. body (str) : The request body to use. Returns: response (JSON): The embedding created by the model and the number of input tokens. """ logger.info("Generating embeddings with Amazon Titan Text Embeddings V2 model %s", model_id) bedrock = boto3.client(service_name='bedrock-runtime') accept = "application/json" content_type = "application/json" response = bedrock.invoke_model( body=body, modelId=model_id, accept=accept, contentType=content_type ) response_body = json.loads(response.get('body').read()) return response_body def main(): """ Entrypoint for Amazon Titan Embeddings V2 - Text example. """ logging.basicConfig(level=logging.INFO, format="%(levelname)s: %(message)s") model_id = "amazon.titan-embed-text-v2:0" input_text = "What are the different services that you offer?" # Create request body. body = json.dumps({ "inputText": input_text, "embeddingTypes": ["binary"] }) try: response = generate_embeddings(model_id, body) print(f"Generated embeddings: {response['embeddingByTypes']['binary']}") # returns binary embedding # print(f"Generated embeddings: {response['embedding']}") NOTE:"embedding" field is not in "response". print(f"Input Token count: {response['inputTextTokenCount']}") except ClientError as err: message = err.response["Error"]["Message"] logger.error("A client error occurred: %s", message) print("A client error occured: " + format(message)) else: print(f"Finished generating embeddings with Amazon Titan Text Embeddings V2 model {model_id}.") if __name__ == "__main__": main()