Texte d'intégration d'Amazon Titan - Amazon Bedrock

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Texte d'intégration d'Amazon Titan

Titan Embeddings G1 - Text ne prend pas en charge l'utilisation de paramètres d'inférence. Les sections suivantes détaillent les formats de demande et de réponse et fournissent un exemple de code.

Demande et réponse

Le corps de la demande est transmis dans le body champ d'une InvokeModeldemande.

V2 Request

Le inputText paramètre est obligatoire. Les paramètres de normalisation et de dimensions sont facultatifs.

  • inputText — Entrez le texte à convertir en intégrations.

  • normalize — (facultatif) Indicateur indiquant s'il faut ou non normaliser les intégrations de sortie. La valeur par défaut est true (vrai).

  • dimensions — (facultatif) Le nombre de dimensions que doivent avoir les intégrations de sortie. Les valeurs suivantes sont acceptées : 1024 (par défaut), 512, 256.

  • embeddingTypes — (facultatif) Accepte une liste contenant « float », « binary » ou les deux. La valeur par défaut est float.

{ "inputText": string, "dimensions": int, "normalize": boolean, "embeddingTypes": list }
V2 Response

Les champs sont décrits ci-dessous.

  • incorporation — Tableau qui représente le vecteur d'intégration de l'entrée que vous avez fournie. Ce sera toujours du typefloat.

  • inputTextTokenNombre : nombre de jetons dans l'entrée.

  • embeddingsByType — Un dictionnaire ou une carte de la liste incorporée. Cela dépend de l'entrée, des listes « flottantes », « binaires » ou des deux.

    • Exemple : "embeddingsByType": {"binary": [int,..], "float": [float,...]}

    • Ce champ apparaîtra toujours. Même si vous ne le spécifiez pas embeddingTypes dans votre saisie, il y aura toujours un « float ». Exemple : "embeddingsByType": {"float": [float,...]}

{ "embedding": [float, float, ...], "inputTextTokenCount": int, "embeddingsByType": {"binary": [int,..], "float": [float,...]} }
G1 Request

Le seul champ disponible est celui inputText dans lequel vous pouvez inclure du texte à convertir en éléments incorporés.

{ "inputText": string }
G1 Response

La body réponse contient les champs suivants.

{ "embedding": [float, float, ...], "inputTextTokenCount": int }

Les champs sont décrits ci-dessous.

  • incorporation — Tableau qui représente le vecteur d'intégration de l'entrée que vous avez fournie.

  • inputTextTokenNombre : nombre de jetons dans l'entrée.

Exemple de code

Les exemples suivants montrent comment appeler les modèles d'intégration Amazon Titan pour générer l'intégration. Sélectionnez l'onglet correspondant au modèle que vous utilisez :

Amazon Titan Embeddings G1 - Text
# Copyright Amazon.com, Inc. or its affiliates. All Rights Reserved. # SPDX-License-Identifier: Apache-2.0 """ Shows how to generate embeddings with the Amazon Titan Embeddings G1 - Text model (on demand). """ import json import logging import boto3 from botocore.exceptions import ClientError logger = logging.getLogger(__name__) logging.basicConfig(level=logging.INFO) def generate_embeddings(model_id, body): """ Generate a vector of embeddings for a text input using Amazon Titan Embeddings G1 - Text on demand. Args: model_id (str): The model ID to use. body (str) : The request body to use. Returns: response (JSON): The embedding created by the model and the number of input tokens. """ logger.info("Generating embeddings with Amazon Titan Embeddings G1 - Text model %s", model_id) bedrock = boto3.client(service_name='bedrock-runtime') accept = "application/json" content_type = "application/json" response = bedrock.invoke_model( body=body, modelId=model_id, accept=accept, contentType=content_type ) response_body = json.loads(response.get('body').read()) return response_body def main(): """ Entrypoint for Amazon Titan Embeddings G1 - Text example. """ logging.basicConfig(level=logging.INFO, format="%(levelname)s: %(message)s") model_id = "amazon.titan-embed-text-v1" input_text = "What are the different services that you offer?" # Create request body. body = json.dumps({ "inputText": input_text, }) try: response = generate_embeddings(model_id, body) print(f"Generated embeddings: {response['embedding']}") print(f"Input Token count: {response['inputTextTokenCount']}") except ClientError as err: message = err.response["Error"]["Message"] logger.error("A client error occurred: %s", message) print("A client error occured: " + format(message)) else: print(f"Finished generating embeddings with Amazon Titan Embeddings G1 - Text model {model_id}.") if __name__ == "__main__": main()
Amazon Titan Text Embeddings V2

Lors de l'utilisation Titan Text Embeddings V2, le embedding champ ne figure pas dans la réponse si le embeddingTypes seul contientbinary.

# Copyright Amazon.com, Inc. or its affiliates. All Rights Reserved. # SPDX-License-Identifier: Apache-2.0 """ Shows how to generate embeddings with the Amazon Titan Text Embeddings V2 Model """ import json import logging import boto3 from botocore.exceptions import ClientError logger = logging.getLogger(__name__) logging.basicConfig(level=logging.INFO) def generate_embeddings(model_id, body): """ Generate a vector of embeddings for a text input using Amazon Titan Text Embeddings G1 on demand. Args: model_id (str): The model ID to use. body (str) : The request body to use. Returns: response (JSON): The embedding created by the model and the number of input tokens. """ logger.info("Generating embeddings with Amazon Titan Text Embeddings V2 model %s", model_id) bedrock = boto3.client(service_name='bedrock-runtime') accept = "application/json" content_type = "application/json" response = bedrock.invoke_model( body=body, modelId=model_id, accept=accept, contentType=content_type ) response_body = json.loads(response.get('body').read()) return response_body def main(): """ Entrypoint for Amazon Titan Embeddings V2 - Text example. """ logging.basicConfig(level=logging.INFO, format="%(levelname)s: %(message)s") model_id = "amazon.titan-embed-text-v2:0" input_text = "What are the different services that you offer?" # Create request body. body = json.dumps({ "inputText": input_text, "embeddingTypes": ["binary"] }) try: response = generate_embeddings(model_id, body) print(f"Generated embeddings: {response['embeddingByTypes']['binary']}") # returns binary embedding # print(f"Generated embeddings: {response['embedding']}") NOTE:"embedding" field is not in "response". print(f"Input Token count: {response['inputTextTokenCount']}") except ClientError as err: message = err.response["Error"]["Message"] logger.error("A client error occurred: %s", message) print("A client error occured: " + format(message)) else: print(f"Finished generating embeddings with Amazon Titan Text Embeddings V2 model {model_id}.") if __name__ == "__main__": main()