Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Testo di Amazon Titan Embeddings
Titan Embeddings G1 - Text non supporta l'uso di parametri di inferenza. Le sezioni seguenti descrivono in dettaglio i formati di richiesta e risposta e forniscono un esempio di codice.
Richiesta e risposta
Il corpo della richiesta viene passato nel body
campo di una InvokeModelrichiesta.
- V2 Request
-
Il inputText parametro è obbligatorio. I parametri normalizza e dimensiona sono opzionali.
-
inputText — Inserite il testo da convertire in incorporamenti.
-
normalize — (opzionale) Contrassegno che indica se normalizzare o meno gli incorporamenti di output. Il valore predefinito è true.
-
dimensioni — (opzionale) Il numero di dimensioni che devono avere gli incorporamenti di output. Sono accettati i seguenti valori: 1024 (impostazione predefinita), 512, 256.
-
embeddingTypes — (opzionale) Accetta un elenco contenente «float», «binary» o entrambi. L'impostazione predefinita è
float
.
{ "inputText": string, "dimensions": int, "normalize": boolean, "embeddingTypes": list }
-
- V2 Response
-
I campi sono descritti di seguito.
-
embedding: un array che rappresenta il vettore di incorporamento dell'input fornito. Questo sarà sempre un tipo.
float
-
inputTextTokenConteggio: il numero di token nell'input.
-
embeddingsByType — Un dizionario o una mappa dell'elenco di incorporamento. Dipende dall'input, elenca «float», «binary» o entrambi.
-
Esempio:
"embeddingsByType": {"binary": [int,..], "float": [float,...]}
-
Questo campo verrà sempre visualizzato. Anche se non lo specifichi
embeddingTypes
nell'input, ci sarà comunque «float». Esempio:"embeddingsByType": {"float": [float,...]}
-
{ "embedding": [float, float, ...], "inputTextTokenCount": int, "embeddingsByType": {"binary": [int,..], "float": [float,...]} }
-
- G1 Request
-
L'unico campo disponibile è
inputText
, in cui puoi includere testo da convertire in incorporamenti.{ "inputText": string }
- G1 Response
-
Il campo
body
della risposta contiene i seguenti campi.{ "embedding": [float, float, ...], "inputTextTokenCount": int }
I campi sono descritti di seguito.
-
incorporamento: un array che rappresenta il vettore di incorporamento dell'input fornito.
-
inputTextTokenConteggio: il numero di token nell'input.
-
Codice di esempio
Gli esempi seguenti mostrano come chiamare i modelli Amazon Titan Embedding per generare l'incorporamento. Seleziona la scheda corrispondente al modello che stai utilizzando:
- Amazon Titan Embeddings G1 - Text
-
# Copyright Amazon.com, Inc. or its affiliates. All Rights Reserved. # SPDX-License-Identifier: Apache-2.0 """ Shows how to generate embeddings with the Amazon Titan Embeddings G1 - Text model (on demand). """ import json import logging import boto3 from botocore.exceptions import ClientError logger = logging.getLogger(__name__) logging.basicConfig(level=logging.INFO) def generate_embeddings(model_id, body): """ Generate a vector of embeddings for a text input using Amazon Titan Embeddings G1 - Text on demand. Args: model_id (str): The model ID to use. body (str) : The request body to use. Returns: response (JSON): The embedding created by the model and the number of input tokens. """ logger.info("Generating embeddings with Amazon Titan Embeddings G1 - Text model %s", model_id) bedrock = boto3.client(service_name='bedrock-runtime') accept = "application/json" content_type = "application/json" response = bedrock.invoke_model( body=body, modelId=model_id, accept=accept, contentType=content_type ) response_body = json.loads(response.get('body').read()) return response_body def main(): """ Entrypoint for Amazon Titan Embeddings G1 - Text example. """ logging.basicConfig(level=logging.INFO, format="%(levelname)s: %(message)s") model_id = "amazon.titan-embed-text-v1" input_text = "What are the different services that you offer?" # Create request body. body = json.dumps({ "inputText": input_text, }) try: response = generate_embeddings(model_id, body) print(f"Generated embeddings: {response['embedding']}") print(f"Input Token count: {response['inputTextTokenCount']}") except ClientError as err: message = err.response["Error"]["Message"] logger.error("A client error occurred: %s", message) print("A client error occured: " + format(message)) else: print(f"Finished generating embeddings with Amazon Titan Embeddings G1 - Text model {model_id}.") if __name__ == "__main__": main()
- Amazon Titan Text Embeddings V2
-
Quando si utilizza Titan Text Embeddings V2, il
embedding
campo non è presente nella risposta se contieneembeddingTypes
solobinary
.# Copyright Amazon.com, Inc. or its affiliates. All Rights Reserved. # SPDX-License-Identifier: Apache-2.0 """ Shows how to generate embeddings with the Amazon Titan Text Embeddings V2 Model """ import json import logging import boto3 from botocore.exceptions import ClientError logger = logging.getLogger(__name__) logging.basicConfig(level=logging.INFO) def generate_embeddings(model_id, body): """ Generate a vector of embeddings for a text input using Amazon Titan Text Embeddings G1 on demand. Args: model_id (str): The model ID to use. body (str) : The request body to use. Returns: response (JSON): The embedding created by the model and the number of input tokens. """ logger.info("Generating embeddings with Amazon Titan Text Embeddings V2 model %s", model_id) bedrock = boto3.client(service_name='bedrock-runtime') accept = "application/json" content_type = "application/json" response = bedrock.invoke_model( body=body, modelId=model_id, accept=accept, contentType=content_type ) response_body = json.loads(response.get('body').read()) return response_body def main(): """ Entrypoint for Amazon Titan Embeddings V2 - Text example. """ logging.basicConfig(level=logging.INFO, format="%(levelname)s: %(message)s") model_id = "amazon.titan-embed-text-v2:0" input_text = "What are the different services that you offer?" # Create request body. body = json.dumps({ "inputText": input_text, "embeddingTypes": ["binary"] }) try: response = generate_embeddings(model_id, body) print(f"Generated embeddings: {response['embeddingByTypes']['binary']}") # returns binary embedding # print(f"Generated embeddings: {response['embedding']}") NOTE:"embedding" field is not in "response". print(f"Input Token count: {response['inputTextTokenCount']}") except ClientError as err: message = err.response["Error"]["Message"] logger.error("A client error occurred: %s", message) print("A client error occured: " + format(message)) else: print(f"Finished generating embeddings with Amazon Titan Text Embeddings V2 model {model_id}.") if __name__ == "__main__": main()