Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Utilizzo AWS CloudFormation per configurare l'inferenza remota per la ricerca semantica
A partire dalla OpenSearch versione 2.9, puoi utilizzare l'inferenza remota con la ricerca semantica
Per facilitare la configurazione dell'inferenza remota, Amazon OpenSearch Service fornisce un AWS CloudFormationmodello nella console. CloudFormation è un software Servizio AWS che consente di modellare, fornire AWS e gestire risorse di terze parti trattando l'infrastruttura come codice.
Il OpenSearch CloudFormation modello automatizza il processo di provisioning del modello per te, in modo che tu possa creare facilmente un modello nel tuo dominio di OpenSearch servizio e quindi utilizzare l'ID del modello per importare dati ed eseguire query di ricerca neurali.
Quando utilizzi codificatori neurali sparsi con la versione 2.12 e successive del OpenSearch servizio, ti consigliamo di utilizzare il modello tokenizer localmente anziché distribuirlo in remoto. Per ulteriori informazioni, consulta i modelli di codifica Sparse nella documentazione.
Prerequisiti
Per utilizzare un CloudFormation modello con OpenSearch Service, completa i seguenti prerequisiti.
Configura un dominio di OpenSearch servizio
Prima di poter utilizzare un CloudFormation modello, devi configurare un dominio Amazon OpenSearch Service con la versione 2.9 o successiva e il controllo granulare degli accessi abilitato. Crea un ruolo OpenSearch di backend del servizio per autorizzare il plug-in ML Commons a creare il connettore per te.
Il CloudFormation modello crea per te un IAM ruolo Lambda con il nome predefinitoLambdaInvokeOpenSearchMLCommonsRole
, che puoi sostituire se desideri scegliere un nome diverso. Dopo che il modello ha creato questo IAM ruolo, devi concedere alla funzione Lambda l'autorizzazione a chiamare il tuo dominio di OpenSearch servizio. A tale scopo, associa il ruolo denominato ml_full_access
al ruolo di backend del OpenSearch servizio con i seguenti passaggi:
-
Vai al plug-in OpenSearch Dashboards per il tuo dominio di OpenSearch servizio. Puoi trovare l'endpoint Dashboards nella dashboard del tuo dominio nella OpenSearch console di servizio.
-
Dal menu principale scegli Sicurezza, Ruoli e seleziona il ruolo ml_full_access.
-
Scegliere Utenti mappati, Gestisci mappatura.
-
In Ruoli ARN di backend, aggiungi il ruolo Lambda che richiede l'autorizzazione per chiamare il tuo dominio.
arn:aws:iam::
account-id
:role/role-name
-
Selezionare Mappa e confermare che l'utente o il ruolo venga visualizzato in Utenti mappati.
Dopo aver mappato il ruolo, vai alla configurazione di sicurezza del tuo dominio e aggiungi il ruolo IAM Lambda alla OpenSearch tua politica di accesso al servizio.
Abilita le autorizzazioni sul tuo Account AWS
Account AWS Devi disporre dell'autorizzazione all'accesso CloudFormation e alla tecnologia Lambda, oltre a quello che Servizio AWS scegli per il modello, che sia Runtime SageMaker o Amazon. BedRock
Se utilizzi Amazon Bedrock, devi anche registrare il tuo modello. Consulta Model access nella Amazon Bedrock User Guide per registrare il tuo modello.
Se utilizzi il tuo bucket Amazon S3 per fornire artefatti del modello, devi aggiungere il CloudFormation IAM ruolo alla tua policy di accesso S3. Per ulteriori informazioni, consulta Aggiungere e rimuovere le autorizzazioni di IAM identità nella Guida per l'utente. IAM
Amazon SageMaker modelli
I SageMaker CloudFormation modelli Amazon definiscono più AWS risorse per configurare il plug-in neurale e la ricerca semantica per te.
Innanzitutto, utilizza il modello Integrazione con modelli di incorporamento del testo tramite Amazon per distribuire un SageMaker modello di incorporamento di testo in SageMaker Runtime come server. Se non fornisci un endpoint modello, CloudFormation crea un IAM ruolo che consente a SageMaker Runtime di scaricare gli artefatti del modello da Amazon S3 e distribuirli sul server. Se fornisci un endpoint, CloudFormation crea un IAM ruolo che consente alla funzione Lambda di accedere al dominio OpenSearch del servizio o, se il ruolo esiste già, aggiorna e riutilizza il ruolo. L'endpoint serve il modello remoto utilizzato per il connettore ML con il plug-in ML Commons.
Successivamente, utilizza il modello Integration with Sparse Encoders through Amazon Sagemaker per creare una funzione Lambda che consenta al dominio di configurare connettori di inferenza remoti. Dopo aver creato il connettore in OpenSearch Service, l'inferenza remota può eseguire una ricerca semantica utilizzando il modello remoto in Runtime. SageMaker Il modello ti restituisce l'ID del modello nel tuo dominio in modo che tu possa iniziare la ricerca.
Per utilizzare i SageMaker CloudFormation modelli Amazon
-
Apri la console Amazon OpenSearch Service a https://console.aws.amazon.com/aos/casa
. -
Nella barra di navigazione a sinistra, scegli Integrazioni.
-
In ciascuno dei SageMaker modelli Amazon, scegli Configura dominio, Configura dominio pubblico.
-
Segui le istruzioni nella CloudFormation console per effettuare il provisioning dello stack e configurare un modello.
Nota
OpenSearch Il servizio fornisce anche un modello separato per configurare VPC il dominio. Se utilizzi questo modello, devi fornire l'VPCID per la funzione Lambda.
Modelli Amazon Bedrock
Analogamente ai SageMaker CloudFormation modelli Amazon, il CloudFormation modello Amazon Bedrock fornisce le AWS risorse necessarie per creare connettori tra OpenSearch Service e Amazon Bedrock.
Innanzitutto, il modello crea un IAM ruolo che consente alla futura funzione Lambda di accedere al dominio del OpenSearch servizio. Il modello crea quindi la funzione Lambda, che consente al dominio di creare un connettore utilizzando il plug-in ML Commons. Dopo che OpenSearch Service ha creato il connettore, la configurazione dell'inferenza remota è terminata e puoi eseguire ricerche semantiche utilizzando le operazioni di Amazon Bedrock. API
Tieni presente che, poiché Amazon Bedrock ospita i propri modelli di machine learning, non è necessario distribuire un modello in Runtime. SageMaker Il modello utilizza invece un endpoint predeterminato per Amazon Bedrock e salta le fasi di fornitura degli endpoint.
Per utilizzare il modello Amazon Bedrock CloudFormation
-
Apri la console Amazon OpenSearch Service a https://console.aws.amazon.com/aos/casa
. -
Nella barra di navigazione a sinistra, scegli Integrazioni.
-
Nella sezione Integrazione con il modello Amazon Titan Text Embeddings tramite Amazon Bedrock, scegli Configura dominio, Configura dominio pubblico.
-
Segui le istruzioni per configurare il modello.
Nota
OpenSearch Il servizio fornisce anche un modello separato per configurare il VPC dominio. Se utilizzi questo modello, devi fornire l'VPCID per la funzione Lambda.
Inoltre, OpenSearch Service fornisce i seguenti modelli Amazon Bedrock per connettersi al modello Cohere e al modello di incorporamenti multimodali Amazon Titan:
-
Integration with Cohere Embed through Amazon Bedrock
-
Integrate with Amazon Bedrock Titan Multi-modal