

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Usando CloudFormation para configurar a inferência remota para pesquisa semântica
<a name="cfn-template"></a>

A partir da OpenSearch versão 2.9, você pode usar a inferência remota com [pesquisa semântica](https://opensearch.org/docs/latest/search-plugins/semantic-search/) para hospedar seus próprios modelos de aprendizado de máquina (ML). A inferência remota usa o [plug-in ML Commons](https://opensearch.org/docs/latest/ml-commons-plugin/index/).

Com a inferência remota, você pode hospedar suas inferências de modelo remotamente em serviços de ML, como Amazon AI SageMaker e Amazon Bedrock, e conectá-las ao Amazon OpenSearch Service com conectores de ML. 

Para facilitar a configuração da inferência remota, o Amazon OpenSearch Service fornece um [AWS CloudFormation](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/Welcome.html)modelo no console. CloudFormation é um AWS service (Serviço da AWS) local onde você pode provisionar AWS e gerenciar recursos de terceiros tratando a infraestrutura como código. 

O OpenSearch CloudFormation modelo automatiza o processo de provisionamento do modelo para que você possa criar facilmente um modelo em seu domínio de OpenSearch serviço e, em seguida, usar o ID do modelo para ingerir dados e executar consultas de pesquisa neural.

Ao usar codificadores neurais esparsos com a versão 2.12 e posteriores do OpenSearch Service, recomendamos que você use o modelo de tokenizador localmente em vez de implantá-lo remotamente. Para obter mais informações, consulte [Modelos de codificação esparsa](https://opensearch.org/docs/latest/ml-commons-plugin/pretrained-models/#sparse-encoding-models) na OpenSearch documentação. 

**Topics**
+ [CloudFormation Modelos disponíveis](#cfn-template-list)
+ [Pré-requisitos](#cfn-template-prereq)
+ [Modelos do Amazon Bedrock](cfn-template-bedrock.md)
+ [Configurando a pesquisa de agentes com Bedrock Claude](cfn-template-agentic-search.md)
+ [Modelos de integração do servidor MCP](cfn-template-mcp-server.md)
+ [SageMaker Modelos da Amazon](cfn-template-sm.md)
+ [Inferência remota para modelos de destaque semântico](#cfn-template-semantic-highlighting)

## CloudFormation Modelos disponíveis
<a name="cfn-template-list"></a>

Os seguintes modelos AWS CloudFormation de aprendizado de máquina (ML) estão disponíveis para uso:[Modelos do Amazon Bedrock](cfn-template-bedrock.md)

**Integração do Incorporador de Texto do Amazon Titan**  
Conecta-se aos modelos de ML hospedados do Amazon Bedrock, elimina a necessidade de implantação separada de modelos e usa endpoints predeterminados do Amazon Bedrock. Para saber mais, consulte [Incorporador de texto do Amazon Titan](https://docs.aws.amazon.com/bedrock/latest/userguide/titan-embedding-models.html) no *Guia do usuário do Amazon Bedrock*.

**Integração do Cohere Embed**  
Fornece acesso aos modelos do Cohere Embed e é otimizado para fluxos de trabalho específicos de processamento de texto. Para saber mais, consulte [Embed](https://docs.cohere.com/docs/cohere-embed) no site *Cohere docs*.

**Incorporador Multimodal do Amazon Titan**  
É compatível com incorporações de texto e imagem, e habilita recursos de pesquisa multimodal. Para saber mais, consulte [Incorporador Multimodal do Amazon Titan](https://docs.aws.amazon.com/bedrock/latest/userguide/titan-multiemb-models.html) no *Guia do usuário do Amazon Bedrock*.[Modelos de integração do servidor MCP](cfn-template-mcp-server.md)

**Integração de servidor MCP**  
Implanta um [Amazon Bedrock AgentCore Runtime](https://docs.aws.amazon.com/bedrock-agentcore/latest/devguide/what-is-bedrock-agentcore.html), fornece um endpoint de agente, gerencia a autenticação de entrada e saída e oferece suporte à autenticação corporativa. OAuth [SageMaker Modelos da Amazon](cfn-template-sm.md)

**Integração com modelos de incorporação de texto por meio da Amazon SageMaker**  
Implanta modelos de incorporação de texto no Amazon SageMaker Runtime, cria funções do IAM para acesso ao artefato do modelo e estabelece conectores de ML para pesquisa semântica.

**Integração com codificadores esparsos por meio de SageMaker**  
Configura modelos de codificação esparsos para pesquisa neural, cria AWS Lambda funções para gerenciamento de conectores e retorna o modelo IDs para uso imediato.

## Pré-requisitos
<a name="cfn-template-prereq"></a>

Para usar um CloudFormation modelo com o OpenSearch Serviço, preencha os pré-requisitos a seguir.

### Configurar um domínio OpenSearch de serviço
<a name="cfn-template-domain"></a>

Antes de usar um CloudFormation modelo, você deve configurar um [domínio do Amazon OpenSearch Service](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/osis-get-started.html) com a versão 2.9 ou posterior e um controle de acesso refinado ativado. [Crie uma função OpenSearch de back-end de serviço](fgac.md#fgac-roles) para dar permissão ao plug-in ML Commons para criar seu conector para você. 

O CloudFormation modelo cria uma função do Lambda IAM para você com o nome padrão`LambdaInvokeOpenSearchMLCommonsRole`, que você pode substituir se quiser escolher um nome diferente. Depois que o modelo criar essa função do IAM, você precisa dar permissão à função Lambda para chamar seu domínio de OpenSearch serviço. Para fazer isso, [mapeie a função](fgac.md#fgac-mapping) nomeada `ml_full_access` para sua função OpenSearch de back-end de serviço com as seguintes etapas:

1. Navegue até o plug-in OpenSearch Dashboards do seu domínio OpenSearch de serviço. Você pode encontrar o endpoint do Dashboards no painel do seu domínio no console de OpenSearch serviços. 

1. No menu principal, escolha **Segurança**, **Funções** e selecione a função **ml\$1full\$1access**.

1. Escolha **Usuários mapeados** e **Gerenciar mapeamento**. 

1. Em **Funções de backend**, adicione o ARN da função do Lambda que precisa de permissão para chamar seu domínio.

   ```
   arn:aws:iam::account-id:role/role-name
   ```

1. Selecione **Mapa** e confirme se o usuário ou função aparece em **Usuários mapeados**.

Depois de mapear a função, navegue até a configuração de segurança do seu domínio e adicione a função Lambda IAM à OpenSearch sua política de acesso ao serviço.

### Ative as permissões em seu Conta da AWS
<a name="connector-sagemaker-iam"></a>

Você Conta da AWS deve ter permissão para acessar CloudFormation o Lambda, junto com o que AWS service (Serviço da AWS) você escolher para seu modelo — Runtime SageMaker ou Amazon Bedrock. 

Se estiver usando o Amazon Bedrock, você também deve registrar seu modelo. Consulte [Acesso aos modelos](https://docs.aws.amazon.com/bedrock/latest/userguide/model-access.html) no *Guia do usuário do Amazon Bedrock* para registrar seu modelo. 

Se você estiver usando seu próprio bucket do Amazon S3 para fornecer artefatos de modelo, deverá adicionar a função do CloudFormation IAM à sua política de acesso do S3. Para saber mais, consulte [Adicionar e remover permissões de identidade do IAM](https://docs.aws.amazon.com/IAM/latest/UserGuide/access_policies_manage-attach-detach.html) no *Guia do usuário do IAM*.

## Inferência remota para modelos de destaque semântico
<a name="cfn-template-semantic-highlighting"></a>

O destaque semântico é um atributo de pesquisa avançada que aumenta a relevância dos resultados analisando o significado e o contexto das consultas, em vez de confiar apenas em correspondências exatas de palavras-chave. Esse recurso usa modelos de machine learning para avaliar a semelhança semântica entre as consultas da pesquisa e o conteúdo do documento ao identificar e destacar as frases ou passagens mais contextualmente relevantes dos documentos. Ao contrário dos métodos tradicionais de destaque que se concentram nas correspondências exatas de termos, o destaque semântico utiliza modelos de IA para avaliar cada frase usando informações contextuais da consulta e o texto ao redor, fazendo com que ela exiba informações pertinentes mesmo quando os termos de pesquisa exatos não estão presentes nas passagens destacadas. Essa abordagem é especialmente relevante valiosa para implementações de pesquisa baseada em IA, nas quais os usuários priorizam o significado semântico em vez da correspondência literal de palavras, permitindo que os administradores de pesquisa ofereçam experiências de pesquisa mais inteligentes que levam em conta o contexto e destacam extensões de conteúdo significativas em vez de apenas ocorrências de palavras-chave. Para saber mais, consulte [Usar destaque semântico](https://docs.opensearch.org/latest/tutorials/vector-search/semantic-highlighting-tutorial/).

Use o procedimento a seguir para abrir e executar um CloudFormation modelo que configura automaticamente os SageMaker modelos da Amazon para realce semântico.

**Para usar o modelo de realce CloudFormation semântico**

1. Abra o console do Amazon OpenSearch Service em [https://console.aws.amazon.com/aos/casa](https://console.aws.amazon.com/aos/home ).

1. No painel de navegação à esquerda, escolha **Integrações**.

1. Em **Ativar destaque semântico por meio da SageMaker integração com a Amazon**, escolha **Configurar domínio**, **Configurar domínio público**.

1. Siga o prompt para configurar seu modelo.

**nota**  
OpenSearch O serviço também fornece um modelo separado para configurar o domínio VPC. Se você usar esse modelo, precisará fornecer o ID da VPC para a função do Lambda.