Selecione suas preferências de cookies

Usamos cookies essenciais e ferramentas semelhantes que são necessárias para fornecer nosso site e serviços. Usamos cookies de desempenho para coletar estatísticas anônimas, para que possamos entender como os clientes usam nosso site e fazer as devidas melhorias. Cookies essenciais não podem ser desativados, mas você pode clicar em “Personalizar” ou “Recusar” para recusar cookies de desempenho.

Se você concordar, a AWS e terceiros aprovados também usarão cookies para fornecer recursos úteis do site, lembrar suas preferências e exibir conteúdo relevante, incluindo publicidade relevante. Para aceitar ou recusar todos os cookies não essenciais, clique em “Aceitar” ou “Recusar”. Para fazer escolhas mais detalhadas, clique em “Personalizar”.

Configure seu fornecedor de modelo

Modo de foco
Configure seu fornecedor de modelo - SageMaker IA da Amazon

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

nota

Nesta seção, presumimos que a linguagem e os modelos de incorporação que você planeja usar já estejam implantados. Para modelos fornecidos pela AWS, você já deve ter o ARN do seu endpoint de SageMaker IA ou acesso ao Amazon Bedrock. Para outros fornecedores de modelos, você deve ter a chave de API usada para autenticar e autorizar solicitações para seu modelo.

O Jupyter AI oferece apoio a uma ampla variedade de fornecedores de modelos e modelos de linguagem. Consulte a lista de modelos compatíveis para se manter atualizado sobre os modelos mais recentes disponíveis. Para obter informações sobre como implantar um modelo fornecido pela JumpStart, consulte Implantar um modelo na JumpStart documentação. Você precisa solicitar acesso ao Amazon Bedrock para usá-lo como seu fornecedor de modelos.

A configuração do Jupyter AI varia dependendo se você está usando a interface de usuário de chat ou comandos mágicos.

Configure seu fornecedor de modelo na interface de usuário de chat

nota

Você pode configurar vários modelos LLMs e incorporá-los seguindo as mesmas instruções. No entanto, você deve configurar pelo menos um modelo de linguagem.

Para configurar sua interface de usuário de chat
  1. Em JupyterLab, acesse a interface de bate-papo escolhendo o ícone de bate-papo ( Icon of a rectangular shape with a curved arrow pointing to the upper right corner. ) no painel de navegação esquerdo.

  2. Selecione o ícone de configuração ( Gear or cog icon representing settings or configuration options. ) no canto superior direito do painel esquerdo. Isso abrirá o painel de configuração do Jupyter AI.

  3. Preencha os campos relacionados ao seu fornecedor de serviços.

O instantâneo a seguir é uma ilustração do painel de configuração da interface do usuário do chat definido para invocar um modelo FLAN-T5-small fornecido e implantado na IA. JumpStart SageMaker

Painel de configuração da interface do usuário do Chat configurado para invocar um modelo FLAN-T5-small fornecido por. JumpStart

Passe parâmetros extras do modelo e parâmetros personalizados para sua solicitação

Seu modelo pode precisar de parâmetros extras, como um atributo personalizado para aprovação do contrato do usuário ou ajustes em outros parâmetros do modelo, como temperatura ou duração da resposta. Recomendamos definir essas configurações como uma opção de inicialização do seu JupyterLab aplicativo usando uma configuração de ciclo de vida. Para obter informações sobre como criar uma configuração de ciclo de vida e anexá-la ao seu domínio ou a um perfil de usuário do console de SageMaker IA, consulte Criar e associar uma configuração de ciclo de vida. Você pode escolher seu script de LCC ao criar um espaço para seu JupyterLab aplicativo.

Use o seguinte esquema JSON para configurar seus parâmetros extras:

{ "AiExtension": { "model_parameters": { "<provider_id>:<model_id>": { Dictionary of model parameters which is unpacked and passed as-is to the provider.} } } } }

O script a seguir é um exemplo de um arquivo de configuração JSON que você pode usar ao criar uma LCC de JupyterLab aplicativo para definir o tamanho máximo de um modelo do AI21 Labs Jurassic-2 implantado no Amazon Bedrock. Aumentar o comprimento da resposta gerada pelo modelo pode evitar o truncamento sistemático da resposta do seu modelo.

#!/bin/bash set -eux mkdir -p /home/sagemaker-user/.jupyter json='{"AiExtension": {"model_parameters": {"bedrock:ai21.j2-mid-v1": {"model_kwargs": {"maxTokens": 200}}}}}' # equivalent to %%ai bedrock:ai21.j2-mid-v1 -m {"model_kwargs":{"maxTokens":200}} # File path file_path="/home/sagemaker-user/.jupyter/jupyter_jupyter_ai_config.json" #jupyter --paths # Write JSON to file echo "$json" > "$file_path" # Confirmation message echo "JSON written to $file_path" restart-jupyter-server # Waiting for 30 seconds to make sure the Jupyter Server is up and running sleep 30

O script a seguir é um exemplo de um arquivo de configuração JSON para criar um JupyterLab aplicativo LCC usado para definir parâmetros de modelo adicionais para um modelo Anthropic Claude implantado no Amazon Bedrock.

#!/bin/bash set -eux mkdir -p /home/sagemaker-user/.jupyter json='{"AiExtension": {"model_parameters": {"bedrock:anthropic.claude-v2":{"model_kwargs":{"temperature":0.1,"top_p":0.5,"top_k":25 0,"max_tokens_to_sample":2}}}}}' # equivalent to %%ai bedrock:anthropic.claude-v2 -m {"model_kwargs":{"temperature":0.1,"top_p":0.5,"top_k":250,"max_tokens_to_sample":2000}} # File path file_path="/home/sagemaker-user/.jupyter/jupyter_jupyter_ai_config.json" #jupyter --paths # Write JSON to file echo "$json" > "$file_path" # Confirmation message echo "JSON written to $file_path" restart-jupyter-server # Waiting for 30 seconds to make sure the Jupyter Server is up and running sleep 30

Depois de anexar sua LCC ao seu domínio ou perfil de usuário, adicione-a ao seu espaço ao iniciar seu JupyterLab aplicativo. Para garantir que seu arquivo de configuração seja atualizado pela LCC, execute more ~/.jupyter/jupyter_jupyter_ai_config.json em um terminal. O conteúdo do arquivo deve corresponder ao conteúdo do arquivo JSON passado para a LCC.

Configure seu fornecedor de modelos em um caderno

Para invocar um modelo via Jupyter AI em JupyterLab notebooks Studio Classic usando os comandos mágicos e. %%ai%ai
  1. Instale as bibliotecas de cliente específicas do seu fornecedor de modelos no ambiente de caderno. Por exemplo, ao usar modelos OpenAI, você precisa instalar a biblioteca de cliente do openai. Você pode encontrar a lista das bibliotecas de cliente necessárias por fornecedor na coluna de pacotes Python da lista de fornecedores do Jupyter AI.

    nota

    Para modelos hospedados por AWS, já boto3 está instalado na imagem de distribuição de SageMaker IA usada por JupyterLab, ou em qualquer imagem de ciência de dados usada com o Studio Classic.

    • Para modelos hospedados por AWS

      Certifique-se de que sua função de execução tenha a permissão para invocar seu endpoint de SageMaker IA para modelos fornecidos JumpStart ou que você tenha acesso ao Amazon Bedrock.

    • Para modelos hospedados por fornecedores terceirizados

      Exporte a chave de API do seu fornecedor no ambiente de caderno usando variáveis de ambiente. É possível usar o seguinte comando mágico: Substitua a provider_API_key no comando pela variável de ambiente encontrada na coluna Variável de ambiente da lista de fornecedores do Jupyter AI Model para seu fornecedor.

      %env provider_API_key=your_API_key
PrivacidadeTermos do sitePreferências de cookies
© 2025, Amazon Web Services, Inc. ou suas afiliadas. Todos os direitos reservados.