As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
nota
Nesta seção, presumimos que a linguagem e os modelos de incorporação que você planeja usar já estejam implantados. Para modelos fornecidos pela AWS, você já deve ter o ARN do seu endpoint de SageMaker IA ou acesso ao Amazon Bedrock. Para outros fornecedores de modelos, você deve ter a chave de API usada para autenticar e autorizar solicitações para seu modelo.
O Jupyter AI oferece apoio a uma ampla variedade de fornecedores de modelos e modelos de linguagem. Consulte a lista de modelos compatíveis
A configuração do Jupyter AI varia dependendo se você está usando a interface de usuário de chat ou comandos mágicos.
Configure seu fornecedor de modelo na interface de usuário de chat
nota
Você pode configurar vários modelos LLMs e incorporá-los seguindo as mesmas instruções. No entanto, você deve configurar pelo menos um modelo de linguagem.
Para configurar sua interface de usuário de chat
-
Em JupyterLab, acesse a interface de bate-papo escolhendo o ícone de bate-papo (
) no painel de navegação esquerdo.
-
Selecione o ícone de configuração (
) no canto superior direito do painel esquerdo. Isso abrirá o painel de configuração do Jupyter AI.
-
Preencha os campos relacionados ao seu fornecedor de serviços.
-
Para modelos fornecidos pela JumpStart Amazon Bedrock
-
Na lista suspensa do modelo de linguagem, selecione modelos implantados com JumpStart ou
sagemaker-endpoint
bedrock
para modelos gerenciados pelo Amazon Bedrock. -
Os parâmetros diferem com base no fato de seu modelo ser implantado no SageMaker AI ou no Amazon Bedrock.
-
Para modelos implantados com JumpStart:
-
Insira o nome do seu endpoint em Nome do endpoint e, em seguida, o nome Região da AWS no qual seu modelo está implantado em Nome da região. Para recuperar o ARN dos endpoints de SageMaker IA, navegue https://console.aws.amazon.com/sagemaker/
até e escolha Inferência e endpoints no menu à esquerda. -
Cole o JSON do Esquema de solicitação personalizado para seu modelo e o Caminho de resposta correspondente para analisar a saída do modelo.
nota
Você pode encontrar o formato de solicitação e resposta de vários modelos de JumpStart fundação nos seguintes exemplos de cadernos
. Cada caderno tem o nome do modelo que ele demonstra.
-
-
-
(Opcional) Selecione um modelo de incorporação ao qual você tenha acesso. Os modelos de incorporação são usados para capturar informações adicionais de documentos locais, permitindo que o modelo de geração de texto responda às perguntas dentro do contexto desses documentos.
-
Selecione Salvar alterações e navegue até o ícone de seta para a esquerda (
) no canto superior esquerdo do painel esquerdo. Isso abrirá a interface de usuário de chat do Jupyter AI. Você pode começar a interagir com seu modelo.
-
-
Para modelos hospedados por fornecedores terceirizados
-
Na lista suspensa do modelo de idioma, selecione seu ID de fornecedor. Você pode encontrar os detalhes de cada fornecedor, incluindo seu ID, na lista de fornecedores de modelos
do Jupyter AI. -
(Opcional) Selecione um modelo de incorporação ao qual você tenha acesso. Os modelos de incorporação são usados para capturar informações adicionais de documentos locais, permitindo que o modelo de geração de texto responda às perguntas dentro do contexto desses documentos.
-
Insira as chaves de API dos seus modelos.
-
Selecione Salvar alterações e navegue até o ícone de seta para a esquerda (
) no canto superior esquerdo do painel esquerdo. Isso abrirá a interface de usuário de chat do Jupyter AI. Você pode começar a interagir com seu modelo.
-
-
O instantâneo a seguir é uma ilustração do painel de configuração da interface do usuário do chat definido para invocar um modelo FLAN-T5-small fornecido e implantado na IA. JumpStart SageMaker

Passe parâmetros extras do modelo e parâmetros personalizados para sua solicitação
Seu modelo pode precisar de parâmetros extras, como um atributo personalizado para aprovação do contrato do usuário ou ajustes em outros parâmetros do modelo, como temperatura ou duração da resposta. Recomendamos definir essas configurações como uma opção de inicialização do seu JupyterLab aplicativo usando uma configuração de ciclo de vida. Para obter informações sobre como criar uma configuração de ciclo de vida e anexá-la ao seu domínio ou a um perfil de usuário do console de SageMaker IA
Use o seguinte esquema JSON para configurar seus parâmetros extras:
{
"AiExtension": {
"model_parameters": {
"<provider_id>:<model_id>": { Dictionary of model parameters which is unpacked and passed as-is to the provider.}
}
}
}
}
O script a seguir é um exemplo de um arquivo de configuração JSON que você pode usar ao criar uma LCC de JupyterLab aplicativo para definir o tamanho máximo de um modelo do AI21 Labs Jurassic-2 implantado no Amazon Bedrock. Aumentar o comprimento da resposta gerada pelo modelo pode evitar o truncamento sistemático da resposta do seu modelo.
#!/bin/bash
set -eux
mkdir -p /home/sagemaker-user/.jupyter
json='{"AiExtension": {"model_parameters": {"bedrock:ai21.j2-mid-v1": {"model_kwargs": {"maxTokens": 200}}}}}'
# equivalent to %%ai bedrock:ai21.j2-mid-v1 -m {"model_kwargs":{"maxTokens":200}}
# File path
file_path="/home/sagemaker-user/.jupyter/jupyter_jupyter_ai_config.json"
#jupyter --paths
# Write JSON to file
echo "$json" > "$file_path"
# Confirmation message
echo "JSON written to $file_path"
restart-jupyter-server
# Waiting for 30 seconds to make sure the Jupyter Server is up and running
sleep 30
O script a seguir é um exemplo de um arquivo de configuração JSON para criar um JupyterLab aplicativo LCC usado para definir parâmetros de modelo adicionais para um modelo Anthropic Claude implantado no Amazon Bedrock.
#!/bin/bash
set -eux
mkdir -p /home/sagemaker-user/.jupyter
json='{"AiExtension": {"model_parameters": {"bedrock:anthropic.claude-v2":{"model_kwargs":{"temperature":0.1,"top_p":0.5,"top_k":25
0,"max_tokens_to_sample":2}}}}}'
# equivalent to %%ai bedrock:anthropic.claude-v2 -m {"model_kwargs":{"temperature":0.1,"top_p":0.5,"top_k":250,"max_tokens_to_sample":2000}}
# File path
file_path="/home/sagemaker-user/.jupyter/jupyter_jupyter_ai_config.json"
#jupyter --paths
# Write JSON to file
echo "$json" > "$file_path"
# Confirmation message
echo "JSON written to $file_path"
restart-jupyter-server
# Waiting for 30 seconds to make sure the Jupyter Server is up and running
sleep 30
Depois de anexar sua LCC ao seu domínio ou perfil de usuário, adicione-a ao seu espaço ao iniciar seu JupyterLab aplicativo. Para garantir que seu arquivo de configuração seja atualizado pela LCC, execute more ~/.jupyter/jupyter_jupyter_ai_config.json
em um terminal. O conteúdo do arquivo deve corresponder ao conteúdo do arquivo JSON passado para a LCC.
Configure seu fornecedor de modelos em um caderno
Para invocar um modelo via Jupyter AI em JupyterLab notebooks Studio Classic usando os comandos mágicos e. %%ai
%ai
-
Instale as bibliotecas de cliente específicas do seu fornecedor de modelos no ambiente de caderno. Por exemplo, ao usar modelos OpenAI, você precisa instalar a biblioteca de cliente do
openai
. Você pode encontrar a lista das bibliotecas de cliente necessárias por fornecedor na coluna de pacotes Python da lista de fornecedoresdo Jupyter AI. nota
Para modelos hospedados por AWS, já
boto3
está instalado na imagem de distribuição de SageMaker IA usada por JupyterLab, ou em qualquer imagem de ciência de dados usada com o Studio Classic. -
-
Para modelos hospedados por AWS
Certifique-se de que sua função de execução tenha a permissão para invocar seu endpoint de SageMaker IA para modelos fornecidos JumpStart ou que você tenha acesso ao Amazon Bedrock.
-
Para modelos hospedados por fornecedores terceirizados
Exporte a chave de API do seu fornecedor no ambiente de caderno usando variáveis de ambiente. É possível usar o seguinte comando mágico: Substitua a
provider_API_key
no comando pela variável de ambiente encontrada na coluna Variável de ambiente da lista de fornecedoresdo Jupyter AI Model para seu fornecedor. %env provider_API_key=your_API_key
-