As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Crie um perfil de inferência de aplicativo
Você pode criar um perfil de inferência de aplicativo com uma ou mais regiões para monitorar o uso e os custos ao invocar um modelo.
-
Para criar um perfil de inferência de aplicativo para uma região, especifique um modelo básico. O uso e os custos das solicitações feitas para essa região com esse modelo serão rastreados.
-
Para criar um perfil de inferência de aplicativo para várias regiões, especifique um perfil de inferência entre regiões (definido pelo sistema). O perfil de inferência roteará as solicitações para as regiões definidas no perfil de inferência entre regiões (definido pelo sistema) que você escolher. O uso e os custos das solicitações feitas às regiões no perfil de inferência serão monitorados.
Atualmente, você só pode criar um perfil de inferência usando o Amazon BedrockAPI.
Para criar um perfil de inferência, envie uma CreateInferenceProfilesolicitação com um endpoint do plano de controle Amazon Bedrock.
Os campos a seguir são obrigatórios:
Campo | Caso de uso |
---|---|
inferenceProfileName | Para especificar um nome para o perfil de inferência. |
modelSource | Para especificar o modelo básico ou o perfil de inferência entre regiões (definido pelo sistema) que define o modelo e as regiões para as quais você deseja rastrear custos e uso. |
Os seguintes campos são opcionais:
Campo | Caso de uso |
---|---|
description | Para fornecer uma descrição para o perfil de inferência. |
tags | Para anexar tags ao perfil de inferência. Para obter mais informações, consulte Organização Marcação de recursos do Amazon Bedrock e controle de custos usando tags de alocação de AWS custos. |
clientRequestToken | Para garantir que a API solicitação seja concluída apenas uma vez. Para obter mais informações, consulte Ensuring idempotency. |
A resposta retorna uma inferenceProfileArn
que pode ser usada em outras ações relacionadas ao perfil de inferência e que pode ser usada com invocação de modelo e recursos do Amazon Bedrock.