

# Pré-treinamento contínuo (CPT)
<a name="nova-cpt"></a>

O pré-treinamento contínuo (CPT) é uma técnica de treinamento que estende a fase de pré-treinamento de um modelo de base, expondo-o a texto adicional sem rótulo de domínios ou corpora específicos. Ao contrário do ajuste fino supervisionado, que requer pares de entrada-saída rotulados, o CPT treina em documentos brutos para ajudar o modelo a adquirir um conhecimento mais profundo de novos domínios, aprender a terminologia e os padrões de escrita específicos do domínio e se adaptar a determinados tipos de conteúdo ou áreas temáticas.

Essa abordagem é particularmente valiosa quando você tem grandes volumes (dezenas de bilhões de tokens) de dados de texto específicos do domínio, como documentos legais, literatura médica, documentação técnica ou conteúdo comercial proprietário, e deseja que o modelo desenvolva fluência nativa nesse domínio. Geralmente, após a etapa do CPT, o modelo precisa passar por etapas adicionais de ajuste de instruções para permitir que o modelo use o conhecimento recém-adquirido e conclua tarefas úteis.

**Modelos compatíveis**  
O CPT está disponível para os seguintes modelos do Amazon Nova:
+ Nova 1.0 (Micro, Lite, Pro)
+ Nova 2.0 (Lite)

Escolha Nova 1.0 quando o seguinte se aplicar:
+ Seu caso de uso requer compreensão da linguagem padrão sem raciocínio avançado.
+ Você deseja otimizar para reduzir os custos de treinamento e inferência.
+ Seu foco é ensinar ao modelo conhecimentos e comportamentos específicos do domínio, em vez de tarefas complexas de raciocínio.
+ Você já validou a performance no Nova 1.0 e não precisa de recursos adicionais.

**nota**  
O modelo maior nem sempre é melhor. Considere a relação custo-performance e seus requisitos comerciais específicos ao escolher entre os modelos Nova 1.0 e Nova 2.0.