

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Iperparametri del modello personalizzato
<a name="custom-models-hp"></a>

Il seguente contenuto di riferimento descrive gli iperparametri disponibili per l'addestramento di ciascun modello personalizzato di Amazon Bedrock.

Un iperparametro è un parametro che controlla il processo di addestramento, come la velocità di apprendimento o il numero di epoche. Imposti iperparametri per la formazione su modelli personalizzati quando [invii](model-customization-submit.md) il lavoro di fine tuning con la console Amazon Bedrock o chiamando l'operatore dell'[CreateModelCustomizationJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateModelCustomizationJob.html)API.

## Iperparametri di personalizzazione del modello Amazon Nova Understanding
<a name="cm-hp-nova-mm"></a>

I modelli Amazon Nova Lite, Amazon Nova Micro e Amazon Nova Pro supportano i seguenti iperparametri per la personalizzazione del modello. Per ulteriori informazioni, consulta [Personalizzazione del modello per migliorarne le prestazioni per il proprio caso d’uso](custom-models.md).

 Per informazioni sul fine-tuning dei modelli Amazon Nova, consultare [Eseguire il fine-tuning dei modelli Amazon Nova](https://docs.aws.amazon.com/nova/latest/userguide/customize-fine-tune.html).

Il numero di epoch specificate aumenta i costi di personalizzazione del modello in quanto vengono elaborati più token. Ogni epoch elabora l’intero set di dati di addestramento una volta. Per informazioni sui prezzi, consulta [Prezzi di Amazon Bedrock](https://aws.amazon.com/bedrock/pricing).


****  

| Iperparametro (console) | Iperparametro (API) | Definizione | Tipo | Minimo | Massimo | Predefinita | 
| --- | --- | --- | --- | --- | --- | --- | 
| Epoch | epochCount | Il numero di iterazioni nell’intero set di dati di addestramento | intero | 1 | 5 | 2 | 
| Tasso di apprendimento | learningRate | La velocità con cui i parametri del modello vengono aggiornati dopo ogni batch | virgola mobile | 1,00E-6 | 1,00E-4 | 1,00E-5 | 
| Fasi di riscaldamento del tasso di apprendimento | FasilearningRateWarmup | Il numero di iterazioni durante le quali il tasso di apprendimento viene gradualmente aumentato fino a quello specificato | intero | 0 | 100 | 10 | 

Il numero di epoch predefinito è 2, che funziona nella maggior parte dei casi. In generale, set di dati di dimensioni maggiori richiedono meno epoch per la convergenza, mentre set di dati di dimensioni minori prevedono più epoch. Una convergenza più rapida potrebbe essere ottenuta anche aumentando la velocità di apprendimento, ma ciò è meno auspicabile perché potrebbe portare all’instabilità dell’addestramento al momento della convergenza. Consigliamo di iniziare con gli iperparametri predefiniti, che si basano sulla nostra valutazione di attività con complessità e dimensioni dei dati diverse.

Il tasso di apprendimento aumenterà gradualmente fino al valore impostato durante il riscaldamento. Pertanto, è consigliabile evitare un valore elevato durante il riscaldamento per un campione di addestramento di piccole dimensioni, poiché il tasso di apprendimento potrebbe non raggiungere mai il valore impostato durante il processo di addestramento. Consigliamo di impostare le fasi di riscaldamento dividendo la dimensione del set di dati per 640 per Amazon Nova Micro, 160 per Amazon Nova Lite e 320 per Amazon Nova Pro.

## Iperparametri di personalizzazione del modello Amazon Nova Canvas
<a name="cm-hp-nova-canvas"></a>

Il modello Amazon Nova Canvas supporta i seguenti iperparametri per la personalizzazione.


****  

| Iperparametro (console) | Iperparametro (API) | Definizione | Minimo | Massimo | Predefinita | 
| --- | --- | --- | --- | --- | --- | 
| Dimensione batch | batchSize | Numero di campioni elaborati prima dell’aggiornamento dei parametri del modello | 8 | 192 | 8 | 
| Fasi | stepCount | Numero di volte in cui il modello viene esposto a ciascun batch | 10 | 20.000 | 500 | 
| Tasso di apprendimento | learningRate | Velocità con cui i parametri del modello vengono aggiornati dopo ogni batch | 1.00E-7 | 1,00E-4 | 1,00E-5 | 

## modello di testo Amazon Titan personalizzazione iperparametri
<a name="cm-hp-titan-text"></a>

Il modello Amazon Titan Text Premier supporta i seguenti iperparametri per la personalizzazione del modello. Il numero di epoch specificate aumenta i costi di personalizzazione del modello in quanto vengono elaborati più token. Ogni epoch elabora l’intero set di dati di addestramento una volta. Per informazioni sui prezzi, consulta [Prezzi di Amazon Bedrock](https://aws.amazon.com/bedrock/pricing).


****  

| Iperparametro (console) | Iperparametro (API) | Definizione | Tipo | Minimo | Massimo | Predefinita | 
| --- | --- | --- | --- | --- | --- | --- | 
| Epoch | epochCount | Il numero di iterazioni nell’intero set di dati di addestramento | intero | 1 | 5 | 2 | 
| Dimensione del batch (micro) | batchSize | Il numero di campioni elaborati prima dell’aggiornamento dei parametri del modello | intero | 1 | 1 | 1 | 
| Tasso di apprendimento | learningRate | La velocità con cui i parametri del modello vengono aggiornati dopo ogni batch | virgola mobile | 1,00E-07 | 1,00E-05 | 1,00E-06 | 
| Fasi di riscaldamento del tasso di apprendimento | FasilearningRateWarmup | Il numero di iterazioni durante le quali il tasso di apprendimento viene gradualmente aumentato fino a quello specificato | intero | 0 | 20 | 5 | 

I modelli Amazon Titan Text, come Lite ed Express, supportano i seguenti iperparametri per la personalizzazione del modello. Il numero di epoch specificate aumenta i costi di personalizzazione del modello in quanto vengono elaborati più token. Ogni epoch elabora l’intero set di dati di addestramento una volta. Per informazioni sui prezzi, consulta [Prezzi di Amazon Bedrock](https://aws.amazon.com/bedrock/pricing).


****  

| Iperparametro (console) | Iperparametro (API) | Definizione | Tipo | Minimo | Massimo | Predefinita | 
| --- | --- | --- | --- | --- | --- | --- | 
| Epoch | epochCount | Il numero di iterazioni nell’intero set di dati di addestramento | intero | 1 | 10 | 5 | 
| Dimensione del batch (micro) | batchSize | Il numero di campioni elaborati prima dell’aggiornamento dei parametri del modello | intero | 1 | 64 | 1 | 
| Tasso di apprendimento | learningRate | La velocità con cui i parametri del modello vengono aggiornati dopo ogni batch | virgola mobile | 0,0 | 1 | 1.00E-5 | 
| Fasi di riscaldamento del tasso di apprendimento | FasilearningRateWarmup | Il numero di iterazioni durante le quali il tasso di apprendimento viene gradualmente aumentato fino a quello specificato | intero | 0 | 250 | 5 | 

## Iperparametri di personalizzazione del modello di Generatore di immagini Amazon Titan G1
<a name="cm-hp-titan-image"></a>

Il modello di Generatore di immagini Amazon Titan G1 supporta i seguenti iperparametri per la personalizzazione.

**Nota**  
`stepCount` non ha un valore predefinito e deve essere specificato. `stepCount` supporta il valore `auto`. `auto` dà priorità alle prestazioni del modello rispetto ai costi di addestramento determinando automaticamente un numero in base alla dimensione del set di dati. I costi dei job di addestramento dipendono dal numero determinato da `auto`. Per capire come viene calcolato il costo dei job e per vedere alcuni esempi, consulta [Prezzi di Amazon Bedrock](https://aws.amazon.com/bedrock/pricing).


****  

| Iperparametro (console) | Iperparametro (API) | Definizione | Minimo | Massimo | Predefinita | 
| --- | --- | --- | --- | --- | --- | 
| Dimensione batch | batchSize | Numero di campioni elaborati prima dell’aggiornamento dei parametri del modello | 8 | 192 | 8 | 
| Fasi | stepCount | Numero di volte in cui il modello viene esposto a ciascun batch | 10 | 40.000 | N/D | 
| Tasso di apprendimento | learningRate | Velocità con cui i parametri del modello vengono aggiornati dopo ogni batch | 1.00E-7 | 1 | 1.00E-5 | 

## Iperparametri di personalizzazione di Amazon Titan Multimodal Embeddings G1
<a name="cm-hp-titan-mm"></a>

Il modello Amazon Titan Multimodal Embeddings G1 supporta i seguenti iperparametri per la personalizzazione. Il numero di epoch specificate aumenta i costi di personalizzazione del modello in quanto vengono elaborati più token. Ogni epoch elabora l’intero set di dati di addestramento una volta. Per informazioni sui prezzi, consulta [Prezzi di Amazon Bedrock](https://aws.amazon.com/bedrock/pricing).

**Nota**  
`epochCount` non ha un valore predefinito e deve essere specificato. `epochCount` supporta il valore `Auto`. `Auto` dà priorità alle prestazioni del modello rispetto ai costi di addestramento determinando automaticamente un numero in base alla dimensione del set di dati. I costi dei job di addestramento dipendono dal numero determinato da `Auto`. Per capire come viene calcolato il costo dei job e per vedere alcuni esempi, consulta [Prezzi di Amazon Bedrock](https://aws.amazon.com/bedrock/pricing).


****  

| Iperparametro (console) | Iperparametro (API) | Definizione | Tipo | Minimo | Massimo | Predefinita | 
| --- | --- | --- | --- | --- | --- | --- | 
| Epoch | epochCount | Il numero di iterazioni nell’intero set di dati di addestramento | intero | 1 | 100 | N/D | 
| Dimensione batch | batchSize | Il numero di campioni elaborati prima dell’aggiornamento dei parametri del modello | intero | 256 | 9.216 | 576 | 
| Tasso di apprendimento | learningRate | La velocità con cui i parametri del modello vengono aggiornati dopo ogni batch | virgola mobile | 5,00E-8 | 1 | 5,00E-5 | 

## Iperparametri di personalizzazione del modello Anthropic Claude 3
<a name="cm-hp-anth-claude-3"></a>

I modelli Anthropic Claude 3 supportano i seguenti iperparametri di personalizzazione. Il numero di epoch specificate aumenta i costi di personalizzazione del modello in quanto vengono elaborati più token. Ogni epoch elabora l’intero set di dati di addestramento una volta. Per informazioni sui prezzi, consulta [Prezzi di Amazon Bedrock](https://aws.amazon.com/bedrock/pricing).


****  

| Nome console | Nome API | Definizione | Predefinita | Minimo | Massimo | 
| --- | --- | --- | --- | --- | --- | 
| Numero di epoch | epochCount | Numero massimo di iterazioni nell’intero set di dati di addestramento | 2 | 1 | 10 | 
| Dimensione batch  | batchSize | Numero di campioni elaborati prima dell’aggiornamento dei parametri del modello | 32 | 4 | 256 | 
| Moltiplicatore del tasso di apprendimento | learningRateMultiplier | Moltiplicatore che influisce sul tasso di apprendimento con cui i parametri vengono aggiornati dopo ogni batch | 1 | 0.1 | 2 | 
| Soglia per l’arresto anticipato | earlyStoppingThreshold | Miglioramento minimo delle perdite di convalida richiesto per prevenire l’interruzione anticipata del processo di addestramento | 0.001 | 0 | 0.1 | 
| Tolleranza per l’arresto anticipato | earlyStoppingPatience | Tolleranza alla stagnazione nella metrica relativa alle perdite di convalida prima dell’interruzione del processo di addestramento | 2 | 1 | 10 | 

## Iperparametri di personalizzazione del modello Cohere Command
<a name="cm-hp-cohere-command"></a>

I modelli di Cohere Command e Cohere Command Light supportano i seguenti iperparametri di personalizzazione. Il numero di epoch specificate aumenta i costi di personalizzazione del modello in quanto vengono elaborati più token. Ogni epoch elabora l’intero set di dati di addestramento una volta. Per informazioni sui prezzi, consulta [Prezzi di Amazon Bedrock](https://aws.amazon.com/bedrock/pricing). Per ulteriori informazioni, consulta [Personalizzazione del modello per migliorarne le prestazioni per il proprio caso d’uso](custom-models.md).

 [Per informazioni sui Cohere modelli di fine tuning, consultate la documentazione su fine-tuning. Cohere https://docs.cohere.com/docs/](https://docs.cohere.com/docs/fine-tuning)

**Nota**  
La quota `epochCount` è modificabile.


****  

| Iperparametro (console) | Iperparametro (API) | Definizione | Tipo | Minimo | Massimo | Predefinita | 
| --- | --- | --- | --- | --- | --- | --- | 
| Epoch | epochCount | Il numero di iterazioni nell’intero set di dati di addestramento | intero | 1 | 100 | 1 | 
| Dimensione batch | batchSize | Il numero di campioni elaborati prima dell’aggiornamento dei parametri del modello | intero | 8 | 8 (Command)32 (Light) | 8 | 
| Tasso di apprendimento | learningRate | La velocità con cui i parametri del modello vengono aggiornati dopo ogni batch. Se utilizzi un set di dati di convalida, è consigliabile non specificare un valore per learningRate. | virgola mobile | 5.00E-6 | 0.1 | 1,00E-5 | 
| Soglia per l’arresto anticipato | earlyStoppingThreshold | Il miglioramento minimo delle perdite richiesto per prevenire l’interruzione prematura del processo di addestramento | virgola mobile | 0 | 0.1 | 0.01 | 
| Tolleranza per l’arresto anticipato | earlyStoppingPatience | La tolleranza alla stagnazione nella metrica delle perdite prima dell’interruzione del processo di addestramento | intero | 1 | 10 | 6 | 
| Percentuale di valutazione | evalPercentage |  La percentuale del set di dati allocato per la valutazione del modello, se non fornisci un set di dati di convalida separato  | virgola mobile | 5 | 50 | 20 | 

## Iperparametri di personalizzazione del modello Meta Llama 3.1
<a name="cm-hp-meta-llama31"></a>

I modelli Meta Llama 3.1 8B e 70B supportano i seguenti iperparametri per la personalizzazione del modello. Il numero di epoch specificate aumenta i costi di personalizzazione del modello in quanto vengono elaborati più token. Ogni epoch elabora l’intero set di dati di addestramento una volta. Per informazioni sui prezzi, consulta [Prezzi di Amazon Bedrock](https://aws.amazon.com/bedrock/pricing). Per ulteriori informazioni, consulta [Personalizzazione del modello per migliorarne le prestazioni per il proprio caso d’uso](custom-models.md).

 [Per informazioni sulla regolazione fine dei modelli Meta Llama, consulta la Meta documentazione su get-started/ \$1fine -tuning. https://ai.meta.com/llama/](https://ai.meta.com/llama/get-started/#fine-tuning)

**Nota**  
La quota `epochCount` è modificabile.


****  

| Iperparametro (console) | Iperparametro (API) | Definizione | Minimo | Massimo | Predefinita | 
| --- | --- | --- | --- | --- | --- | 
| Epoch | epochCount | Il numero di iterazioni nell’intero set di dati di addestramento | 1 | 10 | 5 | 
| Dimensione batch | batchSize | Il numero di campioni elaborati prima dell'aggiornamento dei parametri del modello | 1 | 1 | 1 | 
| Tasso di apprendimento | learningRate | La velocità con cui i parametri del modello vengono aggiornati dopo ogni batch | 5.00E-6 | 0.1 | 1,00E-4 | 

## Iperparametri di personalizzazione del modello Meta Llama 3.2
<a name="cm-hp-meta-llama32"></a>

I modelli Meta Llama 3.2 1B, 3B, 11B e 90B supportano i seguenti iperparametri per la personalizzazione del modello. Il numero di epoch specificate aumenta i costi di personalizzazione del modello in quanto vengono elaborati più token. Ogni epoch elabora l’intero set di dati di addestramento una volta. Per informazioni sui prezzi, consulta [Prezzi di Amazon Bedrock](https://aws.amazon.com/bedrock/pricing). Per ulteriori informazioni, consulta [Personalizzazione del modello per migliorarne le prestazioni per il proprio caso d’uso](custom-models.md).

 [Per informazioni sulla regolazione fine dei modelli Meta Llama, consulta la Meta documentazione su get-started/ \$1fine -tuning. https://ai.meta.com/llama/](https://ai.meta.com/llama/get-started/#fine-tuning)


****  

| Iperparametro (console) | Iperparametro (API) | Definizione | Minimo | Massimo | Predefinita | 
| --- | --- | --- | --- | --- | --- | 
| Epoch | epochCount | Il numero di iterazioni nell’intero set di dati di addestramento | 1 | 10 | 5 | 
| Dimensione batch | batchSize | Il numero di campioni elaborati prima dell'aggiornamento dei parametri del modello | 1 | 1 | 1 | 
| Tasso di apprendimento | learningRate | La velocità con cui i parametri del modello vengono aggiornati dopo ogni batch | 5.00E-6 | 0.1 | 1,00E-4 | 