Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Modelli di base e iperparametri per la messa a punto
I modelli di fondazione sono costosi dal punto di vista computazionale e vengono addestrati su un ampio corpus senza etichetta. L’ottimizzazione di un modello di fondazione addestrato è un modo conveniente per sfruttare le ampie funzionalità di tali modelli personalizzando al contempo un modello su un piccolo corpus. L’ottimizzazione è un metodo di personalizzazione che prevede un ulteriore addestramento e modifica il peso del modello.
L’ottimizzazione potrebbe esserti utile se hai bisogno di:
-
personalizzare il modello in base a esigenze aziendali specifiche
-
il tuo modello per lavorare con successo con un linguaggio specifico del dominio, come gergo di settore, termini tecnici o altri vocaboli specializzati
-
prestazioni migliorate per attività specifiche
-
risposte accurate, relative e sensibili al contesto nelle applicazioni
-
risposte più concrete, meno controverse e meglio allineate ai requisiti specifici
Esistono due approcci principali che è possibile adottare per l’ottimizzazione, a seconda del caso d'uso e del modello di fondazione scelto.
-
Se sei interessato a ottimizzare il tuo modello sulla base di dati specifici del dominio, consulta Perfeziona un modello linguistico di grandi dimensioni (LLM) utilizzando l'adattamento del dominio.
-
Se sei interessato alla messa a punto basata su istruzioni utilizzando esempi di prompt e risposta, consulta Perfeziona un modello linguistico di grandi dimensioni () LLM utilizzando istruzioni rapide.
Modelli Foundation disponibili per la messa a punto
È possibile ottimizzare uno qualsiasi dei seguenti modelli di base: JumpStart
-
Bloom 3B
-
Bloom 7B1
-
BloomZ 3B FP16
-
BloomZ 7B1 FP16
-
Codice Llama 13B
-
Codice Llama 13B Python
-
Codice Llama 34B
-
Codice Llama 34B Python
-
Codice Llama 70B
-
Codice Llama 70B Python
-
Codice Llama 7B
-
Codice Llama 7B Python
-
CyberAgentLM2- Chat a 7 B (Chat a 7 B) CALM2
-
Falcon 40 B BF16
-
Falcon 40B Istruzione BF16
-
Falcon 7B BF16
-
Falcon 7B Istruisce BF16
-
Base Flan-T5
-
Flan-T5 Grande
-
Flan-T5 piccolo
-
Flan-T5 XL
-
Flan-T5 XXL
-
Gemma 2B
-
Gemma 2B Istruisci
-
Gemma 7B
-
Gemma 7B Istruisci
-
GPT-2 XL
-
GPT-J6B
-
GPT-Neo 1,3 B
-
GPT-Neo 125M
-
GPT- 2,7 GB NEO
-
Light Instruct 6B GPT
-
Llama 2 13B
-
Llama 2 13B Chat
-
Neurone Llama 2 13B
-
Lama 2 70B
-
Llama 2 70B Chat
-
Lama 2 7B
-
Chat Llama 2 7B
-
Neurone Llama 2 7B
-
Mistral 7B
-
Mixtral 8x7B
-
Istruzioni Mixtral 8x7B
-
RedPajama INCITEBase 3B V1
-
RedPajama INCITEBase 7B V1
-
RedPajama INCITEGrafico 3B V1
-
RedPajama INCITEChatta 7B V1
-
RedPajama INCITEIstruisci 3B V1
-
RedPajama INCITEIstruisci 7B V1
-
Diffusione stabile 2.1
Iperparametri di regolazione fine comunemente supportati
Diversi modelli di base supportano diversi iperparametri durante la messa a punto. Di seguito sono riportati gli iperparametri comunemente supportati che possono personalizzare ulteriormente il modello durante l'allenamento:
Parametro di inferenza | Descrizione |
---|---|
|
Il numero di passaggi che il modello esegue nel set di dati di fine tuning durante l'addestramento. Deve essere un numero intero maggiore di 1. |
|
La velocità con cui i pesi del modello vengono aggiornati dopo aver elaborato ogni serie di esempi di addestramento di precisione. Deve essere un float positivo maggiore di 0. |
|
Se istruire/addestrare il modello o meno. Deve essere |
|
La dimensione del lotto per GPU core o CPU per l'addestramento. Deve essere un numero intero positivo. |
|
La dimensione del batch per GPU core o CPU per la valutazione. Deve essere un numero intero positivo. |
|
Per scopi di debug o per una formazione più rapida, riduci il numero di esempi di formazione a questo valore. Il valore -1 indica che il modello utilizza tutti gli esempi di addestramento. Deve essere un numero intero positivo o -1. |
|
Per scopi di debug o per una formazione più rapida, tronca il numero di esempi di convalida a questo valore. Il valore -1 indica che il modello utilizza tutti gli esempi di convalida. Deve essere un numero intero positivo o -1. |
|
Lunghezza totale massima della sequenza di input dopo la tokenizzazione. Le sequenze più lunghe di questa verranno troncate. Se -1, |
|
Se non esiste un canale di convalida, il rapporto tra la convalida del treno e i dati di addestramento viene suddiviso. Deve essere compreso tra 0 e 1. |
|
Se i dati di convalida non sono presenti, viene corretta la suddivisione casuale dei dati di addestramento in ingresso in dati di addestramento e convalida utilizzati dal modello. Deve essere un numero intero. |
|
Il numero di processi da utilizzare per la preelaborazione. Se |
|
Valore r di adattamento a basso rango (LoRa), che funge da fattore di scala per gli aggiornamenti del peso. Deve essere un numero intero positivo. |
|
Valore alfa di adattamento a basso rango (LoRa), che funge da fattore di scala per gli aggiornamenti del peso. Generalmente da 2 a 4 volte la dimensione di. |
|
Il valore di abbandono per i livelli di adattamento a basso rango (LoRa) Deve essere un float positivo compreso tra 0 e 1. |
|
Se |
|
Se |
È possibile specificare i valori degli iperparametri quando si ottimizza il modello in Studio. Per ulteriori informazioni, consulta Perfeziona un modello in Studio.
È inoltre possibile sovrascrivere i valori predefiniti degli iperparametri durante la messa a punto del modello utilizzando il SageMaker Python SDK. Per ulteriori informazioni, consulta Ottimizzate i modelli di base disponibili pubblicamente con la classe JumpStartEstimator.