Terminologia chiave - Amazon Bedrock

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Terminologia chiave

Questo capitolo spiega la terminologia che ti aiuterà a capire cosa offre Amazon Bedrock e come funziona. Leggi il seguente elenco per comprendere la terminologia dell'intelligenza artificiale generativa e le funzionalità fondamentali di Amazon Bedrock:

  • Foundation Model (FM): un modello di intelligenza artificiale con un gran numero di parametri e addestrato su un'enorme quantità di dati diversi. Un modello base può generare una varietà di risposte per un'ampia gamma di casi d'uso. I modelli Foundation possono generare testo o immagini e possono anche convertire gli input in incorporamenti. Prima di poter utilizzare un modello Amazon Bedrock Foundation, devi richiedere l'accesso. Per ulteriori informazioni sui modelli di fondazione, consultaModelli di fondazione supportati in Amazon Bedrock.

  • Modello base: un modello di base fornito da un provider e pronto per l'uso. Amazon Bedrock offre una varietà di modelli di base leader del settore forniti da fornitori leader. Per ulteriori informazioni, consulta Modelli di fondazione supportati in Amazon Bedrock.

  • Inferenza del modello: il processo con cui un modello di base genera un output (risposta) da un determinato input (prompt). Per ulteriori informazioni, consulta Invia richieste e genera risposte con l'inferenza del modello.

  • Richiesta: un input fornito a un modello per guidarlo a generare una risposta o un output appropriato per l'input. Ad esempio, un prompt di testo può essere costituito da una singola riga a cui il modello deve rispondere oppure può contenere istruzioni dettagliate o un'attività da eseguire per il modello. Il prompt può contenere il contesto dell'attività, esempi di output o testo che un modello può utilizzare nella sua risposta. I prompt possono essere utilizzati per eseguire attività quali classificazione, risposta a domande, generazione di codice, scrittura creativa e altro ancora. Per ulteriori informazioni, consulta Concetti ingegneristici rapidi.

  • Token: una sequenza di caratteri che un modello può interpretare o prevedere come una singola unità di significato. Ad esempio, con i modelli di testo, un token potrebbe corrispondere non solo a una parola, ma anche a una parte di una parola con un significato grammaticale (come «-ed»), un segno di punteggiatura (come «?») o una frase comune (come «molto»).

  • Parametri del modello: valori che definiscono un modello e il suo comportamento nell'interpretazione degli input e nella generazione di risposte. I parametri del modello sono controllati e aggiornati dai provider. È inoltre possibile aggiornare i parametri del modello per creare un nuovo modello attraverso il processo di personalizzazione del modello.

  • Parametri di inferenza: valori che possono essere regolati durante l'inferenza del modello per influenzare una risposta. I parametri di inferenza possono influire sulla varietà delle risposte e possono anche limitare la lunghezza di una risposta o l'occorrenza di sequenze specifiche. Per ulteriori informazioni e definizioni di parametri di inferenza specifici, vedere. Influenza la generazione della risposta con parametri di inferenza

  • Playground: un'interfaccia grafica intuitiva AWS Management Console in cui puoi sperimentare l'inferenza dei modelli in esecuzione per familiarizzare con Amazon Bedrock. Usa il playground per testare gli effetti di diversi modelli, configurazioni e parametri di inferenza sulle risposte generate per i diversi prompt che inserisci. Per ulteriori informazioni, consulta Genera risposte in un'interfaccia visiva utilizzando i parchi giochi.

  • Incorporamento: processo di condensazione delle informazioni mediante la trasformazione dell'input in un vettore di valori numerici, noto come incorporamento, per confrontare la somiglianza tra oggetti diversi utilizzando una rappresentazione numerica condivisa. Ad esempio, è possibile confrontare le frasi per determinare la somiglianza di significato, confrontare le immagini per determinare la somiglianza visiva o confrontare testo e immagine per vedere se sono pertinenti l'uno per l'altro. Puoi anche combinare input di testo e immagini in un vettore di incorporamento medio, se pertinente al tuo caso d'uso. Per ulteriori informazioni, consulta Invia richieste e genera risposte con l'inferenza del modello e Recupera dati e genera risposte AI con le knowledge base.

  • Orchestrazione: il processo di coordinamento tra i modelli di base e i dati e le applicazioni aziendali per svolgere un'attività. Per ulteriori informazioni, consulta Automatizza le attività nella tua applicazione utilizzando agenti conversazionali.

  • Agente: un'applicazione che esegue orchestrazioni interpretando ciclicamente gli input e producendo output utilizzando un modello di base. È possibile utilizzare un agente per soddisfare le richieste dei clienti. Per ulteriori informazioni, consulta Automatizza le attività nella tua applicazione utilizzando agenti conversazionali.

  • Retrieval augmented generation (RAG): il processo di interrogazione e recupero di informazioni da una fonte di dati per aumentare la risposta generata a un prompt. Per ulteriori informazioni, consulta Recupera dati e genera risposte AI con le knowledge base.

  • Personalizzazione del modello: il processo di utilizzo dei dati di addestramento per regolare i valori dei parametri del modello in un modello base al fine di creare un modello personalizzato. Esempi di personalizzazione del modello includono Fine-tuning, che utilizza dati etichettati (input e output corrispondenti), e Continued Pre-training, che utilizza dati senza etichetta (solo input) per regolare i parametri del modello. Per ulteriori informazioni sulle tecniche di personalizzazione dei modelli disponibili in Amazon Bedrock, consulta. Personalizza il tuo modello per migliorarne le prestazioni per il tuo caso d'uso

  • Iperparametri: valori che possono essere regolati per la personalizzazione del modello per controllare il processo di addestramento e, di conseguenza, il modello personalizzato di output. Per ulteriori informazioni e definizioni di iperparametri specifici, vedere. Iperparametri del modello personalizzato

  • Valutazione del modello: il processo di valutazione e confronto dei risultati del modello per determinare il modello più adatto per un caso d'uso. Per ulteriori informazioni, consulta Scegli il modello con le prestazioni migliori utilizzando le valutazioni di Amazon Bedrock.

  • Provisioned Throughput: livello di throughput acquistato per un modello base o personalizzato per aumentare la quantità e/o la velocità di token elaborati durante l'inferenza del modello. Quando si acquista Provisioned Throughput per un modello, viene creato un modello fornito che può essere utilizzato per eseguire l'inferenza del modello. Per ulteriori informazioni, consulta Aumenta la capacità di invocazione del modello con Provisioned Throughput in Amazon Bedrock.