Concetti ingegneristici rapidi - Amazon Bedrock

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Concetti ingegneristici rapidi

La progettazione tempestiva si riferisce alla pratica di ottimizzare l'input testuale in un Large Language Model (LLM) per ottenere le risposte desiderate. Il prompting aiuta a LLM svolgere un'ampia gamma di attività, tra cui classificazione, risposta a domande, generazione di codice, scrittura creativa e altro ancora. La qualità dei prompt forniti a LLM può influire sulla qualità delle risposte del modello. Questa sezione fornisce le informazioni necessarie per iniziare con la progettazione tempestiva. Include anche strumenti per aiutarti a trovare il miglior formato di prompt possibile per il tuo caso d'uso quando utilizzi un LLM Bedrock su Amazon.

Nota

Tutti gli esempi in questo documento si ottengono tramite API chiamate. La risposta può variare a causa della natura stocastica del processo di LLM generazione. Se non diversamente specificato, le istruzioni vengono scritte dai dipendenti di AWS.

Amazon Bedrock include modelli di diversi fornitori. Di seguito è riportato un elenco di linee guida ingegneristiche rapide per tali modelli.

Dichiarazione di non responsabilità: gli esempi in questo documento utilizzano i modelli di testo attualmente disponibili in Amazon Bedrock. Inoltre, questo documento contiene linee guida generali sui prompt. Per guide specifiche per modelli, consulta le rispettive documentazioni su Amazon Bedrock. Questo documento è un punto di partenza. Sebbene le seguenti risposte di esempio siano state generate utilizzando modelli specifici su Amazon Bedrock, puoi utilizzare anche altri modelli in Amazon Bedrock per ottenere risultati. Possono esserci delle differenze tra i risultati dei vari modelli poiché ognuno offre caratteristiche e prestazioni diverse. L'output che generi utilizzando i servizi di IA rappresenta il tuo contenuto. A causa della natura del machine learning, l'output potrebbe non essere univoco tra i clienti e i servizi potrebbero generare risultati uguali o simili per i clienti.