Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Ingeniería de peticiones para los modelos fundacionales
La ingeniería de peticiones es el proceso de diseñar y refinar las peticiones o estímulos de entrada para que un modelo de lenguaje genere tipos específicos de resultados. La ingeniería de peticiones implica seleccionar las palabras clave adecuadas, proporcionar un contexto y dar forma a los elementos de entrada de manera que se aliente al modelo a producir la respuesta deseada, y es una técnica vital para determinar activamente el comportamiento y los resultados de los modelos fundacionales.
Una ingeniería de peticiones eficaz es crucial para dirigir el comportamiento del modelo y lograr las respuestas deseadas. Mediante la ingeniería de peticiones, puede controlar el tono, el estilo y la experiencia del modelo en un dominio sin tener que recurrir a medidas de personalización más complicadas, como los ajustes. Le recomendamos que dedique tiempo a la ingeniería de peticiones antes de plantearse la posibilidad de ajustar un modelo utilizando datos adicionales. El objetivo es proporcionar un contexto y una orientación suficientes al modelo para que pueda generalizarse y funcionar bien en escenarios con datos limitados o invisibles.
Aprendizaje de cero intentos
El aprendizaje de cero intentos implica entrenar un modelo para generalizar y hacer predicciones sobre clases o tareas invisibles. Para realizar una ingeniería de peticiones en entornos de aprendizaje de cero intentos, recomendamos crear peticiones que proporcionen información explícita sobre la tarea objetivo y el formato de salida deseado. Por ejemplo, si quiere utilizar un modelo fundacional para la clasificación de texto de cero intentos en un conjunto de clases que el modelo no haya visto durante el entrenamiento, una petición bien diseñada podría ser: "Classify the following text as either
sports, politics, or entertainment:
Al especificar explícitamente las clases objetivo y el formato de salida esperado, puedes guiar al modelo para que haga predicciones precisas incluso ante clases invisibles.[input
text]
."
Aprendizaje de pocos intentos
El aprendizaje de pocos intentos implica entrenar un modelo con una cantidad limitada de datos para nuevas clases o tareas. La ingeniería de peticiones en entornos de aprendizaje de pocos intentos se centra en diseñar indicaciones que utilicen de forma eficaz los datos de entrenamiento limitados disponibles. Por ejemplo, si utiliza un modelo fundacional para una tarea de clasificación de imágenes y solo tiene unos pocos ejemplos de una nueva clase de imágenes, puede diseñar una petición que incluya los ejemplos etiquetados disponibles con un marcador de posición para la clase objetivo. Por ejemplo, la petición podría ser: "[image 1], [image 2], and
[image 3] are examples of
. Al incorporar los ejemplos etiquetados limitados y especificar explícitamente la clase objetivo, puede guiar el modelo para generalizar y hacer predicciones precisas incluso con datos de entrenamiento mínimos.[target class]
.
Classify the following image as [target
class]
"
Parámetros de inferencia admitidos
El cambio de parámetros de inferencia también puede afectar a las respuestas de las peticiones. Si bien puede intentar añadir toda la especificidad y el contexto posibles a sus peticiones, también puede experimentar con parámetros de inferencia admitidos. A continuación se ofrecen siguientes de parámetros de inferencia que se admiten habitualmente:
Parámetro de inferencia | Descripción |
---|---|
|
La longitud de salida máxima de una respuesta de modelos fundacionales. Valores válidos: entero positivo. |
|
Controla la asignación al azar de la salida. Una temperatura más alta produce una secuencia de salida con palabras de baja probabilidad y una temperatura más baja produce una secuencia de salida con palabras de alta probabilidad. Si |
|
En cada paso de generación del texto, el modelo toma muestras del conjunto de palabras más pequeño posible con una probabilidad acumulada de |
|
Si |
Para obtener más información sobre la inferencia de modelos fundacionales, consulte Implementación de modelos fundacionales disponibles públicamente con la clase JumpStartModel.
Si la ingeniería rápida no es suficiente para adaptar su modelo base a las necesidades empresariales específicas, al lenguaje específico del dominio, a las tareas específicas u otros requisitos, puede considerar la posibilidad de ajustar su modelo con datos adicionales o utilizar Retrieval Augmented Generation (RAG) para aumentar la arquitectura de su modelo con un contexto mejorado a partir de fuentes de conocimiento archivadas. Para obtener más información, consulte Modelos fundacionales e hiperparámetros para el afinamiento o Generación aumentada de recuperación.