Ingeniería de peticiones para los modelos fundacionales - Amazon SageMaker AI

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Ingeniería de peticiones para los modelos fundacionales

La ingeniería de peticiones es el proceso de diseñar y refinar las peticiones o estímulos de entrada para que un modelo de lenguaje genere tipos específicos de resultados. La ingeniería de peticiones implica seleccionar las palabras clave adecuadas, proporcionar un contexto y dar forma a los elementos de entrada de manera que se aliente al modelo a producir la respuesta deseada, y es una técnica vital para determinar activamente el comportamiento y los resultados de los modelos fundacionales.

Una ingeniería de peticiones eficaz es crucial para dirigir el comportamiento del modelo y lograr las respuestas deseadas. Mediante la ingeniería de peticiones, puede controlar el tono, el estilo y la experiencia del modelo en un dominio sin tener que recurrir a medidas de personalización más complicadas, como los ajustes. Le recomendamos que dedique tiempo a la ingeniería de peticiones antes de plantearse la posibilidad de ajustar un modelo utilizando datos adicionales. El objetivo es proporcionar un contexto y una orientación suficientes al modelo para que pueda generalizarse y funcionar bien en escenarios con datos limitados o invisibles.

Aprendizaje de cero intentos

El aprendizaje de cero intentos implica entrenar un modelo para generalizar y hacer predicciones sobre clases o tareas invisibles. Para realizar una ingeniería de peticiones en entornos de aprendizaje de cero intentos, recomendamos crear peticiones que proporcionen información explícita sobre la tarea objetivo y el formato de salida deseado. Por ejemplo, si quiere utilizar un modelo fundacional para la clasificación de texto de cero intentos en un conjunto de clases que el modelo no haya visto durante el entrenamiento, una petición bien diseñada podría ser: "Classify the following text as either sports, politics, or entertainment: [input text]." Al especificar explícitamente las clases objetivo y el formato de salida esperado, puedes guiar al modelo para que haga predicciones precisas incluso ante clases invisibles.

Aprendizaje de pocos intentos

El aprendizaje de pocos intentos implica entrenar un modelo con una cantidad limitada de datos para nuevas clases o tareas. La ingeniería de peticiones en entornos de aprendizaje de pocos intentos se centra en diseñar indicaciones que utilicen de forma eficaz los datos de entrenamiento limitados disponibles. Por ejemplo, si utiliza un modelo fundacional para una tarea de clasificación de imágenes y solo tiene unos pocos ejemplos de una nueva clase de imágenes, puede diseñar una petición que incluya los ejemplos etiquetados disponibles con un marcador de posición para la clase objetivo. Por ejemplo, la petición podría ser: "[image 1], [image 2], and [image 3] are examples of [target class]. Classify the following image as [target class]". Al incorporar los ejemplos etiquetados limitados y especificar explícitamente la clase objetivo, puede guiar el modelo para generalizar y hacer predicciones precisas incluso con datos de entrenamiento mínimos.

Parámetros de inferencia admitidos

El cambio de parámetros de inferencia también puede afectar a las respuestas de las peticiones. Si bien puede intentar añadir toda la especificidad y el contexto posibles a sus peticiones, también puede experimentar con parámetros de inferencia admitidos. A continuación se ofrecen siguientes de parámetros de inferencia que se admiten habitualmente:

Parámetro de inferencia Descripción

max_new_tokens

La longitud de salida máxima de una respuesta de modelos fundacionales. Valores válidos: entero positivo.

temperature

Controla la asignación al azar de la salida. Una temperatura más alta produce una secuencia de salida con palabras de baja probabilidad y una temperatura más baja produce una secuencia de salida con palabras de alta probabilidad. Si temperature=0, la respuesta se compone únicamente de las palabras de mayor probabilidad (decodificación codiciosa). Valores válidos: número flotante positivo.

top_p

En cada paso de generación del texto, el modelo toma muestras del conjunto de palabras más pequeño posible con una probabilidad acumulada de top_p. Valores válidos: flotante, rango: 0,0, 1,0.

return_full_text

Si True, el texto de entrada es parte del texto de salida generado. Valores válidos: booleano, predeterminado: False.

Para obtener más información sobre la inferencia de modelos fundacionales, consulte Implementación de modelos fundacionales disponibles públicamente con la clase JumpStartModel.

Si la ingeniería rápida no es suficiente para adaptar su modelo base a las necesidades empresariales específicas, al lenguaje específico del dominio, a las tareas específicas u otros requisitos, puede considerar la posibilidad de ajustar su modelo con datos adicionales o utilizar Retrieval Augmented Generation (RAG) para aumentar la arquitectura de su modelo con un contexto mejorado a partir de fuentes de conocimiento archivadas. Para obtener más información, consulte Modelos fundacionales e hiperparámetros para el afinamiento o Generación aumentada de recuperación.