Modelos básicos de IA generativa en Canvas SageMaker - Amazon SageMaker

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Modelos básicos de IA generativa en Canvas SageMaker

Amazon SageMaker Canvas proporciona modelos básicos de IA generativa que puede utilizar para iniciar conversaciones conversacionales. Estos modelos de generación de contenido se entrenan con grandes cantidades de datos de texto para aprender los patrones estadísticos y las relaciones entre las palabras, y pueden producir un texto coherente que sea estadísticamente similar al texto en el que se entrenaron. Puede utilizar esta capacidad para aumentar la productividad de la siguiente manera:

  • Generar contenido, como esquemas de documentos, informes y blogs

  • Resumir el texto a partir de grandes corpus de texto, como transcripciones de presentaciones de beneficios, informes anuales o capítulos de manuales de usuario

  • Extraer información y conclusiones clave de amplios pasajes de texto, como notas o transcripciones de reuniones

  • Mejorar el texto y captar errores gramaticales o tipográficos

Los modelos básicos son una combinación de los grandes modelos de lenguaje de Amazon SageMaker JumpStart y Amazon Bedrock (LLMs). Canvas ofrece los siguientes modelos:

Modelo Tipo Descripción

Amazon Titan

Modelo de Amazon Bedrock

Amazon Titan es un modelo de lenguaje potente y de uso general que puede utilizar para tareas como el resumen, la generación de texto (como la creación de una entrada de blog), la clasificación, las preguntas y respuestas abiertas y la extracción de información. Está entrenado previamente con conjuntos de datos de gran tamaño, lo que hace que resulte adecuado para tareas y razonamientos complejos. Para seguir respaldando las mejores prácticas en el uso responsable de la IA, los modelos básicos de Amazon Titan están diseñados para detectar y eliminar el contenido dañino de los datos, rechazar el contenido inapropiado en las entradas de los usuarios y filtrar las salidas de los modelos que contienen contenido inapropiado (como discursos de odio, blasfemias y violencia).

Anthropic Claude Instant

Modelo de Amazon Bedrock

El Anthropic Claude Instant es un modelo más rápido y rentable, pero aún así tiene una alta capacidad. Este modelo puede realizar una variedad de tareas, como el diálogo informal, el análisis de texto, el resumen y la respuesta a preguntas sobre documentos. Al igual que el Claude-2, el Claude Instant puede admitir hasta 100 000 tokens en cada solicitud, lo que equivale a unas 200 páginas de información.

Anthropic Claude-2

Modelo de Amazon Bedrock

El Claude-2 es el modelo más potente de Anthropic, y resulta excepcional en una amplia gama de tareas, desde diálogos sofisticados y generación de contenido creativo hasta el seguimiento detallado de instrucciones. El Claude-2 puede admitir hasta 100 000 tokens en cada solicitud, lo que equivale a unas 200 páginas de información. Puede generar respuestas más largas en comparación con su versión anterior. Admite casos de uso como la respuesta a preguntas, la extracción y eliminación de informaciónPII, la generación de contenido, la clasificación de opción múltiple, los juegos de roles, la comparación de texto, el resumen y las preguntas y respuestas de documentos con citas.

Falcon-7B-Instruct

JumpStart modelo

El Falcon-7B-Instruct tiene 7000 millones de parámetros y se ha ajustado a partir de una combinación de conjuntos de datos de chat e instrucción. Es adecuado como asistente virtual y funciona mejor cuando se siguen instrucciones o se entabla una conversación. Dado que el modelo se entrenó con grandes cantidades de datos web en inglés, contiene los estereotipos y sesgos que se encuentran comúnmente en Internet y no es adecuado para otros idiomas que no sean el inglés. En comparación con el Falcon-40B-Instruct, el Falcon-7B-Instruct es un modelo un poco más pequeño y compacto.

Falcon-40B-Instruct

JumpStart modelo

El Falcon-40B-Instruct tiene 40 000 millones de parámetros y se ha ajustado a partir de una combinación de conjuntos de datos de chat e instrucción. Es adecuado como asistente virtual y funciona mejor cuando se siguen instrucciones o se entabla una conversación. Dado que el modelo se entrenó con grandes cantidades de datos web en inglés, contiene los estereotipos y sesgos que se encuentran comúnmente en Internet y no es adecuado para otros idiomas que no sean el inglés. En comparación con el Falcon-7B-Instruct, el Falcon-40B-Instruct es un modelo un poco más grande y potente.

Jurassic-2 Mid

Modelo de Amazon Bedrock

Jurassic-2 Mid es un modelo de generación de texto de alto rendimiento basado en un corpus de texto masivo (actualizado hasta mediados de 2022). Es muy versátil, de uso general y capaz de componer textos similares a los humanos y de resolver tareas complejas, como responder preguntas, clasificar textos y muchas otras. Este modelo ofrece capacidades de instrucción de cero intentos, lo que permite que se dirija únicamente con lenguaje natural y sin el uso de ejemplos. Funciona hasta un 30 % más rápido que su predecesor, el modelo Jurassic-1.

El Jurassic-2 Mid es el modelo AI21 de tamaño mediano, diseñado cuidadosamente para lograr el equilibrio adecuado entre una calidad excepcional y un precio asequible.

Jurassic-2 Ultra

Modelo de Amazon Bedrock

Jurassic-2 Ultra es un modelo de generación de texto de alto rendimiento basado en un corpus de texto masivo (actualizado hasta mediados de 2022). Es muy versátil, de uso general y capaz de componer textos similares a los humanos y de resolver tareas complejas, como responder preguntas, clasificar textos y muchas otras. Este modelo ofrece capacidades de instrucción de cero intentos, lo que permite que se dirija únicamente con lenguaje natural y sin el uso de ejemplos. Funciona hasta un 30 % más rápido que su predecesor, el modelo Jurassic-1.

En comparación con el Jurassic-2 Mid, el Jurassic-2 Ultra es un modelo un poco más grande y potente.

Llama-2-7B-chat

JumpStart modelo

Llama-2-7b-chat es un modelo básico de Meta que es adecuado para entablar conversaciones significativas y coherentes, generar contenido nuevo y extraer respuestas de las notas existentes. Dado que el modelo se entrenó con grandes cantidades de datos de Internet en inglés, contiene los sesgos y limitaciones que suelen encontrarse en Internet y es el más adecuado para tareas en inglés.

Llama-2-13B-Chat

Modelo de Amazon Bedrock

Llama-2-13B-Chat de Meta se ajustó a los datos conversacionales después de un entrenamiento inicial en datos de Internet. Está optimizado para un diálogo natural y una atractiva capacidad de chat, lo que lo hace ideal como agente conversacional. En comparación con el Llama-2-7B-Chat, más pequeño, el Llama-2-13B-Chat tiene casi el doble de parámetros, lo que le permite recordar más contexto y producir respuestas conversacionales más matizadas. Al igual que Llama-2-7B-Chat, Llama-2-13B-Chat se entrenó con datos en inglés y es ideal para tareas en inglés.

Llama-2-70B-Chat

Modelo de Amazon Bedrock

Al igual que Llama-2-7B-Chat y Llama-2-13B-Chat, el modelo Llama-2-70B-Chat de Meta está optimizado para entablar un diálogo natural y significativo. Con 70 000 millones de parámetros, este gran modelo conversacional puede recordar un contexto más extenso y producir respuestas muy coherentes en comparación con las versiones de modelos más compactos. Sin embargo, esto se produce a costa de respuestas más lentas y mayores necesidades de recursos. Llama-2-70B-Chat se formó con grandes cantidades de datos de Internet en inglés y es ideal para tareas en inglés.

Mistral-7B

JumpStart modelo

Mistral-7B de Mistral.AI es un excelente modelo de lenguaje de uso general adecuado para una amplia gama de tareas de lenguaje natural (NLP), como la generación de texto, el resumen y la respuesta a preguntas. Utiliza la atención de consultas agrupadas (GQA), lo que permite velocidades de inferencia más rápidas, lo que hace que su rendimiento sea comparable al de los modelos con el doble o el triple de parámetros. Se entrenó con una combinación de datos de texto, incluidos libros, sitios web y artículos científicos en inglés, por lo que es ideal para tareas en inglés.

Mistral-7B-Chat

JumpStart modelo

Mistral-7B-Chat es un modelo conversacional de Mistral.AI basado en Mistral-7B. Si bien el Mistral-7B es el mejor para NLP tareas generales, el Mistral-7B-Chat se ha ajustado aún más a los datos de conversación para optimizar sus capacidades y lograr un chat natural y atractivo. Como resultado, el Mistral-7B-Chat genera respuestas más parecidas a las humanas y recuerda el contexto de las respuestas anteriores. Al igual que el Mistral-7B, este modelo es el más adecuado para tareas en inglés.

MPT-7B-Instruct

JumpStart modelo

MPT-7B-Instruct es un modelo para la enseñanza de formato largo después de las tareas y puede ayudarlo con las tareas de escritura, como el resumen de textos y la respuesta a preguntas, para ahorrarle tiempo y esfuerzo. Este modelo se entrenó con grandes cantidades de datos ajustados y puede hacer frente a entradas más grandes, como documentos complejos. Utilice este modelo cuando desee procesar cuerpos de texto grandes o si desea que el modelo genere respuestas largas.

Por el momento, los modelos fundacionales de Amazon Bedrock solo están disponibles en las regiones Este de EE. UU. (Norte de Virginia) y Oeste de EE. UU. (Oregón). Además, cuando utilice modelos fundacionales de Amazon Bedrock, se le cobrará en función del volumen de los tokens de entrada y salida, según lo especifique cada proveedor de modelos. Para obtener más información, consulte la página de Precios de Amazon Bedrock. Los modelos JumpStart básicos se implementan en las instancias de SageMaker hosting y se cobra por la duración del uso en función del tipo de instancia utilizada. Para obtener más información sobre el costo de los distintos tipos de instancias, consulta la sección Amazon SageMaker Hosting: Inferencia en tiempo real en la página de SageMaker precios.

La consulta de documentos es una característica adicional que puede utilizar para consultar y obtener información de los documentos almacenados en índices mediante Amazon Kendra. Con esta funcionalidad, puede generar contenido a partir del contexto de esos documentos y recibir respuestas específicas para su caso de uso empresarial, en lugar de respuestas genéricas según las grandes cantidades de datos en las que se basaron los modelos fundacionales. Para obtener más información acerca de los índices en Amazon Kendra, consulte la Guía para desarrolladores de Amazon Kendra.

Si desea obtener respuestas de alguno de los modelos básicos que se personalicen en función de sus datos y caso de uso, puede ajustar los modelos básicos. Para obtener más información, consulte Ajusta los modelos básicos.

Si desea obtener predicciones de un modelo SageMaker JumpStart básico de Amazon a través de una aplicación o un sitio web, puede implementar el modelo en un SageMaker punto final. SageMaker Los puntos finales alojan su modelo y usted puede enviar solicitudes al punto final a través del código de su aplicación para recibir las predicciones del modelo. Para obtener más información, consulte Implementación de sus modelos en un punto de conexión.