Uso de la IA generativa con los modelos fundacionales - Amazon SageMaker

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Uso de la IA generativa con los modelos fundacionales

Amazon SageMaker Canvas proporciona modelos básicos de IA generativa que puede utilizar para iniciar conversaciones conversacionales. Estos modelos de generación de contenido se entrenan con grandes cantidades de datos de texto para aprender los patrones estadísticos y las relaciones entre las palabras, y pueden producir un texto coherente que sea estadísticamente similar al texto en el que se entrenaron. Puede utilizar esta capacidad para aumentar la productividad de la siguiente manera:

  • Generar contenido, como esquemas de documentos, informes y blogs

  • Resumir el texto a partir de grandes corpus de texto, como transcripciones de presentaciones de beneficios, informes anuales o capítulos de manuales de usuario

  • Extraer información y conclusiones clave de amplios pasajes de texto, como notas o transcripciones de reuniones

  • Mejorar el texto y captar errores gramaticales o tipográficos

Los modelos básicos son una combinación de los grandes modelos de lenguaje de Amazon SageMaker JumpStart y Amazon Bedrock (LLMs). Canvas ofrece los siguientes modelos:

Modelo Tipo Descripción

Amazon Titan

Modelo de Amazon Bedrock

Amazon Titan es un modelo de lenguaje potente y de uso general que puede utilizar para tareas como el resumen, la generación de texto (como la creación de una entrada de blog), la clasificación, las preguntas y respuestas abiertas y la extracción de información. Está entrenado previamente con conjuntos de datos de gran tamaño, lo que hace que resulte adecuado para tareas y razonamientos complejos. Para seguir respaldando las mejores prácticas en el uso responsable de la IA, los modelos básicos de Amazon Titan están diseñados para detectar y eliminar el contenido dañino de los datos, rechazar el contenido inapropiado en las entradas de los usuarios y filtrar las salidas de los modelos que contienen contenido inapropiado (como discursos de odio, blasfemias y violencia).

Anthropic Claude Instant

Modelo de Amazon Bedrock

El Anthropic Claude Instant es un modelo más rápido y rentable, pero aún así tiene una alta capacidad. Este modelo puede realizar una variedad de tareas, como el diálogo informal, el análisis de texto, el resumen y la respuesta a preguntas sobre documentos. Al igual que el Claude-2, el Claude Instant puede admitir hasta 100 000 tokens en cada solicitud, lo que equivale a unas 200 páginas de información.

Anthropic Claude-2

Modelo de Amazon Bedrock

El Claude-2 es el modelo más potente de Anthropic, y resulta excepcional en una amplia gama de tareas, desde diálogos sofisticados y generación de contenido creativo hasta el seguimiento detallado de instrucciones. El Claude-2 puede admitir hasta 100 000 tokens en cada solicitud, lo que equivale a unas 200 páginas de información. Puede generar respuestas más largas en comparación con su versión anterior. Admite casos de uso como la respuesta a preguntas, la extracción y eliminación de informaciónPII, la generación de contenido, la clasificación de opción múltiple, los juegos de roles, la comparación de texto, el resumen y las preguntas y respuestas de documentos con citas.

Falcon-7B-Instruct

JumpStart modelo

El Falcon-7B-Instruct tiene 7000 millones de parámetros y se ha ajustado a partir de una combinación de conjuntos de datos de chat e instrucción. Es adecuado como asistente virtual y funciona mejor cuando se siguen instrucciones o se entabla una conversación. Dado que el modelo se entrenó con grandes cantidades de datos web en inglés, contiene los estereotipos y sesgos que se encuentran comúnmente en Internet y no es adecuado para otros idiomas que no sean el inglés. En comparación con el Falcon-40B-Instruct, el Falcon-7B-Instruct es un modelo un poco más pequeño y compacto.

Falcon-40B-Instruct

JumpStart modelo

El Falcon-40B-Instruct tiene 40 000 millones de parámetros y se ha ajustado a partir de una combinación de conjuntos de datos de chat e instrucción. Es adecuado como asistente virtual y funciona mejor cuando se siguen instrucciones o se entabla una conversación. Dado que el modelo se entrenó con grandes cantidades de datos web en inglés, contiene los estereotipos y sesgos que se encuentran comúnmente en Internet y no es adecuado para otros idiomas que no sean el inglés. En comparación con el Falcon-7B-Instruct, el Falcon-40B-Instruct es un modelo un poco más grande y potente.

Jurassic-2 Mid

Modelo de Amazon Bedrock

Jurassic-2 Mid es un modelo de generación de texto de alto rendimiento basado en un corpus de texto masivo (actualizado hasta mediados de 2022). Es muy versátil, de uso general y capaz de componer textos similares a los humanos y de resolver tareas complejas, como responder preguntas, clasificar textos y muchas otras. Este modelo ofrece capacidades de instrucción de cero intentos, lo que permite que se dirija únicamente con lenguaje natural y sin el uso de ejemplos. Funciona hasta un 30 % más rápido que su predecesor, el modelo Jurassic-1.

El Jurassic-2 Mid es el modelo AI21 de tamaño mediano, diseñado cuidadosamente para lograr el equilibrio adecuado entre una calidad excepcional y un precio asequible.

Jurassic-2 Ultra

Modelo de Amazon Bedrock

Jurassic-2 Ultra es un modelo de generación de texto de alto rendimiento basado en un corpus de texto masivo (actualizado hasta mediados de 2022). Es muy versátil, de uso general y capaz de componer textos similares a los humanos y de resolver tareas complejas, como responder preguntas, clasificar textos y muchas otras. Este modelo ofrece capacidades de instrucción de cero intentos, lo que permite que se dirija únicamente con lenguaje natural y sin el uso de ejemplos. Funciona hasta un 30 % más rápido que su predecesor, el modelo Jurassic-1.

En comparación con el Jurassic-2 Mid, el Jurassic-2 Ultra es un modelo un poco más grande y potente.

Llama-2-7B-chat

JumpStart modelo

Llama-2-7b-chat es un modelo básico de Meta que es adecuado para entablar conversaciones significativas y coherentes, generar contenido nuevo y extraer respuestas de las notas existentes. Dado que el modelo se entrenó con grandes cantidades de datos de Internet en inglés, contiene los sesgos y limitaciones que suelen encontrarse en Internet y es el más adecuado para tareas en inglés.

Llama-2-13B-Chat

Modelo de Amazon Bedrock

Llama-2-13B-Chat de Meta se ajustó a los datos conversacionales después de un entrenamiento inicial en datos de Internet. Está optimizado para un diálogo natural y una atractiva capacidad de chat, lo que lo hace ideal como agente conversacional. En comparación con el Llama-2-7B-Chat, más pequeño, el Llama-2-13B-Chat tiene casi el doble de parámetros, lo que le permite recordar más contexto y producir respuestas conversacionales más matizadas. Al igual que Llama-2-7B-Chat, Llama-2-13B-Chat se entrenó con datos en inglés y es ideal para tareas en inglés.

Llama-2-70B-Chat

Modelo de Amazon Bedrock

Al igual que Llama-2-7B-Chat y Llama-2-13B-Chat, el modelo Llama-2-70B-Chat de Meta está optimizado para entablar un diálogo natural y significativo. Con 70 000 millones de parámetros, este gran modelo conversacional puede recordar un contexto más extenso y producir respuestas muy coherentes en comparación con las versiones de modelos más compactos. Sin embargo, esto se produce a costa de respuestas más lentas y mayores necesidades de recursos. Llama-2-70B-Chat se formó con grandes cantidades de datos de Internet en inglés y es ideal para tareas en inglés.

Mistral-7B

JumpStart modelo

Mistral-7B de Mistral.AI es un excelente modelo de lenguaje de uso general adecuado para una amplia gama de tareas de lenguaje natural (NLP), como la generación de texto, el resumen y la respuesta a preguntas. Utiliza la atención de consultas agrupadas (GQA), lo que permite velocidades de inferencia más rápidas, lo que hace que su rendimiento sea comparable al de los modelos con el doble o el triple de parámetros. Se entrenó con una combinación de datos de texto, incluidos libros, sitios web y artículos científicos en inglés, por lo que es ideal para tareas en inglés.

Mistral-7B-Chat

JumpStart modelo

Mistral-7B-Chat es un modelo conversacional de Mistral.AI basado en Mistral-7B. Si bien el Mistral-7B es el mejor para NLP tareas generales, el Mistral-7B-Chat se ha ajustado aún más a los datos de conversación para optimizar sus capacidades y lograr un chat natural y atractivo. Como resultado, el Mistral-7B-Chat genera respuestas más parecidas a las humanas y recuerda el contexto de las respuestas anteriores. Al igual que el Mistral-7B, este modelo es el más adecuado para tareas en inglés.

MPT-7B-Instruct

JumpStart modelo

MPT-7B-Instruct es un modelo para la enseñanza de formato largo después de las tareas y puede ayudarlo con las tareas de escritura, como el resumen de textos y la respuesta a preguntas, para ahorrarle tiempo y esfuerzo. Este modelo se entrenó con grandes cantidades de datos ajustados y puede hacer frente a entradas más grandes, como documentos complejos. Utilice este modelo cuando desee procesar cuerpos de texto grandes o si desea que el modelo genere respuestas largas.

Por el momento, los modelos fundacionales de Amazon Bedrock solo están disponibles en las regiones Este de EE. UU. (Norte de Virginia) y Oeste de EE. UU. (Oregón). Además, cuando utilice modelos fundacionales de Amazon Bedrock, se le cobrará en función del volumen de los tokens de entrada y salida, según lo especifique cada proveedor de modelos. Para obtener más información, consulte la página de Precios de Amazon Bedrock. Los modelos JumpStart básicos se implementan en las instancias de SageMaker hosting y se cobra por la duración del uso en función del tipo de instancia utilizada. Para obtener más información sobre el costo de los distintos tipos de instancias, consulta la sección Amazon SageMaker Hosting: Inferencia en tiempo real en la página de SageMaker precios.

La consulta de documentos es una característica adicional que puede utilizar para consultar y obtener información de los documentos almacenados en índices mediante Amazon Kendra. Con esta funcionalidad, puede generar contenido a partir del contexto de esos documentos y recibir respuestas específicas para su caso de uso empresarial, en lugar de respuestas genéricas según las grandes cantidades de datos en las que se basaron los modelos fundacionales. Para obtener más información acerca de los índices en Amazon Kendra, consulte la Guía para desarrolladores de Amazon Kendra.

Si desea obtener respuestas de alguno de los modelos básicos que se personalicen en función de sus datos y caso de uso, puede ajustar los modelos básicos. Para obtener más información, consulte Ajuste con precisión los modelos básicos.

Para empezar, consulte las secciones siguientes.

Requisitos previos

En las siguientes secciones se describen los requisitos previos para interactuar con los modelos fundacionales y utilizar la característica de consulta de documentos de Canvas. El resto del contenido de esta página presupone que ha cumplido con los requisitos previos para los modelos fundacionales. La característica de consulta de documentos requiere permisos adicionales.

Requisitos previos para los modelos fundacionales

Los permisos que necesita para interactuar con los modelos se incluyen en los permisos de los eady-to-use modelos de Canvas R. Para usar los modelos generativos impulsados por IA en Canvas, debes activar los permisos de configuración de los eady-to-use modelos Canvas R al configurar tu dominio de Amazon. SageMaker Para obtener más información, consulte Requisitos previos para configurar Amazon Canvas SageMaker . La configuración de eady-to-use los modelos R de Canvas adjunta la AmazonSageMakerCanvasAIServicesAccesspolítica a la función de ejecución de su usuario de Canvas AWS Identity and Access Management (IAM). Si tiene algún problema con la concesión de permisos, consulte el tema Solución de problemas relacionados con la concesión de permisos a través de la SageMaker consola.

Si ya configuró su dominio, puede editar la configuración del dominio y activar los permisos. Para obtener instrucciones sobre cómo editar la configuración de tu dominio, consultaVer y editar dominios. Al editar la configuración de su dominio, vaya a la configuración de Canvas y active la opción Habilitar eady-to-use modelos de Canvas R.

Algunos JumpStart modelos básicos también requieren que solicites un aumento de la cuota de SageMaker instancias. Canvas aloja los modelos con los que está interactuando actualmente en estas instancias, pero es posible que la cuota predeterminada de su cuenta no sea suficiente. Si se produce un error al ejecutar alguno de los siguientes modelos, solicite un aumento de cuota para los tipos de instancias asociados:

  • Falcon-40B – ml.g5.12xlarge, ml.g5.24xlarge

  • Falcon-13B – ml.g5.2xlarge, ml.g5.4xlarge, ml.g5.8xlarge

  • MPT-7B-Instruct —,, ml.g5.2xlarge ml.g5.4xlarge ml.g5.8xlarge

Para los tipos de instancias anteriores, solicite un aumento de 0 a 1 en la cuota de uso de puntos de conexión. Para obtener información sobre cómo aumentar una cuota para su cuenta, consulte Solicitar un aumento de cuota en la Guía del usuario de Service Quotas.

Requisitos previos para la consulta de documentos

nota

La consulta de documentos se admite en las siguientes Regiones de AWS regiones: EE.UU. Este (Norte de Virginia), EE.UU. Este (Ohio), EE.UU. Oeste (Oregón), Europa (Irlanda), Asia Pacífico (Singapur), Asia Pacífico (Sídney), Asia Pacífico (Tokio) y Asia Pacífico (Bombay).

La característica de consulta de documentos requiere que ya disponga de un índice de Amazon Kendra que almacene sus documentos y sus metadatos de documentos. Para obtener más información acerca de Amazon Kendra, consulte la Guía para desarrolladores de Amazon Kendra. Para obtener más información sobre las cuotas para consultar índices, consulte Cuotas en la Guía para desarrolladores de Amazon Kendra.

También debe asegurarse de que su perfil de usuario de Canvas tenga los permisos necesarios para consultar documentos. La AmazonSageMakerCanvasFullAccesspolítica debe estar asociada a la función de AWS IAM ejecución del SageMaker dominio que aloja la aplicación de Canvas (esta política se adjunta de forma predeterminada a todos los perfiles de usuario de Canvas nuevos y existentes). También debe conceder específicamente permisos de consulta de documentos y especificar el acceso a uno o más índices de Amazon Kendra.

Si su administrador de Canvas está configurando un nuevo dominio o perfil de usuario, pídale que configure el dominio siguiendo las instrucciones que se indican enRequisitos previos para configurar Amazon Canvas SageMaker . Al configurar el dominio, pueden activar los permisos de consulta de documentos a través de la configuración de los eady-to-use modelos Canvas R.

El administrador de Canvas también puede administrar los permisos de consulta de documentos en el nivel del perfil de usuario. Por ejemplo, si el administrador quiere conceder permisos de consulta de documentos a algunos perfiles de usuario pero eliminar los permisos a otros, puede editar los permisos de un usuario específico.

El siguiente procedimiento muestra cómo activar los permisos de consulta de documentos para un perfil de usuario específico:

  1. Abra la SageMaker consola en. https://console.aws.amazon.com/sagemaker/

  2. En el panel de navegación izquierdo, seleccione Configuraciones de administración.

  3. En Configuraciones de administrador, selecciona dominios.

  4. En la lista de dominios, selecciona el dominio del perfil de usuario.

  5. En la página de detalles del dominio, selecciona el perfil de usuario cuyos permisos quieres editar.

  6. En la página Detalles del usuario, elija Editar.

  7. En el panel de navegación izquierdo, elija Configuración de Canvas.

  8. En la sección de configuración de eady-to-use modelos de Canvas R, active la opción Habilitar consulta de documentos mediante Amazon Kendra.

  9. En el menú desplegable, seleccione uno o varios índices de Amazon Kendra a los que quiera conceder acceso.

  10. Selecciona Enviar para guardar los cambios en la configuración de tu dominio.

Ahora debería poder utilizar los modelos fundacionales de Canvas para consultar documentos en los índices de Amazon Kendra especificados.

Iniciar una nueva conversación para generar, extraer o resumir contenido

Para empezar a utilizar los modelos fundacionales de IA generativa en Canvas, puede iniciar una nueva sesión de chat con uno de los modelos. En el caso de los JumpStart modelos, se le cobrará mientras el modelo esté activo, por lo que debe iniciar los modelos cuando desee utilizarlos y apagarlos cuando termine de interactuar. Si no apagas un JumpStart modelo, Canvas lo apagará después de 2 horas de inactividad. En el caso de los modelos Amazon Bedrock (como Amazon Titan), se te cobrará de forma inmediata; los modelos ya están activos y no es necesario encenderlos ni apagarlos. Amazon Bedrock le cobrará directamente por el uso de estos modelos.

Para abrir una conversación con un modelo, haga lo siguiente:

  1. Abre la aplicación SageMaker Canvas.

  2. En el panel de navegación izquierdo, selecciona R eady-to-use models.

  3. Elija Generar, extraer y resumir contenido.

  4. En la página de bienvenida, recibirá una recomendación para iniciar el modelo predeterminado. Puede iniciar el modelo recomendado o elegir Seleccionar otro modelo en el menú desplegable para elegir uno diferente.

  5. Si ha seleccionado un modelo de JumpStart base, tiene que ponerlo en marcha antes de que esté disponible para su uso. Seleccione Iniciar el modelo y, a continuación, el modelo se desplegará en una SageMaker instancia. Esto puede tardar varios minutos en completarse. Cuando el modelo esté listo, puede introducir las indicaciones y hacerle preguntas.

    Si ha seleccionado un modelo fundacional de Amazon Bedrock, puede empezar a usarlo al instante introduciendo un mensaje y haciendo preguntas.

Según el modelo, puede realizar varias tareas. Por ejemplo, puede introducir un pasaje de texto y pedirle al modelo que lo resuma. O bien, puede pedirle al modelo que elabore un breve resumen de las tendencias del mercado en su dominio.

Las respuestas de la modelo en un chat se basan en el contexto de sus solicitudes anteriores. Si quiere plantear una pregunta nueva en el chat que no esté relacionada con el tema de la conversación anterior, le recomendamos que inicie una nueva conversación con el modelo.

Extracción de información de los documentos mediante la consulta de documentos

nota

En esta sección se presupone que ha completado la sección anterior Requisitos previos para la consulta de documentos.

La consulta de documentos es una característica que puede utilizar al interactuar con los modelos fundacionales en Canvas. Con la consulta de documentos, puede acceder a un corpus de documentos almacenado en un índice de Amazon Kendra, que contiene el contenido de sus documentos y está estructurado de forma que permite realizar búsquedas en los documentos. Puede hacer preguntas específicas dirigidas a los datos de su índice de Amazon Kendra, y el modelo fundacional devuelve las respuestas a sus preguntas. Por ejemplo, puede consultar una base de conocimientos interna sobre información de TI y hacer preguntas como “¿Cómo me conecto a la red de mi empresa?” Para obtener más información acerca de cómo configurar un índice, consulte la Guía para desarrolladores de Amazon Kendra.

Al utilizar la función de consulta de documentos, los modelos básicos restringen sus respuestas al contenido de los documentos de su índice con una técnica denominada Retrieval Augmented Generation (RAG). Esta técnica agrupa la información más relevante del índice junto con la solicitud del usuario y la envía al modelo fundacional para obtener una respuesta. Las respuestas se limitan a lo que se encuentra en el índice, lo que impide que el modelo dé respuestas incorrectas basadas en datos externos. Para obtener más información sobre este proceso, consulte la entrada del blog Compilación rápida de aplicaciones de IA generativa de gran precisión con datos empresariales.

Para empezar, en una conversación con un modelo fundacional en Canvas, active el botón Consulta de documentos situado en la parte superior de la página. En el menú desplegable, seleccione el índice de Amazon Kendra que quiera consultar. A continuación, puede empezar a hacer preguntas relacionadas con los documentos de su índice.

importante

La consulta de documentos es compatible con la función Comparación de los resultados del modelo. Cualquier historial de chat existente se sobrescribe al iniciar un nuevo chat para comparar los resultados del modelo.

Administración de modelos

nota

La siguiente sección describe la puesta en marcha y el cierre de los modelos, lo que solo se aplica a los modelos básicos, como el JumpStart Falcon-40B-Instruct. Puede acceder a los modelos de Amazon Bedrock, como Amazon Titan, de forma instantánea y en cualquier momento.

Puede poner en marcha tantos modelos como desee. JumpStart Cada JumpStart modelo activo conlleva cargos en tu cuenta, por lo que te recomendamos que no pongas en marcha más modelos de los que utilizas actualmente.

Para iniciar otro modelo, puede hacer lo siguiente:

  1. En la página Generar, extraer y resumir contenido, seleccione Nuevo chat.

  2. Seleccione el modelo en el menú desplegable. Si desea elegir un modelo que no aparezca en el menú desplegable, elija Iniciar otro modelo y, a continuación, seleccione el modelo que desee iniciar.

  3. Seleccione Iniciar modelo.

El modelo debería empezar a iniciarse y, en unos minutos, podrá charlar con el modelo.

Le recomendamos encarecidamente que cierre los modelos que no esté utilizando. Los modelos se cierran automáticamente tras 2 horas de inactividad. Sin embargo, para apagar un modelo manualmente, puede hacer lo siguiente:

  1. En la página Generar, extraer y resumir contenido, abra el chat del modelo que desee cerrar.

  2. En la página de chat, seleccione el icono Más opciones ( Vertical ellipsis icon representing a menu or more options. ).

  3. Seleccione Cerrar modelo.

  4. En el cuadro de confirmación Cerrar modelo, seleccione Cerrar.

El modelo comienza a cerrarse. Si su chat compara dos o más modelos, puede cerrar un modelo individual desde la página del chat. Para ello, seleccione el icono Más opciones del modelo ( Vertical ellipsis icon representing a menu or more options. ) y, a continuación, seleccione Cerrar modelo.

Comparación de los resultados del modelo

Es posible que desee comparar los resultados de los distintos modelos uno junto al otro para ver qué resultado de modelo prefiere. Esto puede ayudarle a decidir qué modelo se adapta mejor a su caso de uso. Puede comparar hasta tres modelos en los chats.

nota

Cada modelo individual genera cargos en su cuenta.

Debe iniciar un nuevo chat para agregar modelos para compararlos. Para comparar los resultados de los modelos uno junto al otro en un chat, haga lo siguiente:

  1. En un chat, seleccione Nuevo chat.

  2. Seleccione Comparar y use el menú desplegable para elegir el modelo que quiera agregar. Para agregar un tercer modelo, vuelva a seleccionar Comparar para agregar otro modelo.

    nota

    Si quieres usar un JumpStart modelo que no esté activo actualmente, se te solicitará que lo inicies.

Cuando los modelos estén activos, verá los dos modelos uno junto al otro en el chat. Puede enviar su mensaje y cada modelo responderá en el mismo chat, como se muestra en la siguiente captura de pantalla.

Captura de pantalla de la interfaz de Canvas con los resultados de dos modelos mostrados uno junto al otro.

Cuando termines de interactuar, asegúrate de apagar todos JumpStart los modelos individualmente para evitar incurrir en cargos adicionales.

Implemente un JumpStart modelo básico

Si desea obtener predicciones de un modelo SageMaker JumpStart básico de Amazon a través de una aplicación o un sitio web, puede implementar el modelo en un SageMaker punto final. SageMaker Los puntos finales alojan su modelo y usted puede enviar solicitudes al punto final a través del código de su aplicación para recibir las predicciones del modelo. Para obtener más información, consulte Implementación de sus modelos en un punto de conexión.