Genere respuestas en una interfaz visual utilizando parques infantiles - Amazon Bedrock

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Genere respuestas en una interfaz visual utilizando parques infantiles

Los parques infantiles de Amazon Bedrock son una herramienta del AWS Management Console que proporcionan una interfaz visual para experimentar con la ejecución de inferencias en diferentes modelos y utilizando diferentes configuraciones. Puede utilizar los campos de juego para probar diferentes modelos y valores antes de integrarlos en su aplicación.

Ejecutar un mensaje en un patio de recreo equivale a hacer una InvokeModelInvokeModelWithResponseStream, una conversación o una ConverseStreamsolicitud en el. API

Amazon Bedrock ofrece los siguientes parques infantiles con los que puede experimentar:

  • Chat: envíe un mensaje de texto e incluya cualquier imagen o documento que complemente el mensaje. Las siguientes solicitudes que envíes incluirán las anteriores como contexto, de forma que la secuencia de indicaciones y respuestas se asemeje a una conversación.

  • Texto: envíe un único mensaje de texto y genere una respuesta al mismo.

  • Imagen: envíe un mensaje de texto para generar una imagen. También puede enviar una solicitud de imagen y especificar si desea editarla o generar variaciones de la misma.

El siguiente procedimiento describe cómo enviar una solicitud en el patio de recreo, las opciones que puede ajustar y las acciones que puede realizar una vez que el modelo genere una respuesta.

Para usar un área de pruebas
  1. Si aún no lo ha hecho, solicite acceso a los modelos que quiera utilizar. Para obtener más información, consulte Acceda a los modelos básicos de Amazon Bedrock.

  2. Inicie sesión en AWS Management Console utilice un IAMrol con permisos de Amazon Bedrock y abra la consola de Amazon Bedrock en. https://console.aws.amazon.com/bedrock/

  3. En el panel de navegación, en Áreas de pruebas, seleccione Chat, Texto o Imagen.

  4. Seleccione el modelo seleccionado y seleccione el proveedor, el modelo y el rendimiento que desee utilizar. Para obtener más información sobre los tipos de rendimiento, consulte. Aumente el rendimiento para aumentar la resiliencia y la potencia de procesamiento

  5. Envíe la siguiente información para generar una respuesta:

    • Mensaje: una o más frases de texto que configuran un escenario, una pregunta o una tarea para un modelo. Para obtener información sobre la creación de peticiones, consulte Conceptos de ingeniería rápidos.

      Si utilizas el campo de chat, puedes seleccionar Elegir archivos o arrastrar un archivo al campo de texto del mensaje para incluir archivos que complementen el mensaje. Puede hacer referencia al archivo en el texto del mensaje, como Summarize this document for me oTell me what's in this image. Puede incluir los siguientes tipos de archivos:

      • Documentos: añada documentos para complementar la solicitud. Para obtener una lista de los tipos de archivos compatibles, consulte el format campo de DocumentBlock.

        aviso

        Los nombres de los documentos son vulnerables a las inyecciones rápidas, ya que el modelo podría interpretarlos inadvertidamente como instrucciones. Por lo tanto, le recomendamos que especifique un nombre neutro.

      • Imágenes: agregue imágenes para complementar la solicitud, si el modelo admite solicitudes multimodales. Para obtener una lista de los tipos de archivos compatibles, consulte el format campo del. ImageBlock

      nota

      Las siguientes restricciones se aplican a la hora de añadir archivos a la zona de chat:

      • Puedes incluir hasta 20 imágenes. El tamaño, la altura y el ancho de cada imagen no deben ser superiores a 3,75 MB, 8000 px y 8000 px, respectivamente.

      • Puedes incluir hasta cinco documentos. El tamaño de cada documento no debe superar los 4,5 MB.

    • Configuraciones: ajustes que se ajustan para modificar la respuesta del modelo. Las configuraciones incluyen lo siguiente:

  6. (Opcional) Si un modelo admite la transmisión en streaming, el comportamiento predeterminado en las zonas de juego de texto o chat es reproducir las respuestas en streaming. Para desactivar la transmisión, seleccione el icono de opciones ( Vertical ellipsis icon representing a menu or more options. ) y modifique la opción de preferencias de transmisión.

  7. (Opcional) En el área de chat, puedes comparar las respuestas de diferentes modelos de la siguiente manera:

    1. Active el Modo de comparación.

    2. Elija Seleccionar modelo y seleccione el proveedor, el modelo y el rendimiento que desee utilizar.

    3. Elija el icono de configuración ( Three horizontal sliders with adjustable circular controls for settings or parameters. ) para modificar las configuraciones que se van a utilizar.

    4. Para añadir más modelos para compararlos, pulse el icono + de la derecha, seleccione un modelo y modifique las configuraciones según sea necesario.

  8. Para ejecutar el mensaje, seleccione Ejecutar. Amazon Bedrock no almacena ningún texto, imagen o documento que proporciones. Los datos solo se utilizan para generar la respuesta.

    nota

    Si la respuesta infringe la política de moderación de contenido, Amazon Bedrock no la mostrará. Si ha activado el streaming, Amazon Bedrock borra toda la respuesta si genera contenido que infrinja la política. Para obtener más información, diríjase a la consola de Amazon Bedrock, seleccione Proveedores y lea el texto de la sección Limitaciones de contenido.

  9. El modelo devuelve la respuesta. Si está utilizando el área de chat, puede enviar un mensaje para responder a la respuesta y generar otra respuesta.

  10. Tras generar una respuesta, tienes las siguientes opciones:

    • Para exportar la respuesta como un JSON archivo, elija el icono de opciones ( Vertical ellipsis icon representing a menu or more options. ) y seleccione Exportar como JSON.

    • Para ver la API solicitud que realizaste, selecciona el icono de opciones ( Vertical ellipsis icon representing a menu or more options. ) y selecciona Ver API solicitud.

    • En el área de chat, puedes ver las métricas en la sección Métricas del modelo. Están disponibles las siguientes métricas del modelo:

      • Latencia: el tiempo que tarda el modelo en generar cada token (palabra) de una secuencia.

      • Recuento de tokens de entrada: la cantidad de tokens que se introducen en el modelo como entrada durante la inferencia.

      • Recuento de tokens de salida: la cantidad de tokens generados en respuesta a una petición. Las respuestas más largas y conversacionales requieren más tokens.

      • Costo: el costo de procesar la entrada y generar los tokens de salida.

      Para establecer los criterios de métrica con los que desea que coincida la respuesta, elija Definir criterios de métrica y definir las condiciones para que coincida el modelo. Después de aplicar los criterios, la sección Métricas del modelo muestra cuántos y qué criterios cumplió la respuesta.

      Si no se cumplen los criterios, puede elegir un modelo diferente, volver a escribir la solicitud o modificar las configuraciones y volver a ejecutar la solicitud.