Modelos de base disponibles - Amazon SageMaker

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Modelos de base disponibles

Amazon SageMaker JumpStart ofrece modelos state-of-the-art básicos integrados, disponibles públicamente y patentados para personalizarlos e integrarlos en sus flujos de trabajo generativos de IA.

Modelos fundacionales disponibles públicamente

Amazon SageMaker JumpStart incorpora y mantiene modelos básicos de código abierto procedentes de fuentes de terceros. Para empezar a utilizar uno de estos modelos disponibles públicamente, consulte JumpStart uso del modelo básico o explore uno de los Cuadernos de ejemplo disponibles. En un cuaderno de ejemplo dado para un modelo disponible públicamente, intente cambiar el ID del modelo para experimentar con diferentes modelos de la misma familia de modelos.

Para obtener más información sobre el modelo IDs y los recursos sobre la implementación de modelos básicos JumpStart disponibles públicamente con el SageMaker Python SDK, consulteUtilice modelos de base con SageMaker Python SDK.

Por definición, los modelos fundacionales se adaptan a muchas tareas posteriores. Los modelos fundacionales se basan en enormes cantidades de datos de dominio general y el mismo modelo se puede implementar o personalizar para varios casos de uso. Al elegir el modelo de base, comience por definir una tarea específica, como la generación de texto o la generación de imágenes.

Modelos de previsión de series temporales disponibles públicamente

Los modelos de previsión de series temporales están diseñados para analizar y hacer predicciones sobre datos secuenciales a lo largo del tiempo. Estos modelos se pueden aplicar a varios ámbitos, como las finanzas, la previsión meteorológica o la previsión de la demanda de energía. Los modelos Chronos están diseñados para tareas de previsión de series temporales, lo que permite realizar predicciones precisas basadas en patrones de datos históricos.

Nombre del modelo ID del modelo Fuente del modelo Ajustable

Chronos T5 Small

autogluon-forecasting-chronos-t5-small

Amazon

No

Base Chronos T5

autogluon-forecasting-chronos-t5-base

Amazon

No

Chronos T5 Large

autogluon-forecasting-chronos-t5-large

Amazon

No

Modelos de generación de texto disponibles públicamente

Los modelos fundacionales de generación de texto se pueden utilizar para una variedad de tareas posteriores, como el resumen de textos, la clasificación de textos, la respuesta a preguntas, la generación de contenido de formato largo, la redacción de textos cortos, la extracción de información y mucho más.

Nombre del modelo ID del modelo Fuente del modelo Ajustable

Alexa TM 20B

pytorch-textgeneration1-alexa20b

Amazon

No

Bloom 1b1

huggingface-textgeneration-bloom-1b1

Hugging Face

No

Bloom 1b7

huggingface-textgeneration-bloom-1b7

Hugging Face

No

Bloom 3B

huggingface-textgeneration1-bloom-3b

Hugging Face

Bloom 560 m

huggingface-textgeneration-bloom-560m

Hugging Face

No

Bloom 7B1

huggingface-textgeneration1-bloom-7b1

Hugging Face

Bloomz 1b1

huggingface-textgeneration-bloomz-1b1

Hugging Face

No

Bloomz 1b7

huggingface-textgeneration-bloomz-1b7

Hugging Face

No

BloomZ 3B FP16

huggingface-textgeneration1-bloom-3b-fp16

Hugging Face

Bloomz 560 m

huggingface-textgeneration-bloomz-560m

Hugging Face

No

BloomZ 7B1 FP16

huggingface-textgeneration1-bloomz-7b1-fp16

Hugging Face

Código Llama 13B

meta-textgeneration-llama-codellama-13b

Meta

Código Llama 13B Instruct

meta-textgeneration-llama-codellama-13b-instruct

Meta

No

Código Llama 13B Python

meta-textgeneration-llama-codellama-13b-python

Meta

Código Llama 34B

meta-textgeneration-llama-codellama-34b

Meta

Código Llama 34B Instruct

meta-textgeneration-llama-codellama-34b-instruct

Meta

No

Código Llama 34B Python

meta-textgeneration-llama-codellama-34b-python

Meta

Código Llama 70B

meta-textgeneration-llama-codellama-70b

Meta

Código Llama 70B Instruct

meta-textgeneration-llama-codellama-70b-instruct

Meta

No

Código Llama 70B Python

meta-textgeneration-llama-codellama-70b-python

Meta

Código Llama 7B

meta-textgeneration-llama-codellama-7b

Meta

Código Llama 7B Instruct

meta-textgeneration-llama-codellama-7b-instruct

Meta

No

Código Llama 7B Python

meta-textgeneration-llama-codellama-7b-python

Meta

CyberAgentLM2-7B-Chat (-7B-Chat) CALM2

huggingface-llm-calm2-7b-chat-bf16

Hugging Face

Destilar GPT2

huggingface-textgeneration-distilgpt2

Hugging Face

No

Dolly V2 12b BF16

huggingface-textgeneration-dolly-v2-12b-bf16

Hugging Face

No

Dolly V2 3b BF16

huggingface-textgeneration-dolly-v2-3b-bf16

Hugging Face

No

Dolly V2 7b BF16

huggingface-textgeneration-dolly-v2-7b-bf16

Hugging Face

No

Dolphin 2.2.1 Mistral 7B

huggingface-llm-dolphin-2-2-1-mistral-7b

Hugging Face

No

Dolphin 2.5 Mixtral 8 7B

huggingface-llm-dolphin-2-5-mixtral-8x7b

Hugging Face

No

Dolphin 2.7 Mixtral 8 7B

huggingface-llm-dolphin-2-7-mixtral-8x7b

Hugging Face

No

Eleutherai GPT Neo 2.7B

huggingface-llm-eleutherai-gpt-neo-1-3b

Hugging Face

No

Eleutherai GPT Neo 2,7B

huggingface-llm-eleutherai-gpt-neo-2-7b

Hugging Face

No

Falcon 180B BF16

huggingface-llm-falcon-180b-bf16

Hugging Face

No

Chat del Falcon 180B BF16

huggingface-llm-falcon-180b-chat-bf16

Hugging Face

No

Falcon 40B BF16

huggingface-llm-falcon-40b-bf16

Hugging Face

Falcon 40B Instruct BF16

huggingface-llm-falcon-40b-instruct-bf16

Hugging Face

Falcon 7B BF16

huggingface-llm-falcon-7b-bf16

Hugging Face

Falcon 7B Instruct BF16

huggingface-llm-falcon-7b-instruct-bf16

Hugging Face

Falcon Lite

huggingface-llm-amazon-falconlite

Hugging Face

No

Falcon Lite 2

huggingface-llm-amazon-falconlite2

Hugging Face

No

Falcon RW 1B

huggingface-llm-tiiuae-falcon-rw-1b

Hugging Face

No

Base Flan-T5

huggingface-text2text-flan-t5-base

Hugging Face

Modelo base del Flan-T5 ajustado con precisión en el conjunto de datos Samsum

huggingface-text2text-flan-t5-base-samsum

Hugging Face

No

Flan-T5 grande

huggingface-text2text-flan-t5-large

Hugging Face

Flan-T5 pequeño

huggingface-text2text-flan-t5-small

Hugging Face

Flan-T5 XL

huggingface-text2text-flan-t5-xl

Hugging Face

Flan-T5 XXL

huggingface-text2text-flan-t5-xxl

Hugging Face

Flan- UL2 BF16

huggingface-text2text-flan-ul2-bf16

Hugging Face

No

Gemma 2B

huggingface-llm-gemma-2b

Hugging Face

Gemma 2B: Instrucción

huggingface-llm-gemma-2b-instruct

Hugging Face

Gemma 7B

huggingface-llm-gemma-7b

Hugging Face

Gemma 7B: Instrucción

huggingface-llm-gemma-7b-instruct

Hugging Face

GPT2

huggingface-textgeneration-gpt2

Hugging Face

No

GPTNeoX 20B FP16

huggingface-textgeneration2-gpt-neox-20b-fp16

Hugging Face

No

GPTBase de chat NeoXt 20B FP16

huggingface-textgeneration2-gpt-neoxt-chat-base-20b-fp16

Hugging Face

No

GPT-2 XL

huggingface-textgeneration1-gpt-2-xl

Hugging Face

GPT-J 6B

huggingface-textgeneration1-gpt-j-6b

Hugging Face

GPT-Neo 1,3 B

huggingface-textgeneration1-gpt-neo-1-3b

Hugging Face

GPT-Neo 125 M

huggingface-textgeneration1-gpt-neo-125m

Hugging Face

GPT- 2,7 B NEO

huggingface-textgeneration1-gpt-neo-2-7b

Hugging Face

StableLM Instruct Alpha 7B v2 japonés

model-textgenerationjp-japanese-stablelm-instruct-alpha-7b-v2

Hugging Face

No

GPTLight Instruct 6B

huggingface-textgeneration1-lightgpt

Hugging Face

Lite Llama 460M 1T

huggingface-llm-ahxt-litellama-460m-1t

Hugging Face

No

Llama 2 13B

meta-textgeneration-llama-2-13b

Meta

Llama 2 13B Chat

meta-textgeneration-llama-2-13b-f

Meta

Llama 2 13B Chat Neuron

meta-textgenerationneuron-llama-2-13b-f

Meta

No

Llama 2 13B Neurona

meta-textgenerationneuron-llama-2-13b

Meta

Llama 2 70B

meta-textgeneration-llama-2-70b

Meta

Llama 2 70B Chat

meta-textgeneration-llama-2-70b-f

Meta

Llama 2 70B Chat Neuron

meta-textgenerationneuron-llama-2-70b-f

Meta

No

Llama 2 70B Neuron

meta-textgenerationneuron-llama-2-70b

Meta

No

Llama 2 7B

meta-textgeneration-llama-2-7b

Meta

Llama 2 7B Chat

meta-textgeneration-llama-2-7b-f

Meta

Llama 2 7B Chat Neuron

meta-textgenerationneuron-llama-2-7b-f

Meta

No

Llama 2 7B Neuron

meta-textgenerationneuron-llama-2-7b

Meta

Llama 3 8B

meta-textgeneration-llama-3-8b

Meta

Llama 3 8B Instruct

meta-textgeneration-llama-3-8b-instruct

Meta

Llama 3 70B

meta-textgeneration-llama-3-70b

Meta

Llama 3 70B Instruct

meta-textgeneration-llama-3-70b-instruct

Meta

Llama Guard 7B

meta-textgeneration-llama-guard-7b

Meta

No

Mistral 7B

huggingface-llm-mistral-7b

Hugging Face

Instrucción Mistral 7B

huggingface-llm-mistral-7b-instruct

Hugging Face

No

Mistral 7B OpenOrca AWQ

huggingface-llm-thebloke-mistral-7b-openorca-awq

Hugging Face

No

Mistral 7B Alpha SFT

huggingface-llm-huggingfaceh4-mistral-7b-sft-alpha

Hugging Face

No

Mistral 7B Beta SFT

huggingface-llm-huggingfaceh4-mistral-7b-sft-beta

Hugging Face

No

Mistral Lite

huggingface-llm-amazon-mistrallite

Hugging Face

No

Mistral Trix V1

huggingface-llm-cultrix-mistraltrix-v1

Hugging Face

No

Mixtral 8x7B

huggingface-llm-mixtral-8x7b

Hugging Face

Instrucción Mixtral 8x7B

huggingface-llm-mixtral-8x7b-instruct

Hugging Face

MPT7B BF16

huggingface-textgeneration1-mpt-7b-bf16

Hugging Face

No

MPTInstrucción 7B BF16

huggingface-textgeneration1-mpt-7b-instruct-bf16

Hugging Face

No

MPT7B -65k+ StoryWriter BF16

huggingface-textgeneration1-mpt-7b-storywriter-bf16

Hugging Face

No

multilingüe GPT

huggingface-llm-ai-forever-mgpt

Hugging Face

No

Nous Hermes 2 10.7B SOLAR

huggingface-llm-nousresearch-nous-hermes-2-solar-10-7b

Hugging Face

No

Nous Hermes Llama 2 13B

huggingface-llm-nousresearch-nous-hermes-llama2-13b

Hugging Face

No

Nous Hermes Llama 2 7B

huggingface-llm-nousresearch-nous-hermes-llama-2-7b

Hugging Face

No

Abre Hermes 2 Mistral 7B

huggingface-llm-teknium-openhermes-2-mistral-7b

Hugging Face

No

Abrir LlaMa

huggingface-textgeneration-open-llama

Hugging Face

No

Abre Llama 7B V2

huggingface-llm-openlm-research-open-llama-7b-v2

Hugging Face

No

Platypus 2 7B

huggingface-llm-garage-baind-platypus2-7b

Hugging Face

No

Pythia, 160 mm, desengañado

huggingface-llm-eleutherai-pythia-160m-deduped

Hugging Face

No

Pythia 7 m desengañada

huggingface-llm-eleutherai-pythia-70m-deduped

Hugging Face

No

Generación de paráfrasis con control de calidad

huggingface-text2text-qcpg-sentences

Hugging Face

No

RedPajama INCITEBase 3B V1

huggingface-textgeneration1-redpajama-incite-base-3B-v1-fp16

Hugging Face

RedPajama INCITEBase 7B V1

huggingface-textgeneration1-redpajama-incite-base-7B-v1-fp16

Hugging Face

RedPajama INCITEChat 3B V1

huggingface-textgeneration1-redpajama-incite-chat-3B-v1-fp16

Hugging Face

RedPajama INCITEChat 7B V1

huggingface-textgeneration1-redpajama-incite-chat-7B-v1-fp16

Hugging Face

RedPajama INCITEInstruye a 3B V1

huggingface-textgeneration1-redpajama-incite-instruct-3B-v1-fp16

Hugging Face

RedPajama INCITEInstruya a 7B V1

huggingface-textgeneration1-redpajama-incite-instruct-7B-v1-fp16

Hugging Face

Instrucción bilingüe para el NeoX 4B de GPT Rinna PPO

huggingface-llm-bilingual-rinna-4b-instruction-ppo-bf16

Hugging Face

No

Instrucción japonesa para el NeoX 3.6B de Rinna GPT PPO

huggingface-llm-rinna-3-6b-instruction-ppo-bf16

Hugging Face

No

Star Chat Alpha

huggingface-llm-huggingfaceh4-starchat-alpha

Hugging Face

No

Beta de Star Chat

huggingface-llm-huggingfaceh4-starchat-beta

Hugging Face

No

StarCoder

huggingface-llm-starcoder

Hugging Face

No

StarCoderBase

huggingface-llm-starcoderbase

Hugging Face

No

T0pp

huggingface-text2text-bigscience-t0pp

Hugging Face

No

Resumen de una línea del T5

huggingface-text2text-t5-one-line-summary

Hugging Face

No

Tiny Llama 1.1B

huggingface-llm-tinyllama-1-1b-intermediate-step-1431k-3

Hugging Face

No

Tiny Llama 1.1 B Chat V0.6

huggingface-llm-tinyllama-tinyllama-1-1b-chat-v0-6

Hugging Face

No

Tiny Llama 1.1 B Chat V1

huggingface-llm-tinyllama-tinyllama-1-1b-chat-v1-0

Hugging Face

No

Escritora Palmyra Small

huggingface-llm-writer-palmyra-small

Hugging Face

No

YARNMistral 7B 128k

huggingface-llm-nousresearch-yarn-mistral-7b-128k

Hugging Face

No

Zephyr 7B Alpha

huggingface-llm-huggingfaceh4-zephyr-7b-alpha

Hugging Face

No

Zephyr 7B Beta

huggingface-llm-huggingfaceh4-zephyr-7b-beta

Hugging Face

No

Para explorar los modelos básicos de generación JumpStart de texto más recientes, utiliza el filtro de generación de texto de la página de descripción SageMaker JumpStart del producto Getting Started with Amazon. También puedes explorar modelos básicos basados en tareas directamente en la interfaz de usuario de Amazon SageMaker Studio o en la interfaz de usuario de SageMaker Studio Classic. Solo un subconjunto de modelos de generación de texto disponibles públicamente está disponible para su ajuste. JumpStart Para obtener más información, consulte Usa modelos de base en Amazon SageMaker Studio Classic.

Modelos de generación de imágenes disponibles públicamente

JumpStart proporciona una amplia variedad de modelos básicos de generación de imágenes de Stable Diffusion, incluidos los modelos base de Stability AI, así como modelos previamente entrenados para text-to-image tareas específicas, desde Hugging Face. Si necesitas afinar tu modelo text-to-image base, puedes usar la base Stable Diffusion 2.1 de Stability AI. Si quieres explorar modelos que ya están entrenados en estilos artísticos específicos, puedes explorar uno de los muchos modelos de otros fabricantes que se encuentran en Hugging Face directamente en la interfaz de usuario de Amazon SageMaker SageMaker Studio o Studio Classic.

Para explorar los modelos de JumpStart bases de maquillaje de última generación de imágenes, utiliza el filtro Texto a imagen de la página de descripción SageMaker JumpStart del producto Getting Started with Amazon. Para empezar con el modelo de text-to-image base elegido, consulteJumpStart uso del modelo básico.

Modelos fundacionales patentados

Amazon SageMaker JumpStart proporciona acceso a modelos básicos patentados de proveedores externos como AI21Labs, Cohere y LightOn.

Para empezar a utilizar uno de estos modelos patentados, consulte JumpStart uso del modelo básico. Para utilizar un modelo fundacional patentado, primero debe suscribirse al modelo en AWS Marketplace. Tras suscribirse al modelo, busque el modelo básico en Studio o SageMaker Studio Classic. Para obtener más información, consulte SageMaker JumpStart modelos preentrenados.

Para explorar los modelos básicos patentados más recientes para una variedad de casos de uso, consulta Cómo empezar con Amazon SageMaker JumpStart.