Verfügbare Fundamentmodelle - Amazon SageMaker

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Verfügbare Fundamentmodelle

Amazon SageMaker JumpStart bietet integrierte state-of-the-art, öffentlich verfügbare und proprietäre Basismodelle zur Anpassung und Integration in Ihre generativen KI-Workflows.

Öffentlich verfügbare Grundlagenmodelle

Amazon SageMaker JumpStart integriert und verwaltet Open-Source-Foundation-Modelle von Drittanbietern. Um eines dieser öffentlich verfügbaren Modelle erstmals zu verwenden, sehen Sie sich JumpStart Verwendung des Foundation-Modells oder eines der verfügbaren Beispiel-Notebooks an. Versuchen Sie, in einem Beispiel-Notebook für ein öffentlich verfügbares Modell die Modell-ID auszutauschen, um mit verschiedenen Modellen innerhalb derselben Modellfamilie zu experimentieren.

Weitere Informationen zu Modellen IDs und Ressourcen zur Bereitstellung öffentlich verfügbarer JumpStart Foundation-Modelle finden Sie unter SageMaker Python SDK, sieheVerwenden Sie Fundamentmodelle mit dem SageMaker Python SDK.

Definitionsgemäß sind Grundlagenmodelle an viele nachgelagerte Aufgaben anpassbar. Grundlagenmodelle werden mit riesigen Mengen allgemeiner Domaindaten trainiert. Zudem kann dasselbe Modell für mehrere Anwendungsfälle implementiert oder angepasst werden. Beginnen Sie bei der Auswahl Ihres Basismodells mit der Definition einer bestimmten Aufgabe, z. B. der Text- oder Bildgenerierung.

Öffentlich verfügbare Modelle für die Vorhersage von Zeitreihen

Zeitreihen-Prognosemodelle dienen dazu, sequentielle Daten im Zeitverlauf zu analysieren und Vorhersagen zu treffen. Diese Modelle können auf verschiedene Bereiche wie Finanzen, Wettervorhersagen oder Energiebedarfsprognosen angewendet werden. Die Chronos-Modelle sind auf Aufgaben zur Vorhersage von Zeitreihen zugeschnitten und ermöglichen genaue Vorhersagen auf der Grundlage historischer Datenmuster.

Modellname Modell-ID Quelle des Modells Feinabstimmbar

Chronos T5 Klein

autogluon-forecasting-chronos-t5-small

Amazon

Nein

Chronos T5-Basis

autogluon-forecasting-chronos-t5-base

Amazon

Nein

Chronos T5 Groß

autogluon-forecasting-chronos-t5-large

Amazon

Nein

Öffentlich verfügbare Modelle zur Textgenerierung

Grundlagenmodelle für die Textgenerierung können für eine Vielzahl nachgelagerter Aufgaben verwendet werden, darunter Textzusammenfassung, Textklassifizierung, Beantwortung von Fragen, Generierung von Inhalten in Langform, Verfassen von Kurztexten, Informationsextraktion und mehr.

Modellname Modell-ID Quelle des Modells Feinabstimmbar

Alexa TM 20B

pytorch-textgeneration1-alexa20b

Amazon

Nein

Blüte 1b1

huggingface-textgeneration-bloom-1b1

Hugging Face

Nein

Blüte 1b7

huggingface-textgeneration-bloom-1b7

Hugging Face

Nein

Blüte 3B

huggingface-textgeneration1-bloom-3b

Hugging Face

Ja

Blüte 560 m

huggingface-textgeneration-bloom-560m

Hugging Face

Nein

Blüte 7B1

huggingface-textgeneration1-bloom-7b1

Hugging Face

Ja

Blüht 1b1

huggingface-textgeneration-bloomz-1b1

Hugging Face

Nein

Bloomz 1b7

huggingface-textgeneration-bloomz-1b7

Hugging Face

Nein

BloomZ 3B FP16

huggingface-textgeneration1-bloom-3b-fp16

Hugging Face

Ja

Bloomz 560 m

huggingface-textgeneration-bloomz-560m

Hugging Face

Nein

BloomZ 7B FP16

huggingface-textgeneration1-bloomz-7b1-fp16

Hugging Face

Ja

Kode Lama 13B

meta-textgeneration-llama-codellama-13b

Meta

Ja

Code Llama 13B Instruktieren

meta-textgeneration-llama-codellama-13b-instruct

Meta

Nein

Code Llama 13B Python

meta-textgeneration-llama-codellama-13b-python

Meta

Ja

Kode Llama 34B

meta-textgeneration-llama-codellama-34b

Meta

Ja

Code Llama 34B Unterweisen

meta-textgeneration-llama-codellama-34b-instruct

Meta

Nein

Code Llama 34B Python

meta-textgeneration-llama-codellama-34b-python

Meta

Ja

Kode Llama 70B

meta-textgeneration-llama-codellama-70b

Meta

Ja

Code Llama 70B Instruktieren

meta-textgeneration-llama-codellama-70b-instruct

Meta

Nein

Kode Llama 70B Python

meta-textgeneration-llama-codellama-70b-python

Meta

Ja

Kode Llama 7B

meta-textgeneration-llama-codellama-7b

Meta

Ja

Code Llama 7B Instruktieren

meta-textgeneration-llama-codellama-7b-instruct

Meta

Nein

Code Llama 7B Python

meta-textgeneration-llama-codellama-7b-python

Meta

Ja

CyberAgentLM2-7B-Chat (-7B-Chat) CALM2

huggingface-llm-calm2-7b-chat-bf16

Hugging Face

Ja

Destillieren GPT2

huggingface-textgeneration-distilgpt2

Hugging Face

Nein

Dolly V2 12b BF16

huggingface-textgeneration-dolly-v2-12b-bf16

Hugging Face

Nein

Dolly V2 3b BF16

huggingface-textgeneration-dolly-v2-3b-bf16

Hugging Face

Nein

Dolly V2 7b BF16

huggingface-textgeneration-dolly-v2-7b-bf16

Hugging Face

Nein

Delphin 2.2.1 Mistral 7B

huggingface-llm-dolphin-2-2-1-mistral-7b

Hugging Face

Nein

Dolphin 2.5 Mistral 8 7B

huggingface-llm-dolphin-2-5-mixtral-8x7b

Hugging Face

Nein

Dolphin 2.7 Mixtral 8 7B

huggingface-llm-dolphin-2-7-mixtral-8x7b

Hugging Face

Nein

Eleutherai Neo 2,7 B GPT

huggingface-llm-eleutherai-gpt-neo-1-3b

Hugging Face

Nein

Eleutherai GPT Neo 2,7 B

huggingface-llm-eleutherai-gpt-neo-2-7b

Hugging Face

Nein

Falcon 180 B BF16

huggingface-llm-falcon-180b-bf16

Hugging Face

Nein

Falcon 180B Chat BF16

huggingface-llm-falcon-180b-chat-bf16

Hugging Face

Nein

Falcon 40B BF16

huggingface-llm-falcon-40b-bf16

Hugging Face

Ja

Falcon 40B, einweisen BF16

huggingface-llm-falcon-40b-instruct-bf16

Hugging Face

Ja

Falcon 7B BF16

huggingface-llm-falcon-7b-bf16

Hugging Face

Ja

Falcon 7B, Instruktor BF16

huggingface-llm-falcon-7b-instruct-bf16

Hugging Face

Ja

Falcon Lite

huggingface-llm-amazon-falconlite

Hugging Face

Nein

Falcon Lite 2

huggingface-llm-amazon-falconlite2

Hugging Face

Nein

Falcon RW 1B

huggingface-llm-tiiuae-falcon-rw-1b

Hugging Face

Nein

Flan-T5-Basis

huggingface-text2text-flan-t5-base

Hugging Face

Ja

Das Flan-T5-Basismodell wurde auf den Samsum-Datensatz abgestimmt

huggingface-text2text-flan-t5-base-samsum

Hugging Face

Nein

Flan-T5 Groß

huggingface-text2text-flan-t5-large

Hugging Face

Ja

Flan-T5 Klein

huggingface-text2text-flan-t5-small

Hugging Face

Ja

Flan-T5 XL

huggingface-text2text-flan-t5-xl

Hugging Face

Ja

Flan-T5 XXL

huggingface-text2text-flan-t5-xxl

Hugging Face

Ja

Flansch- UL2 BF16

huggingface-text2text-flan-ul2-bf16

Hugging Face

Nein

Gemma 2 B.

huggingface-llm-gemma-2b

Hugging Face

Ja

Gemma 2B, Instruktor

huggingface-llm-gemma-2b-instruct

Hugging Face

Ja

Gemma 7B

huggingface-llm-gemma-7b

Hugging Face

Ja

Gemma 7B, Instruktor

huggingface-llm-gemma-7b-instruct

Hugging Face

Ja

GPT2

huggingface-textgeneration-gpt2

Hugging Face

Nein

GPTNeoX 20 B FP16

huggingface-textgeneration2-gpt-neox-20b-fp16

Hugging Face

Nein

GPTNeoXt Chatbasis 20B FP16

huggingface-textgeneration2-gpt-neoxt-chat-base-20b-fp16

Hugging Face

Nein

GPT-2 XL

huggingface-textgeneration1-gpt-2-xl

Hugging Face

Ja

GPT-J 6B

huggingface-textgeneration1-gpt-j-6b

Hugging Face

Ja

GPT-Neo 1,3 B

huggingface-textgeneration1-gpt-neo-1-3b

Hugging Face

Ja

GPT-Neo 125 M

huggingface-textgeneration1-gpt-neo-125m

Hugging Face

Ja

GPT- 2,7 B NEO

huggingface-textgeneration1-gpt-neo-2-7b

Hugging Face

Ja

Japanisch StableLM Instruct Alpha 7B v2

model-textgenerationjp-japanese-stablelm-instruct-alpha-7b-v2

Hugging Face

Nein

GPTLicht instruct 6B

huggingface-textgeneration1-lightgpt

Hugging Face

Ja

Lite Lama 460 M 1 T

huggingface-llm-ahxt-litellama-460m-1t

Hugging Face

Nein

Lama 2 13B

meta-textgeneration-llama-2-13b

Meta

Ja

Lama 2 13B Chat

meta-textgeneration-llama-2-13b-f

Meta

Ja

Lama 2 13B Chat-Neuron

meta-textgenerationneuron-llama-2-13b-f

Meta

Nein

Lama 2 13B Neuron

meta-textgenerationneuron-llama-2-13b

Meta

Ja

Lama 2 70B

meta-textgeneration-llama-2-70b

Meta

Ja

Lama 2 70B Chat

meta-textgeneration-llama-2-70b-f

Meta

Ja

Lama 2 70B Chat-Neuron

meta-textgenerationneuron-llama-2-70b-f

Meta

Nein

Lama 2 70B Neuron

meta-textgenerationneuron-llama-2-70b

Meta

Nein

Lama 2 7B

meta-textgeneration-llama-2-7b

Meta

Ja

Lama 2 7B Chat

meta-textgeneration-llama-2-7b-f

Meta

Ja

Lama 2 7B Chat-Neuron

meta-textgenerationneuron-llama-2-7b-f

Meta

Nein

Lama 2 7B Neuron

meta-textgenerationneuron-llama-2-7b

Meta

Ja

Lama 3 8B

meta-textgeneration-llama-3-8b

Meta

Ja

Lama 3 8B Instruktor

meta-textgeneration-llama-3-8b-instruct

Meta

Ja

Lama 3 70B

meta-textgeneration-llama-3-70b

Meta

Ja

Lama 3 70B Instruktor

meta-textgeneration-llama-3-70b-instruct

Meta

Ja

Lamawächter 7B

meta-textgeneration-llama-guard-7b

Meta

Nein

Mistral 7B

huggingface-llm-mistral-7b

Hugging Face

Ja

Mistral 7B, Instruktor

huggingface-llm-mistral-7b-instruct

Hugging Face

Nein

Mistral 7B OpenOrca AWQ

huggingface-llm-thebloke-mistral-7b-openorca-awq

Hugging Face

Nein

Mistral 7B Alpha SFT

huggingface-llm-huggingfaceh4-mistral-7b-sft-alpha

Hugging Face

Nein

Mistral 7B Beta SFT

huggingface-llm-huggingfaceh4-mistral-7b-sft-beta

Hugging Face

Nein

Mistral Lite

huggingface-llm-amazon-mistrallite

Hugging Face

Nein

Mistral Trix V1

huggingface-llm-cultrix-mistraltrix-v1

Hugging Face

Nein

Mistral 8x7B

huggingface-llm-mixtral-8x7b

Hugging Face

Ja

Mixtral 8x7B Instruktieren

huggingface-llm-mixtral-8x7b-instruct

Hugging Face

Ja

MPT7B BF16

huggingface-textgeneration1-mpt-7b-bf16

Hugging Face

Nein

MPT7B Unterweisen BF16

huggingface-textgeneration1-mpt-7b-instruct-bf16

Hugging Face

Nein

MPT7B -65k+ StoryWriter BF16

huggingface-textgeneration1-mpt-7b-storywriter-bf16

Hugging Face

Nein

Mehrsprachig GPT

huggingface-llm-ai-forever-mgpt

Hugging Face

Nein

Nous Hermes 2 10,7 B SOLAR

huggingface-llm-nousresearch-nous-hermes-2-solar-10-7b

Hugging Face

Nein

Nous Hermes Llama 2 13B

huggingface-llm-nousresearch-nous-hermes-llama2-13b

Hugging Face

Nein

Nous Hermes Llama 2 7B

huggingface-llm-nousresearch-nous-hermes-llama-2-7b

Hugging Face

Nein

Öffnen Sie Hermes 2 Mistral 7B

huggingface-llm-teknium-openhermes-2-mistral-7b

Hugging Face

Nein

Öffnen LlaMa

huggingface-textgeneration-open-llama

Hugging Face

Nein

Öffnen Sie Llama 7B V2

huggingface-llm-openlm-research-open-llama-7b-v2

Hugging Face

Nein

Schnabeltier 2 7B

huggingface-llm-garage-baind-platypus2-7b

Hugging Face

Nein

Pythia 160 m Dedupliziert

huggingface-llm-eleutherai-pythia-160m-deduped

Hugging Face

Nein

Pythia 7m Dedupliziert

huggingface-llm-eleutherai-pythia-70m-deduped

Hugging Face

Nein

Qualitätskontrollierte Generierung von Paraphrasen

huggingface-text2text-qcpg-sentences

Hugging Face

Nein

RedPajama INCITEBasis 3B V1

huggingface-textgeneration1-redpajama-incite-base-3B-v1-fp16

Hugging Face

Ja

RedPajama INCITEBasis 7B V1

huggingface-textgeneration1-redpajama-incite-base-7B-v1-fp16

Hugging Face

Ja

RedPajama INCITEChat 3B V1

huggingface-textgeneration1-redpajama-incite-chat-3B-v1-fp16

Hugging Face

Ja

RedPajama INCITEChatten Sie 7B V1

huggingface-textgeneration1-redpajama-incite-chat-7B-v1-fp16

Hugging Face

Ja

RedPajama INCITEWeisen Sie 3B V1 an

huggingface-textgeneration1-redpajama-incite-instruct-3B-v1-fp16

Hugging Face

Ja

RedPajama INCITE7B V1 anweisen

huggingface-textgeneration1-redpajama-incite-instruct-7B-v1-fp16

Hugging Face

Ja

Rinna Zweisprachige NeoX 4B-Anleitung GPT PPO

huggingface-llm-bilingual-rinna-4b-instruction-ppo-bf16

Hugging Face

Nein

Rinna Japanische NeoX 3.6B-Anleitung GPT PPO

huggingface-llm-rinna-3-6b-instruction-ppo-bf16

Hugging Face

Nein

Star Chat Alpha

huggingface-llm-huggingfaceh4-starchat-alpha

Hugging Face

Nein

Star Chat Beta

huggingface-llm-huggingfaceh4-starchat-beta

Hugging Face

Nein

StarCoder

huggingface-llm-starcoder

Hugging Face

Nein

StarCoderBase

huggingface-llm-starcoderbase

Hugging Face

Nein

T0pp

huggingface-text2text-bigscience-t0pp

Hugging Face

Nein

T5 Zusammenfassung in einer Zeile

huggingface-text2text-t5-one-line-summary

Hugging Face

Nein

Winziges Lama 1.1B

huggingface-llm-tinyllama-1-1b-intermediate-step-1431k-3

Hugging Face

Nein

Tiny Lama 1.1 B Chat V0.6

huggingface-llm-tinyllama-tinyllama-1-1b-chat-v0-6

Hugging Face

Nein

Tiny Lama 1.1 B Chat V1

huggingface-llm-tinyllama-tinyllama-1-1b-chat-v1-0

Hugging Face

Nein

Schriftstellerin Palmyra Small

huggingface-llm-writer-palmyra-small

Hugging Face

Nein

YARNMistral 7B 128k

huggingface-llm-nousresearch-yarn-mistral-7b-128k

Hugging Face

Nein

Zephyr 7B Alpha

huggingface-llm-huggingfaceh4-zephyr-7b-alpha

Hugging Face

Nein

Zephyr 7B Beta

huggingface-llm-huggingfaceh4-zephyr-7b-beta

Hugging Face

Nein

Verwenden Sie den Filter Textgenerierung auf JumpStart der SageMaker JumpStart Produktbeschreibungsseite Erste Schritte mit Amazon, um die neuesten Basismodelle für die Textgenerierung zu erkunden. Sie können Fundamentmodelle, die auf Aufgaben basieren, auch direkt in der Amazon SageMaker Studio-Benutzeroberfläche oder der SageMaker Studio Classic-Benutzeroberfläche erkunden. Nur eine Teilmenge der öffentlich verfügbaren Textgenerierungsmodelle steht für die Feinabstimmung zur Verfügung. JumpStart Weitere Informationen finden Sie unter Verwenden Sie Fundamentmodelle in Amazon SageMaker Studio Classic.

Öffentlich verfügbare Modelle zur Bilderzeugung

JumpStart bietet eine Vielzahl von Basismodellen für die Bilderzeugung mit stabiler Diffusion, darunter Basismodelle von Stability AI sowie vortrainierte Modelle für spezifische text-to-image Aufgaben von Hugging Face. Wenn Sie Ihr text-to-image Fundamentmodell verfeinern müssen, können Sie Stable Diffusion 2.1 Base von Stability AI verwenden. Wenn Sie Modelle erkunden möchten, die bereits in bestimmten Kunststilen geschult wurden, können Sie eines der vielen Modelle von Drittanbietern von Hugging Face direkt in der Amazon SageMaker Studio-Benutzeroberfläche oder der SageMaker Studio Classic-Benutzeroberfläche.

Verwenden Sie den Text-zu-Bild-Filter auf der SageMaker JumpStart Produktbeschreibungsseite Erste Schritte mit Amazon, um die neuesten Basismodelle für die Bildgenerierung JumpStart zu erkunden. Informationen zu den ersten Schritten mit dem von Ihnen ausgewählten text-to-image Foundation-Modell finden Sie unterJumpStart Verwendung des Foundation-Modells.

Proprietäre Grundlagenmodelle

Amazon SageMaker JumpStart bietet Zugriff auf proprietäre Fundamentmodelle von Drittanbietern wie AI21Labs, Cohere und LightOn.

Informationen zu den ersten Schritten mit einem dieser proprietären Modelle finden Sie unter JumpStart Verwendung des Foundation-Modells. Um ein proprietäres Grundlagenmodell verwenden zu können, müssen Sie das Modell zunächst unter AWS Marketplace abonnieren. Nachdem Sie das Modell abonniert haben, suchen Sie das Foundation-Modell in Studio oder SageMaker Studio Classic. Weitere Informationen finden Sie unter SageMaker JumpStart vortrainierte Modelle.

Informationen zu den neuesten proprietären Basismodellen für eine Vielzahl von Anwendungsfällen finden Sie unter Erste Schritte mit Amazon SageMaker JumpStart.