Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Verfügbare Fundamentmodelle
Amazon SageMaker JumpStart bietet integrierte state-of-the-art, öffentlich verfügbare und proprietäre Basismodelle zur Anpassung und Integration in Ihre generativen KI-Workflows.
Öffentlich verfügbare Grundlagenmodelle
Amazon SageMaker JumpStart integriert und verwaltet Open-Source-Foundation-Modelle von Drittanbietern. Um eines dieser öffentlich verfügbaren Modelle erstmals zu verwenden, sehen Sie sich JumpStart Verwendung des Foundation-Modells oder eines der verfügbaren Beispiel-Notebooks an. Versuchen Sie, in einem Beispiel-Notebook für ein öffentlich verfügbares Modell die Modell-ID auszutauschen, um mit verschiedenen Modellen innerhalb derselben Modellfamilie zu experimentieren.
Weitere Informationen zu Modellen IDs und Ressourcen zur Bereitstellung öffentlich verfügbarer JumpStart Foundation-Modelle finden Sie unter SageMaker Python SDK, sieheVerwenden Sie Fundamentmodelle mit dem SageMaker Python SDK.
Definitionsgemäß sind Grundlagenmodelle an viele nachgelagerte Aufgaben anpassbar. Grundlagenmodelle werden mit riesigen Mengen allgemeiner Domaindaten trainiert. Zudem kann dasselbe Modell für mehrere Anwendungsfälle implementiert oder angepasst werden. Beginnen Sie bei der Auswahl Ihres Basismodells mit der Definition einer bestimmten Aufgabe, z. B. der Text- oder Bildgenerierung.
Öffentlich verfügbare Modelle für die Vorhersage von Zeitreihen
Zeitreihen-Prognosemodelle dienen dazu, sequentielle Daten im Zeitverlauf zu analysieren und Vorhersagen zu treffen. Diese Modelle können auf verschiedene Bereiche wie Finanzen, Wettervorhersagen oder Energiebedarfsprognosen angewendet werden. Die Chronos-Modelle sind auf Aufgaben zur Vorhersage von Zeitreihen zugeschnitten und ermöglichen genaue Vorhersagen auf der Grundlage historischer Datenmuster.
Modellname | Modell-ID | Quelle des Modells | Feinabstimmbar |
---|---|---|---|
Chronos T5 Klein |
autogluon-forecasting-chronos-t5-small |
Amazon |
Nein |
Chronos T5-Basis |
autogluon-forecasting-chronos-t5-base |
Amazon |
Nein |
Chronos T5 Groß |
autogluon-forecasting-chronos-t5-large |
Amazon |
Nein |
Öffentlich verfügbare Modelle zur Textgenerierung
Grundlagenmodelle für die Textgenerierung können für eine Vielzahl nachgelagerter Aufgaben verwendet werden, darunter Textzusammenfassung, Textklassifizierung, Beantwortung von Fragen, Generierung von Inhalten in Langform, Verfassen von Kurztexten, Informationsextraktion und mehr.
Modellname | Modell-ID | Quelle des Modells | Feinabstimmbar |
---|---|---|---|
Alexa TM 20B |
pytorch-textgeneration1-alexa20b |
Amazon |
Nein |
Blüte 1b1 |
huggingface-textgeneration-bloom-1b1 |
Hugging Face |
Nein |
Blüte 1b7 |
huggingface-textgeneration-bloom-1b7 |
Hugging Face |
Nein |
Blüte 3B |
huggingface-textgeneration1-bloom-3b |
Hugging Face |
Ja |
Blüte 560 m |
huggingface-textgeneration-bloom-560m |
Hugging Face |
Nein |
Blüte 7B1 |
huggingface-textgeneration1-bloom-7b1 |
Hugging Face |
Ja |
Blüht 1b1 |
huggingface-textgeneration-bloomz-1b1 |
Hugging Face |
Nein |
Bloomz 1b7 |
huggingface-textgeneration-bloomz-1b7 |
Hugging Face |
Nein |
BloomZ 3B FP16 |
huggingface-textgeneration1-bloom-3b-fp16 |
Hugging Face |
Ja |
Bloomz 560 m |
huggingface-textgeneration-bloomz-560m |
Hugging Face |
Nein |
BloomZ 7B FP16 |
huggingface-textgeneration1-bloomz-7b1-fp16 |
Hugging Face |
Ja |
Kode Lama 13B |
meta-textgeneration-llama-codellama-13b |
Meta |
Ja |
Code Llama 13B Instruktieren |
meta-textgeneration-llama-codellama-13b-instruct |
Meta |
Nein |
Code Llama 13B Python |
meta-textgeneration-llama-codellama-13b-python |
Meta |
Ja |
Kode Llama 34B |
meta-textgeneration-llama-codellama-34b |
Meta |
Ja |
Code Llama 34B Unterweisen |
meta-textgeneration-llama-codellama-34b-instruct |
Meta |
Nein |
Code Llama 34B Python |
meta-textgeneration-llama-codellama-34b-python |
Meta |
Ja |
Kode Llama 70B |
meta-textgeneration-llama-codellama-70b |
Meta |
Ja |
Code Llama 70B Instruktieren |
meta-textgeneration-llama-codellama-70b-instruct |
Meta |
Nein |
Kode Llama 70B Python |
meta-textgeneration-llama-codellama-70b-python |
Meta |
Ja |
Kode Llama 7B |
meta-textgeneration-llama-codellama-7b |
Meta |
Ja |
Code Llama 7B Instruktieren |
meta-textgeneration-llama-codellama-7b-instruct |
Meta |
Nein |
Code Llama 7B Python |
meta-textgeneration-llama-codellama-7b-python |
Meta |
Ja |
CyberAgentLM2-7B-Chat (-7B-Chat) CALM2 |
huggingface-llm-calm2-7b-chat-bf16 |
Hugging Face |
Ja |
Destillieren GPT2 |
huggingface-textgeneration-distilgpt2 |
Hugging Face |
Nein |
Dolly V2 12b BF16 |
huggingface-textgeneration-dolly-v2-12b-bf16 |
Hugging Face |
Nein |
Dolly V2 3b BF16 |
huggingface-textgeneration-dolly-v2-3b-bf16 |
Hugging Face |
Nein |
Dolly V2 7b BF16 |
huggingface-textgeneration-dolly-v2-7b-bf16 |
Hugging Face |
Nein |
Delphin 2.2.1 Mistral 7B |
huggingface-llm-dolphin-2-2-1-mistral-7b |
Hugging Face |
Nein |
Dolphin 2.5 Mistral 8 7B |
huggingface-llm-dolphin-2-5-mixtral-8x7b |
Hugging Face |
Nein |
Dolphin 2.7 Mixtral 8 7B |
huggingface-llm-dolphin-2-7-mixtral-8x7b |
Hugging Face |
Nein |
Eleutherai Neo 2,7 B GPT |
huggingface-llm-eleutherai-gpt-neo-1-3b |
Hugging Face |
Nein |
Eleutherai GPT Neo 2,7 B |
huggingface-llm-eleutherai-gpt-neo-2-7b |
Hugging Face |
Nein |
Falcon 180 B BF16 |
huggingface-llm-falcon-180b-bf16 |
Hugging Face |
Nein |
Falcon 180B Chat BF16 |
huggingface-llm-falcon-180b-chat-bf16 |
Hugging Face |
Nein |
Falcon 40B BF16 |
huggingface-llm-falcon-40b-bf16 |
Hugging Face |
Ja |
Falcon 40B, einweisen BF16 |
huggingface-llm-falcon-40b-instruct-bf16 |
Hugging Face |
Ja |
Falcon 7B BF16 |
huggingface-llm-falcon-7b-bf16 |
Hugging Face |
Ja |
Falcon 7B, Instruktor BF16 |
huggingface-llm-falcon-7b-instruct-bf16 |
Hugging Face |
Ja |
Falcon Lite |
huggingface-llm-amazon-falconlite |
Hugging Face |
Nein |
Falcon Lite 2 |
huggingface-llm-amazon-falconlite2 |
Hugging Face |
Nein |
Falcon RW 1B |
huggingface-llm-tiiuae-falcon-rw-1b |
Hugging Face |
Nein |
Flan-T5-Basis |
huggingface-text2text-flan-t5-base |
Hugging Face |
Ja |
Das Flan-T5-Basismodell wurde auf den Samsum-Datensatz abgestimmt |
huggingface-text2text-flan-t5-base-samsum |
Hugging Face |
Nein |
Flan-T5 Groß |
huggingface-text2text-flan-t5-large |
Hugging Face |
Ja |
Flan-T5 Klein |
huggingface-text2text-flan-t5-small |
Hugging Face |
Ja |
Flan-T5 XL |
huggingface-text2text-flan-t5-xl |
Hugging Face |
Ja |
Flan-T5 XXL |
huggingface-text2text-flan-t5-xxl |
Hugging Face |
Ja |
Flansch- UL2 BF16 |
huggingface-text2text-flan-ul2-bf16 |
Hugging Face |
Nein |
Gemma 2 B. |
huggingface-llm-gemma-2b |
Hugging Face |
Ja |
Gemma 2B, Instruktor |
huggingface-llm-gemma-2b-instruct |
Hugging Face |
Ja |
Gemma 7B |
huggingface-llm-gemma-7b |
Hugging Face |
Ja |
Gemma 7B, Instruktor |
huggingface-llm-gemma-7b-instruct |
Hugging Face |
Ja |
GPT2 |
huggingface-textgeneration-gpt2 |
Hugging Face |
Nein |
GPTNeoX 20 B FP16 |
huggingface-textgeneration2-gpt-neox-20b-fp16 |
Hugging Face |
Nein |
GPTNeoXt Chatbasis 20B FP16 |
huggingface-textgeneration2-gpt-neoxt-chat-base-20b-fp16 |
Hugging Face |
Nein |
GPT-2 XL |
huggingface-textgeneration1-gpt-2-xl |
Hugging Face |
Ja |
GPT-J 6B |
huggingface-textgeneration1-gpt-j-6b |
Hugging Face |
Ja |
GPT-Neo 1,3 B |
huggingface-textgeneration1-gpt-neo-1-3b |
Hugging Face |
Ja |
GPT-Neo 125 M |
huggingface-textgeneration1-gpt-neo-125m |
Hugging Face |
Ja |
GPT- 2,7 B NEO |
huggingface-textgeneration1-gpt-neo-2-7b |
Hugging Face |
Ja |
Japanisch StableLM Instruct Alpha 7B v2 |
model-textgenerationjp-japanese-stablelm-instruct-alpha-7b-v2 |
Hugging Face |
Nein |
GPTLicht instruct 6B |
huggingface-textgeneration1-lightgpt |
Hugging Face |
Ja |
Lite Lama 460 M 1 T |
huggingface-llm-ahxt-litellama-460m-1t |
Hugging Face |
Nein |
Lama 2 13B |
meta-textgeneration-llama-2-13b |
Meta |
Ja |
Lama 2 13B Chat |
meta-textgeneration-llama-2-13b-f |
Meta |
Ja |
Lama 2 13B Chat-Neuron |
meta-textgenerationneuron-llama-2-13b-f |
Meta |
Nein |
Lama 2 13B Neuron |
meta-textgenerationneuron-llama-2-13b |
Meta |
Ja |
Lama 2 70B |
meta-textgeneration-llama-2-70b |
Meta |
Ja |
Lama 2 70B Chat |
meta-textgeneration-llama-2-70b-f |
Meta |
Ja |
Lama 2 70B Chat-Neuron |
meta-textgenerationneuron-llama-2-70b-f |
Meta |
Nein |
Lama 2 70B Neuron |
meta-textgenerationneuron-llama-2-70b |
Meta |
Nein |
Lama 2 7B |
meta-textgeneration-llama-2-7b |
Meta |
Ja |
Lama 2 7B Chat |
meta-textgeneration-llama-2-7b-f |
Meta |
Ja |
Lama 2 7B Chat-Neuron |
meta-textgenerationneuron-llama-2-7b-f |
Meta |
Nein |
Lama 2 7B Neuron |
meta-textgenerationneuron-llama-2-7b |
Meta |
Ja |
Lama 3 8B |
meta-textgeneration-llama-3-8b |
Meta |
Ja |
Lama 3 8B Instruktor |
meta-textgeneration-llama-3-8b-instruct |
Meta |
Ja |
Lama 3 70B |
meta-textgeneration-llama-3-70b |
Meta |
Ja |
Lama 3 70B Instruktor |
meta-textgeneration-llama-3-70b-instruct |
Meta |
Ja |
Lamawächter 7B |
meta-textgeneration-llama-guard-7b |
Meta |
Nein |
Mistral 7B |
huggingface-llm-mistral-7b |
Hugging Face |
Ja |
Mistral 7B, Instruktor |
huggingface-llm-mistral-7b-instruct |
Hugging Face |
Nein |
Mistral 7B OpenOrca AWQ |
huggingface-llm-thebloke-mistral-7b-openorca-awq |
Hugging Face |
Nein |
Mistral 7B Alpha SFT |
huggingface-llm-huggingfaceh4-mistral-7b-sft-alpha |
Hugging Face |
Nein |
Mistral 7B Beta SFT |
huggingface-llm-huggingfaceh4-mistral-7b-sft-beta |
Hugging Face |
Nein |
Mistral Lite |
huggingface-llm-amazon-mistrallite |
Hugging Face |
Nein |
Mistral Trix V1 |
huggingface-llm-cultrix-mistraltrix-v1 |
Hugging Face |
Nein |
Mistral 8x7B |
huggingface-llm-mixtral-8x7b |
Hugging Face |
Ja |
Mixtral 8x7B Instruktieren |
huggingface-llm-mixtral-8x7b-instruct |
Hugging Face |
Ja |
MPT7B BF16 |
huggingface-textgeneration1-mpt-7b-bf16 |
Hugging Face |
Nein |
MPT7B Unterweisen BF16 |
huggingface-textgeneration1-mpt-7b-instruct-bf16 |
Hugging Face |
Nein |
MPT7B -65k+ StoryWriter BF16 |
huggingface-textgeneration1-mpt-7b-storywriter-bf16 |
Hugging Face |
Nein |
Mehrsprachig GPT |
huggingface-llm-ai-forever-mgpt |
Hugging Face |
Nein |
Nous Hermes 2 10,7 B SOLAR |
huggingface-llm-nousresearch-nous-hermes-2-solar-10-7b |
Hugging Face |
Nein |
Nous Hermes Llama 2 13B |
huggingface-llm-nousresearch-nous-hermes-llama2-13b |
Hugging Face |
Nein |
Nous Hermes Llama 2 7B |
huggingface-llm-nousresearch-nous-hermes-llama-2-7b |
Hugging Face |
Nein |
Öffnen Sie Hermes 2 Mistral 7B |
huggingface-llm-teknium-openhermes-2-mistral-7b |
Hugging Face |
Nein |
Öffnen LlaMa |
huggingface-textgeneration-open-llama |
Hugging Face |
Nein |
Öffnen Sie Llama 7B V2 |
huggingface-llm-openlm-research-open-llama-7b-v2 |
Hugging Face |
Nein |
Schnabeltier 2 7B |
huggingface-llm-garage-baind-platypus2-7b |
Hugging Face |
Nein |
Pythia 160 m Dedupliziert |
huggingface-llm-eleutherai-pythia-160m-deduped |
Hugging Face |
Nein |
Pythia 7m Dedupliziert |
huggingface-llm-eleutherai-pythia-70m-deduped |
Hugging Face |
Nein |
Qualitätskontrollierte Generierung von Paraphrasen |
huggingface-text2text-qcpg-sentences |
Hugging Face |
Nein |
RedPajama INCITEBasis 3B V1 |
huggingface-textgeneration1-redpajama-incite-base-3B-v1-fp16 |
Hugging Face |
Ja |
RedPajama INCITEBasis 7B V1 |
huggingface-textgeneration1-redpajama-incite-base-7B-v1-fp16 |
Hugging Face |
Ja |
RedPajama INCITEChat 3B V1 |
huggingface-textgeneration1-redpajama-incite-chat-3B-v1-fp16 |
Hugging Face |
Ja |
RedPajama INCITEChatten Sie 7B V1 |
huggingface-textgeneration1-redpajama-incite-chat-7B-v1-fp16 |
Hugging Face |
Ja |
RedPajama INCITEWeisen Sie 3B V1 an |
huggingface-textgeneration1-redpajama-incite-instruct-3B-v1-fp16 |
Hugging Face |
Ja |
RedPajama INCITE7B V1 anweisen |
huggingface-textgeneration1-redpajama-incite-instruct-7B-v1-fp16 |
Hugging Face |
Ja |
Rinna Zweisprachige NeoX 4B-Anleitung GPT PPO |
huggingface-llm-bilingual-rinna-4b-instruction-ppo-bf16 |
Hugging Face |
Nein |
Rinna Japanische NeoX 3.6B-Anleitung GPT PPO |
huggingface-llm-rinna-3-6b-instruction-ppo-bf16 |
Hugging Face |
Nein |
Star Chat Alpha |
huggingface-llm-huggingfaceh4-starchat-alpha |
Hugging Face |
Nein |
Star Chat Beta |
huggingface-llm-huggingfaceh4-starchat-beta |
Hugging Face |
Nein |
StarCoder |
huggingface-llm-starcoder |
Hugging Face |
Nein |
StarCoderBase |
huggingface-llm-starcoderbase |
Hugging Face |
Nein |
T0pp |
huggingface-text2text-bigscience-t0pp |
Hugging Face |
Nein |
T5 Zusammenfassung in einer Zeile |
huggingface-text2text-t5-one-line-summary |
Hugging Face |
Nein |
Winziges Lama 1.1B |
huggingface-llm-tinyllama-1-1b-intermediate-step-1431k-3 |
Hugging Face |
Nein |
Tiny Lama 1.1 B Chat V0.6 |
huggingface-llm-tinyllama-tinyllama-1-1b-chat-v0-6 |
Hugging Face |
Nein |
Tiny Lama 1.1 B Chat V1 |
huggingface-llm-tinyllama-tinyllama-1-1b-chat-v1-0 |
Hugging Face |
Nein |
Schriftstellerin Palmyra Small |
huggingface-llm-writer-palmyra-small |
Hugging Face |
Nein |
YARNMistral 7B 128k |
huggingface-llm-nousresearch-yarn-mistral-7b-128k |
Hugging Face |
Nein |
Zephyr 7B Alpha |
huggingface-llm-huggingfaceh4-zephyr-7b-alpha |
Hugging Face |
Nein |
Zephyr 7B Beta |
huggingface-llm-huggingfaceh4-zephyr-7b-beta |
Hugging Face |
Nein |
Verwenden Sie den Filter Textgenerierung auf JumpStart der SageMaker JumpStart Produktbeschreibungsseite Erste Schritte mit Amazon
Öffentlich verfügbare Modelle zur Bilderzeugung
JumpStart bietet eine Vielzahl von Basismodellen für die Bilderzeugung mit stabiler Diffusion, darunter Basismodelle von Stability AI sowie vortrainierte Modelle für spezifische text-to-image Aufgaben von Hugging Face. Wenn Sie Ihr text-to-image Fundamentmodell verfeinern müssen, können Sie Stable Diffusion 2.1 Base von Stability AI verwenden. Wenn Sie Modelle erkunden möchten, die bereits in bestimmten Kunststilen geschult wurden, können Sie eines der vielen Modelle von Drittanbietern von Hugging Face direkt in der Amazon SageMaker Studio-Benutzeroberfläche oder der SageMaker Studio Classic-Benutzeroberfläche.
Verwenden Sie den Text-zu-Bild-Filter auf der SageMaker JumpStart Produktbeschreibungsseite Erste Schritte mit Amazon
Proprietäre Grundlagenmodelle
Amazon SageMaker JumpStart bietet Zugriff auf proprietäre Fundamentmodelle von Drittanbietern wie AI21Labs
Informationen zu den ersten Schritten mit einem dieser proprietären Modelle finden Sie unter JumpStart Verwendung des Foundation-Modells. Um ein proprietäres Grundlagenmodell verwenden zu können, müssen Sie das Modell zunächst unter AWS Marketplace abonnieren. Nachdem Sie das Modell abonniert haben, suchen Sie das Foundation-Modell in Studio oder SageMaker Studio Classic. Weitere Informationen finden Sie unter SageMaker JumpStart vortrainierte Modelle.
Informationen zu den neuesten proprietären Basismodellen für eine Vielzahl von Anwendungsfällen finden Sie unter Erste Schritte mit Amazon SageMaker JumpStart