Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Generative KI-Grundmodelle in SageMaker Canvas
Amazon SageMaker Canvas bietet generative KI-Grundmodelle, mit denen Sie Konversationschats starten können. Diese Modelle zur Inhaltsgenerierung werden anhand großer Textdatenmengen trainiert, um die statistischen Muster und Beziehungen zwischen Wörtern zu lernen. Sie können kohärenten Text erzeugen, der dem Text, an dem sie trainiert wurden, statistisch ähnlich ist. Sie können diese Funktion verwenden, um Ihre Produktivität zu steigern, indem Sie wie folgt vorgehen:
-
Generieren Sie Inhalte wie Dokumententwürfe, Berichte und Blogs
-
Fassen Sie Text aus umfangreichen Textkorporen zusammen, z. B. Abschriften von Telefongesprächen, Jahresberichten oder Kapiteln von Benutzerhandbüchern
-
Extrahieren Sie Erkenntnisse und wichtige Erkenntnisse aus großen Textpassagen, z. B. Besprechungsnotizen oder Erzählungen
-
Verbessern Sie den Text und finden Sie Grammatik- oder Tippfehler
Die Basismodelle sind eine Kombination aus den großen Sprachmodellen von Amazon SageMaker JumpStart und Amazon Bedrock (LLMs). Canvas bietet die folgenden Modelle:
Modell | Typ | Beschreibung |
---|---|---|
Amazon Titan |
Amazon Bedrock-Modell |
Amazon Titan ist ein leistungsstarkes, universelles Sprachmodell, das Sie für Aufgaben wie Zusammenfassung, Textgenerierung (wie das Erstellen eines Blogbeitrags), Klassifizierung, offene Fragen und Antworten und Informationsextraktion verwenden können. Es ist für große Datenmengen vortrainiert und eignet sich daher für komplexe Aufgaben und Argumentation. Um weiterhin bewährte Verfahren für den verantwortungsvollen Umgang mit KI zu unterstützen, sind die Modelle der Amazon Titan Foundation darauf ausgelegt, schädliche Inhalte in den Daten zu erkennen und zu entfernen, unangemessene Inhalte in der Benutzereingabe zurückzuweisen und Modellausgaben zu filtern, die unangemessene Inhalte enthalten (wie Hassreden, Obszönitäten und Gewalt). |
Anthropic Claude Instant |
Modell Amazon Bedrock |
Claude Instant von Anthropic ist ein schnelleres und kostengünstigeres und dennoch sehr leistungsfähiges Modell. Dieses Modell kann eine Reihe von Aufgaben bewältigen, darunter zufällige Dialoge, Textanalyse, Zusammenfassung und Beantwortung von Fragen zu Dokumenten. Genau wie Claude-2 kann Claude Instant bis zu 100.000 Token pro Aufforderung unterstützen, was etwa 200 Informationsseiten entspricht. |
Anthropic Claude-2 |
Modell Amazon Bedrock |
Claude-2 ist das leistungsstärkste Modell von Anthropic, das sich durch eine Vielzahl von Aufgaben auszeichnet, von anspruchsvollen Dialogen und der Erstellung kreativer Inhalte bis hin zu detaillierten Anweisungen. Claude-2 kann in jeder Aufforderung bis zu 100.000 Tokens aufnehmen, was etwa 200 Informationsseiten entspricht. Es kann im Vergleich zur Vorgängerversion längere Antworten generieren. Es unterstützt Anwendungsfälle wie die Beantwortung von Fragen, Extraktion und Entfernung von InformationenPII, Generierung von Inhalten, Multiple-Choice-Klassifizierung, Rollenspiel, Textvergleich, Zusammenfassung und Fragen und Antworten zu Dokumenten mit Zitat. |
Falcon-7B-Instruct |
JumpStart Modell |
Falcon-7B-Instruct verfügt über 7 Milliarden Parameter und wurde anhand einer Mischung aus Chat- und Instruct-Datensätzen fein abgestimmt. Es eignet sich als virtueller Assistent und schneidet am besten ab, wenn es Anweisungen befolgt oder Gespräche führt. Da das Modell anhand großer Mengen englischsprachiger Webdaten trainiert wurde, trägt es die Stereotypen und Vorurteile, die häufig im Internet zu finden sind, und ist nicht für andere Sprachen als Englisch geeignet. Im Vergleich zu Falcon-40B-Instruct ist Falcon-7B-Instruct ein etwas kleineres und kompakteres Modell. |
Falcon-40B-Instruct |
JumpStart Modell |
Falcon-40B-Instruct verfügt über 40 Milliarden Parameter und wurde anhand einer Mischung aus Chat- und Instruct-Datensätzen fein abgestimmt. Er eignet sich als virtueller Assistent und schneidet am besten ab, wenn er Anweisungen befolgt oder ein Gespräch führt. Da das Modell anhand großer Mengen englischsprachiger Webdaten trainiert wurde, trägt es die Stereotypen und Vorurteile, die häufig im Internet zu finden sind, und ist nicht für andere Sprachen als Englisch geeignet. Im Vergleich zu Falcon-7B-Instruct ist Falcon-40B-Instruct ein etwas größeres und leistungsstärkeres Modell. |
Jurassic-2 Mid |
Modell Amazon Bedrock |
Jurassic-2 Mid ist ein leistungsstarkes Modell zur Textgenerierung, das auf einem riesigen Textkorpus trainiert wurde (aktuell bis Mitte 2022). Es ist äußerst vielseitig, universell einsetzbar und in der Lage, menschenähnlichen Text zu verfassen und komplexe Aufgaben wie die Beantwortung von Fragen, Textklassifizierung und viele andere zu lösen. Dieses Modell bietet die Möglichkeit, alle Anweisungen zu erstellen, sodass es nur mit natürlicher Sprache und ohne die Verwendung von Beispielen gesteuert werden kann. Es arbeitet bis zu 30% schneller als sein Vorgänger, das Jurassic-1-Modell. Jurassic-2 Mid ist AI21 das mittelgroße Modell, das sorgfältig entworfen wurde, um das richtige Gleichgewicht zwischen außergewöhnlicher Qualität und Erschwinglichkeit zu finden. |
Jurassic-2 Ultra |
Modell Amazon Bedrock |
Jurassic-2 Ultra ist ein leistungsstarkes Modell zur Textgenerierung, das auf einem riesigen Textkorpus trainiert wurde (aktuell bis Mitte 2022). Es ist äußerst vielseitig, universell einsetzbar und in der Lage, menschenähnlichen Text zu verfassen und komplexe Aufgaben wie die Beantwortung von Fragen, Textklassifizierung und viele andere zu lösen. Dieses Modell bietet die Möglichkeit, alle Anweisungen zu erstellen, sodass es nur mit natürlicher Sprache und ohne die Verwendung von Beispielen gesteuert werden kann. Es arbeitet bis zu 30% schneller als sein Vorgänger, das Jurassic-1-Modell. Im Vergleich zu Jurassic-2 Mid ist Jurassic-2 Ultra ein etwas größeres und leistungsstärkeres Modell. |
Llama-2-7B-Chat |
JumpStart Modell |
Llama-2-7B-Chat ist ein Basismodell von Meta, das sich dafür eignet, sinnvolle und kohärente Gespräche zu führen, neue Inhalte zu generieren und Antworten aus bestehenden Notizen zu extrahieren. Da das Modell anhand großer Mengen englischsprachiger Internetdaten trainiert wurde, weist es die Vorurteile und Einschränkungen auf, die häufig im Internet zu finden sind, und eignet sich am besten für Aufgaben in englischer Sprache. |
Llama-2-13B-Chat |
Modell Amazon Bedrock |
Llama-2-13B-Chat von Meta wurde nach einem ersten Training mit Internetdaten anhand von Konversationsdaten verfeinert. Es ist für natürliche Dialoge und ansprechende Chat-Funktionen optimiert und eignet sich daher gut als Konversationsagent. Im Vergleich zum kleineren Llama-2-7B-Chat hat Llama-2-13B-Chat fast doppelt so viele Parameter, sodass er sich mehr Kontext merken und nuanciertere Konversationsantworten erzeugen kann. Wie Llama-2-7B-Chat wurde auch Llama-2-13B-Chat auf Daten in englischer Sprache trainiert und eignet sich am besten für Aufgaben in englischer Sprache. |
Llama-2-70B-Chat |
Modell Amazon Bedrock |
Wie Llama-2-7B-Chat und Llama-2-13B-Chat ist auch das Llama-2-70B-Chat-Modell von Meta für einen natürlichen und bedeutungsvollen Dialog optimiert. Mit 70 Milliarden Parametern kann sich dieses umfangreiche Konversationsmodell einen umfangreicheren Kontext merken und im Vergleich zu den kompakteren Modellversionen äußerst kohärente Antworten liefern. Dies geht jedoch auf Kosten langsamerer Antworten und höherer Ressourcenanforderungen. Llama-2-70B-Chat wurde mit großen Mengen englischsprachiger Internetdaten trainiert und eignet sich am besten für Aufgaben in englischer Sprache. |
Mistral-7B |
JumpStart Modell |
Mistral-7B von Mistral.AI ist ein hervorragendes Allzweck-Sprachmodell, das sich für eine Vielzahl von Aufgaben in natürlicher Sprache (NLP) wie Textgenerierung, Zusammenfassung und Beantwortung von Fragen eignet. Es verwendet Aufmerksamkeit (GQA) für gruppierte Abfragen, was schnellere Inferenzgeschwindigkeiten ermöglicht und damit eine vergleichbare Leistung wie Modelle mit doppelt oder dreimal so vielen Parametern bietet. Es wurde anhand einer Mischung aus Textdaten wie Büchern, Websites und wissenschaftlichen Arbeiten in englischer Sprache trainiert und eignet sich daher am besten für Aufgaben in englischer Sprache. |
Mistral-7B-Chat |
JumpStart Modell |
Mistral-7B-Chat ist ein Konversationsmodell von Mistral.AI, das auf Mistral-7B basiert. Mistral-7B eignet sich zwar am besten für allgemeine NLP Aufgaben, aber Mistral-7B-Chat wurde an Konversationsdaten weiter verfeinert, um seine Fähigkeiten für einen natürlichen, ansprechenden Chat zu optimieren. Mistral-7B-Chat generiert daher mehr menschenähnliche Antworten und erinnert sich an den Kontext früherer Antworten. Wie Mistral-7B eignet sich dieses Modell am besten für Aufgaben in englischer Sprache. |
MPT-7B-Instruktieren |
JumpStart Modell |
MPT-7B-Instruct ist ein Modell für ausführliche Anweisungen zur Nachverfolgung von Aufgaben. Es kann Sie bei Schreibaufgaben wie der Textzusammenfassung und der Beantwortung von Fragen unterstützen, sodass Sie Zeit und Mühe sparen. Dieses Modell wurde mit großen, fein abgestimmten Datenmengen trainiert und kann größere Eingaben, wie z. B. komplexe Dokumente, verarbeiten. Verwenden Sie dieses Modell, wenn Sie große Textkörper verarbeiten möchten oder wenn das Modell lange Antworten generieren soll. |
Die Foundation-Modelle von Amazon Bedrock sind derzeit nur in den Regionen USA Ost (Nord-Virginia) und USA West (Oregon) verfügbar. Wenn Sie Foundation-Modelle von Amazon Bedrock verwenden, werden Ihnen außerdem Gebühren auf der Grundlage des Volumens der Eingabe- und Ausgabetokens berechnet, wie von den einzelnen Modellanbietern angegeben. Weitere Informationen finden Sie auf der Amazon Bedrock-Preisseite
Die Dokumentenabfrage ist eine zusätzliche Funktion, mit der Sie mithilfe von Amazon Kendra in Indizes gespeicherte Dokumente abfragen und Erkenntnisse daraus gewinnen können. Mit dieser Funktion können Sie Inhalte aus dem Kontext dieser Dokumente generieren und Antworten erhalten, die speziell auf Ihren Geschäftsanwendungsfall zugeschnitten sind. Im Gegensatz zu generischen Antworten auf die großen Datenmengen, auf denen die Basismodelle trainiert wurden, basieren. Weitere Informationen über Indizes in Amazon Kendra finden Sie im Amazon Kendra-Entwicklerhandbuch.
Wenn Sie Antworten von einem der Foundation-Modelle erhalten möchten, das auf Ihre Daten und Ihren Anwendungsfall zugeschnitten ist, können Sie die Foundation-Modelle verfeinern. Weitere Informationen hierzu finden Sie unter Optimieren Sie die Basismodelle.
Wenn Sie Prognosen von einem Amazon SageMaker JumpStart Foundation-Modell über eine Anwendung oder Website abrufen möchten, können Sie das Modell auf einem SageMaker Endpunkt bereitstellen. SageMaker Endgeräte hosten Ihr Modell, und Sie können über Ihren Anwendungscode Anfragen an den Endpunkt senden, um Vorhersagen aus dem Modell zu erhalten. Weitere Informationen finden Sie unter Stellen Sie Ihre Modelle auf einem Endpunkt bereit.