

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Machine Learning auf Amazon OpenSearch Serverless konfigurieren
<a name="serverless-configure-machine-learning"></a>

## Maschinelles Lernen
<a name="serverless-configure-machine-learning-what-is"></a>

Machine Learning (ML) bietet ML-Funktionen in Form von ML-Algorithmen und Remote-Modellen. Mit Zugriff auf diese Modelle können Sie verschiedene KI-Workflows wie RAG oder semantische Suche ausführen. ML unterstützt das Experimentieren und den produktiven Einsatz generativer KI-Anwendungsfälle unter Verwendung der neuesten extern gehosteten Modelle, die Sie mit Konnektoren konfigurieren können. Nachdem Sie einen Konnektor konfiguriert haben, müssen Sie ihn für ein Modell konfigurieren und ihn dann bereitstellen, um Vorhersagen durchzuführen.

## Konnektoren
<a name="serverless-configure-machine-learning-connectors"></a>

Konnektoren erleichtern den Zugriff auf Modelle, die auf ML-Plattformen von Drittanbietern gehostet werden. Sie dienen als Gateway zwischen Ihrem OpenSearch Cluster und einem Remote-Modell. Weitere Informationen finden Sie in der folgenden Dokumentation:
+ [Erstellung von Konnektoren für ML-Plattformen von Drittanbietern](https://docs.opensearch.org/latest/ml-commons-plugin/remote-models/connectors/) auf der *OpenSearch Dokumentationswebsite*
+ [Konnektoren für externe Plattformen](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/ml-external-connector.html)
+ [Anschlüsse für AWS-Services](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/ml-amazon-connector.html)
**Wichtig**  
Wenn Sie eine Vertrauensrichtlinie erstellen, fügen Sie **ml.opensearchservice.amazonaws.com** sie als OpenSearch Serviceprinzip hinzu.
Überspringen Sie die Schritte auf der [Connectors-Seite](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/ml-amazon-connector.html), auf der die Konfiguration einer Domäne in der Richtlinie beschrieben wird.
Fügen Sie die `iam:PassRole` Anweisung im Schritt [Berechtigungen konfigurieren](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/ml-amazon-connector.html#connector-sagemaker-prereq) hinzu.
Überspringen Sie **den Schritt ML-Rolle** zuordnen in OpenSearch Dashboards. Die Konfiguration der Backend-Rolle ist nicht erforderlich. Dies gilt für [Konnektoren für AWS-Services](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/ml-amazon-connector.html) und für [Konnektoren für externe Plattformen](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/ml-external-connector.html).
Stellen Sie in Ihrer SigV4-Anfrage an den Sammlungsendpunkt den Dienstnamen auf **aoss** statt **es** auf ein.

## Modelle
<a name="serverless-configure-machine-learning-models"></a>

Ein Modell ist die Kernfunktionalität, die in verschiedenen KI-Workflows verwendet wird. Im Allgemeinen verknüpfen Sie den Konnektor mit einem Modell, um mithilfe des Konnektors Vorhersagen zu treffen. Sobald sich ein Modell im Bereitstellungsstatus befindet, können Sie eine Vorhersage ausführen. Weitere Informationen finden Sie auf der *OpenSearch Dokumentationswebsite* unter [Registrieren eines Modells, das auf einer Plattform eines Drittanbieters gehostet wird](https://docs.opensearch.org/latest/ml-commons-plugin/api/model-apis/register-model/#register-a-model-hosted-on-a-third-party-platform).

**Anmerkung**  
Nicht alle Modellfunktionen werden auf OpenSearch Serverless unterstützt, z. B. lokale Modelle. Weitere Informationen finden Sie unter [Machine Learning APIs und Funktionen werden nicht unterstützt](serverless-machine-learning-unsupported-features.md).

## Berechtigungen für Machine Learning konfigurieren
<a name="serverless-configure-machine-learning-permissions"></a>

Im folgenden Abschnitt werden die Zugriffsrichtlinien für Sammlungsdaten beschrieben, die für Machine Learning (ML) erforderlich sind. Ersetzen Sie die *placeholder values* durch Ihre spezifischen Informationen. Weitere Informationen finden Sie unter [Unterstützte Richtlinienberechtigungen](serverless-data-access.md#serverless-data-supported-permissions).

```
{
    "Rules": [
        {
            "Resource": [
                "model/collection_name/*"
            ],
            "Permission": [
                "aoss:DescribeMLResource",
                "aoss:CreateMLResource",
                "aoss:UpdateMLResource",
                "aoss:DeleteMLResource",
                "aoss:ExecuteMLResource"
            ],
            "ResourceType": "model"
        }
    ],
    "Principal": [
        "arn:aws:iam::account_id:role/role_name"
    ],
    "Description": "ML full access policy for collection_name"
}
```
+ **aoss:Describe MLResource** — Erteilt die Berechtigung zum Suchen und Abfragen von Konnektoren, Modellen und Modellgruppen.
+ **aoss:Create MLResource — Erteilt die Berechtigung zum Erstellen** von Konnektoren, Modellen und Modellgruppen.
+ **aoss:Update MLResource** — Erteilt die Berechtigung zum Aktualisieren von Konnektoren, Modellen und Modellgruppen.
+ **aoss:Delete MLResource — Erteilt die Berechtigung zum Löschen** von Konnektoren, Modellen und Modellgruppen.
+ **aoss:Execute MLResource** — Erteilt die Erlaubnis, Vorhersagen für Modelle durchzuführen.