

 Amazon Redshift unterstützt UDFs ab Patch 198 nicht mehr die Erstellung von neuem Python. Das bestehende Python UDFs wird bis zum 30. Juni 2026 weiterhin funktionieren. Weitere Informationen finden Sie im [Blog-Posting](https://aws.amazon.com/blogs/big-data/amazon-redshift-python-user-defined-functions-will-reach-end-of-support-after-june-30-2026/). 

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Amazon Redshift Python Connector
<a name="python-redshift-driver"></a>

Mithilfe des Amazon Redshift Redshift-Konnektors für Python können Sie die Arbeit mit [dem AWS SDK for Python (Boto3)](https://github.com/boto/boto3) sowie mit Pandas und Numerical Python () integrieren. NumPy [Weitere Informationen zu Pandas finden Sie im Pandas-Repository. GitHub ](https://github.com/pandas-dev/pandas) [Weitere Informationen zu finden Sie im NumPy Repository. NumPy GitHub](https://github.com/numpy/numpy) 

Der Amazon-Redshift-Python-Konnektor stellt eine Open-Source-Lösung bereit. Sie können den Quellcode durchsuchen, Verbesserungen anfordern, Probleme melden und Beiträge bereitstellen. 

Um den Amazon-Redshift-Python-Konnektor zu verwenden, stellen Sie sicher, dass Sie über Python-Version 3.6 oder höher verfügen. Weitere Informationen finden Sie in der [Amazon-Redshift-Python-Treiber-Lizenzvereinbarung](https://github.com/aws/amazon-redshift-python-driver/blob/master/LICENSE). 

Der Amazon-Redshift-Python-Konnektor stellt Folgendes bereit:
+ AWS Identity and Access Management (IAM) -Authentifizierung. Weitere Informationen finden Sie unter [Identity and Access Management in Amazon Redshift](redshift-iam-authentication-access-control.md).
+ Authentifizierung des Identitätsanbieters mit föderiertem API Der föderierte API-Zugriff wird beispielsweise für folgende Unternehmensidentitätsanbieter unterstützt:
  + Azure AD. Weitere Informationen finden Sie im AWS Big-Data-Blogbeitrag [Federate Amazon Redshift access with Microsoft Azure AD Single](https://aws.amazon.com/blogs/big-data/federate-amazon-redshift-access-with-microsoft-azure-ad-single-sign-on/) Sign-On.
  + Active Directory Federation Services Weitere Informationen finden Sie im AWS Big Data Blogbeitrag [Föderierter Zugriff auf Ihren Amazon-Redshift-Cluster mit Active Directory Federation Services (AD FS): Teil 1](https://aws.amazon.com/blogs/big-data/federate-access-to-your-amazon-redshift-cluster-with-active-directory-federation-services-ad-fs-part-1/). 
  + Okta Weitere Informationen finden Sie im AWS Big-Data-Blogbeitrag [Federate Amazon Redshift access with Okta as a identity provider](https://aws.amazon.com/blogs/big-data/federate-amazon-redshift-access-with-okta-as-an-identity-provider/).
  + PingFederate. Weitere Informationen finden Sie auf der [PingFederate Website](https://www.pingidentity.com/en/software/pingfederate.html).
  + JumpCloud. Weitere Informationen finden Sie auf der [JumpCloud Website](https://jumpcloud.com/).
+ Amazon-Redshift-Datentypen.

Der Amazon-Redshift-Python-Konnektor implementiert die Python-Datenbank-API-Spezifikation 2.0. Weitere Informationen finden Sie unter [PEP 249 – Python-Datenbank-API-Spezifikation v2.0](https://www.python.org/dev/peps/pep-0249/) auf der Python-Website.

**Topics**
+ [Installieren des Amazon-Redshift-Python-Konnektors](python-driver-install.md)
+ [Konfigurationsoptionen für den Amazon-Redshift-Python-Konnektor](python-configuration-options.md)
+ [Importieren des Python-Konnektors](python-start-import.md)
+ [Integration des Python-Konnektors mit NumPy](python-connect-integrate-numpy.md)
+ [Integrieren des Python-Konnektors in Pandas](python-connect-integrate-pandas.md)
+ [Verwenden von Identitätsanbieter-Plugins](python-connect-identity-provider-plugins.md)
+ [Beispiele für die Verwendung des Amazon-Redshift-Python-Konnektors](python-connect-examples.md)
+ [API-Referenz für den Amazon-Redshift-Python-Konnektor](python-api-reference.md)

# Installieren des Amazon-Redshift-Python-Konnektors
<a name="python-driver-install"></a>

Sie können eine der folgenden Methoden verwenden, um den Amazon-Redshift-Python-Konnektor zu installieren:
+ Python-Paketindex (PyPi)
+ Conda
+ Das GitHub Repository klonen

## Installieren des Python-Konnektors aus dem PyPi
<a name="python-pip-install-pypi"></a>

Um den Python-Konnektor aus dem Python-Paketindex (PyPI) zu installieren, können Sie pip verwenden. Führen Sie dazu den folgenden Befehl aus.

```
>>> pip install redshift_connector
```

Sie können den Konnektor in einer virtuellen Umgebung installieren. Führen Sie dazu den folgenden Befehl aus.

```
>>> pip install redshift_connector
```

Optional können Sie Pandas und NumPy mit dem Connector installieren.

```
>>> pip install 'redshift_connector[full]'
```

Weitere Informationen finden zu Pip finden Sie auf der [Pip-Website](https://pip.pypa.io/en/stable/).

## Installieren des Python-Konnektors über Conda
<a name="python-pip-install-from-conda"></a>

Sie können den Python-Konnektor von Anaconda.org installieren.

```
>>>conda install -c conda-forge redshift_connector
```

## Installation des Python-Konnektors durch Klonen des GitHub Repositorys von AWS
<a name="python-pip-install-from-source"></a>

Um den Python-Konnektor aus der Quelle zu installieren, klonen Sie das GitHub Repository von AWS. Richten Sie nach der Installation von Python und virtualenv Ihre Umgebung ein und installieren Sie die erforderlichen Abhängigkeiten, indem Sie die folgenden Befehle ausführen.

```
$ git clone https://github.com/aws/amazon-redshift-python-driver.git
$ cd amazon-redshift-python-driver
$ virtualenv venv
$ . venv/bin/activate
$ python -m pip install -r requirements.txt
$ python -m pip install -e .
$ python -m pip install redshift_connector
```

# Konfigurationsoptionen für den Amazon-Redshift-Python-Konnektor
<a name="python-configuration-options"></a>

Im Folgenden finden Sie Beschreibungen für die Optionen, die Sie für den Amazon-Redshift-Python-Konnektor angeben können. Die folgenden Optionen gelten für die neueste verfügbare Connector-Version, sofern nicht anders angegeben.

## access\$1key\$1id
<a name="python-access-key-id-option"></a>
+ **Standardwert** – Keine
+ **Datentyp** – Zeichenfolge

Der Zugriffsschlüssel der IAM-Rolle bzw. des IAM-Benutzers, die/der für die IAM-Datenbankauthentifizierung konfiguriert wurde. 

Dieser Parameter ist optional.

## allow\$1db\$1user\$1override
<a name="python-allow-db-user-override-option"></a>
+ **Standardwert** – false
+ **Datentyp** – boolesch

Wahr  
Gibt an, dass der Konnektor den `DbUser`-Wert aus der SAML-Assertion (Security Assertion Markup Language) verwendet.

Falsch  
Gibt an, dass der Wert im `DbUser`-Verbindungsparameter verwendet wird.

Dieser Parameter ist optional.

## app\$1name
<a name="python-app-name-option"></a>
+ **Standardwert** – Keiner
+ **Datentyp** – Zeichenfolge

Der Name der Identitätsanbieter-Anwendung (IdP), die für die Authentifizierung verwendet wird. 

Dieser Parameter ist optional.

## application\$1name
<a name="python-application_name-option"></a>
+ **Standardwert** – Kein
+ **Datentyp** – Zeichenfolge

Der Name der Client-Anwendung, die zu Prüfungszwecken an Amazon Redshift übergeben wird. Der von Ihnen angegebene Anwendungsname wird in der Spalte „application\$1name“ der Tabelle [SYS\$1CONNECTION\$1LOG](https://docs.aws.amazon.com/redshift/latest/dg/SYS_CONNECTION_LOG.html) angezeigt. Auf diese Weise können Verbindungsquellen beim Debuggen von Problemen nachverfolgt und Fehler behoben werden.

Dieser Parameter ist optional.

## auth\$1profile
<a name="python-auth-profile-option"></a>
+ **Standardwert** – Keines
+ **Datentyp** – Zeichenfolge

Der Name eines Amazon-Redshift-Authentifizierungsprofils mit Verbindungseigenschaften als JSON. Weitere Informationen zur Benennung von Verbindungsparametern finden Sie in der `RedshiftProperty`-Klasse. Die`RedshiftProperty`-Klasse speichert vom Endbenutzer bereitgestellte und ggf. während des IAM-Authentifizierungsprozesses generierte Verbindungsparameter (z. B. temporäre IAM-Anmeldeinformationen). Weitere Informationen finden Sie in der [RedshiftProperty Klasse](https://github.com/aws/amazon-redshift-python-driver/blob/master/redshift_connector/redshift_property.py#L9). 

Dieser Parameter ist optional.

## auto\$1create
<a name="python-auto-create-option"></a>
+ **Standardwert** – false
+ **Datentyp** – boolesch

Ein Wert, der angibt, ob der Benutzer erstellt werden soll, wenn der Benutzer nicht existiert. 

Dieser Parameter ist optional.

## Client-ID
<a name="python-client-id-option"></a>
+ **Standardwert** – Keiner
+ **Datentyp** – Zeichenfolge

Die Client-ID von Azure IdP. 

Dieser Parameter ist optional.

## client\$1secret
<a name="python-client-secret-option"></a>
+ **Standardwert** – Keine
+ **Datentyp** – Zeichenfolge

Das Client-Geheimnis von Azure IdP. 

Dieser Parameter ist optional.

## cluster\$1identifier
<a name="python-cluster-identifier-option"></a>
+ **Standardwert** – Keine
+ **Datentyp** – Zeichenfolge

Die Cluster-Kennung des Amazon-Redshift-Clusters. 

Dieser Parameter ist optional.

## credentials\$1provider
<a name="python-credential-provider-option"></a>
+ **Standardwert** – Keine
+ **Datentyp** – Zeichenfolge

Der IdP, der zur Authentifizierung bei Amazon Redshift verwendet wird. Die folgenden Werte sind gültig: 
+ `AdfsCredentialsProvider`
+ `AzureCredentialsProvider`
+ `BrowserAzureCredentialsProvider`
+ `BrowserAzureOAuth2CredentialsProvider`
+ `BrowserIdcAuthPlugin` – Ein Autorisierungs-Plugin, das AWS IAM Identity Center verwendet.
+ `BrowserSamlCredentialsProvider`
+ `IdpTokenAuthPlugin`— Ein Autorisierungs-Plugin, das ein AWS IAM Identity Center-Token oder OpenID Connect (OIDC) JSON-basierte Identitätstoken (JWT) von jedem Web-Identitätsanbieter akzeptiert, der mit dem IAM Identity Center verknüpft ist. AWS 
+ `PingCredentialsProvider`
+ `OktaCredentialsProvider`

Dieser Parameter ist optional.

## Datenbank
<a name="python-database-option"></a>
+ **Standardwert** – Kein
+ **Datentyp** – Zeichenfolge

Der Name der Datenbank, mit der Sie sich verbinden möchten. 

Dieser Parameter muss angegeben werden.

## database\$1metadata\$1current\$1db\$1only
<a name="python-database-metadata-current-db-only-option"></a>
+ **Standardwert** – true
+ **Datentyp** – boolesch

Ein Wert, der angibt, ob eine Anwendung Datashare-Kataloge mit mehreren Datenbanken unterstützt. Der Standardwert True gibt an, dass die Anwendung aus Gründen der Abwärtskompatibilität keine Datashare-Kataloge mit mehreren Datenbanken unterstützt. 

Dieser Parameter ist optional.

## db\$1groups
<a name="python-db-groups-option"></a>
+ **Standardwert** – Keine
+ Datentyp **—** Zeichenfolge

Eine durch Kommas getrennte Liste vorhandener Datenbankgruppennamen, die der Benutzer für die aktuelle Sitzung durch DbUser Joins angegeben hat. 

Dieser Parameter ist optional.

## db\$1user
<a name="python-db-user-option"></a>
+ **Standardwert** – Keine
+ **Datentyp** – Zeichenfolge

Die Benutzer-ID, die mit Amazon Redshift verwendet werden soll. 

Dieser Parameter ist optional.

## endpoint\$1url
<a name="python-endpoint-url-option"></a>
+ **Standardwert** – Keine
+ **Datentyp** – Zeichenfolge

Die Amazon-Redshift-Endpunkt-URL Diese Option ist nur für den AWS internen Gebrauch bestimmt. 

Dieser Parameter ist optional.

## group\$1federation
<a name="python-group-federation-option"></a>
+ **Standardwert** – false
+ **Datentyp** – boolesch

Diese Option gibt an, ob Amazon-Redshift-IDP-Gruppen verwendet werden sollen.

Dieser Parameter ist optional.

**true**  
Verwenden Sie Amazon Redshift-Identity-Provider (IDP)-Gruppen.

**false**  
Verwenden Sie die STS-API und GetClusterCredentials den Benutzerverbund und geben Sie **db\$1groups** für die Verbindung an.

## Host
<a name="python-host-option"></a>
+ **Standardwert** – Kein
+ **Datentyp** – Zeichenfolge

Der Hostname des Amazon-Redshift-Clusters. 

Dieser Parameter ist optional.

## iam
<a name="python-iam-option"></a>
+ **Standardwert** – false
+ **Datentyp** – boolesch

Die IAM-Authentifizierung ist aktiviert. 

Dieser Parameter muss angegeben werden.

## iam\$1disable\$1cache
<a name="python-iam-disable-cache-option"></a>
+ **Standardwert** – false
+ **Datentyp** – boolesch

Diese Option gibt an, ob die IAM-Anmeldeinformationen zwischengespeichert werden. Die IAM-Anmeldeinformationen werden standardmäßig zwischengespeichert. Dies verbessert die Leistung, wenn Anfragen an das API-Gateway gedrosselt werden. 

Dieser Parameter ist optional.

## idc\$1client\$1display\$1name
<a name="python-idc_client_display_name-option"></a>
+ **Standardwert** – Python-Konnektor von Amazon Redshift
+ **Datentyp** – Zeichenfolge

Der Anzeigename, der für den Client verwendet werden soll, der verwendet. BrowserIdcAuthPlugin

Dieser Parameter ist optional.

## idc\$1region
<a name="python-idc_region"></a>
+ **Standardwert** – Kein
+ **Datentyp** – Zeichenfolge

Die AWS Region, in der sich die AWS IAM Identity Center-Instanz befindet.

Dieser Parameter ist nur erforderlich, wenn eine Authentifizierung mit `BrowserIdcAuthPlugin` in der Konfigurationsoption credentials\$1provider erfolgt.

## idp\$1partition
<a name="python-idp_partition-option"></a>
+ **Standardwert** – Kein
+ **Datentyp** – Zeichenfolge

Gibt die Cloud-Partition an, auf der Ihr Identity Provider (IdP) konfiguriert ist. Dadurch wird bestimmt, mit welchem IdP-Authentifizierungsendpunkt der Treiber eine Verbindung herstellt.

Wenn dieser Parameter leer gelassen wird, verwendet der Treiber standardmäßig die kommerzielle Partition. Die möglichen Werte sind:
+  `us-gov`: Verwenden Sie diesen Wert, wenn Ihr IdP in Azure Government konfiguriert ist. Beispielsweise verwendet Azure AD Government den Endpunkt`login.microsoftonline.us`.
+  `cn`: Verwenden Sie diesen Wert, wenn Ihr IdP in der China Cloud-Partition konfiguriert ist. Beispielsweise verwendet Azure AD China den Endpunkt`login.chinacloudapi.cn`. 

Dieser Parameter ist optional.

## idpPort
<a name="python-idp-port-option"></a>
+ **Standardwert** – 7890
+ **Datentyp** – Ganzzahl

Der Listen Port, an den der IdP die SAML-Assertion sendet. 

Dieser Parameter muss angegeben werden.

## idp\$1response\$1timeout
<a name="python-idp-response-timeout-option"></a>
+ **Standardwert** – 120
+ **Datentyp** – Ganzzahl

Das Timeout für das Abrufen der SAML-Assertion vom IdP. 

Dieser Parameter muss angegeben werden.

## idp\$1tenant
<a name="python-idp-tenant-option"></a>
+ **Standardwert** – Keine
+ **Datentyp** – Zeichenfolge

Der IdP-Tenant. 

Dieser Parameter ist optional.

## issuer\$1url
<a name="python-issuer_url"></a>
+ **Standardwert** – Kein
+ **Datentyp** – Zeichenfolge

 Verweist auf den Instanzendpunkt des AWS IAM Identity Center-Servers. 

Dieser Parameter ist nur erforderlich, wenn eine Authentifizierung mit `BrowserIdcAuthPlugin` in der Konfigurationsoption credentials\$1provider erfolgt.

## listen\$1port
<a name="python-listen-port-option"></a>
+ **Standardwert** – 7890
+ **Datentyp** – Ganzzahl

Der Port, den der Treiber verwendet, um die SAML-Antwort vom Identitätsanbieter oder den Autorisierungscode zu empfangen, wenn SAML-, Azure AD- oder AWS IAM Identity Center-Dienste über ein Browser-Plugin verwendet werden.

Dieser Parameter ist optional.

## login\$1url
<a name="python-login-url-option"></a>
+ **Standardwert** – Keine
+ **Datentyp** – Zeichenfolge

Die Single-Sign-On-URL für den IdP. 

Dieser Parameter ist optional.

## max\$1prepared\$1statements
<a name="python-max-prepared-statements-option"></a>
+ **Standardwert** – 1000
+ **Datentyp** – Ganzzahl

Die maximale Anzahl vorbereiteter Anweisungen, die pro Verbindung zwischengespeichert werden. Wenn für diesen Parameter 0 festgelegt wird, ist der Cache-Mechanismus deaktiviert. Wenn Sie für diesen Parameter eine negative Zahl eingeben, wird er auf den Standardwert gesetzt. 

Dieser Parameter ist optional.

## numeric\$1to\$1float
<a name="python-numeric-to-float-option"></a>
+ **Standardwert** – false
+ **Datentyp** – boolesch

Diese Option gibt an, ob der Konnektor numerische Datentypwerte von decimal.Decimal in Float konvertiert. Standardmäßig erhält der Konnektor numerische Datentypwerte als decimal.Decimal und konvertiert sie nicht. 

Wir empfehlen nicht, numeric\$1to\$1float für Anwendungsfälle zu aktivieren, die Genauigkeit erfordern, da die Ergebnisse ggf. gerundet werden. 

Weitere Informationen zu decimal.Decimal und den Kompromissen im Hinblick auf decimal.Decimal und Float finden Sie unter [decimal – Dezimale Festpunkt- und Gleitkomma-Arithmetik](https://docs.python.org/3/library/decimal.html) auf der Python-Website. 

Dieser Parameter ist optional.

## partner\$1sp\$1id
<a name="python-partner-sp-id-option"></a>
+ **Standardwert** – Keine
+ **Datentyp** – Zeichenfolge

Die Partner-SP-ID, die für die Authentifizierung mit Ping verwendet wird. 

Dieser Parameter ist optional.

## password
<a name="python-password-option"></a>
+ **Standardwert** – Kein
+ **Datentyp** – Zeichenfolge

Das Passwort, das für die Authentifizierung verwendet werden soll. 

Dieser Parameter ist optional.

## port
<a name="python-port-option"></a>
+ **Standardwert** – 5 439
+ **Datentyp** – Ganzzahl

Die Portnummer für den Amazon-Redshift-Cluster. 

Dieser Parameter muss angegeben werden.

## preferred\$1role
<a name="python-preferred-role-option"></a>
+ **Standardwert** – Kein
+ **Datentyp** – Zeichenfolge

Die für die aktuelle Verbindung bevorzugte IAM-Rolle. 

Dieser Parameter ist optional.

## principal\$1arn
<a name="python-principal-arn-option"></a>
+ **Standardwert** – Keine
+ **Datentyp** – Zeichenfolge

Der Amazon-Ressourcenname (ARN) des Benutzers oder der IAM-Rolle, für die Sie eine Richtlinie erstellen. Es wird empfohlen, eine Richtlinie an eine Rolle anzufügen und die Rolle Ihrem Benutzer für den Zugriff zuzuweisen. 

Dieser Parameter ist optional.

## profile
<a name="python-profile-option"></a>
+ **Standardwert** – Kein
+ **Datentyp** — Zeichenfolge

Der Name eines Profils in einer AWS Anmeldeinformationsdatei, die AWS Anmeldeinformationen enthält. 

Dieser Parameter ist optional.

## provider\$1name
<a name="python-provider_name-option"></a>
+ **Standardwert** – Kein
+ **Datentyp** – Zeichenfolge

Der Name des Anbieters für die systemeigene Authentifizierung von Redshift. 

Dieser Parameter ist optional.

## region
<a name="python-region-option"></a>
+ **Standardwert** – Kein
+ **Datentyp** — Zeichenfolge

Der AWS-Region Ort, an dem sich der Cluster befindet. 

Dieser Parameter ist optional.

## role\$1arn
<a name="python-role-arn-option"></a>
+ **Standardwert** – Keine
+ **Datentyp** – Zeichenfolge

Den Amazon-Ressourcennamen (ARN) der Rolle, die der Anrufer übernehmen soll. Dieser Parameter wird von dem Anbieter verwendet, der mit `JwtCredentialsProvider` angegeben ist. 

Für den `JwtCredentialsProvider`-Anbieter ist dieser Parameter obligatorisch. Andernfalls ist dieser Parameter optional.

## role\$1session\$1name
<a name="python-role-session-name-option"></a>
+ **Standardwert** – jwt\$1redshift\$1session
+ **Datentyp** – Zeichenfolge

Ein Bezeichner für die Sitzung der angenommenen Rolle. Normalerweise übergeben Sie den Namen oder den Bezeichner, der dem Benutzer Ihrer Anwendung zugeordnet ist. Die temporären Sicherheitsanmeldeinformationen, die Ihre Anwendung verwendet, sind diesem Benutzer zugeordnet. Dieser Parameter wird von dem Anbieter verwendet, der mit `JwtCredentialsProvider` angegeben ist. 

Dieser Parameter ist optional.

## scope
<a name="python-scope-option"></a>
+ **Standardwert** – Kein
+ **Datentyp** – Zeichenfolge

Eine durch Leerzeichen getrennte Liste von Bereichen, denen der Benutzer zustimmen kann. Sie geben diesen Parameter an, damit Ihre Anwendung die Zustimmung zu dem einholen kann APIs , den Sie aufrufen möchten. Sie können diesen Parameter angeben, wenn Sie ihn BrowserAzure OAuth2 CredentialsProvider für die Option credentials als\$1provider angeben.

Dieser Parameter ist für das Plug-in erforderlich. BrowserAzure OAuth2 CredentialsProvider

## secret\$1access\$1key\$1id
<a name="python-secret-access-key-id-option"></a>
+ **Standardwert** – Kein
+ **Datentyp** – Zeichenfolge

Der geheime Zugriffsschlüssel der IAM-Rolle bzw. des IAM-Benutzers, die/der für die IAM-Datenbankauthentifizierung konfiguriert wurde. 

Dieser Parameter ist optional.

## session\$1token
<a name="python-session-token-option"></a>
+ **Standardwert** – Keine
+ **Datentyp** – Zeichenfolge

Der Zugriffsschlüssel der IAM-Rolle bzw. des IAM-Benutzers, die/der für die IAM-Datenbankauthentifizierung konfiguriert wurde. Dieser Parameter ist erforderlich, wenn temporäre AWS Anmeldeinformationen verwendet werden. 

Dieser Parameter ist optional.

## serverless\$1acct\$1id
<a name="python-serverless-acct-id-option"></a>
+ **Standardwert** – Kein
+ **Datentyp** – Zeichenfolge

Die Konto-ID von Amazon Redshift Serverless.

Dieser Parameter ist optional.

## serverless\$1work\$1group
<a name="python-serverless-work-group-option"></a>
+ **Standardwert** – Kein
+ **Datentyp** – Zeichenfolge

Der Name der Amazon-Redshift-Serverless-Arbeitsgruppe.

Dieser Parameter ist optional.

## ssl
<a name="python-ssl-option"></a>
+ **Standardwert** – true
+ **Datentyp** – boolesch

Secure Sockets Layer (SSL) ist aktiviert. 

Dieser Parameter muss angegeben werden.

## ssl\$1insecure
<a name="python-ssl-insecure-option"></a>
+ **Standardwert** – false
+ **Datentyp** – boolesch

Ein Wert, der angibt, ob die Prüfung des Serverzertifikats des IdP-Hosts überprüft werden soll. Wenn Sie diesen Parameter auf „true“ setzen, wird die Überprüfung des Server-SSL-Zertifikats des IdP-Hosts deaktiviert. Wir empfehlen, in Produktionsumgebungen den Standardwert „False“ beizubehalten.

Dieser Parameter ist optional.

## sslmode
<a name="python-sslmode-option"></a>
+ **Standardwert** – verify-ca
+ **Datentyp** – Zeichenfolge

Die Sicherheit der Verbindung zu Amazon Redshift. Sie können einen der folgenden Werte angeben: 
+ verify-ca
+ verify-full

Dieser Parameter muss angegeben werden.

## tcp\$1keepalive
<a name="python-tcp_keepalive-option"></a>
+ **Standardwert** – true
+ **Datentyp** – boolesch

Ob TCP-Keepalives verwendet werden sollen, um ein Timeout für Verbindungen zu verhindern. Sie können die folgenden Werte angeben:
+ True: Der Treiber verwendet TCP-Keepalives, um ein Timeout von Verbindungen zu verhindern.
+ False: Der Treiber verwendet keine TCP-Keepalives.

Dieser Parameter ist optional.

## tcp\$1keepalive\$1count
<a name="python-tcp_keepalive_count-option"></a>
+ **Standardwert** – Kein
+ **Datentyp** – Ganzzahl

Die Anzahl der unbestätigten Tests, die gesendet werden sollen, bevor die Verbindung als inaktiv betrachtet wird. Wenn Sie den Wert beispielsweise auf 3 setzen, sendet der Treiber drei unbeantwortete Keepalive-Pakete, bevor er feststellt, dass die Verbindung nicht mehr aktiv ist.

Wenn dieser Parameter nicht angegeben ist, verwendet Amazon Redshift den Standardwert des Systems.

Dieser Parameter ist optional.

## tcp\$1keepalive\$1interval
<a name="python-tcp_keepalive_interval-option"></a>
+ **Standardwert** – Kein
+ **Datentyp** – Ganzzahl

Das Intervall in Sekunden zwischen aufeinanderfolgenden Keepalive-Tests, falls der Treiber zuvor keine Bestätigung für den Test erhalten hat. Wenn Sie diesen Parameter angeben, muss es sich um eine positive ganze Zahl handeln.

Wenn dieser Parameter nicht angegeben ist, verwendet Amazon Redshift den Standardwert des Systems.

Dieser Parameter ist optional.

## tcp\$1keepalive\$1idle
<a name="python-tcp_keepalive_idle-option"></a>
+ **Standardwert** – Kein
+ **Datentyp** – Ganzzahl

Die Dauer der Inaktivität in Sekunden, nach der der Treiber den ersten Keepalive-Test sendet. Wenn Sie den Wert beispielsweise auf 120 setzen, bedeutet dies, dass der Treiber 2 Minuten lang inaktiv ist, bevor er das erste Keepalive-Paket sendet. Wenn Sie diesen Parameter angeben, muss es sich um eine positive ganze Zahl handeln. 

Wenn dieser Parameter nicht angegeben ist, verwendet Amazon Redshift den Standardwert des Systems.

Dieser Parameter ist optional.

## timeout
<a name="python-timeout-option"></a>
+ **Standardwert** – Kein
+ **Datentyp** – Ganzzahl

Die Anzahl der Sekunden, die gewartet werden soll, bevor eine Zeitüberschreitung für einen Verbindungsversuch mit dem Server eintritt. 

Dieser Parameter ist optional.

## Token
<a name="python-token-option"></a>
+ **Standardwert** – Kein
+ **Datentyp** – Zeichenfolge

Ein von AWS IAM Identity Center bereitgestelltes Zugriffstoken oder ein OpenID Connect (OIDC) JSON Web Token (JWT), das von einem Web-Identitätsanbieter bereitgestellt wird, der mit IAM Identity Center verknüpft ist. AWS Ihre Anwendung muss dieses Token generieren, indem sie den Benutzer Ihrer Anwendung bei AWS IAM Identity Center oder einem mit IAM Identity Center verknüpften Identitätsanbieter authentifiziert. AWS 

Dieser Parameter funktioniert mit `IdpTokenAuthPlugin`.

## token\$1type
<a name="python-token_type-option"></a>
+ **Standardwert** – Kein
+ **Datentyp** – Zeichenfolge

Der Tokentyp, der in `IdpTokenAuthPlugin` verwendet wird.

Sie können die folgenden Werte angeben:

**ACCESS\$1TOKEN**  
Geben Sie dies ein, wenn Sie ein von AWS IAM Identity Center bereitgestelltes Zugriffstoken verwenden.

**EXT\$1JWT**  
Geben Sie dies ein, wenn Sie ein OpenID Connect (OIDC) JSON Web Token (JWT) verwenden, das von einem webbasierten Identitätsanbieter bereitgestellt wird, der in AWS IAM Identity Center integriert ist.

Dieser Parameter funktioniert mit `IdpTokenAuthPlugin`.

## user
<a name="python-user-option"></a>
+ **Standardwert** – Kein
+ **Datentyp** – Zeichenfolge

Der Benutzername für die Autorisierung. 

Dieser Parameter ist optional.

## web\$1identity\$1token
<a name="python-web-identity-token-option"></a>
+ **Standardwert** – Kein
+ **Datentyp** — Zeichenfolge

Das OAuth 2.0-Zugriffstoken oder das OpenID Connect-ID-Token, das vom Identitätsanbieter bereitgestellt wird. Stellen Sie sicher, dass Ihre Anwendung dieses Token abruft, indem Sie den Benutzer Ihrer Anwendung bei einem Web-Identitätsanbieter authentifizieren. Dieser Parameter wird von dem Anbieter verwendet, der mit `JwtCredentialsProvider` angegeben ist. 

Für den `JwtCredentialsProvider`-Anbieter ist dieser Parameter obligatorisch. Andernfalls ist dieser Parameter optional.

# Importieren des Python-Konnektors
<a name="python-start-import"></a>

Um den Python-Konnektor zu importieren, führen Sie den folgenden Befehl aus.

```
>>> import redshift_connector
```

Führen Sie den folgenden Befehl aus, um mithilfe von AWS Anmeldeinformationen eine Verbindung zu einem Amazon Redshift Redshift-Cluster herzustellen.

```
conn = redshift_connector.connect(
    host='examplecluster.abc123xyz789.us-west-1.redshift.amazonaws.com',
    port=5439,
    database='dev',
    user='awsuser',
    password='my_password'
 )
```

# Integration des Python-Konnektors mit NumPy
<a name="python-connect-integrate-numpy"></a>

Im Folgenden finden Sie ein Beispiel für die Integration des Python-Konnektors mit NumPy.

```
>>>  import numpy
#Connect to the cluster
>>> import redshift_connector
>>> conn = redshift_connector.connect(
     host='examplecluster.abc123xyz789.us-west-1.redshift.amazonaws.com',
     port=5439,
     database='dev',
     user='awsuser',
     password='my_password'
  )
  
# Create a Cursor object
>>> cursor = conn.cursor()

# Query and receive result set            
cursor.execute("select * from book")

result: numpy.ndarray = cursor.fetch_numpy_array()
print(result)
```

Das Ergebnis sieht wie folgt aus.

```
[['One Hundred Years of Solitude' 'Gabriel García Márquez']
['A Brief History of Time' 'Stephen Hawking']]
```

# Integrieren des Python-Konnektors in Pandas
<a name="python-connect-integrate-pandas"></a>

Es folgt ein Beispiel für die Integration des Python-Konnektors in Pandas.

```
>>> import pandas

#Connect to the cluster
>>> import redshift_connector
>>> conn = redshift_connector.connect(
     host='examplecluster.abc123xyz789.us-west-1.redshift.amazonaws.com',
     port=5439,
     database='dev',
     user='awsuser',
     password='my_password'
  )
  
# Create a Cursor object
>>> cursor = conn.cursor()

# Query and receive result set
cursor.execute("select * from book")
result: pandas.DataFrame = cursor.fetch_dataframe()
print(result)
```

# Verwenden von Identitätsanbieter-Plugins
<a name="python-connect-identity-provider-plugins"></a>

Allgemeine Informationen zur Verwendung von Identitätsanbieter-Plug-ins finden Sie unter [Optionen für die Bereitstellung von IAM-Anmeldeinformationen](options-for-providing-iam-credentials.md). Weitere Informationen zur Verwaltung von IAM-Identitäten, einschließlich bewährter Methoden für IAM-Rollen, finden Sie unter [Identity and Access Management in Amazon Redshift](redshift-iam-authentication-access-control.md).

## Authentifizierung mit dem ADFS-Identitätsanbieter-Plug-In
<a name="python-connect-identity-provider-active-dir"></a>

Es folgt ein Beispiel für die Verwendung des Identitätsanbieter-Plug-Ins für den Active Directory Federation Service (ADFS), um einen Benutzer zu authentifizieren, der sich mit einer Amazon-Redshift-Datenbank verbindet.

```
>>> con = redshift_connector.connect(
    iam=True,
    database='dev',
    host='my-testing-cluster.abc.us-east-2.redshift.amazonaws.com',
    cluster_identifier='my-testing-cluster',
    credentials_provider='AdfsCredentialsProvider',
    user='brooke@myadfshostname.com',
    password='Hunter2',
    idp_host='myadfshostname.com'
)
```

## Authentifizierung mit dem Azure-Identitätsanbieter-Plug-In
<a name="python-connect-identity-provider-azure"></a>

Es folgt ein Beispiel für die Authentifizierung mit dem Azure-Identitätsanbieter-Plug-In. Sie können wie folgt Werte für `client_id` und `client_secret` für eine Azure-Enterprise-Anwendung erstellen. 

```
>>>  con = redshift_connector.connect(
    iam=True,
    database='dev',
    host='my-testing-cluster.abc.us-east-2.redshift.amazonaws.com',
    cluster_identifier='my-testing-cluster',
    credentials_provider='AzureCredentialsProvider',
    user='brooke@myazure.org',
    password='Hunter2',
    idp_tenant='my_idp_tenant',
    client_id='my_client_id',
    client_secret='my_client_secret',
    preferred_role='arn:aws:iam:123:role/DataScientist'
)
```

## Authentifizierung mithilfe des AWS IAM Identity Center Identity Provider-Plug-ins
<a name="python-connect-identity-provider-aws-idc"></a>

 Im Folgenden finden Sie ein Beispiel für die Authentifizierung mit dem AWS IAM Identity Center Identity Provider-Plugin. 

```
with redshift_connector.connect(
credentials_provider='BrowserIdcAuthPlugin',
host='my-testing-cluster.abc.us-east-2.redshift.amazonaws.com',
database='dev',
idc_region='us-east-1',
issuer_url='https://identitycenter.amazonaws.com/ssoins-790723ebe09c86f9',
idp_response_timeout=60,
listen_port=8100,
idc_client_display_name='Test Display Name',
# port value of 5439 is specified by default
)
```

## Authentifizierung mit dem Azure-Browser-Identitätsanbieter-Plug-In
<a name="python-connect-identity-provider-azure-browser"></a>

Es folgt ein Beispiel für die Verwendung des Azure-Browser-Identitätsanbieter-Plug-Ins zur Authentifizierung eines Benutzers, der sich mit einer Amazon-Redshift-Datenbank verbindet.

Die Multi-Faktor-Authentifizierung erfolgt im Browser, wo die Anmeldeinformationen vom Benutzer angegeben werden.

```
>>>con = redshift_connector.connect(
    iam=True,
    database='dev',
    host='my-testing-cluster.abc.us-east-2.redshift.amazonaws.com',
    cluster_identifier='my-testing-cluster',
    credentials_provider='BrowserAzureCredentialsProvider',
    idp_tenant='my_idp_tenant',
    client_id='my_client_id',
)
```

## Authentifizierung mit dem Okta-Identitätsanbieter-Plug-In
<a name="python-connect-identity-provider-okta"></a>

Es folgt ein Beispiel für die Authentifizierung mit dem Okta-Identitätsanbieter-Plug-In. Sie können die Werte für `idp_host`, `app_id` und `app_name` über die Okta-Anwendung erhalten.

```
>>> con = redshift_connector.connect(
    iam=True,
    database='dev',
    host='my-testing-cluster.abc.us-east-2.redshift.amazonaws.com',
    cluster_identifier='my-testing-cluster',
    credentials_provider='OktaCredentialsProvider',
    user='brooke@myazure.org',
    password='hunter2',
    idp_host='my_idp_host',
    app_id='my_first_appetizer',
    app_name='dinner_party'
)
```

## Authentifizierung JumpCloud mithilfe eines generischen SAML-Browser-Plug-ins für den Identitätsanbieter
<a name="python-connect-identity-provider-jumpcloud"></a>

Im Folgenden finden Sie ein Beispiel für die Verwendung JumpCloud mit einem generischen SAML-Browser-Identity-Provider-Plugin zur Authentifizierung.

Der Passwort-Parameter muss angegeben werden. Sie müssen diesen Parameter jedoch nicht eingeben, da die Multi-Faktor-Authentifizierung im Browser stattfindet.

```
>>> con = redshift_connector.connect(
    iam=True,
    database='dev',
    host='my-testing-cluster.abc.us-east-2.redshift.amazonaws.com',
    cluster_identifier='my-testing-cluster',
    credentials_provider='BrowserSamlCredentialsProvider',
    user='brooke@myjumpcloud.org',
    password='',
    login_url='https://sso.jumpcloud.com/saml2/plustwo_melody'
)
```

# Beispiele für die Verwendung des Amazon-Redshift-Python-Konnektors
<a name="python-connect-examples"></a>

Im Folgenden finden Sie Beispiele zur Verwendung des Amazon-Redshift-Python-Konnektors. Um sie auszuführen, müssen Sie zuerst den Python-Konnektor installieren. Weitere Informationen zum Installieren des Python-Konnektors von Amazon Redshift finden Sie unter [Installieren des Amazon-Redshift-Python-Konnektors](python-driver-install.md). Weitere Informationen zu den Konfigurationsoptionen, die Sie mit dem Python-Konnektor verwenden können, finden Sie unter [Konfigurationsoptionen für den Amazon-Redshift-Python-Konnektor](python-configuration-options.md).

**Topics**
+ [Mit Anmeldeinformationen eine Verbindung zu einem Amazon Redshift Redshift-Cluster herstellen und ihn abfragen AWS](#python-connect-cluster)
+ [Aktivieren von Autocommit](#python-connect-enable-autocommit)
+ [Konfiguration des Paramstyle-Werts für den Cursor](#python-connect-config-paramstyle)
+ [Kopieren von Daten mit COPY aus einem Amazon-S3-Bucket und Verwenden von UNLOAD, um Daten in den Bucket zu schreiben](#python-connect-copy-unload-s3)

## Mit Anmeldeinformationen eine Verbindung zu einem Amazon Redshift Redshift-Cluster herstellen und ihn abfragen AWS
<a name="python-connect-cluster"></a>

Das folgende Beispiel zeigt Ihnen, wie Sie mithilfe Ihrer AWS Anmeldeinformationen eine Verbindung zu einem Amazon Redshift Redshift-Cluster herstellen, dann eine Tabelle abfragen und die Abfrageergebnisse abrufen.

```
#Connect to the cluster
>>> import redshift_connector
>>> conn = redshift_connector.connect(
     host='examplecluster.abc123xyz789.us-west-1.redshift.amazonaws.com',
     database='dev',
     port=5439,
     user='awsuser',
     password='my_password'
  )
  
# Create a Cursor object
>>> cursor = conn.cursor()

# Query a table using the Cursor
>>> cursor.execute("select * from book")
                
#Retrieve the query result set
>>> result: tuple = cursor.fetchall()
>>> print(result)
 >> (['One Hundred Years of Solitude', 'Gabriel García Márquez'], ['A Brief History of Time', 'Stephen Hawking'])
```

## Aktivieren von Autocommit
<a name="python-connect-enable-autocommit"></a>

Die Autocommit-Eigenschaft ist gemäß der Python-Datenbank-API-Spezifikation standardmäßig deaktiviert. Sie können die folgenden Befehle verwenden, um die autocommit-Eigenschaft der Verbindung nach dem Ausführen eines Rollback-Befehls zu aktivieren und sicherzustellen, dass sich keine Transaktion in Bearbeitung befindet.

```
#Connect to the cluster
>>> import redshift_connector
>>> conn = redshift_connector.connect(...)

# Run a rollback command
>>>  conn.rollback()

# Turn on autocommit
>>>  conn.autocommit = True
>>>  conn.run("VACUUM")

# Turn off autocommit
>>>  conn.autocommit = False
```

## Konfiguration des Paramstyle-Werts für den Cursor
<a name="python-connect-config-paramstyle"></a>

Der Paramstyle-Wert für einen Cursor kann über cursor.paramstyle geändert werden. Der verwendete Paramstyle-Standardwert ist `format`. Gültige Werte für den Parameter sind `qmark`, `numeric`, `named`, `format` und `pyformat`.

Im Folgenden finden Sie Beispiele für die Verwendung verschiedener Paramstyle-Werte, um Parameter an eine SQL-Beispielanweisung zu übergeben.

```
# qmark
redshift_connector.paramstyle = 'qmark'
sql = 'insert into foo(bar, jar) VALUES(?, ?)'
cursor.execute(sql, (1, "hello world"))

# numeric
redshift_connector.paramstyle = 'numeric'
sql = 'insert into foo(bar, jar) VALUES(:1, :2)'
cursor.execute(sql, (1, "hello world"))

# named
redshift_connector.paramstyle = 'named'
sql = 'insert into foo(bar, jar) VALUES(:p1, :p2)'
cursor.execute(sql, {"p1":1, "p2":"hello world"})

# format
redshift_connector.paramstyle = 'format'
sql = 'insert into foo(bar, jar) VALUES(%s, %s)'
cursor.execute(sql, (1, "hello world"))

# pyformat
redshift_connector.paramstyle = 'pyformat'
sql = 'insert into foo(bar, jar) VALUES(%(bar)s, %(jar)s)'
cursor.execute(sql, {"bar": 1, "jar": "hello world"})
```

## Kopieren von Daten mit COPY aus einem Amazon-S3-Bucket und Verwenden von UNLOAD, um Daten in den Bucket zu schreiben
<a name="python-connect-copy-unload-s3"></a>

Das folgende Beispiel zeigt, wie Daten aus einem Amazon-S3-Bucket in eine Tabelle kopiert und dann aus der Tabelle wieder in den Bucket entladen werden.

Eine Textdatei mit dem Namen `category_csv.txt` und den folgenden Daten wird in einen Amazon-S3-Bucket hochgeladen.

```
12,Shows,Musicals,Musical theatre
13,Shows,Plays,"All ""non-musical"" theatre"
14,Shows,Opera,"All opera, light, and ""rock"" opera"
15,Concerts,Classical,"All symphony, concerto, and choir concerts"
```

Es folgt ein Beispiel für den Python-Code, der sich zuerst mit der Amazon-Redshift-Datenbank verbindet. Anschließend wird eine Tabelle `category` erstellt und die CSV-Daten werden aus dem S3 Bucket in die Tabelle kopiert.

```
#Connect to the cluster and create a Cursor
>>> import redshift_connector
>>> with redshift_connector.connect(...) as conn:
>>> with conn.cursor() as cursor:

#Create an empty table
>>>     cursor.execute("create table category (catid int, cargroup varchar, catname varchar, catdesc varchar)")

#Use COPY to copy the contents of the S3 bucket into the empty table 
>>>     cursor.execute("copy category from 's3://testing/category_csv.txt' iam_role 'arn:aws:iam::123:role/RedshiftCopyUnload' csv;")

#Retrieve the contents of the table
>>>     cursor.execute("select * from category")
>>>     print(cursor.fetchall())

#Use UNLOAD to copy the contents of the table into the S3 bucket
>>>     cursor.execute("unload ('select * from category') to 's3://testing/unloaded_category_csv.txt'  iam_role 'arn:aws:iam::123:role/RedshiftCopyUnload' csv;")

#Retrieve the contents of the bucket
>>>     print(cursor.fetchall())
 >> ([12, 'Shows', 'Musicals', 'Musical theatre'], [13, 'Shows', 'Plays', 'All "non-musical" theatre'], [14, 'Shows', 'Opera', 'All opera, light, and "rock" opera'], [15, 'Concerts', 'Classical', 'All symphony, concerto, and choir concerts'])
```

Wenn Sie den Wert für `autocommit` nicht auf „true“ gesetzt haben, führen Sie mit `conn.commit()` einen Commit durch, nachdem Sie die `execute()`-Anweisungen ausgeführt haben.

Die Daten werden in die Datei `unloaded_category_csv.text0000_part00` im S3-Bucket mit folgendem Inhalt entladen:

```
12,Shows,Musicals,Musical theatre
13,Shows,Plays,"All ""non-musical"" theatre"
14,Shows,Opera,"All opera, light, and ""rock"" opera"
15,Concerts,Classical,"All symphony, concerto, and choir concerts"
```

# API-Referenz für den Amazon-Redshift-Python-Konnektor
<a name="python-api-reference"></a>

Im Folgenden finden Sie eine Beschreibung der API-Operationen des Amazon-Redshift-Python-Konnektors.

## redshift\$1connector
<a name="python-api-redshift_connector"></a>

Im Folgenden finden Sie eine Beschreibung der `redshift_connector` API-Operation.

`connect(user, database, password[, port, …])`  
Stellt eine Verbindung zu einem Amazon-Redshift-Cluster her. Diese Funktion validiert Benutzereingaben, authentifiziert sich optional mit einem Identitätsanbieter-Plug-In und erstellt dann ein Verbindungsobjekt.

`apilevel`  
Die unterstützte DBAPI-Ebene, derzeit „2.0".

`paramstyle``str(object=’’) -> str str(bytes_or_buffer[, encoding[, errors]]) -> str`  
Der global zu verwendende Datenbank-API-Parameterstil.

## Verbindung
<a name="python-api-connection"></a>

Im Folgenden finden Sie eine Beschreibung der Verbindungs-API-Operationen für den Amazon-Redshift-Python-Konnektor.

`__init__(user, password, database[, host, …])`  
Initialisiert ein rohes Verbindungsobjekt.

`cursor`  
Erstellt ein Cursor-Objekt, das an diese Verbindung gebunden ist.

`commit`  
Führt einen Commit der aktuellen Datenbanktransaktion aus.

`rollback`  
Rollt die aktuelle Datenbanktransaktion zurück.

`close`  
Schließt die Datenbankverbindung.

`execute(cursor, operation, vals)`  
Führt den angegebenen SQL-Befehl aus. Sie können die Parameter als Sequenz oder als Mapping angeben, abhängig vom Wert von `redshift_connector.paramstyle`.

`run(sql[, stream])`  
Führt den angegebenen SQL-Befehl aus. Optional können Sie einen Stream zur Verwendung mit dem Befehl COPY bereitstellen.

`xid(format_id, global_transaction_id, …)`  
Erstellen Sie eine Transaktions-ID. Nur der `global_transaction_id`-Parameter wird in Postgres verwendet. format\$1id und branch\$1qualifier werden nicht in Postgres verwendet. Der `global_transaction_id` kann jeder String-Bezeichner sein, der von Postgres unterstützt wird und ein Tupel zurückgibt (`format_id`, `global_transaction_id`, `branch_qualifier`).

`tpc_begin(xid)`  
Startet eine TPC-Transaktion mit einer Transaktions-ID `xid` bestehend aus einer Format-ID, einer globalen Transaktions-ID und einem Branch Qualifier. 

`tpc_prepare`  
Führt die erste Phase einer mit .tpc\$1begin gestarteten Transaktion aus.

`tpc_commit([xid])`  
Wenn es ohne Argumente aufgerufen wird, führt .tpc\$1commit einen Commit für eine TPC-Transaktion aus, die zuvor mit .tpc\$1prepare() vorbereitet wurde.

`tpc_rollback([xid])`  
Wenn es ohne Argumente aufgerufen wird, rollt .tpc\$1rollback eine TPC-Transaktion zurück.

`tpc_recover`  
Gibt eine Liste ausstehender Transaktionen zurück, die für die Verwendung mit .tpc\$1commit (xid) oder .tpc\$1rollback (xid) IDs geeignet sind.

## Cursor
<a name="python-api-cursor"></a>

Im Folgenden finden Sie eine Beschreibung der Cursor-API-Operation.

`__init__(connection[, paramstyle])`  
Initialisiert ein rohes Cursor-Objekt.

`insert_data_bulk(filename, table_name, parameter_indices, column_names, delimiter, batch_size)`  
Führt eine Massen-INSERT-Anweisung aus.

`execute(operation[, args, stream, …])`  
Führt einen Datenbankvorgang aus.

`executemany(operation, param_sets)`  
Bereitet einen Datenbankvorgang vor und führt ihn dann für alle bereitgestellten Parametersequenzen oder Mappings aus.

`fetchone`  
Ruft die nächste Zeile eines Abfrageergebnissatzes ab.

`fetchmany([num])`  
Ruft die nächste Reihe von Zeilen eines Abfrageergebnisses ab.

`fetchall`  
Ruft alle verbleibenden Zeilen eines Abfrageergebnisses ab.

`close`  
Schließt den Cursor jetzt. 

`__iter__`  
Ein Cursorobjekt kann iteriert werden, um die Zeilen aus einer Abfrage abzurufen.

`fetch_dataframe([num])`  
Gibt einen Datenrahmen der letzten Abfrageergebnisse zurück.

`write_dataframe(df, table)`  
Schreibt denselben Strukturdatenrahmen in eine Amazon-Redshift-Datenbank.

`fetch_numpy_array([num])`  
 NumPy Gibt ein Array der letzten Abfrageergebnisse zurück.

`get_catalogs`  
Amazon Redshift unterstützt nicht mehrere Kataloge über eine einzige Verbindung. Amazon Redshift gibt nur den aktuellen Katalog zurück.

`get_tables([catalog, schema_pattern, …])`  
Gibt die eindeutigen öffentlichen Tabellen zurück, die innerhalb des Systems benutzerdefiniert sind.

`get_columns([catalog, schema_pattern, …])`  
Gibt eine Liste aller Spalten in einer bestimmten Tabelle einer Amazon-Redshift-Datenbank zurück.

## AdfsCredentialsProvider Plugin
<a name="python-adfs-credentials-plugin"></a>

Im Folgenden finden Sie die Syntax für den AdfsCredentialsProvider Plugin-API-Vorgang für den Amazon Redshift Python-Konnektor. 

```
redshift_connector.plugin.AdfsCredentialsProvider()
```

## AzureCredentialsProvider Plugin
<a name="python-azure-credentials-plugin"></a>

Im Folgenden finden Sie die Syntax für den AzureCredentialsProvider Plugin-API-Vorgang für den Amazon Redshift Python-Konnektor.

```
redshift_connector.plugin.AzureCredentialsProvider()
```

## BrowserAzureCredentialsProvider Plugin
<a name="python-browser-azure-credentials-plugin"></a>

Im Folgenden finden Sie die Syntax für den BrowserAzureCredentialsProvider Plugin-API-Vorgang für den Amazon Redshift Python-Konnektor.

```
redshift_connector.plugin.BrowserAzureCredentialsProvider()
```

## BrowserSamlCredentialsProvider Plugin
<a name="python-browser-saml-credentials-plugin"></a>

Im Folgenden finden Sie die Syntax für den BrowserSamlCredentialsProvider Plugin-API-Vorgang für den Amazon Redshift Python-Konnektor.

```
redshift_connector.plugin.BrowserSamlCredentialsProvider()
```

## OktaCredentialsProvider Plugin
<a name="python-okta-credentials-plugin"></a>

Im Folgenden finden Sie die Syntax für den OktaCredentialsProvider Plugin-API-Vorgang für den Amazon Redshift Python-Konnektor.

```
redshift_connector.plugin.OktaCredentialsProvider()
```

## PingCredentialsProvider Plugin
<a name="python-ping-credentials-plugin"></a>

Im Folgenden finden Sie die Syntax für den PingCredentialsProvider Plugin-API-Vorgang für den Amazon Redshift Python-Konnektor.

```
redshift_connector.plugin.PingCredentialsProvider()
```

## SamlCredentialsProvider Plugin
<a name="python-saml-credentials-plugin"></a>

Im Folgenden finden Sie die Syntax für den SamlCredentialsProvider Plugin-API-Vorgang für den Amazon Redshift Python-Konnektor.

```
redshift_connector.plugin.SamlCredentialsProvider()
```