

 Amazon Redshift는 패치 198부터 새 Python UDF 생성을 더 이상 지원하지 않습니다. 기존 Python UDF는 2026년 6월 30일까지 계속 작동합니다. 자세한 내용은 [블로그 게시물](https://aws.amazon.com/blogs/big-data/amazon-redshift-python-user-defined-functions-will-reach-end-of-support-after-june-30-2026/)을 참조하세요.

# Amazon Redshift Python 커넥터
<a name="python-redshift-driver"></a>

Python용 Amazon Redshift 커넥터를 사용하면[AWS Python용 SDK(Boto3)](https://github.com/boto/boto3), pandas 및 Numerical Python(NumPy)과 작업을 통합할 수 있습니다. pandas에 대한 자세한 내용은 [pandas GitHub 리포지토리](https://github.com/pandas-dev/pandas)를 참조하세요. NumPy에 대한 자세한 내용은 [NumPy GitHub 리포지토리](https://github.com/numpy/numpy)를 참조하세요.

Amazon Redshift Python 커넥터는 오픈 소스 솔루션을 제공합니다. 소스 코드를 탐색하고, 개선 사항을 요청하고, 문제를 보고하고, 기여를 제공할 수 있습니다.

Amazon Redshift Python 커넥터를 사용하려면 Python 버전 3.6 이상이 있어야 합니다. 자세한 내용은 [Amazon Redshift Python 드라이버 사용권 계약](https://github.com/aws/amazon-redshift-python-driver/blob/master/LICENSE)을 참조하세요.

Amazon Redshift Python 커넥터는 다음을 제공합니다.
+ AWS Identity and Access Management(IAM) 인증. 자세한 내용은 [Amazon Redshift의 Identity and Access Management](redshift-iam-authentication-access-control.md) 섹션을 참조하세요.
+ 페더레이션 API 액세스를 사용한 자격 증명 공급자 인증. 페더레이션 API 액세스는 다음과 같은 기업 자격 증명 공급자에 대해 지원됩니다.
  + Azure AD. 자세한 내용은 AWS 빅 데이터 블로그 게시물 [Federate Amazon Redshift access with Microsoft Azure AD single sign-on](https://aws.amazon.com/blogs/big-data/federate-amazon-redshift-access-with-microsoft-azure-ad-single-sign-on/)을 참조하세요.
  + Active Directory Federation Services. 자세한 내용은 AWS 빅 데이터 블로그 게시물 [Federate access to your Amazon Redshift cluster with Active Directory Federation Services (AD FS): Part 1](https://aws.amazon.com/blogs/big-data/federate-access-to-your-amazon-redshift-cluster-with-active-directory-federation-services-ad-fs-part-1/)을 참조하세요.
  + Okta. 자세한 내용은 AWS 빅 데이터 블로그 게시물 [Federate Amazon Redshift access with Okta as an identity provider](https://aws.amazon.com/blogs/big-data/federate-amazon-redshift-access-with-okta-as-an-identity-provider/)를 참조하세요.
  + PingFederate. 자세한 내용은 [PingFederate 사이트](https://www.pingidentity.com/en/software/pingfederate.html)를 참조하세요.
  + JumpCloud. 자세한 내용은 [JumpCloud 사이트](https://jumpcloud.com/)를 참조하세요.
+ Amazon Redshift 데이터 유형.

Amazon Redshift Python 커넥터는 Python Database API 사양 2.0을 구현합니다. 자세한 내용은 Python 웹 사이트의 [PEP 249—Python Database API Specification v2.0](https://www.python.org/dev/peps/pep-0249/)을 참조하세요.

**Topics**
+ [Amazon Redshift Python 커넥터 설치](python-driver-install.md)
+ [Amazon Redshift Python 커넥터의 구성 옵션](python-configuration-options.md)
+ [Python 커넥터 가져오기](python-start-import.md)
+ [NumPy와 Python 커넥터 통합](python-connect-integrate-numpy.md)
+ [pandas와 Python 커넥터 통합](python-connect-integrate-pandas.md)
+ [자격 증명 공급자 플러그인 사용](python-connect-identity-provider-plugins.md)
+ [Amazon Redshift Python 커넥터 사용 예](python-connect-examples.md)
+ [Amazon Redshift Python 커넥터용 API 참조](python-api-reference.md)

# Amazon Redshift Python 커넥터 설치
<a name="python-driver-install"></a>

다음 방법을 사용하여 Amazon Redshift Python 커넥터를 설치할 수 있습니다.
+ Python 패키지 인덱스(PyPi)
+ Conda
+ GitHub 리포지토리 복제

## PyPI에서 Python 커넥터 설치
<a name="python-pip-install-pypi"></a>

Python 패키지 인덱스(PyPi)에서 Python 커넥터를 설치하려면 pip를 사용할 수 있습니다. 다음 명령으로 실행하세요.

```
>>> pip install redshift_connector
```

가상 환경 내에 커넥터를 설치할 수 있습니다. 다음 명령으로 실행하세요.

```
>>> pip install redshift_connector
```

커넥터를 사용하여 pandas와 NumPy를 설치할 수도 있습니다.

```
>>> pip install 'redshift_connector[full]'
```

pip에 대한 자세한 내용은 [pip 웹 사이트](https://pip.pypa.io/en/stable/)를 참조하세요.

## Conda에서 Python 커넥터 설치
<a name="python-pip-install-from-conda"></a>

Anaconda.org에서 Python 커넥터를 설치할 수 있습니다.

```
>>>conda install -c conda-forge redshift_connector
```

## AWS에서 GitHub 리포지토리를 복제하여 Python 커넥터 설치
<a name="python-pip-install-from-source"></a>

소스에서 Python 커넥터를 설치하려면 AWS에서 GitHub 리포지토리를 복제합니다. Python 및 virtualenv를 설치한 후 다음 명령을 실행하여 환경을 설정하고 필요한 종속성을 설치합니다.

```
$ git clone https://github.com/aws/amazon-redshift-python-driver.git
$ cd amazon-redshift-python-driver
$ virtualenv venv
$ . venv/bin/activate
$ python -m pip install -r requirements.txt
$ python -m pip install -e .
$ python -m pip install redshift_connector
```

# Amazon Redshift Python 커넥터의 구성 옵션
<a name="python-configuration-options"></a>

아래에서 Amazon Redshift JDBC Python 커넥터에 지정할 수 있는 옵션에 대한 설명을 찾을 수 있습니다. 아래 옵션은 달리 지정하지 않는 한 사용 가능한 최신 커넥터 버전에 적용됩니다.

## access\$1key\$1id
<a name="python-access-key-id-option"></a>
+ **기본값** – 없음
+ **데이터 유형** – 문자열

IAM 데이터베이스 인증용으로 구성한 IAM 사용자 또는 역할에 대한 액세스 키 ID입니다.

이 파라미터는 선택 사항입니다.

## allow\$1db\$1user\$1override
<a name="python-allow-db-user-override-option"></a>
+ **기본값** – False
+ **데이터 유형** – 부울

True  
커넥터가 SAML(Security Assertion Markup Language) 어설션의 `DbUser` 값을 사용하도록 지정합니다.

False  
`DbUser` 연결 파라미터의 값이 사용되도록 지정합니다.

이 파라미터는 선택 사항입니다.

## app\$1name
<a name="python-app-name-option"></a>
+ **기본값** – 없음
+ **데이터 유형** – 문자열

인증에 사용되는 자격 증명 공급자(IdP) 애플리케이션의 이름입니다.

이 파라미터는 선택 사항입니다.

## application\$1name
<a name="python-application_name-option"></a>
+ **기본값** – 없음
+ **데이터 유형** – 문자열

감사 목적으로 Amazon Redshift에 전달할 클라이언트 애플리케이션의 이름입니다. 입력하는 애플리케이션 이름은 [SYS\$1CONNECTION\$1LOG](https://docs.aws.amazon.com/redshift/latest/dg/SYS_CONNECTION_LOG.html) 테이블의 'application\$1name' 열에 나타납니다. 이렇게 하면 문제를 디버깅할 때 연결 소스를 추적하고 문제를 해결할 수 있습니다.

이 파라미터는 선택 사항입니다.

## auth\$1profile
<a name="python-auth-profile-option"></a>
+ **기본값** – 없음
+ **데이터 유형** – 문자열

연결 속성이 JSON인 Amazon Redshift 인증 프로파일의 이름입니다. 연결 파라미터 이름 지정에 대한 자세한 내용은 `RedshiftProperty` 클래스를 참조하세요. 최종 사용자가 제공하고 해당 사항이 있는 경우 `RedshiftProperty` 클래스에는 IAM 인증 프로세스 중에 생성된 연결 파라미터가 저장됩니다(예: 임시 IAM 자격 증명). 자세한 내용은 [RedshiftProperty 클래스](https://github.com/aws/amazon-redshift-python-driver/blob/master/redshift_connector/redshift_property.py#L9)를 참조하세요.

이 파라미터는 선택 사항입니다.

## auto\$1create
<a name="python-auto-create-option"></a>
+ **기본값** – False
+ **데이터 유형** – 부울

사용자가 존재하지 않는 경우 사용자를 생성할지 여부를 나타내는 값입니다.

이 파라미터는 선택 사항입니다.

## client\$1id
<a name="python-client-id-option"></a>
+ **기본값** – 없음
+ **데이터 유형** – 문자열

Azure IdP의 클라이언트 ID입니다.

이 파라미터는 선택 사항입니다.

## client\$1secret
<a name="python-client-secret-option"></a>
+ **기본값** – 없음
+ **데이터 유형** – 문자열

Azure IdP의 클라이언트 보안 암호입니다.

이 파라미터는 선택 사항입니다.

## cluster\$1identifier
<a name="python-cluster-identifier-option"></a>
+ **기본값** – 없음
+ **데이터 유형** – 문자열

Amazon Redshift 클러스터의 클러스터 식별자입니다.

이 파라미터는 선택 사항입니다.

## credentials\$1provider
<a name="python-credential-provider-option"></a>
+ **기본값** – 없음
+ **데이터 유형** – 문자열

Amazon Redshift로 인증하는 데 사용되는 IdP입니다. 유효한 값은 다음과 같습니다.
+ `AdfsCredentialsProvider`
+ `AzureCredentialsProvider`
+ `BrowserAzureCredentialsProvider`
+ `BrowserAzureOAuth2CredentialsProvider`
+ `BrowserIdcAuthPlugin` - AWS IAM Identity Center를 사용하는 인증 플러그인입니다.
+ `BrowserSamlCredentialsProvider`
+ `IdpTokenAuthPlugin` – AWS IAM Identity Center 토큰 또는 AWS IAM Identity Center에 연결된 웹 ID 제공업체의 OpenID Connect(OIDC) JSON 기반 자격 증명 토큰(JWT)을 수락하는 권한 부여 플러그인입니다.
+ `PingCredentialsProvider`
+ `OktaCredentialsProvider`

이 파라미터는 선택 사항입니다.

## 데이터베이스
<a name="python-database-option"></a>
+ **기본값** – 없음
+ **데이터 유형** – 문자열

연결할 데이터베이스의 이름입니다.

이 파라미터는 필수 사항입니다.

## database\$1metadata\$1current\$1db\$1only
<a name="python-database-metadata-current-db-only-option"></a>
+ **기본값** – True
+ **데이터 유형** – 부울

애플리케이션이 다중 데이터베이스 datashare 카탈로그를 지원하는지 여부를 나타내는 값입니다. 기본값 True는 애플리케이션이 이전 버전과의 호환성을 위해 다중 데이터베이스 datashare 카탈로그를 지원하지 않음을 나타냅니다.

이 파라미터는 선택 사항입니다.

## db\$1groups
<a name="python-db-groups-option"></a>
+ **기본값** – 없음
+ **데이터 유형** – 문자열

DbUser가 표시한 사용자가 현재 세션에 대해 조인하는 기존 데이터베이스 그룹 이름의 쉼표로 구분된 목록입니다.

이 파라미터는 선택 사항입니다.

## db\$1user
<a name="python-db-user-option"></a>
+ **기본값** – 없음
+ **데이터 유형** – 문자열

Amazon Redshift에 사용할 사용자 ID입니다.

이 파라미터는 선택 사항입니다.

## endpoint\$1url
<a name="python-endpoint-url-option"></a>
+ **기본값** – 없음
+ **데이터 유형** – 문자열

Amazon Redshift 엔드포인트 URL입니다. 이 옵션은 AWS 내부 전용입니다.

이 파라미터는 선택 사항입니다.

## group\$1federation
<a name="python-group-federation-option"></a>
+ **기본값** – False
+ **데이터 유형** – 부울

이 옵션은 Amazon Redshift IDP 그룹을 사용할지 여부를 지정합니다.

이 파라미터는 선택 사항입니다.

**true**  
Amazon Redshift IDP(자격 증명 공급자) 그룹을 사용합니다.

**false**  
사용자 페더레이션을 위해 STS API 및 GetClusterCredentials를 사용하고 연결을 위해 **db\$1groups**를 지정합니다.

## host
<a name="python-host-option"></a>
+ **기본값** – 없음
+ **데이터 유형** – 문자열

Amazon Redshift 클러스터의 호스트 이름입니다.

이 파라미터는 선택 사항입니다.

## iam
<a name="python-iam-option"></a>
+ **기본값** – False
+ **데이터 유형** – 부울

IAM 인증이 사용됩니다.

이 파라미터는 필수 사항입니다.

## iam\$1disable\$1cache
<a name="python-iam-disable-cache-option"></a>
+ **기본값** – False
+ **데이터 유형** – 부울

이 옵션은 IAM 자격 증명이 캐시되는지 여부를 지정합니다. 기본적으로 IAM 자격 증명이 캐시되지 않습니다. API 게이트웨이에 대한 요청이 제한될 때 성능이 향상됩니다.

이 파라미터는 선택 사항입니다.

## idc\$1client\$1display\$1name
<a name="python-idc_client_display_name-option"></a>
+ **기본값** - Amazon Redshift Python 커넥터
+ **데이터 형식** – 문자열

BrowserIdcAuthPlugin을 사용하는 클라이언트에 사용할 표시 이름입니다.

이 파라미터는 선택 사항입니다.

## idc\$1region
<a name="python-idc_region"></a>
+ **기본값** – 없음
+ **데이터 형식** – 문자열

AWS IAM Identity Center 인스턴스가 위치한 AWS 리전입니다.

이 파라미터는 credentials\$1provider 구성 옵션에서 `BrowserIdcAuthPlugin`을 사용하여 인증하는 경우에만 필요합니다.

## idp\$1partition
<a name="python-idp_partition-option"></a>
+ **기본값** – 없음
+ **데이터 형식** – 문자열

ID 제공업체(IdP)가 구성된 클라우드 파티션을 지정합니다. 드라이버가 연결하는 IdP 인증 엔드포인트를 결정합니다.

이 파라미터를 비워 두면 드라이버는 기본적으로 상용 파티션으로 설정됩니다. 가능한 값은 다음과 같습니다.
+  `us-gov`: IdP가 Azure Government에 구성된 경우 이 값을 사용합니다. 예를 들어 Azure AD Government는 `login.microsoftonline.us` 엔드포인트를 사용합니다.
+  `cn`: IdP가 중국 클라우드 파티션에 구성된 경우 이 값을 사용합니다. 예를 들어 Azure AD China는 `login.chinacloudapi.cn` 엔드포인트를 사용합니다.

이 파라미터는 선택 사항입니다.

## idpPort
<a name="python-idp-port-option"></a>
+ **기본값** – 7890
+ **데이터 유형** – 정수

IdP가 SAML 어설션을 전송하는 수신 포트입니다.

이 파라미터는 필수 사항입니다.

## idp\$1response\$1timeout
<a name="python-idp-response-timeout-option"></a>
+ **기본값** – 120
+ **데이터 유형** – 정수

IdP에서 SAML 어설션 검색에 대한 시간 제한입니다.

이 파라미터는 필수 사항입니다.

## idp\$1tenant
<a name="python-idp-tenant-option"></a>
+ **기본값** – 없음
+ **데이터 유형** – 문자열

IdP 테넌트입니다.

이 파라미터는 선택 사항입니다.

## issuer\$1url
<a name="python-issuer_url"></a>
+ **기본값** – 없음
+ **데이터 형식** – 문자열

 AWS IAM Identity Center 서버의 인스턴스 엔드포인트를 가리킵니다.

이 파라미터는 credentials\$1provider 구성 옵션에서 `BrowserIdcAuthPlugin`을 사용하여 인증하는 경우에만 필요합니다.

## listen\$1port
<a name="python-listen-port-option"></a>
+ **기본값** – 7890
+ **데이터 유형** – 정수

드라이버가 브라우저 플러그인을 통해 SAML, Azure AD 또는 AWS IAM Identity Center 서비스를 사용할 때 ID 제공업체 또는 권한 부여 코드로부터 SAML 응답을 받는 데 사용하는 포트입니다.

이 파라미터는 선택 사항입니다.

## login\$1url
<a name="python-login-url-option"></a>
+ **기본값** – 없음
+ **데이터 유형** – 문자열

IdP의 Single Sign-On URL입니다.

이 파라미터는 선택 사항입니다.

## max\$1prepared\$1statements
<a name="python-max-prepared-statements-option"></a>
+ **기본값** - 1000
+ **데이터 유형** – 정수

연결당 캐시되는 준비된 명령문의 최대 개수입니다. 이 파라미터를 0으로 설정하면 캐싱 메커니즘이 비활성화됩니다. 이 파라미터에 음수를 입력하면 기본값으로 설정됩니다.

이 파라미터는 선택 사항입니다.

## numeric\$1to\$1float
<a name="python-numeric-to-float-option"></a>
+ **기본값** – False
+ **데이터 유형** – 부울

이 옵션은 커넥터가 숫자 데이터 형식 값을 decimal.Decimal에서 float로 변환하는지 여부를 지정합니다. 기본적으로 커넥터는 숫자 데이터 형식 값을 decimal.Decimal로 수신하며 변환하지 않습니다.

결과가 반올림될 수 있으므로 정밀도가 필요한 사용 사례에는 numeric\$1to\$1float를 사용하지 않는 것이 좋습니다.

decimal.Decimal 및 decimal.Decimal과 float의 장단점에 대한 자세한 내용은 Python 웹 사이트에서 [decimal - Decimal fixed point and floating point arithmetic](https://docs.python.org/3/library/decimal.html)(decimal - 10진수 고정 소수점 및 부동 소수점 연산)을 참조하세요.

이 파라미터는 선택 사항입니다.

## partner\$1sp\$1id
<a name="python-partner-sp-id-option"></a>
+ **기본값** – 없음
+ **데이터 유형** – 문자열

Ping 인증에 사용되는 파트너 SP ID입니다.

이 파라미터는 선택 사항입니다.

## 암호
<a name="python-password-option"></a>
+ **기본값** – 없음
+ **데이터 유형** – 문자열

인증에 사용할 암호입니다.

이 파라미터는 선택 사항입니다.

## 포트
<a name="python-port-option"></a>
+ **기본값** - 5439
+ **데이터 유형** – 정수

Amazon Redshift 클러스터의 포트 번호입니다.

이 파라미터는 필수 사항입니다.

## preferred\$1role
<a name="python-preferred-role-option"></a>
+ **기본값** – 없음
+ **데이터 유형** – 문자열

현재 연결에 선호되는 IAM 역할입니다.

이 파라미터는 선택 사항입니다.

## principal\$1arn
<a name="python-principal-arn-option"></a>
+ **기본값** – 없음
+ **데이터 유형** – 문자열

정책을 생성할 사용자 또는 IAM 역할의 Amazon 리소스 이름(ARN)입니다. 역할에 정책을 연결한 후 사용자에게 해당 역할을 할당하여 액세스할 수 있도록 하는 것이 좋습니다.

이 파라미터는 선택 사항입니다.

## profile
<a name="python-profile-option"></a>
+ **기본값** – 없음
+ **데이터 유형** – 문자열

AWS 자격 증명이 포함된 AWS 자격 증명 파일의 프로파일 이름입니다.

이 파라미터는 선택 사항입니다.

## provider\$1name
<a name="python-provider_name-option"></a>
+ **기본값** – 없음
+ **데이터 유형** – 문자열

Redshift Native Authentication Provider의 이름입니다.

이 파라미터는 선택 사항입니다.

## region
<a name="python-region-option"></a>
+ **기본값** – 없음
+ **데이터 유형** – 문자열

클러스터가 있는 AWS 리전입니다.

이 파라미터는 선택 사항입니다.

## role\$1arn
<a name="python-role-arn-option"></a>
+ **기본값** – 없음
+ **데이터 유형** – 문자열

발신자가 수임하는 역할의 Amazon 리소스 이름(ARN)입니다. 이 파라미터는 `JwtCredentialsProvider`로 표시된 공급자가 사용합니다.

`JwtCredentialsProvider` 공급자의 경우 이 파라미터는 필수입니다. 그렇지 않으면 이 파라미터는 선택 항목입니다.

## role\$1session\$1name
<a name="python-role-session-name-option"></a>
+ **기본값** – jwt\$1redshift\$1session
+ **데이터 유형** – 문자열

맡은 역할 세션의 식별자입니다. 일반적으로 애플리케이션 사용자와 연결된 이름 또는 식별자를 전달합니다. 애플리케이션에서 사용하는 임시 보안 자격 증명은 해당 사용자와 연결됩니다. 이 파라미터는 `JwtCredentialsProvider`로 표시된 공급자가 사용합니다.

이 파라미터는 선택 사항입니다.

## 범위
<a name="python-scope-option"></a>
+ **기본값** – 없음
+ **데이터 유형** – 문자열

사용자가 동의할 수 있는 공백으로 구분된 범위 목록입니다. 애플리케이션이 해당 사용자가 호출하려는 API에 대한 동의를 얻을 수 있도록 이 파라미터를 지정합니다. credentials\$1provider 옵션에 BrowserAzureOAuth2CredentialsProvider를 지정할 때 이 파라미터를 지정할 수 있습니다.

이 파라미터는 BrowserAzureOAuth2CredentialsProvider 플러그인에 반드시 필요합니다.

## secret\$1access\$1key\$1id
<a name="python-secret-access-key-id-option"></a>
+ **기본값** – 없음
+ **데이터 유형** – 문자열

IAM 데이터베이스 인증용으로 구성한 IAM 사용자 또는 역할에 대한 보안 액세스 키 ID입니다.

이 파라미터는 선택 사항입니다.

## session\$1token
<a name="python-session-token-option"></a>
+ **기본값** – 없음
+ **데이터 유형** – 문자열

IAM 데이터베이스 인증용으로 구성한 IAM 사용자 또는 역할에 대한 액세스 키 ID입니다. 임시 AWS 자격 증명이 사용 중인 경우 이 파라미터가 필요합니다.

이 파라미터는 선택 사항입니다.

## serverless\$1acct\$1id
<a name="python-serverless-acct-id-option"></a>
+ **기본값** – 없음
+ **데이터 유형** – 문자열

Amazon Redshift Serverless 계정 ID입니다.

이 파라미터는 선택 사항입니다.

## serverless\$1work\$1group
<a name="python-serverless-work-group-option"></a>
+ **기본값** – 없음
+ **데이터 유형** – 문자열

Amazon Redshift Serverless 작업 그룹 이름입니다.

이 파라미터는 선택 사항입니다.

## ssl
<a name="python-ssl-option"></a>
+ **기본값** – True
+ **데이터 유형** – 부울

보안 소켓 계층(SSL)을 사용합니다.

이 파라미터는 필수 사항입니다.

## ssl\$1insecure
<a name="python-ssl-insecure-option"></a>
+ **기본값** – False
+ **데이터 유형** – 부울

IdP 호스트의 서버 SSL 인증서 검증을 비활성화할지 여부를 지정하는 값입니다. 이 파라미터를 True로 설정하면 IdP 호스트의 서버 SSL 인증서 검증이 비활성화됩니다. 프로덕션 환경에서는 기본값 False를 유지하는 것이 좋습니다.

이 파라미터는 선택 사항입니다.

## sslmode
<a name="python-sslmode-option"></a>
+ **기본값** – verify-ca
+ **데이터 유형** – 문자열

Amazon Redshift에 대한 연결 보안입니다. 다음 중 하나를 지정할 수 있습니다.
+ [verify-ca]
+ [verify-full]

이 파라미터는 필수 사항입니다.

## tcp\$1keepalive
<a name="python-tcp_keepalive-option"></a>
+ **기본값** – True
+ **데이터 유형** – 부울

TCP keepalive를 사용하여 연결이 시간 초과되지 않도록 할지 여부입니다. 다음 값을 지정할 수 있습니다.
+ True: 드라이버가 TCP keepalive를 사용하여 연결이 시간 초과되지 않도록 합니다.
+ False: 드라이버가 TCP keepalive를 사용하지 않습니다.

이 파라미터는 선택 사항입니다.

## tcp\$1keepalive\$1count
<a name="python-tcp_keepalive_count-option"></a>
+ **기본값** – 없음
+ **데이터 유형** – 정수

연결이 비활성 상태로 간주되기 전에 전송할 응답이 없는 프로브의 수입니다. 예를 들어, 값을 3으로 설정하면 드라이버가 응답이 없는 keepalive 패킷을 3회 전송한 후 연결이 더 이상 활성 상태가 아니라고 판단합니다.

이 파라미터가 지정되지 않으면 Amazon Redshift는 시스템의 기본값을 사용합니다.

이 파라미터는 선택 사항입니다.

## tcp\$1keepalive\$1interval
<a name="python-tcp_keepalive_interval-option"></a>
+ **기본값** – 없음
+ **데이터 유형** – 정수

드라이버가 이전 킵얼라이브 프로브에 대한 확인 응답을 받지 못한 경우, 후속 keepalive 프로브 간 간격(초)입니다. 이 파라미터를 지정할 경우 양의 정수여야 합니다.

이 파라미터가 지정되지 않으면 Amazon Redshift는 시스템의 기본값을 사용합니다.

이 파라미터는 선택 사항입니다.

## tcp\$1keepalive\$1idle
<a name="python-tcp_keepalive_idle-option"></a>
+ **기본값** – 없음
+ **데이터 유형** – 정수

드라이버가 첫 번째 keepalive 프로브를 전송하기까지의 비활성 상태 지속 시간(초)입니다. 예를 들어 값을 120으로 설정하면 드라이버는 첫 번째 keepalive 패킷을 전송하기 전 2분 동안 비활성 상태를 대기합니다. 이 파라미터를 지정할 경우 양의 정수여야 합니다.

이 파라미터가 지정되지 않으면 Amazon Redshift는 시스템의 기본값을 사용합니다.

이 파라미터는 선택 사항입니다.

## 제한 시간
<a name="python-timeout-option"></a>
+ **기본값** – 없음
+ **데이터 유형** – 정수

서버 연결 시간이 초과되기까지의 시간(초)입니다.

이 파라미터는 선택 사항입니다.

## 토큰
<a name="python-token-option"></a>
+ **기본값** – 없음
+ **데이터 형식** – 문자열

AWS IAM Identity Center에서 제공한 액세스 토큰 또는 AWS IAM Identity Center와 연결된 웹 ID 제공업체가 제공한 OpenID Connect(OIDC) JSON 웹 토큰(JWT)입니다. 애플리케이션은 AWS IAM Identity Center 또는 AWS IAM Identity Center와 연결된 자격 증명 공급자를 통해 애플리케이션 사용자를 인증하여 이 토큰을 생성해야 합니다.

이 파라미터는 `IdpTokenAuthPlugin`과 함께 작동합니다.

## token\$1type
<a name="python-token_type-option"></a>
+ **기본값** – 없음
+ **데이터 형식** – 문자열

`IdpTokenAuthPlugin`에서 사용되는 토큰 유형입니다.

다음 값을 지정할 수 있습니다.

**ACCESS\$1TOKEN**  
AWS IAM Identity Center에서 제공한 액세스 토큰을 사용하는 경우 이 값을 입력합니다.

**EXT\$1JWT**  
AWS IAM Identity Center와 통합된 웹 기반 ID 제공업체가 제공하는 OpenID Connect(OIDC) JSON 웹 토큰(JWT)을 사용하는 경우 이 값을 입력합니다.

이 파라미터는 `IdpTokenAuthPlugin`과 함께 작동합니다.

## user
<a name="python-user-option"></a>
+ **기본값** – 없음
+ **데이터 유형** – 문자열

권한 부여에 사용할 사용자 이름입니다.

이 파라미터는 선택 사항입니다.

## web\$1identity\$1token
<a name="python-web-identity-token-option"></a>
+ **기본값** – 없음
+ **데이터 유형** – 문자열

자격 증명 공급자가 제공하는 OAuth 2.0 액세스 토큰 또는 OpenID Connect ID 토큰입니다. 웹 자격 증명 공급자를 통해 애플리케이션을 사용하는 사용자를 인증하여 애플리케이션이 이 토큰을 가져오도록 합니다. `JwtCredentialsProvider`로 표시된 공급자는 이 파라미터를 사용합니다.

`JwtCredentialsProvider` 공급자의 경우 이 파라미터는 필수입니다. 그렇지 않으면 이 파라미터는 선택 항목입니다.

# Python 커넥터 가져오기
<a name="python-start-import"></a>

Python 커넥터를 가져오려면 다음 명령을 실행합니다.

```
>>> import redshift_connector
```

AWS 자격 증명을 사용하여 Amazon Redshift 클러스터에 연결하려면 다음 명령을 실행합니다.

```
conn = redshift_connector.connect(
    host='examplecluster.abc123xyz789.us-west-1.redshift.amazonaws.com',
    port=5439,
    database='dev',
    user='awsuser',
    password='my_password'
 )
```

# NumPy와 Python 커넥터 통합
<a name="python-connect-integrate-numpy"></a>

다음은 Python 커넥터를 NumPy와 통합하는 예입니다.

```
>>>  import numpy
#Connect to the cluster
>>> import redshift_connector
>>> conn = redshift_connector.connect(
     host='examplecluster.abc123xyz789.us-west-1.redshift.amazonaws.com',
     port=5439,
     database='dev',
     user='awsuser',
     password='my_password'
  )
  
# Create a Cursor object
>>> cursor = conn.cursor()

# Query and receive result set            
cursor.execute("select * from book")

result: numpy.ndarray = cursor.fetch_numpy_array()
print(result)
```

다음은 결과입니다.

```
[['One Hundred Years of Solitude' 'Gabriel García Márquez']
['A Brief History of Time' 'Stephen Hawking']]
```

# pandas와 Python 커넥터 통합
<a name="python-connect-integrate-pandas"></a>

다음은 Python 커넥터를 pandas와 통합하는 예입니다.

```
>>> import pandas

#Connect to the cluster
>>> import redshift_connector
>>> conn = redshift_connector.connect(
     host='examplecluster.abc123xyz789.us-west-1.redshift.amazonaws.com',
     port=5439,
     database='dev',
     user='awsuser',
     password='my_password'
  )
  
# Create a Cursor object
>>> cursor = conn.cursor()

# Query and receive result set
cursor.execute("select * from book")
result: pandas.DataFrame = cursor.fetch_dataframe()
print(result)
```

# 자격 증명 공급자 플러그인 사용
<a name="python-connect-identity-provider-plugins"></a>

자격 증명 공급자 플러그인을 사용하는 방법에 대한 일반적인 내용은 [IAM 자격 증명 제공 옵션](options-for-providing-iam-credentials.md) 섹션을 참조하세요. IAM 역할에 대한 모범 사례를 비롯한 IAM ID 관리에 대한 자세한 내용은 [Amazon Redshift의 Identity and Access Management](redshift-iam-authentication-access-control.md) 섹션을 참조하세요.

## ADFS 자격 증명 공급자 플러그인을 사용한 인증
<a name="python-connect-identity-provider-active-dir"></a>

다음은 ADFS(Active Directory Federation Service) 자격 증명 공급자 플러그인을 사용하여 Amazon Redshift 데이터베이스에 연결하는 사용자를 인증하는 예입니다.

```
>>> con = redshift_connector.connect(
    iam=True,
    database='dev',
    host='my-testing-cluster.abc.us-east-2.redshift.amazonaws.com',
    cluster_identifier='my-testing-cluster',
    credentials_provider='AdfsCredentialsProvider',
    user='brooke@myadfshostname.com',
    password='Hunter2',
    idp_host='myadfshostname.com'
)
```

## Azure 자격 증명 공급자 플러그인을 사용한 인증
<a name="python-connect-identity-provider-azure"></a>

다음은 Azure 자격 증명 공급자 플러그인을 사용한 인증의 예입니다. 다음과 같이 Azure Enterprise 애플리케이션에 대한 `client_id` 및 `client_secret` 값을 생성할 수 있습니다.

```
>>>  con = redshift_connector.connect(
    iam=True,
    database='dev',
    host='my-testing-cluster.abc.us-east-2.redshift.amazonaws.com',
    cluster_identifier='my-testing-cluster',
    credentials_provider='AzureCredentialsProvider',
    user='brooke@myazure.org',
    password='Hunter2',
    idp_tenant='my_idp_tenant',
    client_id='my_client_id',
    client_secret='my_client_secret',
    preferred_role='arn:aws:iam:123:role/DataScientist'
)
```

## AWS IAM Identity Center 자격 증명 공급자 플러그인을 사용한 인증
<a name="python-connect-identity-provider-aws-idc"></a>

 다음은 AWS IAM Identity Center 자격 증명 공급자 플러그인을 사용한 인증의 예입니다.

```
with redshift_connector.connect(
credentials_provider='BrowserIdcAuthPlugin',
host='my-testing-cluster.abc.us-east-2.redshift.amazonaws.com',
database='dev',
idc_region='us-east-1',
issuer_url='https://identitycenter.amazonaws.com/ssoins-790723ebe09c86f9',
idp_response_timeout=60,
listen_port=8100,
idc_client_display_name='Test Display Name',
# port value of 5439 is specified by default
)
```

## Azure 브라우저 자격 증명 공급자 플러그인을 사용한 인증
<a name="python-connect-identity-provider-azure-browser"></a>

다음은 Azure 브라우저 자격 증명 공급자 플러그인을 사용하여 Amazon Redshift 데이터베이스에 연결하는 사용자를 인증하는 예입니다.

멀티 팩터 인증은 사용자가 로그인 보안 인증 정보를 제공하는 브라우저에서 발생합니다.

```
>>>con = redshift_connector.connect(
    iam=True,
    database='dev',
    host='my-testing-cluster.abc.us-east-2.redshift.amazonaws.com',
    cluster_identifier='my-testing-cluster',
    credentials_provider='BrowserAzureCredentialsProvider',
    idp_tenant='my_idp_tenant',
    client_id='my_client_id',
)
```

## Okta 자격 증명 공급자 플러그인을 사용한 인증
<a name="python-connect-identity-provider-okta"></a>

다음은 Okta 자격 증명 공급자 플러그인을 사용한 인증의 예입니다. Okta 애플리케이션을 통해 `idp_host`, `app_id` 및 `app_name`에 대한 값을 얻을 수 있습니다.

```
>>> con = redshift_connector.connect(
    iam=True,
    database='dev',
    host='my-testing-cluster.abc.us-east-2.redshift.amazonaws.com',
    cluster_identifier='my-testing-cluster',
    credentials_provider='OktaCredentialsProvider',
    user='brooke@myazure.org',
    password='hunter2',
    idp_host='my_idp_host',
    app_id='my_first_appetizer',
    app_name='dinner_party'
)
```

## 일반 SAML 브라우저 자격 증명 공급자 플러그인과 함께 JumpCloud를 사용한 인증
<a name="python-connect-identity-provider-jumpcloud"></a>

다음은 일반 SAML 브라우저 자격 증명 공급자 플러그인과 함께 JumpCloud를 사용한 인증의 예입니다.

암호 파라미터가 필요합니다. 그러나 브라우저에서 멀티 팩터 인증이 이루어지므로 이 파라미터를 입력할 필요는 없습니다.

```
>>> con = redshift_connector.connect(
    iam=True,
    database='dev',
    host='my-testing-cluster.abc.us-east-2.redshift.amazonaws.com',
    cluster_identifier='my-testing-cluster',
    credentials_provider='BrowserSamlCredentialsProvider',
    user='brooke@myjumpcloud.org',
    password='',
    login_url='https://sso.jumpcloud.com/saml2/plustwo_melody'
)
```

# Amazon Redshift Python 커넥터 사용 예
<a name="python-connect-examples"></a>

다음은 Amazon Redshift Python 커넥터 사용 방법의 예입니다. 실행하려면 먼저 Python 커넥터를 설치해야 합니다. Amazon Redshift Python 커넥터 설치에 대한 자세한 내용은 [Amazon Redshift Python 커넥터 설치](python-driver-install.md) 섹션을 참조하세요. Python 커넥터와 함께 사용할 수 있는 구성 옵션에 대한 자세한 내용은 [Amazon Redshift Python 커넥터의 구성 옵션](python-configuration-options.md) 단원을 참조하세요.

**Topics**
+ [AWS 보안 인증 정보를 사용하여 Amazon Redshift 클러스터에 연결하고 쿼리 수행](#python-connect-cluster)
+ [autocommit 사용](#python-connect-enable-autocommit)
+ [커서 파라미터 스타일 구성](#python-connect-config-paramstyle)
+ [COPY를 사용하여 Amazon S3 버킷에서 데이터 복사 및 UNLOAD를 사용하여 Amazon S3 버킷에 데이터 쓰기](#python-connect-copy-unload-s3)

## AWS 보안 인증 정보를 사용하여 Amazon Redshift 클러스터에 연결하고 쿼리 수행
<a name="python-connect-cluster"></a>

다음 예시는 AWS 보안 인증 정보를 사용하여 Amazon Redshift 클러스터에 연결한 후 테이블을 쿼리하고 쿼리 결과를 가져오는 방법을 안내합니다.

```
#Connect to the cluster
>>> import redshift_connector
>>> conn = redshift_connector.connect(
     host='examplecluster.abc123xyz789.us-west-1.redshift.amazonaws.com',
     database='dev',
     port=5439,
     user='awsuser',
     password='my_password'
  )
  
# Create a Cursor object
>>> cursor = conn.cursor()

# Query a table using the Cursor
>>> cursor.execute("select * from book")
                
#Retrieve the query result set
>>> result: tuple = cursor.fetchall()
>>> print(result)
 >> (['One Hundred Years of Solitude', 'Gabriel García Márquez'], ['A Brief History of Time', 'Stephen Hawking'])
```

## autocommit 사용
<a name="python-connect-enable-autocommit"></a>

autocommit 속성은 Python 데이터베이스 API 사양에 따라 기본적으로 해제되어 있습니다. 트랜잭션이 진행되지 않도록 롤백 명령을 수행한 후 다음 명령을 사용하여 연결의 autocommit 속성을 설정할 수 있습니다.

```
#Connect to the cluster
>>> import redshift_connector
>>> conn = redshift_connector.connect(...)

# Run a rollback command
>>>  conn.rollback()

# Turn on autocommit
>>>  conn.autocommit = True
>>>  conn.run("VACUUM")

# Turn off autocommit
>>>  conn.autocommit = False
```

## 커서 파라미터 스타일 구성
<a name="python-connect-config-paramstyle"></a>

커서의 파라미터 스타일은 cursor.paramstyle을 통해 수정할 수 있습니다. 사용되는 기본 파라미터 스타일은 `format`입니다. 이 파라미터의 유효한 값은 `qmark`, `numeric`, `named`, `format`, `pyformat`입니다.

다음은 다양한 파라미터 스타일을 사용하여 샘플 SQL 문에 파라미터를 전달하는 예제입니다.

```
# qmark
redshift_connector.paramstyle = 'qmark'
sql = 'insert into foo(bar, jar) VALUES(?, ?)'
cursor.execute(sql, (1, "hello world"))

# numeric
redshift_connector.paramstyle = 'numeric'
sql = 'insert into foo(bar, jar) VALUES(:1, :2)'
cursor.execute(sql, (1, "hello world"))

# named
redshift_connector.paramstyle = 'named'
sql = 'insert into foo(bar, jar) VALUES(:p1, :p2)'
cursor.execute(sql, {"p1":1, "p2":"hello world"})

# format
redshift_connector.paramstyle = 'format'
sql = 'insert into foo(bar, jar) VALUES(%s, %s)'
cursor.execute(sql, (1, "hello world"))

# pyformat
redshift_connector.paramstyle = 'pyformat'
sql = 'insert into foo(bar, jar) VALUES(%(bar)s, %(jar)s)'
cursor.execute(sql, {"bar": 1, "jar": "hello world"})
```

## COPY를 사용하여 Amazon S3 버킷에서 데이터 복사 및 UNLOAD를 사용하여 Amazon S3 버킷에 데이터 쓰기
<a name="python-connect-copy-unload-s3"></a>

다음 예에서는 Amazon S3 버킷에서 테이블로 데이터를 복사한 다음 해당 테이블에서 버킷으로 언로드하는 방법을 보여줍니다.

다음 데이터가 포함된 `category_csv.txt` 텍스트 파일이 S3 버킷에 업로드됩니다.

```
12,Shows,Musicals,Musical theatre
13,Shows,Plays,"All ""non-musical"" theatre"
14,Shows,Opera,"All opera, light, and ""rock"" opera"
15,Concerts,Classical,"All symphony, concerto, and choir concerts"
```

다음은 Amazon Redshift 데이터베이스에 먼저 연결하는 Python 코드의 예입니다. 그런 다음 `category`라는 테이블을 생성하고 S3 버킷의 CSV 데이터를 테이블로 복사합니다.

```
#Connect to the cluster and create a Cursor
>>> import redshift_connector
>>> with redshift_connector.connect(...) as conn:
>>> with conn.cursor() as cursor:

#Create an empty table
>>>     cursor.execute("create table category (catid int, cargroup varchar, catname varchar, catdesc varchar)")

#Use COPY to copy the contents of the S3 bucket into the empty table 
>>>     cursor.execute("copy category from 's3://testing/category_csv.txt' iam_role 'arn:aws:iam::123:role/RedshiftCopyUnload' csv;")

#Retrieve the contents of the table
>>>     cursor.execute("select * from category")
>>>     print(cursor.fetchall())

#Use UNLOAD to copy the contents of the table into the S3 bucket
>>>     cursor.execute("unload ('select * from category') to 's3://testing/unloaded_category_csv.txt'  iam_role 'arn:aws:iam::123:role/RedshiftCopyUnload' csv;")

#Retrieve the contents of the bucket
>>>     print(cursor.fetchall())
 >> ([12, 'Shows', 'Musicals', 'Musical theatre'], [13, 'Shows', 'Plays', 'All "non-musical" theatre'], [14, 'Shows', 'Opera', 'All opera, light, and "rock" opera'], [15, 'Concerts', 'Classical', 'All symphony, concerto, and choir concerts'])
```

`autocommit`을 true로 설정하지 않은 경우 `execute()` 문을 실행한 후 `conn.commit()`으로 커밋합니다.

데이터는 다음 콘텐츠가 들어 있는 S3 버킷의 `unloaded_category_csv.text0000_part00` 파일로 언로드됩니다.

```
12,Shows,Musicals,Musical theatre
13,Shows,Plays,"All ""non-musical"" theatre"
14,Shows,Opera,"All opera, light, and ""rock"" opera"
15,Concerts,Classical,"All symphony, concerto, and choir concerts"
```

# Amazon Redshift Python 커넥터용 API 참조
<a name="python-api-reference"></a>

다음에서 Amazon Redshift Python 커넥터 API 작업에 대한 설명을 찾을 수 있습니다.

## redshift\$1connector
<a name="python-api-redshift_connector"></a>

다음에서 `redshift_connector` API 작업에 대한 설명을 찾을 수 있습니다.

`connect(user, database, password[, port, …])`  
Amazon Redshift 클러스터에 대한 연결을 설정합니다. 이 기능은 사용자 입력을 검증하고 선택적으로 자격 증명 공급자 플러그인을 사용하여 인증한 다음 연결 객체를 구성합니다.

`apilevel`  
지원되는 DBAPI 레벨은 현재 "2.0"입니다.

`paramstyle``str(object=’’) -> str str(bytes_or_buffer[, encoding[, errors]]) -> str`  
전역적으로 사용할 데이터베이스 API 파라미터 스타일입니다.

## 연결
<a name="python-api-connection"></a>

다음에서 Amazon Redshift Python 커넥터의 연결 API 작업에 대한 설명을 찾을 수 있습니다.

`__init__(user, password, database[, host, …])`  
원시 연결 객체를 초기화합니다.

`cursor`  
이 연결에 바인딩된 커서 객체를 생성합니다.

`commit`  
현재 데이터베이스 트랜잭션을 커밋합니다.

`rollback`  
현재 데이터베이스 트랜잭션을 롤백합니다.

`close`  
데이터베이스 연결을 닫습니다.

`execute(cursor, operation, vals)`  
지정된 SQL 명령을 실행합니다. `redshift_connector.paramstyle` 값에 따라 파라미터를 시퀀스 또는 매핑으로 제공할 수 있습니다.

`run(sql[, stream])`  
지정된 SQL 명령을 실행합니다. COPY 명령과 함께 사용할 스트림을 제공할 수도 있습니다.

`xid(format_id, global_transaction_id, …)`  
트랜잭션 ID를 생성합니다. postgres에서는 `global_transaction_id` 파라미터만 사용됩니다. format\$1id 및 branch\$1qualifier는 postgres에서 사용되지 않습니다. `global_transaction_id`는 튜플(`format_id`, `global_transaction_id`, `branch_qualifier`)을 반환하는 postgres에서 지원하는 모든 문자열 식별자일 수 있습니다.

`tpc_begin(xid)`  
형식 ID, 글로벌 트랜잭션 ID 및 분기 한정자로 구성된 트랜잭션 ID `xid`로 TPC 트랜잭션을 시작합니다.

`tpc_prepare`  
.tpc\$1begin으로 시작된 트랜잭션의 첫 번째 단계를 수행합니다.

`tpc_commit([xid])`  
인수 없이 호출 시 .tpc\$1commit은 이전에 .tpc\$1prepare()로 준비된 TPC 트랜잭션을 커밋합니다.

`tpc_rollback([xid])`  
인수 없이 호출 시 .tpc\$1rollback은 TPC 트랜잭션을 롤백합니다.

`tpc_recover`  
.tpc\$1commit(xid) 또는 .tpc\$1rollback(xid)과 함께 사용하기에 적합한 보류 중인 트랜잭션 ID 목록을 반환합니다.

## 커서
<a name="python-api-cursor"></a>

다음에서 커서 API 작업에 대한 설명을 찾을 수 있습니다.

`__init__(connection[, paramstyle])`  
원시 커서 객체를 초기화합니다.

`insert_data_bulk(filename, table_name, parameter_indices, column_names, delimiter, batch_size)`  
대량 INSERT 문을 실행합니다.

`execute(operation[, args, stream, …])`  
데이터베이스 작업을 실행합니다.

`executemany(operation, param_sets)`  
데이터베이스 작업을 준비한 다음 제공된 모든 파라미터 시퀀스 또는 매핑에 대해 실행합니다.

`fetchone`  
쿼리 결과 집합의 다음 행을 가져옵니다.

`fetchmany([num])`  
쿼리 결과 집합의 다음 행 집합을 가져옵니다.

`fetchall`  
쿼리 결과의 나머지 행을 모두 가져옵니다.

`close`  
지금 커서를 닫습니다.

`__iter__`  
커서 객체를 반복하여 쿼리에서 행을 검색할 수 있습니다.

`fetch_dataframe([num])`  
마지막 쿼리 결과의 데이터 프레임을 반환합니다.

`write_dataframe(df, table)`  
동일한 구조 데이터 프레임을 Amazon Redshift 데이터베이스에 씁니다.

`fetch_numpy_array([num])`  
마지막 쿼리 결과의 NumPy 배열을 반환합니다.

`get_catalogs`  
Amazon Redshift는 단일 연결에서 여러 카탈로그를 지원하지 않습니다. Amazon Redshift는 현재 카탈로그만 반환합니다.

`get_tables([catalog, schema_pattern, …])`  
시스템 내에서 사용자 정의된 고유한 공용 테이블을 반환합니다.

`get_columns([catalog, schema_pattern, …])`  
Amazon Redshift 데이터베이스의 특정 테이블에 있는 모든 열 목록을 반환합니다.

## AdfsCredentialsProvider 플러그인
<a name="python-adfs-credentials-plugin"></a>

다음은 Amazon Redshift Python 커넥터에 대한 AdfsCredentialsProvider 플러그인 API 작업의 구문입니다.

```
redshift_connector.plugin.AdfsCredentialsProvider()
```

## AzureCredentialsProvider 플러그인
<a name="python-azure-credentials-plugin"></a>

다음은 Amazon Redshift Python 커넥터에 대한 AzureCredentialsProvider 플러그인 API 작업의 구문입니다.

```
redshift_connector.plugin.AzureCredentialsProvider()
```

## BrowserAzureCredentialsProvider 플러그인
<a name="python-browser-azure-credentials-plugin"></a>

다음은 Amazon Redshift Python 커넥터에 대한 BrowserAzureCredentialsProvider 플러그인 API 작업의 구문입니다.

```
redshift_connector.plugin.BrowserAzureCredentialsProvider()
```

## BrowserSamlCredentialsProvider 플러그인
<a name="python-browser-saml-credentials-plugin"></a>

다음은 Amazon Redshift Python 커넥터에 대한 BrowserSamlCredentialsProvider 플러그인 API 작업의 구문입니다.

```
redshift_connector.plugin.BrowserSamlCredentialsProvider()
```

## OktaCredentialsProvider 플러그인
<a name="python-okta-credentials-plugin"></a>

다음은 Amazon Redshift Python 커넥터에 대한 OktaCredentialsProvider 플러그인 API 작업의 구문입니다.

```
redshift_connector.plugin.OktaCredentialsProvider()
```

## PingCredentialsProvider 플러그인
<a name="python-ping-credentials-plugin"></a>

다음은 Amazon Redshift Python 커넥터에 대한 PingCredentialsProvider 플러그인 API 작업의 구문입니다.

```
redshift_connector.plugin.PingCredentialsProvider()
```

## SamlCredentialsProvider 플러그인
<a name="python-saml-credentials-plugin"></a>

다음은 Amazon Redshift Python 커넥터에 대한 SamlCredentialsProvider 플러그인 API 작업의 구문입니다.

```
redshift_connector.plugin.SamlCredentialsProvider()
```