쿠키 기본 설정 선택

당사는 사이트와 서비스를 제공하는 데 필요한 필수 쿠키 및 유사한 도구를 사용합니다. 고객이 사이트를 어떻게 사용하는지 파악하고 개선할 수 있도록 성능 쿠키를 사용해 익명의 통계를 수집합니다. 필수 쿠키는 비활성화할 수 없지만 '사용자 지정' 또는 ‘거부’를 클릭하여 성능 쿠키를 거부할 수 있습니다.

사용자가 동의하는 경우 AWS와 승인된 제3자도 쿠키를 사용하여 유용한 사이트 기능을 제공하고, 사용자의 기본 설정을 기억하고, 관련 광고를 비롯한 관련 콘텐츠를 표시합니다. 필수가 아닌 모든 쿠키를 수락하거나 거부하려면 ‘수락’ 또는 ‘거부’를 클릭하세요. 더 자세한 내용을 선택하려면 ‘사용자 정의’를 클릭하세요.

Running PySpark jobs

포커스 모드
Running PySpark jobs - AWS Clean Rooms
이 페이지는 귀하의 언어로 번역되지 않았습니다. 번역 요청

As the member who can query, you can run a PySpark job on a configured table by using an approved PySpark analysis template.

Prerequisites

Before you run a Python job, you must have:

  • An active membership in AWS Clean Rooms collaboration

  • Access to at least one analysis template in the collaboration

  • Access to at least one configured table in the collaboration

  • Permissions to write the results of a PySpark job to a specified S3 bucket

    For information about creating the required service role, see Create a service role to write results of a PySpark job.

  • The member who is responsible to pay for compute costs has joined the collaboration as an active member

For information about how to query data or view queries by calling the AWS Clean Rooms StartProtectedJob API operation directly or by using the AWS SDKs, see the AWS Clean Rooms API Reference.

For information about job logging, see Analysis logging in AWS Clean Rooms.

For information about receiving job results, see Receiving and using analysis results.

The following topics explain how to run a PySpark job on a configured table in a collaboration using the AWS Clean Rooms console.

프라이버시사이트 이용 약관쿠키 기본 설정
© 2025, Amazon Web Services, Inc. 또는 계열사. All rights reserved.