쿠키 기본 설정 선택

당사는 사이트와 서비스를 제공하는 데 필요한 필수 쿠키 및 유사한 도구를 사용합니다. 고객이 사이트를 어떻게 사용하는지 파악하고 개선할 수 있도록 성능 쿠키를 사용해 익명의 통계를 수집합니다. 필수 쿠키는 비활성화할 수 없지만 '사용자 지정' 또는 ‘거부’를 클릭하여 성능 쿠키를 거부할 수 있습니다.

사용자가 동의하는 경우 AWS와 승인된 제3자도 쿠키를 사용하여 유용한 사이트 기능을 제공하고, 사용자의 기본 설정을 기억하고, 관련 광고를 비롯한 관련 콘텐츠를 표시합니다. 필수가 아닌 모든 쿠키를 수락하거나 거부하려면 ‘수락’ 또는 ‘거부’를 클릭하세요. 더 자세한 내용을 선택하려면 ‘사용자 정의’를 클릭하세요.

서버리스 파일 처리 앱 만들기

포커스 모드
서버리스 파일 처리 앱 만들기 - AWS Lambda

Lambda의 가장 일반적인 사용 사례 중 하나는 파일 처리 작업을 수행하는 것입니다. 예를 들어, Lambda 함수를 사용하여 HTML 파일 또는 이미지로부터 PDF 파일을 자동으로 생성하거나, 사용자가 이미지를 업로드할 때 썸네일을 생성할 수 있습니다.

이 예에서는 Amazon Simple Storage Service (Amazon S3) 버킷에 PDF 파일이 업로드되면 자동으로 암호화하는 앱을 생성합니다. 이 앱을 구현하려면 다음 리소스를 생성합니다.

  • 사용자가 PDF 파일을 업로드할 S3 버킷

  • 업로드된 파일을 읽고 암호화된 암호 보호 버전을 생성하는 Python의 Lambda 함수

  • Lambda가 암호화된 파일을 저장할 두 번째 S3 버킷

또한 AWS Identity and Access Management(IAM) 정책을 생성하여 Lambda 함수에 S3 버킷에서 읽기 및 쓰기 작업을 수행할 권한을 부여합니다.

S3 버킷, Lambda 함수 및 또 다른 S3 버킷 간의 데이터 흐름을 보여주는 다이어그램
작은 정보

Lambda를 처음 사용할 경우 이 예제 앱을 생성하기 전에 첫 번째 Lambda 함수 생성 튜토리얼을 시작하는 것이 좋습니다.

AWS Management Console 또는 AWS Command Line Interface(AWS CLI)(을)를 사용하여 리소스를 생성하고 구성하여 앱을 수동으로 배포할 수 있습니다. AWS Serverless Application Model(AWS SAM)(을)를 사용하여 앱을 배포할 수도 있습니다. AWS SAM(은)는 코드형 인프라(IaC) 도구입니다. IaC를 사용하면 리소스를 수동으로 생성하지 않고 코드로 정의한 다음 자동으로 배포할 수 있습니다.

이 예제 앱을 배포하기 전에 IaC와 함께 Lambda를 사용하는 방법에 대해 자세히 알아보려면 코드형 인프라(IaC)와 함께 Lambda 사용 섹션을 참조하세요.

Lambda 함수 소스 코드 파일 생성

프로젝트 디렉터리에 다음 파일을 생성합니다.

  • lambda_function.py - 파일 암호화를 수행하는 Lambda 함수의 Python 함수 코드

  • requirements.txt - Python 함수 코드에 필요한 종속성을 정의하는 매니페스트 파일

다음 섹션을 확장하여 코드를 확인하고 각 파일의 역할에 대해 자세히 알아보세요. 로컬 컴퓨터에서 파일을 생성하려면 아래 코드를 복사하여 붙여넣거나, aws-lambda-developer-guide GitHub repo에서 파일을 다운로드합니다.

다음 코드를 복사하여 새로운 lambda_function.py 파일에 붙여 넣습니다.

from pypdf import PdfReader, PdfWriter import uuid import os from urllib.parse import unquote_plus import boto3 # Create the S3 client to download and upload objects from S3 s3_client = boto3.client('s3') def lambda_handler(event, context): # Iterate over the S3 event object and get the key for all uploaded files for record in event['Records']: bucket = record['s3']['bucket']['name'] key = unquote_plus(record['s3']['object']['key']) # Decode the S3 object key to remove any URL-encoded characters download_path = f'/tmp/{uuid.uuid4()}.pdf' # Create a path in the Lambda tmp directory to save the file to upload_path = f'/tmp/converted-{uuid.uuid4()}.pdf' # Create another path to save the encrypted file to # If the file is a PDF, encrypt it and upload it to the destination S3 bucket if key.lower().endswith('.pdf'): s3_client.download_file(bucket, key, download_path) encrypt_pdf(download_path, upload_path) encrypted_key = add_encrypted_suffix(key) s3_client.upload_file(upload_path, f'{bucket}-encrypted', encrypted_key) # Define the function to encrypt the PDF file with a password def encrypt_pdf(file_path, encrypted_file_path): reader = PdfReader(file_path) writer = PdfWriter() for page in reader.pages: writer.add_page(page) # Add a password to the new PDF writer.encrypt("my-secret-password") # Save the new PDF to a file with open(encrypted_file_path, "wb") as file: writer.write(file) # Define a function to add a suffix to the original filename after encryption def add_encrypted_suffix(original_key): filename, extension = original_key.rsplit('.', 1) return f'{filename}_encrypted.{extension}'
참고

이 예제 코드에서는 암호화된 파일(my-secret-password)의 비밀번호가 함수 코드에 하드코딩되어 있습니다. 프로덕션 애플리케이션에서는 함수 코드에 암호와 같은 민감한 정보를 저장하지 마십시오. AWS Secrets Manager(을)를 사용하여 민감한 파라미터를 안전하게 저장하십시오.

Python 함수 코드에는 다음의 3가지 함수가 포함됩니다. 즉, 함수가 간접 호출될 때 Lambda가 실행하는 핸들러 함수 및 PDF 암호화를 수행하기 위해 핸들러가 간접 호출하는 add_encrypted_suffixencrypt_pdf라는 이름의 2가지 개별 함수가 포함됩니다.

함수가 Amazon S3에 의해 간접 호출되면 Lambda는 간접 호출을 일으킨 이벤트에 대한 세부 정보가 포함된 JSON 형식의 이벤트 인수를 함수로 전달합니다. 이 경우 정보에는 S3 버킷의 이름과 업로드된 파일의 객체 키가 포함됩니다. Amazon S3의 이벤트 객체 형식에 대한 자세한 내용은 Lambda를 사용하여 Amazon S3 이벤트 알림 처리 섹션을 참조하세요.

그러면 함수는 AWS SDK for Python (Boto3)(을)를 사용하여 이벤트 객체에 지정된 PDF 파일을 로컬 임시 스토리지 디렉터리로 다운로드한 후 pypdf 라이브러리를 사용하여 암호화합니다.

마지막으로 함수는 Boto3 SDK를 사용하여 암호화된 파일을 S3 대상 버킷에 저장합니다.

다음 코드를 복사하여 새로운 lambda_function.py 파일에 붙여 넣습니다.

from pypdf import PdfReader, PdfWriter import uuid import os from urllib.parse import unquote_plus import boto3 # Create the S3 client to download and upload objects from S3 s3_client = boto3.client('s3') def lambda_handler(event, context): # Iterate over the S3 event object and get the key for all uploaded files for record in event['Records']: bucket = record['s3']['bucket']['name'] key = unquote_plus(record['s3']['object']['key']) # Decode the S3 object key to remove any URL-encoded characters download_path = f'/tmp/{uuid.uuid4()}.pdf' # Create a path in the Lambda tmp directory to save the file to upload_path = f'/tmp/converted-{uuid.uuid4()}.pdf' # Create another path to save the encrypted file to # If the file is a PDF, encrypt it and upload it to the destination S3 bucket if key.lower().endswith('.pdf'): s3_client.download_file(bucket, key, download_path) encrypt_pdf(download_path, upload_path) encrypted_key = add_encrypted_suffix(key) s3_client.upload_file(upload_path, f'{bucket}-encrypted', encrypted_key) # Define the function to encrypt the PDF file with a password def encrypt_pdf(file_path, encrypted_file_path): reader = PdfReader(file_path) writer = PdfWriter() for page in reader.pages: writer.add_page(page) # Add a password to the new PDF writer.encrypt("my-secret-password") # Save the new PDF to a file with open(encrypted_file_path, "wb") as file: writer.write(file) # Define a function to add a suffix to the original filename after encryption def add_encrypted_suffix(original_key): filename, extension = original_key.rsplit('.', 1) return f'{filename}_encrypted.{extension}'
참고

이 예제 코드에서는 암호화된 파일(my-secret-password)의 비밀번호가 함수 코드에 하드코딩되어 있습니다. 프로덕션 애플리케이션에서는 함수 코드에 암호와 같은 민감한 정보를 저장하지 마십시오. AWS Secrets Manager(을)를 사용하여 민감한 파라미터를 안전하게 저장하십시오.

Python 함수 코드에는 다음의 3가지 함수가 포함됩니다. 즉, 함수가 간접 호출될 때 Lambda가 실행하는 핸들러 함수 및 PDF 암호화를 수행하기 위해 핸들러가 간접 호출하는 add_encrypted_suffixencrypt_pdf라는 이름의 2가지 개별 함수가 포함됩니다.

함수가 Amazon S3에 의해 간접 호출되면 Lambda는 간접 호출을 일으킨 이벤트에 대한 세부 정보가 포함된 JSON 형식의 이벤트 인수를 함수로 전달합니다. 이 경우 정보에는 S3 버킷의 이름과 업로드된 파일의 객체 키가 포함됩니다. Amazon S3의 이벤트 객체 형식에 대한 자세한 내용은 Lambda를 사용하여 Amazon S3 이벤트 알림 처리 섹션을 참조하세요.

그러면 함수는 AWS SDK for Python (Boto3)(을)를 사용하여 이벤트 객체에 지정된 PDF 파일을 로컬 임시 스토리지 디렉터리로 다운로드한 후 pypdf 라이브러리를 사용하여 암호화합니다.

마지막으로 함수는 Boto3 SDK를 사용하여 암호화된 파일을 S3 대상 버킷에 저장합니다.

다음 코드를 복사하여 새로운 requirements.txt 파일에 붙여 넣습니다.

boto3 pypdf

이 예제의 함수 코드에는 표준 Python 라이브러리의 일부가 아닌 두 개의 종속성, 즉 Python용 SDK(Boto3)와 함수가 PDF 암호화를 수행하는 데 사용하는 pypdf 패키지 두 개만 포함합니다.

참고

Python용 SDK(Boto3) 버전이 Lambda 런타임의 일부로 포함되어 있으므로 함수의 배포 패키지에 Boto3를 추가하지 않고도 코드를 실행할 수 있습니다. 그러나 함수의 종속 항목을 완전히 제어하고 버전 불일치와 관련된 문제를 방지하기 위해 Python의 모범 사례는 함수의 배포 패키지에 모든 함수 종속성을 포함합니다. 자세한 내용은 Python의 런타임 종속 항목 섹션을 참조하세요.

다음 코드를 복사하여 새로운 requirements.txt 파일에 붙여 넣습니다.

boto3 pypdf

이 예제의 함수 코드에는 표준 Python 라이브러리의 일부가 아닌 두 개의 종속성, 즉 Python용 SDK(Boto3)와 함수가 PDF 암호화를 수행하는 데 사용하는 pypdf 패키지 두 개만 포함합니다.

참고

Python용 SDK(Boto3) 버전이 Lambda 런타임의 일부로 포함되어 있으므로 함수의 배포 패키지에 Boto3를 추가하지 않고도 코드를 실행할 수 있습니다. 그러나 함수의 종속 항목을 완전히 제어하고 버전 불일치와 관련된 문제를 방지하기 위해 Python의 모범 사례는 함수의 배포 패키지에 모든 함수 종속성을 포함합니다. 자세한 내용은 Python의 런타임 종속 항목 섹션을 참조하세요.

앱 배포

수동으로 또는 AWS SAM(을)를 사용하여 이 예제 앱의 리소스를 만들고 배포할 수 있습니다. 프로덕션 환경에서는 수동 프로세스를 사용하지 않고 전체 서버리스 애플리케이션을 빠르고 반복적으로 배포하는 AWS SAM 등의 IaC 도구를 사용할 것을 권장합니다.

앱을 수동으로 배포하려면:

  • 소스 및 대상 Amazon S3 버킷 만들기

  • PDF 파일을 암호화하고 암호화된 버전을 S3 버킷에 저장하는 Lambda 함수를 생성합니다.

  • 객체가 원본 버킷에 업로드될 때 함수를 간접적으로 간접 호출하는 Lambda 트리거를 구성합니다.

시작하기 전에 빌드 머신에 Python이 설치되어 있는지 확인합니다.

2개의 S3 버킷 생성

먼저 2개의 S3 버킷을 생성합니다. 첫 번째 버킷은 PDF 파일을 업로드할 원본 버킷입니다. 두 번째 버킷은 Lambda에서 함수를 간접적으로 간접 호출할 때 암호화된 파일을 저장하는 데 사용됩니다.

Console
S3 버킷 생성(콘솔)
  1. Amazon S3 콘솔의 범용 버킷 페이지를 엽니다.

  2. 지리적 위치와 가장 가까운 AWS 리전을 선택합니다. 화면 상단의 드롭다운 목록을 사용하여 리전을 변경할 수 있습니다.

    S3 콘솔의 드롭다운 리전 메뉴를 보여주는 이미지
  3. 버킷 생성을 선택합니다.

  4. [일반 구성(General configuration)]에서 다음을 수행합니다.

    1. 버킷 유형에서 범용을 선택했는지 확인합니다.

    2. 버킷 이름에 Amazon S3 버킷 이름 지정 규칙을 충족하는 전역적으로 고유한 이름을 입력합니다. 버킷 이름은 소문자, 숫자, 점(.) 및 하이픈(-)만 포함할 수 있습니다.

  5. 다른 모든 옵션을 기본값으로 두고 버킷 생성을 선택합니다.

  6. 1~4단계를 반복하여 대상 버킷을 생성합니다. 버킷 이름에 amzn-s3-demo-bucket-encrypted를 입력합니다. 여기서 amzn-s3-demo-bucket은 방금 생성한 원본 버킷의 이름입니다.

AWS CLI

시작하기 전에 빌드 머신에 AWS CLI이 설치되어 있는지 확인합니다.

Amazon S3 버킷을 생성하려면(AWS CLI)
  1. 다음 CLI 명령을 실행하여 원본 버킷을 생성합니다. 버킷에 대해 선택하는 이름은 전역적으로 고유해야 하며 Amazon S3 버킷 이름 지정 규칙을 따라야 합니다. 이름에는 소문자, 숫자, 점(.), 하이픈(-)만 사용할 수 있습니다. region 및 LocationConstraint의 경우 지리적 위치와 가장 가까운 AWS 리전을 선택하세요.

    aws s3api create-bucket --bucket amzn-s3-demo-bucket --region us-east-2 \ --create-bucket-configuration LocationConstraint=us-east-2

    자습서의 뒷부분에서 원본 버킷과 동일한 AWS 리전에 Lambda 함수를 생성해야 하므로 선택한 리전을 기록해 둡니다.

  2. 다음 명령을 실행하여 대상 버킷을 생성합니다. 버킷 이름에는 amzn-s3-demo-bucket-encrypted를 사용해야 합니다. 여기서 amzn-s3-demo-bucket은 1단계에서 생성한 원본 버킷의 이름입니다. region 및 LocationConstraint의 경우 원본 버킷을 만들 때 사용한 것과 동일한 AWS 리전을 선택합니다.

    aws s3api create-bucket --bucket amzn-s3-demo-bucket-encrypted --region us-east-2 \ --create-bucket-configuration LocationConstraint=us-east-2

실행 역할 만들기

실행 역할은 AWS 서비스 및 리소스에 액세스할 수 있는 권한을 Lambda 함수에 부여하는 IAM 역할입니다. 함수에 Amazon S3에 대한 읽기 및 쓰기 액세스 권한을 부여하려면 AWS관리형 정책을AmazonS3FullAccess 연결합니다.

Console
실행 역할 생성 및 AmazonS3FullAccess 관리형 정책 연결(콘솔)
  1. IAM 콘솔에서 역할(Roles) 페이지를 엽니다.

  2. 역할 생성(Create role)을 선택합니다.

  3. 신뢰할 수 있는 엔터티 유형으로 AWS 서비스를 선택하고 사용 사례Lambda를 선택합니다.

  4. Next(다음)를 선택합니다.

  5. 다음을 수행하여 AmazonS3FullAccess 관리형 정책을 추가합니다.

    1. 권한 정책 검색 상자에 AmazonS3FullAccess를 입력합니다.

    2. 정책 옆의 확인란을 선택합니다.

    3. Next(다음)를 선택합니다.

  6. 역할 세부 정보의 역할 이름에 LambdaS3Role을 입력합니다.

  7. 역할 생성을 선택합니다.

AWS CLI
실행 역할 생성 및 AmazonS3FullAccess 관리형 정책 연결(AWS CLI)
  1. 다음 JSON을 trust-policy.json이라는 파일로 저장합니다. 이 신뢰 정책을 통해 Lambda는 서비스 보안 주체에 lambda.amazonaws.com 권한을 제공하여 AWS Security Token Service(AWS STS) AssumeRole 작업을 호출하기 위해 역할의 권한을 사용할 수 있습니다.

    { "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Principal": { "Service": "lambda.amazonaws.com" }, "Action": "sts:AssumeRole" } ] }
  2. JSON 신뢰 정책 문서를 저장한 디렉터리에서 다음 CLI 명령을 실행하여 실행 역할을 생성합니다.

    aws iam create-role --role-name LambdaS3Role --assume-role-policy-document file://trust-policy.json
  3. AmazonS3FullAccess 관리형 정책을 연결하려면 다음 CLI 명령을 실행합니다.

    aws iam attach-role-policy --role-name LambdaS3Role --policy-arn arn:aws:iam::aws:policy/AmazonS3FullAccess

함수 배포 패키지 생성

함수를 생성하려면 함수 코드와 해당 종속 항목을 포함하는 배포 패키지를 생성합니다. 이 애플리케이션의 경우, 함수 코드는 PDF 암호화를 위해 별도의 라이브러리를 사용합니다.

배포 패키지를 만드는 방법
  1. 이전에 GitHub에서 만들거나 다운로드한 lambda_function.pyrequirements.txt 파일이 들어 있는 프로젝트 디렉터리로 이동하여 package의 이름으로 새 디렉터리를 생성합니다.

  2. 다음 명령어를 실행하여 requirements.txt 파일에 지정된 종속성을 package 디렉터리의 디렉터리에 설치합니다.

    pip install -r requirements.txt --target ./package/
  3. 애플리케이션 코드와 해당 종속 항목을 포함한 .zip 파일 만들기 Linux 또는 MacOS에서 명령줄 인터페이스에서 다음 명령을 실행합니다.

    cd package zip -r ../lambda_function.zip . cd .. zip lambda_function.zip lambda_function.py

    Windows에서는 선호하는 zip 도구를 사용하여 lambda_function.zip 파일을 생성합니다. lambda_function.py 파일과 종속 항목이 포함된 폴더가 모두 .zip 파일의 루트에 있는지 확인합니다.

Python 가상 환경을 사용하여 배포 패키지를 생성할 수도 있습니다. Python Lambda 함수에 대한 .zip 파일 아카이브 작업 섹션을 참조하세요

Lambda 함수 생성

이제 이전 단계에서 생성한 배포 패키지를 사용하여 Lambda 함수를 배포합니다.

Console
Lambda 함수 생성(콘솔)

콘솔을 사용하여 Lambda 함수를 생성하려면 먼저 일부 ‘Hello world’ 코드가 포함된 기본 함수를 생성합니다. 그런 다음 이전 단계에서 만든 .zip 파일을 업로드하여 이 코드를 고유한 함수 코드로 바꿉니다.

대용량 PDF 파일을 암호화할 때 함수의 타임아웃이 발생하지 않도록 하기 위해 함수의 메모리 및 타임아웃 설정을 구성합니다. 함수의 로그 형식도 JSON으로 설정합니다. 제공된 테스트 스크립트를 사용할 때는 CloudWatch Logs에서 함수의 호출 상태를 읽어 호출 성공 여부를 확인할 수 있도록 JSON 형식의 로그를 구성해야 합니다.

  1. Lambda 콘솔의 함수 페이지를 엽니다.

  2. S3 버킷을 생성한 동일한 AWS 리전에서 작업 중인지 확인합니다. 화면 상단의 드롭다운 목록을 사용하여 리전을 변경할 수 있습니다.

    Lambda 콘솔의 드롭다운 리전 메뉴를 보여주는 이미지
  3. 함수 생성을 선택합니다.

  4. 새로 작성을 선택합니다.

  5. 기본 정보에서 다음과 같이 합니다.

    1. [함수 이름(Function name)]에 EncryptPDF을 입력합니다.

    2. 런타임에서 Python 3.12를 선택합니다.

    3. 아키텍처에서는 x86_64를 선택합니다.

  6. 다음을 수행하여 이전 단계에서 생성한 실행 역할을 연결합니다.

    1. 기본 실행 역할 변경(Change default execution role) 섹션을 펼칩니다.

    2. 기존 역할 사용을 선택합니다.

    3. 기존 역할에서 역할(LambdaS3Role)을 선택합니다.

  7. 함수 생성(Create function)을 선택합니다.

함수 코드를 업로드하려면(콘솔)
  1. 코드 소스 창에서 에서 업로드를 선택합니다.

  2. .zip 파일을 선택합니다.

  3. 업로드를 선택합니다.

  4. 파일 선택기에서 .zip 파일을 선택하고 열기를 선택합니다.

  5. Save(저장)를 선택합니다.

함수 메모리 및 타임아웃 구성(콘솔)
  1. 함수의 구성 탭을 선택합니다.

  2. 일반 구성 창에서 편집을 선택합니다.

  3. 메모리를 256MB로 설정하고 타임아웃을 15초로 설정합니다.

  4. Save(저장)를 선택합니다.

로그 형식 구성하기(콘솔)
  1. 함수의 구성 탭을 선택합니다.

  2. 모니터링 및 운영 도구를 선택합니다.

  3. 로깅 구성 창에서 편집을 선택합니다.

  4. 로깅 구성의 경우 JSON을 선택합니다.

  5. Save(저장)를 선택합니다.

AWS CLI
함수를 생성하려면(AWS CLI)
  • lambda_function.zip 파일이 들어 있는 디렉터리에서 다음 명령을 실행합니다. region 파라미터의 경우 S3 버킷을 생성한 리전으로 us-east-2를 대체하세요.

    aws lambda create-function --function-name EncryptPDF \ --zip-file fileb://lambda_function.zip --handler lambda_function.lambda_handler \ --runtime python3.12 --timeout 15 --memory-size 256 \ --role arn:aws:iam::123456789012:role/LambdaS3Role --region us-east-2 \ --logging-config LogFormat=JSON

함수를 간접적으로 간접 호출하도록 Amazon S3 구성

원본 버킷에 이미지를 업로드할 때 Lambda 함수를 실행하려면 함수에 대한 트리거를 구성해야 합니다. 콘솔 또는 AWS CLI를 사용하여 Amazon S3 트리거를 구성할 수 있습니다.

중요

이 절차는 버킷에 객체가 생성될 때마다 함수를 간접 호출하도록 S3 버킷을 구성합니다. 원본 버킷에서만 이를 구성해야 합니다. Lambda 함수가 함수를 간접적으로 간접 호출하는 동일한 버킷에 객체를 생성하는 경우 함수를 루프에서 연속적으로 간접 호출할 수 있습니다. 이로 인해 예상치 못한 요금이 AWS 계정에 청구될 수 있습니다.

Console
Amazon S3 트리거를 구성하려면(콘솔)
  1. Lambda 콘솔의 함수 페이지를 열고 함수(EncryptPDF)를 선택합니다.

  2. 트리거 추가를 선택합니다.

  3. S3를 선택합니다.

  4. 버킷에서 원본 버킷을 선택합니다.

  5. 이벤트 유형에서 모든 객체 생성 이벤트를 선택합니다.

  6. 재귀 호출에서 확인란을 선택하여 입력 및 출력에 동일한 S3 버킷 사용이 권장되지 않음을 확인합니다. Serverless Land의 Recursive patterns that cause run-away Lambda functions를 읽고 Lambda의 재귀 호출 패턴에 대해 자세히 알아볼 수 있습니다.

  7. 추가를 선택합니다.

    Lambda 콘솔을 사용하여 트리거를 생성하면 Lambda는 선택한 서비스에 함수 간접 호출 권한을 부여하는 리소스 기반 정책을 자동으로 생성합니다.

AWS CLI
Amazon S3 트리거를 구성하려면(AWS CLI)
  1. 파일을 추가할 때 Amazon S3 소스 버킷이 함수를 간접적으로 호출할 수 있도록 허용하는 리소스 기반 정책을 함수에 추가합니다. 리소스 기반 정책 설명은 함수를 간접적으로 간접 호출할 수 있는 다른 AWS 서비스 권한을 부여합니다. Amazon S3에 함수 간접 호출 권한을 부여하려면 다음 CLI 명령을 실행합니다. source-account 파라미터를 자신의 AWS 계정 ID로 바꾸고 고유한 원본 버킷 이름을 사용해야 합니다.

    aws lambda add-permission --function-name EncryptPDF \ --principal s3.amazonaws.com --statement-id s3invoke --action "lambda:InvokeFunction" \ --source-arn arn:aws:s3:::amzn-s3-demo-bucket \ --source-account 123456789012

    이 명령으로 정의하는 정책은 원본 버킷에서 작업이 발생할 때만 Amazon S3가 함수를 간접적으로 간접 호출하도록 허용합니다.

    참고

    S3 버킷 이름은 전역적으로 고유하지만 리소스 기반 정책을 사용할 때는 버킷이 반드시 계정에 속하도록 지정하는 것이 가장 좋습니다. 버킷을 삭제하면 다른 AWS 계정가 동일한 Amazon 리소스 이름(ARN)으로 버킷을 생성할 수 있기 때문입니다.

  2. 다음 JSON을 notification.json이라는 파일로 저장합니다. 이 JSON을 원본 버킷에 적용하면 JSON이 새 객체가 추가될 때마다 Lambda 함수에 알림을 보내도록 버킷을 구성합니다. Lambda 함수 ARN의 AWS 계정 번호와 AWS 리전을 자신의 계정 번호와 리전으로 바꿉니다.

    { "LambdaFunctionConfigurations": [ { "Id": "EncryptPDFEventConfiguration", "LambdaFunctionArn": "arn:aws:lambda:us-east-2:123456789012:function:EncryptPDF", "Events": [ "s3:ObjectCreated:Put" ] } ] }
  3. 다음 CLI 명령을 실행하여 원본 버킷에 생성한 JSON 파일의 알림 설정을 적용합니다. amzn-s3-demo-bucket을 원본 버킷의 이름으로 바꿉니다.

    aws s3api put-bucket-notification-configuration --bucket amzn-s3-demo-bucket \ --notification-configuration file://notification.json

    put-bucket-notification-configuration 명령 및 notification-configuration 옵션에 대한 자세한 내용은 AWS CLI 명령 참조put-bucket-notification-configuration을 참조하세요.

앱을 수동으로 배포하려면:

  • 소스 및 대상 Amazon S3 버킷 만들기

  • PDF 파일을 암호화하고 암호화된 버전을 S3 버킷에 저장하는 Lambda 함수를 생성합니다.

  • 객체가 원본 버킷에 업로드될 때 함수를 간접적으로 간접 호출하는 Lambda 트리거를 구성합니다.

시작하기 전에 빌드 머신에 Python이 설치되어 있는지 확인합니다.

2개의 S3 버킷 생성

먼저 2개의 S3 버킷을 생성합니다. 첫 번째 버킷은 PDF 파일을 업로드할 원본 버킷입니다. 두 번째 버킷은 Lambda에서 함수를 간접적으로 간접 호출할 때 암호화된 파일을 저장하는 데 사용됩니다.

Console
S3 버킷 생성(콘솔)
  1. Amazon S3 콘솔의 범용 버킷 페이지를 엽니다.

  2. 지리적 위치와 가장 가까운 AWS 리전을 선택합니다. 화면 상단의 드롭다운 목록을 사용하여 리전을 변경할 수 있습니다.

    S3 콘솔의 드롭다운 리전 메뉴를 보여주는 이미지
  3. 버킷 생성을 선택합니다.

  4. [일반 구성(General configuration)]에서 다음을 수행합니다.

    1. 버킷 유형에서 범용을 선택했는지 확인합니다.

    2. 버킷 이름에 Amazon S3 버킷 이름 지정 규칙을 충족하는 전역적으로 고유한 이름을 입력합니다. 버킷 이름은 소문자, 숫자, 점(.) 및 하이픈(-)만 포함할 수 있습니다.

  5. 다른 모든 옵션을 기본값으로 두고 버킷 생성을 선택합니다.

  6. 1~4단계를 반복하여 대상 버킷을 생성합니다. 버킷 이름에 amzn-s3-demo-bucket-encrypted를 입력합니다. 여기서 amzn-s3-demo-bucket은 방금 생성한 원본 버킷의 이름입니다.

AWS CLI

시작하기 전에 빌드 머신에 AWS CLI이 설치되어 있는지 확인합니다.

Amazon S3 버킷을 생성하려면(AWS CLI)
  1. 다음 CLI 명령을 실행하여 원본 버킷을 생성합니다. 버킷에 대해 선택하는 이름은 전역적으로 고유해야 하며 Amazon S3 버킷 이름 지정 규칙을 따라야 합니다. 이름에는 소문자, 숫자, 점(.), 하이픈(-)만 사용할 수 있습니다. region 및 LocationConstraint의 경우 지리적 위치와 가장 가까운 AWS 리전을 선택하세요.

    aws s3api create-bucket --bucket amzn-s3-demo-bucket --region us-east-2 \ --create-bucket-configuration LocationConstraint=us-east-2

    자습서의 뒷부분에서 원본 버킷과 동일한 AWS 리전에 Lambda 함수를 생성해야 하므로 선택한 리전을 기록해 둡니다.

  2. 다음 명령을 실행하여 대상 버킷을 생성합니다. 버킷 이름에는 amzn-s3-demo-bucket-encrypted를 사용해야 합니다. 여기서 amzn-s3-demo-bucket은 1단계에서 생성한 원본 버킷의 이름입니다. region 및 LocationConstraint의 경우 원본 버킷을 만들 때 사용한 것과 동일한 AWS 리전을 선택합니다.

    aws s3api create-bucket --bucket amzn-s3-demo-bucket-encrypted --region us-east-2 \ --create-bucket-configuration LocationConstraint=us-east-2
S3 버킷 생성(콘솔)
  1. Amazon S3 콘솔의 범용 버킷 페이지를 엽니다.

  2. 지리적 위치와 가장 가까운 AWS 리전을 선택합니다. 화면 상단의 드롭다운 목록을 사용하여 리전을 변경할 수 있습니다.

    S3 콘솔의 드롭다운 리전 메뉴를 보여주는 이미지
  3. 버킷 생성을 선택합니다.

  4. [일반 구성(General configuration)]에서 다음을 수행합니다.

    1. 버킷 유형에서 범용을 선택했는지 확인합니다.

    2. 버킷 이름에 Amazon S3 버킷 이름 지정 규칙을 충족하는 전역적으로 고유한 이름을 입력합니다. 버킷 이름은 소문자, 숫자, 점(.) 및 하이픈(-)만 포함할 수 있습니다.

  5. 다른 모든 옵션을 기본값으로 두고 버킷 생성을 선택합니다.

  6. 1~4단계를 반복하여 대상 버킷을 생성합니다. 버킷 이름에 amzn-s3-demo-bucket-encrypted를 입력합니다. 여기서 amzn-s3-demo-bucket은 방금 생성한 원본 버킷의 이름입니다.

실행 역할 만들기

실행 역할은 AWS 서비스 및 리소스에 액세스할 수 있는 권한을 Lambda 함수에 부여하는 IAM 역할입니다. 함수에 Amazon S3에 대한 읽기 및 쓰기 액세스 권한을 부여하려면 AWS관리형 정책을AmazonS3FullAccess 연결합니다.

Console
실행 역할 생성 및 AmazonS3FullAccess 관리형 정책 연결(콘솔)
  1. IAM 콘솔에서 역할(Roles) 페이지를 엽니다.

  2. 역할 생성(Create role)을 선택합니다.

  3. 신뢰할 수 있는 엔터티 유형으로 AWS 서비스를 선택하고 사용 사례Lambda를 선택합니다.

  4. Next(다음)를 선택합니다.

  5. 다음을 수행하여 AmazonS3FullAccess 관리형 정책을 추가합니다.

    1. 권한 정책 검색 상자에 AmazonS3FullAccess를 입력합니다.

    2. 정책 옆의 확인란을 선택합니다.

    3. Next(다음)를 선택합니다.

  6. 역할 세부 정보의 역할 이름에 LambdaS3Role을 입력합니다.

  7. 역할 생성을 선택합니다.

AWS CLI
실행 역할 생성 및 AmazonS3FullAccess 관리형 정책 연결(AWS CLI)
  1. 다음 JSON을 trust-policy.json이라는 파일로 저장합니다. 이 신뢰 정책을 통해 Lambda는 서비스 보안 주체에 lambda.amazonaws.com 권한을 제공하여 AWS Security Token Service(AWS STS) AssumeRole 작업을 호출하기 위해 역할의 권한을 사용할 수 있습니다.

    { "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Principal": { "Service": "lambda.amazonaws.com" }, "Action": "sts:AssumeRole" } ] }
  2. JSON 신뢰 정책 문서를 저장한 디렉터리에서 다음 CLI 명령을 실행하여 실행 역할을 생성합니다.

    aws iam create-role --role-name LambdaS3Role --assume-role-policy-document file://trust-policy.json
  3. AmazonS3FullAccess 관리형 정책을 연결하려면 다음 CLI 명령을 실행합니다.

    aws iam attach-role-policy --role-name LambdaS3Role --policy-arn arn:aws:iam::aws:policy/AmazonS3FullAccess
실행 역할 생성 및 AmazonS3FullAccess 관리형 정책 연결(콘솔)
  1. IAM 콘솔에서 역할(Roles) 페이지를 엽니다.

  2. 역할 생성(Create role)을 선택합니다.

  3. 신뢰할 수 있는 엔터티 유형으로 AWS 서비스를 선택하고 사용 사례Lambda를 선택합니다.

  4. Next(다음)를 선택합니다.

  5. 다음을 수행하여 AmazonS3FullAccess 관리형 정책을 추가합니다.

    1. 권한 정책 검색 상자에 AmazonS3FullAccess를 입력합니다.

    2. 정책 옆의 확인란을 선택합니다.

    3. Next(다음)를 선택합니다.

  6. 역할 세부 정보의 역할 이름에 LambdaS3Role을 입력합니다.

  7. 역할 생성을 선택합니다.

함수 배포 패키지 생성

함수를 생성하려면 함수 코드와 해당 종속 항목을 포함하는 배포 패키지를 생성합니다. 이 애플리케이션의 경우, 함수 코드는 PDF 암호화를 위해 별도의 라이브러리를 사용합니다.

배포 패키지를 만드는 방법
  1. 이전에 GitHub에서 만들거나 다운로드한 lambda_function.pyrequirements.txt 파일이 들어 있는 프로젝트 디렉터리로 이동하여 package의 이름으로 새 디렉터리를 생성합니다.

  2. 다음 명령어를 실행하여 requirements.txt 파일에 지정된 종속성을 package 디렉터리의 디렉터리에 설치합니다.

    pip install -r requirements.txt --target ./package/
  3. 애플리케이션 코드와 해당 종속 항목을 포함한 .zip 파일 만들기 Linux 또는 MacOS에서 명령줄 인터페이스에서 다음 명령을 실행합니다.

    cd package zip -r ../lambda_function.zip . cd .. zip lambda_function.zip lambda_function.py

    Windows에서는 선호하는 zip 도구를 사용하여 lambda_function.zip 파일을 생성합니다. lambda_function.py 파일과 종속 항목이 포함된 폴더가 모두 .zip 파일의 루트에 있는지 확인합니다.

Python 가상 환경을 사용하여 배포 패키지를 생성할 수도 있습니다. Python Lambda 함수에 대한 .zip 파일 아카이브 작업 섹션을 참조하세요

Lambda 함수 생성

이제 이전 단계에서 생성한 배포 패키지를 사용하여 Lambda 함수를 배포합니다.

Console
Lambda 함수 생성(콘솔)

콘솔을 사용하여 Lambda 함수를 생성하려면 먼저 일부 ‘Hello world’ 코드가 포함된 기본 함수를 생성합니다. 그런 다음 이전 단계에서 만든 .zip 파일을 업로드하여 이 코드를 고유한 함수 코드로 바꿉니다.

대용량 PDF 파일을 암호화할 때 함수의 타임아웃이 발생하지 않도록 하기 위해 함수의 메모리 및 타임아웃 설정을 구성합니다. 함수의 로그 형식도 JSON으로 설정합니다. 제공된 테스트 스크립트를 사용할 때는 CloudWatch Logs에서 함수의 호출 상태를 읽어 호출 성공 여부를 확인할 수 있도록 JSON 형식의 로그를 구성해야 합니다.

  1. Lambda 콘솔의 함수 페이지를 엽니다.

  2. S3 버킷을 생성한 동일한 AWS 리전에서 작업 중인지 확인합니다. 화면 상단의 드롭다운 목록을 사용하여 리전을 변경할 수 있습니다.

    Lambda 콘솔의 드롭다운 리전 메뉴를 보여주는 이미지
  3. 함수 생성을 선택합니다.

  4. 새로 작성을 선택합니다.

  5. 기본 정보에서 다음과 같이 합니다.

    1. [함수 이름(Function name)]에 EncryptPDF을 입력합니다.

    2. 런타임에서 Python 3.12를 선택합니다.

    3. 아키텍처에서는 x86_64를 선택합니다.

  6. 다음을 수행하여 이전 단계에서 생성한 실행 역할을 연결합니다.

    1. 기본 실행 역할 변경(Change default execution role) 섹션을 펼칩니다.

    2. 기존 역할 사용을 선택합니다.

    3. 기존 역할에서 역할(LambdaS3Role)을 선택합니다.

  7. 함수 생성(Create function)을 선택합니다.

함수 코드를 업로드하려면(콘솔)
  1. 코드 소스 창에서 에서 업로드를 선택합니다.

  2. .zip 파일을 선택합니다.

  3. 업로드를 선택합니다.

  4. 파일 선택기에서 .zip 파일을 선택하고 열기를 선택합니다.

  5. Save(저장)를 선택합니다.

함수 메모리 및 타임아웃 구성(콘솔)
  1. 함수의 구성 탭을 선택합니다.

  2. 일반 구성 창에서 편집을 선택합니다.

  3. 메모리를 256MB로 설정하고 타임아웃을 15초로 설정합니다.

  4. Save(저장)를 선택합니다.

로그 형식 구성하기(콘솔)
  1. 함수의 구성 탭을 선택합니다.

  2. 모니터링 및 운영 도구를 선택합니다.

  3. 로깅 구성 창에서 편집을 선택합니다.

  4. 로깅 구성의 경우 JSON을 선택합니다.

  5. Save(저장)를 선택합니다.

AWS CLI
함수를 생성하려면(AWS CLI)
  • lambda_function.zip 파일이 들어 있는 디렉터리에서 다음 명령을 실행합니다. region 파라미터의 경우 S3 버킷을 생성한 리전으로 us-east-2를 대체하세요.

    aws lambda create-function --function-name EncryptPDF \ --zip-file fileb://lambda_function.zip --handler lambda_function.lambda_handler \ --runtime python3.12 --timeout 15 --memory-size 256 \ --role arn:aws:iam::123456789012:role/LambdaS3Role --region us-east-2 \ --logging-config LogFormat=JSON
Lambda 함수 생성(콘솔)

콘솔을 사용하여 Lambda 함수를 생성하려면 먼저 일부 ‘Hello world’ 코드가 포함된 기본 함수를 생성합니다. 그런 다음 이전 단계에서 만든 .zip 파일을 업로드하여 이 코드를 고유한 함수 코드로 바꿉니다.

대용량 PDF 파일을 암호화할 때 함수의 타임아웃이 발생하지 않도록 하기 위해 함수의 메모리 및 타임아웃 설정을 구성합니다. 함수의 로그 형식도 JSON으로 설정합니다. 제공된 테스트 스크립트를 사용할 때는 CloudWatch Logs에서 함수의 호출 상태를 읽어 호출 성공 여부를 확인할 수 있도록 JSON 형식의 로그를 구성해야 합니다.

  1. Lambda 콘솔의 함수 페이지를 엽니다.

  2. S3 버킷을 생성한 동일한 AWS 리전에서 작업 중인지 확인합니다. 화면 상단의 드롭다운 목록을 사용하여 리전을 변경할 수 있습니다.

    Lambda 콘솔의 드롭다운 리전 메뉴를 보여주는 이미지
  3. 함수 생성을 선택합니다.

  4. 새로 작성을 선택합니다.

  5. 기본 정보에서 다음과 같이 합니다.

    1. [함수 이름(Function name)]에 EncryptPDF을 입력합니다.

    2. 런타임에서 Python 3.12를 선택합니다.

    3. 아키텍처에서는 x86_64를 선택합니다.

  6. 다음을 수행하여 이전 단계에서 생성한 실행 역할을 연결합니다.

    1. 기본 실행 역할 변경(Change default execution role) 섹션을 펼칩니다.

    2. 기존 역할 사용을 선택합니다.

    3. 기존 역할에서 역할(LambdaS3Role)을 선택합니다.

  7. 함수 생성(Create function)을 선택합니다.

함수 코드를 업로드하려면(콘솔)
  1. 코드 소스 창에서 에서 업로드를 선택합니다.

  2. .zip 파일을 선택합니다.

  3. 업로드를 선택합니다.

  4. 파일 선택기에서 .zip 파일을 선택하고 열기를 선택합니다.

  5. Save(저장)를 선택합니다.

함수 메모리 및 타임아웃 구성(콘솔)
  1. 함수의 구성 탭을 선택합니다.

  2. 일반 구성 창에서 편집을 선택합니다.

  3. 메모리를 256MB로 설정하고 타임아웃을 15초로 설정합니다.

  4. Save(저장)를 선택합니다.

로그 형식 구성하기(콘솔)
  1. 함수의 구성 탭을 선택합니다.

  2. 모니터링 및 운영 도구를 선택합니다.

  3. 로깅 구성 창에서 편집을 선택합니다.

  4. 로깅 구성의 경우 JSON을 선택합니다.

  5. Save(저장)를 선택합니다.

함수를 간접적으로 간접 호출하도록 Amazon S3 구성

원본 버킷에 이미지를 업로드할 때 Lambda 함수를 실행하려면 함수에 대한 트리거를 구성해야 합니다. 콘솔 또는 AWS CLI를 사용하여 Amazon S3 트리거를 구성할 수 있습니다.

중요

이 절차는 버킷에 객체가 생성될 때마다 함수를 간접 호출하도록 S3 버킷을 구성합니다. 원본 버킷에서만 이를 구성해야 합니다. Lambda 함수가 함수를 간접적으로 간접 호출하는 동일한 버킷에 객체를 생성하는 경우 함수를 루프에서 연속적으로 간접 호출할 수 있습니다. 이로 인해 예상치 못한 요금이 AWS 계정에 청구될 수 있습니다.

Console
Amazon S3 트리거를 구성하려면(콘솔)
  1. Lambda 콘솔의 함수 페이지를 열고 함수(EncryptPDF)를 선택합니다.

  2. 트리거 추가를 선택합니다.

  3. S3를 선택합니다.

  4. 버킷에서 원본 버킷을 선택합니다.

  5. 이벤트 유형에서 모든 객체 생성 이벤트를 선택합니다.

  6. 재귀 호출에서 확인란을 선택하여 입력 및 출력에 동일한 S3 버킷 사용이 권장되지 않음을 확인합니다. Serverless Land의 Recursive patterns that cause run-away Lambda functions를 읽고 Lambda의 재귀 호출 패턴에 대해 자세히 알아볼 수 있습니다.

  7. 추가를 선택합니다.

    Lambda 콘솔을 사용하여 트리거를 생성하면 Lambda는 선택한 서비스에 함수 간접 호출 권한을 부여하는 리소스 기반 정책을 자동으로 생성합니다.

AWS CLI
Amazon S3 트리거를 구성하려면(AWS CLI)
  1. 파일을 추가할 때 Amazon S3 소스 버킷이 함수를 간접적으로 호출할 수 있도록 허용하는 리소스 기반 정책을 함수에 추가합니다. 리소스 기반 정책 설명은 함수를 간접적으로 간접 호출할 수 있는 다른 AWS 서비스 권한을 부여합니다. Amazon S3에 함수 간접 호출 권한을 부여하려면 다음 CLI 명령을 실행합니다. source-account 파라미터를 자신의 AWS 계정 ID로 바꾸고 고유한 원본 버킷 이름을 사용해야 합니다.

    aws lambda add-permission --function-name EncryptPDF \ --principal s3.amazonaws.com --statement-id s3invoke --action "lambda:InvokeFunction" \ --source-arn arn:aws:s3:::amzn-s3-demo-bucket \ --source-account 123456789012

    이 명령으로 정의하는 정책은 원본 버킷에서 작업이 발생할 때만 Amazon S3가 함수를 간접적으로 간접 호출하도록 허용합니다.

    참고

    S3 버킷 이름은 전역적으로 고유하지만 리소스 기반 정책을 사용할 때는 버킷이 반드시 계정에 속하도록 지정하는 것이 가장 좋습니다. 버킷을 삭제하면 다른 AWS 계정가 동일한 Amazon 리소스 이름(ARN)으로 버킷을 생성할 수 있기 때문입니다.

  2. 다음 JSON을 notification.json이라는 파일로 저장합니다. 이 JSON을 원본 버킷에 적용하면 JSON이 새 객체가 추가될 때마다 Lambda 함수에 알림을 보내도록 버킷을 구성합니다. Lambda 함수 ARN의 AWS 계정 번호와 AWS 리전을 자신의 계정 번호와 리전으로 바꿉니다.

    { "LambdaFunctionConfigurations": [ { "Id": "EncryptPDFEventConfiguration", "LambdaFunctionArn": "arn:aws:lambda:us-east-2:123456789012:function:EncryptPDF", "Events": [ "s3:ObjectCreated:Put" ] } ] }
  3. 다음 CLI 명령을 실행하여 원본 버킷에 생성한 JSON 파일의 알림 설정을 적용합니다. amzn-s3-demo-bucket을 원본 버킷의 이름으로 바꿉니다.

    aws s3api put-bucket-notification-configuration --bucket amzn-s3-demo-bucket \ --notification-configuration file://notification.json

    put-bucket-notification-configuration 명령 및 notification-configuration 옵션에 대한 자세한 내용은 AWS CLI 명령 참조put-bucket-notification-configuration을 참조하세요.

Amazon S3 트리거를 구성하려면(콘솔)
  1. Lambda 콘솔의 함수 페이지를 열고 함수(EncryptPDF)를 선택합니다.

  2. 트리거 추가를 선택합니다.

  3. S3를 선택합니다.

  4. 버킷에서 원본 버킷을 선택합니다.

  5. 이벤트 유형에서 모든 객체 생성 이벤트를 선택합니다.

  6. 재귀 호출에서 확인란을 선택하여 입력 및 출력에 동일한 S3 버킷 사용이 권장되지 않음을 확인합니다. Serverless Land의 Recursive patterns that cause run-away Lambda functions를 읽고 Lambda의 재귀 호출 패턴에 대해 자세히 알아볼 수 있습니다.

  7. 추가를 선택합니다.

    Lambda 콘솔을 사용하여 트리거를 생성하면 Lambda는 선택한 서비스에 함수 간접 호출 권한을 부여하는 리소스 기반 정책을 자동으로 생성합니다.

시작하기 전에 빌드 머신에 Docker최신 버전의 AWS SAMCLI가 설치되어 있는지 확인합니다.

  1. 프로젝트 디렉터리에서 다음 코드를 template.yaml이라는 새 파일에 붙여넣습니다. 자리 표시자 버킷 이름을 다음과 같이 바꿉니다.

    • 소스 버킷의 경우 amzn-s3-demo-bucketS3 버킷 이름 지정 규칙을 준수하는 이름으로 바꿉니다.

    • 대상 버킷의 경우 amzn-s3-demo-bucket-encrypted(을)를 <source-bucket-name>-encrypted(으)로 바꾸십시오. 여기서 <source-bucket>(은)는 원본 버킷으로 선택한 이름입니다.

    AWSTemplateFormatVersion: '2010-09-09' Transform: AWS::Serverless-2016-10-31 Resources: EncryptPDFFunction: Type: AWS::Serverless::Function Properties: FunctionName: EncryptPDF Architectures: [x86_64] CodeUri: ./ Handler: lambda_function.lambda_handler Runtime: python3.12 Timeout: 15 MemorySize: 256 LoggingConfig: LogFormat: JSON Policies: - AmazonS3FullAccess Events: S3Event: Type: S3 Properties: Bucket: !Ref PDFSourceBucket Events: s3:ObjectCreated:* PDFSourceBucket: Type: AWS::S3::Bucket Properties: BucketName: amzn-s3-demo-bucket EncryptedPDFBucket: Type: AWS::S3::Bucket Properties: BucketName: amzn-s3-demo-bucket-encrypted

    AWS SAM 템플릿은 앱용으로 만드는 리소스를 정의합니다. 이 예제에서 템플릿은 AWS::Serverless::Function 유형을 사용하여 Lambda 함수를 정의하고 AWS::S3::Bucket 유형을 사용하여 S3 버킷 두 개를 정의합니다. 템플릿에 지정된 버킷 이름은 플레이스홀더입니다. AWS SAM을 사용하여 앱을 배포하기 전에, 템플릿을 편집하여 S3 버킷 이름 지정 규칙을 충족하는 전역적으로 고유한 이름을 가진 버킷의 이름으로 변경해야 합니다. 이 단계에 대해서는 AWS SAM(을)를 사용하여 리소스 만들기에서 자세히 설명합니다.

    Lambda 함수 리소스의 정의는 S3Event 이벤트 속성을 사용하여 함수에 대한 트리거를 구성합니다. 이 트리거를 사용하면 소스 버킷에서 객체가 생성될 때마다 함수가 간접 호출됩니다.

    또한 함수 정의는 함수의 실행 역할에 연결할 AWS Identity and Access Management(IAM) 정책을 지정합니다. AWS관리형 정책AmazonS3FullAccess은 Amazon S3에 객체를 읽고 쓰는 데 필요한 권한을 함수에 제공합니다.

  2. template.yaml, lambda_function.py, requirements.txt 파일을 저장한 디렉터리에서 다음 명령을 실행합니다.

    sam build --use-container

    이 명령은 응용 프로그램의 빌드 아티팩트를 수집하여 배포에 적합한 형식과 위치에 배치합니다. --use-container 옵션을 지정하면 Lambda와 유사한 Docker 컨테이너 내에 함수를 빌드합니다. 여기서는 이 옵션을 사용하므로, 빌드가 작동하기 위해 로컬 컴퓨터에 Python 3.12가 설치되어 있지 않아도 됩니다.

    빌드 프로세스 중, AWS SAM(은)는 템플릿의 CodeUri 속성으로 지정한 위치에서 Lambda 함수 코드를 찾습니다. 이 경우에는 현재 디렉토리를 위치(./)로 지정했습니다.

    requirements.txt 파일이 있는 경우, AWS SAM(은)는 해당 파일을 사용하여 지정된 종속성을 수집합니다. AWS SAM(은)는 기본적으로 함수 코드 및 종속성이 포함된 .zip 배포 패키지 패키지를 생성합니다. PackageType 속성을 사용하여 함수를 컨테이너 이미지로 배포하도록 선택할 수도 있습니다.

  3. 애플리케이션을 배포하고 AWS SAM 템플릿에 지정된 Lambda 및 Amazon S3 리소스를 생성하려면 다음 명령을 실행합니다.

    sam deploy --guided

    --guided 플래그를 사용하면 배포 AWS SAM 프로세스를 안내하는 메시지가 표시됩니다. 이 배포의 경우 Enter를 눌러 기본 옵션을 수락합니다.

배포 프로세스 중에 AWS SAM은 다음 리소스를 AWS 계정 위치에 생성합니다.

  • AWS CloudFormation 스택의 이름은 sam-app입니다.

  • EncryptPDF 이름을 가진 Lambda 함수입니다.

  • template.yaml AWS SAM 템플릿 파일을 편집할 때 선택한 이름을 가진 S3 버킷 2개

  • sam-app-EncryptPDFFunctionRole-2qGaapHFWOQ8 이름 형식을 사용하는 함수의 IAM 실행 역할

AWS SAM(이)가 리소스 생성을 마치면 다음 메시지가 표시됩니다.

Successfully created/updated stack - sam-app in us-east-2

시작하기 전에 빌드 머신에 Docker최신 버전의 AWS SAMCLI가 설치되어 있는지 확인합니다.

  1. 프로젝트 디렉터리에서 다음 코드를 template.yaml이라는 새 파일에 붙여넣습니다. 자리 표시자 버킷 이름을 다음과 같이 바꿉니다.

    • 소스 버킷의 경우 amzn-s3-demo-bucketS3 버킷 이름 지정 규칙을 준수하는 이름으로 바꿉니다.

    • 대상 버킷의 경우 amzn-s3-demo-bucket-encrypted(을)를 <source-bucket-name>-encrypted(으)로 바꾸십시오. 여기서 <source-bucket>(은)는 원본 버킷으로 선택한 이름입니다.

    AWSTemplateFormatVersion: '2010-09-09' Transform: AWS::Serverless-2016-10-31 Resources: EncryptPDFFunction: Type: AWS::Serverless::Function Properties: FunctionName: EncryptPDF Architectures: [x86_64] CodeUri: ./ Handler: lambda_function.lambda_handler Runtime: python3.12 Timeout: 15 MemorySize: 256 LoggingConfig: LogFormat: JSON Policies: - AmazonS3FullAccess Events: S3Event: Type: S3 Properties: Bucket: !Ref PDFSourceBucket Events: s3:ObjectCreated:* PDFSourceBucket: Type: AWS::S3::Bucket Properties: BucketName: amzn-s3-demo-bucket EncryptedPDFBucket: Type: AWS::S3::Bucket Properties: BucketName: amzn-s3-demo-bucket-encrypted

    AWS SAM 템플릿은 앱용으로 만드는 리소스를 정의합니다. 이 예제에서 템플릿은 AWS::Serverless::Function 유형을 사용하여 Lambda 함수를 정의하고 AWS::S3::Bucket 유형을 사용하여 S3 버킷 두 개를 정의합니다. 템플릿에 지정된 버킷 이름은 플레이스홀더입니다. AWS SAM을 사용하여 앱을 배포하기 전에, 템플릿을 편집하여 S3 버킷 이름 지정 규칙을 충족하는 전역적으로 고유한 이름을 가진 버킷의 이름으로 변경해야 합니다. 이 단계에 대해서는 AWS SAM(을)를 사용하여 리소스 만들기에서 자세히 설명합니다.

    Lambda 함수 리소스의 정의는 S3Event 이벤트 속성을 사용하여 함수에 대한 트리거를 구성합니다. 이 트리거를 사용하면 소스 버킷에서 객체가 생성될 때마다 함수가 간접 호출됩니다.

    또한 함수 정의는 함수의 실행 역할에 연결할 AWS Identity and Access Management(IAM) 정책을 지정합니다. AWS관리형 정책AmazonS3FullAccess은 Amazon S3에 객체를 읽고 쓰는 데 필요한 권한을 함수에 제공합니다.

  2. template.yaml, lambda_function.py, requirements.txt 파일을 저장한 디렉터리에서 다음 명령을 실행합니다.

    sam build --use-container

    이 명령은 응용 프로그램의 빌드 아티팩트를 수집하여 배포에 적합한 형식과 위치에 배치합니다. --use-container 옵션을 지정하면 Lambda와 유사한 Docker 컨테이너 내에 함수를 빌드합니다. 여기서는 이 옵션을 사용하므로, 빌드가 작동하기 위해 로컬 컴퓨터에 Python 3.12가 설치되어 있지 않아도 됩니다.

    빌드 프로세스 중, AWS SAM(은)는 템플릿의 CodeUri 속성으로 지정한 위치에서 Lambda 함수 코드를 찾습니다. 이 경우에는 현재 디렉토리를 위치(./)로 지정했습니다.

    requirements.txt 파일이 있는 경우, AWS SAM(은)는 해당 파일을 사용하여 지정된 종속성을 수집합니다. AWS SAM(은)는 기본적으로 함수 코드 및 종속성이 포함된 .zip 배포 패키지 패키지를 생성합니다. PackageType 속성을 사용하여 함수를 컨테이너 이미지로 배포하도록 선택할 수도 있습니다.

  3. 애플리케이션을 배포하고 AWS SAM 템플릿에 지정된 Lambda 및 Amazon S3 리소스를 생성하려면 다음 명령을 실행합니다.

    sam deploy --guided

    --guided 플래그를 사용하면 배포 AWS SAM 프로세스를 안내하는 메시지가 표시됩니다. 이 배포의 경우 Enter를 눌러 기본 옵션을 수락합니다.

배포 프로세스 중에 AWS SAM은 다음 리소스를 AWS 계정 위치에 생성합니다.

  • AWS CloudFormation 스택의 이름은 sam-app입니다.

  • EncryptPDF 이름을 가진 Lambda 함수입니다.

  • template.yaml AWS SAM 템플릿 파일을 편집할 때 선택한 이름을 가진 S3 버킷 2개

  • sam-app-EncryptPDFFunctionRole-2qGaapHFWOQ8 이름 형식을 사용하는 함수의 IAM 실행 역할

AWS SAM(이)가 리소스 생성을 마치면 다음 메시지가 표시됩니다.

Successfully created/updated stack - sam-app in us-east-2

앱 테스트

앱을 테스트하려면 원본 버킷에 PDF 파일을 업로드하고 Lambda가 대상 버킷에 파일의 암호화된 버전을 생성하는지 확인합니다. 이 예시에서는 콘솔이 또는 AWS CLI(을)를 사용하거나 제공된 테스트 스크립트를 사용하여 수동으로 테스트할 수 있습니다.

프로덕션 애플리케이션의 경우 단위 테스트와 같은 기존 테스트 방법 및 기법을 사용하여 Lambda 함수 코드가 올바르게 작동하는지 확인할 수 있습니다. 또한 제공된 테스트 스크립트와 같은 테스트를 수행하여 실제 클라우드 기반 리소스와의 통합 테스트를 수행하는 것이 가장 좋습니다. 클라우드에서의 통합 테스트를 통해 인프라가 올바르게 배포되었으며 예상대로 서로 다른 서비스 간에 이벤트가 전달되는지 확인할 수 있습니다. 자세한 내용은 서버리스 함수 및 애플리케이션을 테스트하는 방법을 참조하십시오.

Amazon S3 소스 버킷에 PDF 파일을 추가하여 함수를 수동으로 테스트할 수 있습니다. 원본 버킷에 파일을 추가하면 Lambda 함수가 자동으로 간접 호출되고 대상 버킷에 파일의 암호화된 버전을 저장해야 합니다.

Console
파일을 업로드하여 앱 테스트하기(콘솔)
  1. S3 버킷에 PDF 파일을 업로드하려면 다음을 수행합니다.

    1. Amazon S3 콘솔의 버킷 페이지를 열고 원본 버킷을 선택합니다.

    2. 업로드를 선택합니다.

    3. 파일 추가를 선택하고 파일 선택기를 사용하여 업로드하려는 이미지 파일을 선택합니다.

    4. 열기를 선택한 후 업로드를 선택합니다.

  2. 다음을 수행하여 Lambda가 PDF 파일의 암호화된 버전을 대상 버킷에 저장했는지 확인합니다.

    1. Amazon S3 콘솔의 버킷 페이지로 돌아가서 대상 버킷을 선택합니다.

    2. 이제 객체 창에 이름 형식(filename_encrypted.pdf)(filename.pdf은 원본 버킷에 업로드한 파일 이름을 의미)의 파일이 표시됩니다. 암호화된 PDF를 다운로드하려면 파일을 선택한 다음 다운로드를 선택합니다.

    3. Lambda 함수가 (my-secret-password)(으)로 보호한 암호를 사용하여 다운로드한 파일을 열 수 있는지 확인합니다.

AWS CLI
파일을 업로드하여 앱 테스트하기(AWS CLI)
  1. 업로드하려는 PDF 파일이 포함된 디렉터리에서 다음 CLI 명령을 실행합니다. --bucket 파라미터를 원본 버킷의 이름으로 바꿉니다. --key--body 파라미터에는 테스트 파일 이름을 사용합니다.

    aws s3api put-object --bucket amzn-s3-demo-bucket --key test.pdf --body ./test.pdf
  2. 함수가 파일의 암호화된 버전을 생성하여 대상 S3 버킷에 저장했는지 확인합니다. 다음 CLI 명령을 실행하여 amzn-s3-demo-bucket-encrypted를 대상 버킷 이름으로 바꿉니다.

    aws s3api list-objects-v2 --bucket amzn-s3-demo-bucket-encrypted

    함수가 성공적으로 실행되면 다음과 유사한 출력이 표시됩니다. 대상 버킷에는 <your_test_file>_encrypted.pdf 이름 형식의 파일이 포함되어야 합니다. 여기서 <your_test_file>(은)는 업로드한 파일 이름입니다.

    { "Contents": [ { "Key": "test_encrypted.pdf", "LastModified": "2023-06-07T00:15:50+00:00", "ETag": "\"7781a43e765a8301713f533d70968a1e\"", "Size": 2763, "StorageClass": "STANDARD" } ] }
  3. Lambda가 대상 버킷에 저장한 파일을 다운로드하려면 다음 CLI 명령을 실행합니다. --bucket 파라미터를 대상 버킷의 이름으로 바꿉니다. --key 파라미터에는 <your_test_file>_encrypted.pdf 파일 이름을 사용합니다. 여기서 <your_test_file>(은)는 업로드한 테스트 파일의 이름입니다.

    aws s3api get-object --bucket amzn-s3-demo-bucket-encrypted --key test_encrypted.pdf my_encrypted_file.pdf

    이 명령은 파일을 현재 디렉터리에 다운로드하고 my_encrypted_file.pdf(으)로 저장합니다.

  4. Lambda 함수가 (my-secret-password)(으)로 보호한 암호를 사용하여 다운로드한 파일을 열 수 있는지 확인합니다.

Amazon S3 소스 버킷에 PDF 파일을 추가하여 함수를 수동으로 테스트할 수 있습니다. 원본 버킷에 파일을 추가하면 Lambda 함수가 자동으로 간접 호출되고 대상 버킷에 파일의 암호화된 버전을 저장해야 합니다.

Console
파일을 업로드하여 앱 테스트하기(콘솔)
  1. S3 버킷에 PDF 파일을 업로드하려면 다음을 수행합니다.

    1. Amazon S3 콘솔의 버킷 페이지를 열고 원본 버킷을 선택합니다.

    2. 업로드를 선택합니다.

    3. 파일 추가를 선택하고 파일 선택기를 사용하여 업로드하려는 이미지 파일을 선택합니다.

    4. 열기를 선택한 후 업로드를 선택합니다.

  2. 다음을 수행하여 Lambda가 PDF 파일의 암호화된 버전을 대상 버킷에 저장했는지 확인합니다.

    1. Amazon S3 콘솔의 버킷 페이지로 돌아가서 대상 버킷을 선택합니다.

    2. 이제 객체 창에 이름 형식(filename_encrypted.pdf)(filename.pdf은 원본 버킷에 업로드한 파일 이름을 의미)의 파일이 표시됩니다. 암호화된 PDF를 다운로드하려면 파일을 선택한 다음 다운로드를 선택합니다.

    3. Lambda 함수가 (my-secret-password)(으)로 보호한 암호를 사용하여 다운로드한 파일을 열 수 있는지 확인합니다.

AWS CLI
파일을 업로드하여 앱 테스트하기(AWS CLI)
  1. 업로드하려는 PDF 파일이 포함된 디렉터리에서 다음 CLI 명령을 실행합니다. --bucket 파라미터를 원본 버킷의 이름으로 바꿉니다. --key--body 파라미터에는 테스트 파일 이름을 사용합니다.

    aws s3api put-object --bucket amzn-s3-demo-bucket --key test.pdf --body ./test.pdf
  2. 함수가 파일의 암호화된 버전을 생성하여 대상 S3 버킷에 저장했는지 확인합니다. 다음 CLI 명령을 실행하여 amzn-s3-demo-bucket-encrypted를 대상 버킷 이름으로 바꿉니다.

    aws s3api list-objects-v2 --bucket amzn-s3-demo-bucket-encrypted

    함수가 성공적으로 실행되면 다음과 유사한 출력이 표시됩니다. 대상 버킷에는 <your_test_file>_encrypted.pdf 이름 형식의 파일이 포함되어야 합니다. 여기서 <your_test_file>(은)는 업로드한 파일 이름입니다.

    { "Contents": [ { "Key": "test_encrypted.pdf", "LastModified": "2023-06-07T00:15:50+00:00", "ETag": "\"7781a43e765a8301713f533d70968a1e\"", "Size": 2763, "StorageClass": "STANDARD" } ] }
  3. Lambda가 대상 버킷에 저장한 파일을 다운로드하려면 다음 CLI 명령을 실행합니다. --bucket 파라미터를 대상 버킷의 이름으로 바꿉니다. --key 파라미터에는 <your_test_file>_encrypted.pdf 파일 이름을 사용합니다. 여기서 <your_test_file>(은)는 업로드한 테스트 파일의 이름입니다.

    aws s3api get-object --bucket amzn-s3-demo-bucket-encrypted --key test_encrypted.pdf my_encrypted_file.pdf

    이 명령은 파일을 현재 디렉터리에 다운로드하고 my_encrypted_file.pdf(으)로 저장합니다.

  4. Lambda 함수가 (my-secret-password)(으)로 보호한 암호를 사용하여 다운로드한 파일을 열 수 있는지 확인합니다.

파일을 업로드하여 앱 테스트하기(콘솔)
  1. S3 버킷에 PDF 파일을 업로드하려면 다음을 수행합니다.

    1. Amazon S3 콘솔의 버킷 페이지를 열고 원본 버킷을 선택합니다.

    2. 업로드를 선택합니다.

    3. 파일 추가를 선택하고 파일 선택기를 사용하여 업로드하려는 이미지 파일을 선택합니다.

    4. 열기를 선택한 후 업로드를 선택합니다.

  2. 다음을 수행하여 Lambda가 PDF 파일의 암호화된 버전을 대상 버킷에 저장했는지 확인합니다.

    1. Amazon S3 콘솔의 버킷 페이지로 돌아가서 대상 버킷을 선택합니다.

    2. 이제 객체 창에 이름 형식(filename_encrypted.pdf)(filename.pdf은 원본 버킷에 업로드한 파일 이름을 의미)의 파일이 표시됩니다. 암호화된 PDF를 다운로드하려면 파일을 선택한 다음 다운로드를 선택합니다.

    3. Lambda 함수가 (my-secret-password)(으)로 보호한 암호를 사용하여 다운로드한 파일을 열 수 있는지 확인합니다.

프로젝트 디렉터리에 다음 파일을 생성합니다.

  • test_pdf_encrypt.py - 애플리케이션을 자동으로 테스트하는 데 사용할 수 있는 테스트 스크립트

  • pytest.ini - 테스트 스크립트의 구성 파일

다음 섹션을 확장하여 코드를 확인하고 각 파일의 역할에 대해 자세히 알아보세요.

다음 코드를 복사하여 새로운 test_pdf_encrypt.py 파일에 붙여 넣습니다. 자리 표시자 버킷 이름을 바꾸어야 합니다.

  • test_source_bucket_available 함수에서 amzn-s3-demo-bucket의 값을 원본 버킷의 이름으로 바꿉니다.

  • test_encrypted_file_in_bucket 함수에서 amzn-s3-demo-bucket-encrypted의 값을 source-bucket-encrypted으로 바꿉니다. 여기서 source-bucket>(은)는 원본 버킷의 이름입니다.

  • cleanup 함수에서 amzn-s3-demo-bucket을 소스 버킷의 이름으로 바꾸고, amzn-s3-demo-bucket-encrypted를 대상 버킷의 이름으로 바꿉니다.

import boto3 import json import pytest import time import os @pytest.fixture def lambda_client(): return boto3.client('lambda') @pytest.fixture def s3_client(): return boto3.client('s3') @pytest.fixture def logs_client(): return boto3.client('logs') @pytest.fixture(scope='session') def cleanup(): # Create a new S3 client for cleanup s3_client = boto3.client('s3') yield # Cleanup code will be executed after all tests have finished # Delete test.pdf from the source bucket source_bucket = 'amzn-s3-demo-bucket' source_file_key = 'test.pdf' s3_client.delete_object(Bucket=source_bucket, Key=source_file_key) print(f"\nDeleted {source_file_key} from {source_bucket}") # Delete test_encrypted.pdf from the destination bucket destination_bucket = 'amzn-s3-demo-bucket-encrypted' destination_file_key = 'test_encrypted.pdf' s3_client.delete_object(Bucket=destination_bucket, Key=destination_file_key) print(f"Deleted {destination_file_key} from {destination_bucket}") @pytest.mark.order(1) def test_source_bucket_available(s3_client): s3_bucket_name = 'amzn-s3-demo-bucket' file_name = 'test.pdf' file_path = os.path.join(os.path.dirname(__file__), file_name) file_uploaded = False try: s3_client.upload_file(file_path, s3_bucket_name, file_name) file_uploaded = True except: print("Error: couldn't upload file") assert file_uploaded, "Could not upload file to S3 bucket" @pytest.mark.order(2) def test_lambda_invoked(logs_client): # Wait for a few seconds to make sure the logs are available time.sleep(5) # Get the latest log stream for the specified log group log_streams = logs_client.describe_log_streams( logGroupName='/aws/lambda/EncryptPDF', orderBy='LastEventTime', descending=True, limit=1 ) latest_log_stream_name = log_streams['logStreams'][0]['logStreamName'] # Retrieve the log events from the latest log stream log_events = logs_client.get_log_events( logGroupName='/aws/lambda/EncryptPDF', logStreamName=latest_log_stream_name ) success_found = False for event in log_events['events']: message = json.loads(event['message']) status = message.get('record', {}).get('status') if status == 'success': success_found = True break assert success_found, "Lambda function execution did not report 'success' status in logs." @pytest.mark.order(3) def test_encrypted_file_in_bucket(s3_client): # Specify the destination S3 bucket and the expected converted file key destination_bucket = 'amzn-s3-demo-bucket-encrypted' converted_file_key = 'test_encrypted.pdf' try: # Attempt to retrieve the metadata of the converted file from the destination S3 bucket s3_client.head_object(Bucket=destination_bucket, Key=converted_file_key) except s3_client.exceptions.ClientError as e: # If the file is not found, the test will fail pytest.fail(f"Converted file '{converted_file_key}' not found in the destination bucket: {str(e)}") def test_cleanup(cleanup): # This test uses the cleanup fixture and will be executed last pass

자동화된 테스트 스크립트는 세 가지 테스트 함수를 실행하여 앱이 올바르게 작동하는지 확인합니다.

  • 테스트(test_source_bucket_available)에서는 테스트 PDF 파일을 버킷에 업로드하여 원본 버킷이 성공적으로 생성되었는지 확인합니다.

  • 테스트(test_lambda_invoked)에서는 함수에 대한 최신 CloudWatch Logs 로그 스트림을 조사하여 테스트 파일을 업로드했을 때 Lambda 함수가 실행되고 성공을 보고했는지 확인합니다.

  • 테스트(test_encrypted_file_in_bucket)는 대상 버킷에 암호화된 test_encrypted.pdf 파일이 들어 있는지 확인합니다.

이러한 모든 테스트가 실행된 후 스크립트는 추가 정리 단계를 실행하여 원본 및 대상 버킷 모두에서 test.pdftest_encrypted.pdf 파일을 삭제합니다.

AWS SAM 템플릿과 마찬가지로 지정된 버킷 이름은 플레이스홀더입니다. 테스트를 실행하기 전에 앱의 실제 버킷 이름을 사용하여 이 파일을 편집해야 합니다. 이 단계에 대해서는 자동 스크립트로 앱을 테스트하기에서 자세히 설명합니다.

다음 코드를 복사하여 새로운 pytest.ini 파일에 붙여 넣습니다.

[pytest] markers = order: specify test execution order

이는 test_pdf_encrypt.py 스크립트의 테스트 실행 순서를 지정하는 데 필요합니다.

테스트를 실행하려면 다음을 수행합니다.

  1. pytest 모듈이 로컬 환경에 설치되어 있는지 확인합니다. 다음 명령을 실행하여 pytest(을)를 설치합니다.

    pip install pytest
  2. test_pdf_encrypt.pypytest.ini 파일이 들어 있는 디렉터리에 test.pdf라는 이름이 지정된 PDF 파일을 저장합니다.

  3. 터미널 또는 쉘 프로그램을 열고 테스트 파일이 포함된 디렉터리에서 다음 명령을 실행합니다.

    pytest -s -v

    테스트가 완료되면 다음이 출력됩니다.

    ============================================================== test session starts ========================================================= platform linux -- Python 3.12.2, pytest-7.2.2, pluggy-1.0.0 -- /usr/bin/python3 cachedir: .pytest_cache hypothesis profile 'default' -> database=DirectoryBasedExampleDatabase('/home/pdf_encrypt_app/.hypothesis/examples') Test order randomisation NOT enabled. Enable with --random-order or --random-order-bucket=<bucket_type> rootdir: /home/pdf_encrypt_app, configfile: pytest.ini plugins: anyio-3.7.1, hypothesis-6.70.0, localserver-0.7.1, random-order-1.1.0 collected 4 items test_pdf_encrypt.py::test_source_bucket_available PASSED test_pdf_encrypt.py::test_lambda_invoked PASSED test_pdf_encrypt.py::test_encrypted_file_in_bucket PASSED test_pdf_encrypt.py::test_cleanup PASSED Deleted test.pdf from amzn-s3-demo-bucket Deleted test_encrypted.pdf from amzn-s3-demo-bucket-encrypted =============================================================== 4 passed in 7.32s ==========================================================

프로젝트 디렉터리에 다음 파일을 생성합니다.

  • test_pdf_encrypt.py - 애플리케이션을 자동으로 테스트하는 데 사용할 수 있는 테스트 스크립트

  • pytest.ini - 테스트 스크립트의 구성 파일

다음 섹션을 확장하여 코드를 확인하고 각 파일의 역할에 대해 자세히 알아보세요.

다음 코드를 복사하여 새로운 test_pdf_encrypt.py 파일에 붙여 넣습니다. 자리 표시자 버킷 이름을 바꾸어야 합니다.

  • test_source_bucket_available 함수에서 amzn-s3-demo-bucket의 값을 원본 버킷의 이름으로 바꿉니다.

  • test_encrypted_file_in_bucket 함수에서 amzn-s3-demo-bucket-encrypted의 값을 source-bucket-encrypted으로 바꿉니다. 여기서 source-bucket>(은)는 원본 버킷의 이름입니다.

  • cleanup 함수에서 amzn-s3-demo-bucket을 소스 버킷의 이름으로 바꾸고, amzn-s3-demo-bucket-encrypted를 대상 버킷의 이름으로 바꿉니다.

import boto3 import json import pytest import time import os @pytest.fixture def lambda_client(): return boto3.client('lambda') @pytest.fixture def s3_client(): return boto3.client('s3') @pytest.fixture def logs_client(): return boto3.client('logs') @pytest.fixture(scope='session') def cleanup(): # Create a new S3 client for cleanup s3_client = boto3.client('s3') yield # Cleanup code will be executed after all tests have finished # Delete test.pdf from the source bucket source_bucket = 'amzn-s3-demo-bucket' source_file_key = 'test.pdf' s3_client.delete_object(Bucket=source_bucket, Key=source_file_key) print(f"\nDeleted {source_file_key} from {source_bucket}") # Delete test_encrypted.pdf from the destination bucket destination_bucket = 'amzn-s3-demo-bucket-encrypted' destination_file_key = 'test_encrypted.pdf' s3_client.delete_object(Bucket=destination_bucket, Key=destination_file_key) print(f"Deleted {destination_file_key} from {destination_bucket}") @pytest.mark.order(1) def test_source_bucket_available(s3_client): s3_bucket_name = 'amzn-s3-demo-bucket' file_name = 'test.pdf' file_path = os.path.join(os.path.dirname(__file__), file_name) file_uploaded = False try: s3_client.upload_file(file_path, s3_bucket_name, file_name) file_uploaded = True except: print("Error: couldn't upload file") assert file_uploaded, "Could not upload file to S3 bucket" @pytest.mark.order(2) def test_lambda_invoked(logs_client): # Wait for a few seconds to make sure the logs are available time.sleep(5) # Get the latest log stream for the specified log group log_streams = logs_client.describe_log_streams( logGroupName='/aws/lambda/EncryptPDF', orderBy='LastEventTime', descending=True, limit=1 ) latest_log_stream_name = log_streams['logStreams'][0]['logStreamName'] # Retrieve the log events from the latest log stream log_events = logs_client.get_log_events( logGroupName='/aws/lambda/EncryptPDF', logStreamName=latest_log_stream_name ) success_found = False for event in log_events['events']: message = json.loads(event['message']) status = message.get('record', {}).get('status') if status == 'success': success_found = True break assert success_found, "Lambda function execution did not report 'success' status in logs." @pytest.mark.order(3) def test_encrypted_file_in_bucket(s3_client): # Specify the destination S3 bucket and the expected converted file key destination_bucket = 'amzn-s3-demo-bucket-encrypted' converted_file_key = 'test_encrypted.pdf' try: # Attempt to retrieve the metadata of the converted file from the destination S3 bucket s3_client.head_object(Bucket=destination_bucket, Key=converted_file_key) except s3_client.exceptions.ClientError as e: # If the file is not found, the test will fail pytest.fail(f"Converted file '{converted_file_key}' not found in the destination bucket: {str(e)}") def test_cleanup(cleanup): # This test uses the cleanup fixture and will be executed last pass

자동화된 테스트 스크립트는 세 가지 테스트 함수를 실행하여 앱이 올바르게 작동하는지 확인합니다.

  • 테스트(test_source_bucket_available)에서는 테스트 PDF 파일을 버킷에 업로드하여 원본 버킷이 성공적으로 생성되었는지 확인합니다.

  • 테스트(test_lambda_invoked)에서는 함수에 대한 최신 CloudWatch Logs 로그 스트림을 조사하여 테스트 파일을 업로드했을 때 Lambda 함수가 실행되고 성공을 보고했는지 확인합니다.

  • 테스트(test_encrypted_file_in_bucket)는 대상 버킷에 암호화된 test_encrypted.pdf 파일이 들어 있는지 확인합니다.

이러한 모든 테스트가 실행된 후 스크립트는 추가 정리 단계를 실행하여 원본 및 대상 버킷 모두에서 test.pdftest_encrypted.pdf 파일을 삭제합니다.

AWS SAM 템플릿과 마찬가지로 지정된 버킷 이름은 플레이스홀더입니다. 테스트를 실행하기 전에 앱의 실제 버킷 이름을 사용하여 이 파일을 편집해야 합니다. 이 단계에 대해서는 자동 스크립트로 앱을 테스트하기에서 자세히 설명합니다.

다음 코드를 복사하여 새로운 test_pdf_encrypt.py 파일에 붙여 넣습니다. 자리 표시자 버킷 이름을 바꾸어야 합니다.

  • test_source_bucket_available 함수에서 amzn-s3-demo-bucket의 값을 원본 버킷의 이름으로 바꿉니다.

  • test_encrypted_file_in_bucket 함수에서 amzn-s3-demo-bucket-encrypted의 값을 source-bucket-encrypted으로 바꿉니다. 여기서 source-bucket>(은)는 원본 버킷의 이름입니다.

  • cleanup 함수에서 amzn-s3-demo-bucket을 소스 버킷의 이름으로 바꾸고, amzn-s3-demo-bucket-encrypted를 대상 버킷의 이름으로 바꿉니다.

import boto3 import json import pytest import time import os @pytest.fixture def lambda_client(): return boto3.client('lambda') @pytest.fixture def s3_client(): return boto3.client('s3') @pytest.fixture def logs_client(): return boto3.client('logs') @pytest.fixture(scope='session') def cleanup(): # Create a new S3 client for cleanup s3_client = boto3.client('s3') yield # Cleanup code will be executed after all tests have finished # Delete test.pdf from the source bucket source_bucket = 'amzn-s3-demo-bucket' source_file_key = 'test.pdf' s3_client.delete_object(Bucket=source_bucket, Key=source_file_key) print(f"\nDeleted {source_file_key} from {source_bucket}") # Delete test_encrypted.pdf from the destination bucket destination_bucket = 'amzn-s3-demo-bucket-encrypted' destination_file_key = 'test_encrypted.pdf' s3_client.delete_object(Bucket=destination_bucket, Key=destination_file_key) print(f"Deleted {destination_file_key} from {destination_bucket}") @pytest.mark.order(1) def test_source_bucket_available(s3_client): s3_bucket_name = 'amzn-s3-demo-bucket' file_name = 'test.pdf' file_path = os.path.join(os.path.dirname(__file__), file_name) file_uploaded = False try: s3_client.upload_file(file_path, s3_bucket_name, file_name) file_uploaded = True except: print("Error: couldn't upload file") assert file_uploaded, "Could not upload file to S3 bucket" @pytest.mark.order(2) def test_lambda_invoked(logs_client): # Wait for a few seconds to make sure the logs are available time.sleep(5) # Get the latest log stream for the specified log group log_streams = logs_client.describe_log_streams( logGroupName='/aws/lambda/EncryptPDF', orderBy='LastEventTime', descending=True, limit=1 ) latest_log_stream_name = log_streams['logStreams'][0]['logStreamName'] # Retrieve the log events from the latest log stream log_events = logs_client.get_log_events( logGroupName='/aws/lambda/EncryptPDF', logStreamName=latest_log_stream_name ) success_found = False for event in log_events['events']: message = json.loads(event['message']) status = message.get('record', {}).get('status') if status == 'success': success_found = True break assert success_found, "Lambda function execution did not report 'success' status in logs." @pytest.mark.order(3) def test_encrypted_file_in_bucket(s3_client): # Specify the destination S3 bucket and the expected converted file key destination_bucket = 'amzn-s3-demo-bucket-encrypted' converted_file_key = 'test_encrypted.pdf' try: # Attempt to retrieve the metadata of the converted file from the destination S3 bucket s3_client.head_object(Bucket=destination_bucket, Key=converted_file_key) except s3_client.exceptions.ClientError as e: # If the file is not found, the test will fail pytest.fail(f"Converted file '{converted_file_key}' not found in the destination bucket: {str(e)}") def test_cleanup(cleanup): # This test uses the cleanup fixture and will be executed last pass

자동화된 테스트 스크립트는 세 가지 테스트 함수를 실행하여 앱이 올바르게 작동하는지 확인합니다.

  • 테스트(test_source_bucket_available)에서는 테스트 PDF 파일을 버킷에 업로드하여 원본 버킷이 성공적으로 생성되었는지 확인합니다.

  • 테스트(test_lambda_invoked)에서는 함수에 대한 최신 CloudWatch Logs 로그 스트림을 조사하여 테스트 파일을 업로드했을 때 Lambda 함수가 실행되고 성공을 보고했는지 확인합니다.

  • 테스트(test_encrypted_file_in_bucket)는 대상 버킷에 암호화된 test_encrypted.pdf 파일이 들어 있는지 확인합니다.

이러한 모든 테스트가 실행된 후 스크립트는 추가 정리 단계를 실행하여 원본 및 대상 버킷 모두에서 test.pdftest_encrypted.pdf 파일을 삭제합니다.

AWS SAM 템플릿과 마찬가지로 지정된 버킷 이름은 플레이스홀더입니다. 테스트를 실행하기 전에 앱의 실제 버킷 이름을 사용하여 이 파일을 편집해야 합니다. 이 단계에 대해서는 자동 스크립트로 앱을 테스트하기에서 자세히 설명합니다.

다음 코드를 복사하여 새로운 pytest.ini 파일에 붙여 넣습니다.

[pytest] markers = order: specify test execution order

이는 test_pdf_encrypt.py 스크립트의 테스트 실행 순서를 지정하는 데 필요합니다.

다음 코드를 복사하여 새로운 pytest.ini 파일에 붙여 넣습니다.

[pytest] markers = order: specify test execution order

이는 test_pdf_encrypt.py 스크립트의 테스트 실행 순서를 지정하는 데 필요합니다.

테스트를 실행하려면 다음을 수행합니다.

  1. pytest 모듈이 로컬 환경에 설치되어 있는지 확인합니다. 다음 명령을 실행하여 pytest(을)를 설치합니다.

    pip install pytest
  2. test_pdf_encrypt.pypytest.ini 파일이 들어 있는 디렉터리에 test.pdf라는 이름이 지정된 PDF 파일을 저장합니다.

  3. 터미널 또는 쉘 프로그램을 열고 테스트 파일이 포함된 디렉터리에서 다음 명령을 실행합니다.

    pytest -s -v

    테스트가 완료되면 다음이 출력됩니다.

    ============================================================== test session starts ========================================================= platform linux -- Python 3.12.2, pytest-7.2.2, pluggy-1.0.0 -- /usr/bin/python3 cachedir: .pytest_cache hypothesis profile 'default' -> database=DirectoryBasedExampleDatabase('/home/pdf_encrypt_app/.hypothesis/examples') Test order randomisation NOT enabled. Enable with --random-order or --random-order-bucket=<bucket_type> rootdir: /home/pdf_encrypt_app, configfile: pytest.ini plugins: anyio-3.7.1, hypothesis-6.70.0, localserver-0.7.1, random-order-1.1.0 collected 4 items test_pdf_encrypt.py::test_source_bucket_available PASSED test_pdf_encrypt.py::test_lambda_invoked PASSED test_pdf_encrypt.py::test_encrypted_file_in_bucket PASSED test_pdf_encrypt.py::test_cleanup PASSED Deleted test.pdf from amzn-s3-demo-bucket Deleted test_encrypted.pdf from amzn-s3-demo-bucket-encrypted =============================================================== 4 passed in 7.32s ==========================================================

다음 단계

이제 이 예제 앱을 만들었 봤으니, 제공된 코드를 기반으로 다른 유형의 파일 처리 응용 프로그램을 만들 수 있습니다. lambda_function.py 파일의 코드를 수정하여 사용 사례에 맞는 파일 처리 로직을 구현하십시오.

대부분의 일반적인 파일 처리 사용 사례는 이미지 처리를 포함됩니다. Python을 사용할 때 필로우와 같은 가장 널리 사용되는 이미지 처리 라이브러리에는 일반적으로 C 또는 C++ 구성 요소가 포함됩니다. 함수의 배포 패키지가 Lambda 실행 환경과 호환되도록 하려면 올바른 소스 배포 바이너리를 사용하는 것이 중요합니다.

AWS SAM(으)로 리소스를 배포할 때는 배포 패키지에 올바른 소스 배포를 포함하기 위해 몇 가지 추가 단계를 거쳐야 합니다. AWS SAM(은)는 빌드 머신과 다른 플랫폼에 대한 종속성을 설치하지 않으므로 빌드 머신이 Lambda 실행 환경과 다른 운영 체제 또는 아키텍처를 사용하는 경우 requirements.txt 파일에 올바른 소스 배포(.whl파일)를 지정해도 작동하지 않습니다. 대신 다음 중 하나를 수행하십시오.

  • sam build(을)를 실행 시 --use-container 옵션을 사용하십시오. 이 옵션을 지정하면 AWS SAM(은)는 Lambda 실행 환경과 호환되는 컨테이너 기본 이미지를 다운로드하고 해당 이미지를 사용하여 Docker 컨테이너에 함수의 배포 패키지를 빌드합니다. 자세한 내용은 제공된 컨테이너 내에 Lambda 함수 빌드하기를 확인하십시오.

  • 올바른 소스 배포 바이너리를 사용하여 함수의 .zip 배포 패키지를 직접 빌드하고 AWS SAM 템플릿에서 CodeUri(으)로 지정한 디렉터리에 .zip 파일을 저장합니다. 바이너리 배포를 사용하여 Python용 .zip 배포 패키지를 빌드하는 방법에 대한 자세한 내용은 종속 항목이 있는 .zip 배포 패키지 생성네이티브 라이브러리로 .zip 배포 패키지 생성(을)를 참조하십시오.

이 페이지에서

프라이버시사이트 이용 약관쿠키 기본 설정
© 2025, Amazon Web Services, Inc. 또는 계열사. All rights reserved.