쿠키 기본 설정 선택

당사는 사이트와 서비스를 제공하는 데 필요한 필수 쿠키 및 유사한 도구를 사용합니다. 고객이 사이트를 어떻게 사용하는지 파악하고 개선할 수 있도록 성능 쿠키를 사용해 익명의 통계를 수집합니다. 필수 쿠키는 비활성화할 수 없지만 '사용자 지정' 또는 ‘거부’를 클릭하여 성능 쿠키를 거부할 수 있습니다.

사용자가 동의하는 경우 AWS와 승인된 제3자도 쿠키를 사용하여 유용한 사이트 기능을 제공하고, 사용자의 기본 설정을 기억하고, 관련 광고를 비롯한 관련 콘텐츠를 표시합니다. 필수가 아닌 모든 쿠키를 수락하거나 거부하려면 ‘수락’ 또는 ‘거부’를 클릭하세요. 더 자세한 내용을 선택하려면 ‘사용자 정의’를 클릭하세요.

SageMaker Canvas의 생성형 AI 파운데이션 모델

포커스 모드
SageMaker Canvas의 생성형 AI 파운데이션 모델 - Amazon SageMaker AI

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

Amazon SageMaker Canvas는 대화형 채팅을 시작하는 데 사용할 수 있는 생성형 AI 기반 모델을 제공합니다. 이러한 콘텐츠 생성 모델은 대량의 텍스트 데이터를 기반으로 훈련되어 단어 간의 통계적 패턴과 관계를 학습하고, 훈련된 텍스트와 통계적으로 유사한 일관성 있는 텍스트를 생성할 수 있습니다. 이 기능을 사용하여 다음을 수행하여 생산성을 높일 수 있습니다.

  • 문서 개요, 보고서 및 블로그와 같은 콘텐츠 생성

  • 수익 보고 기록, 연간 보고서, 사용자 설명서 장과 같은 방대한 양의 텍스트 요약

  • 회의 노트나 내러티브와 같은 대량의 텍스트 구절에서 통찰력과 주요 요점 추출

  • 텍스트를 개선하고 문법 오류나 오타 확인

파운데이션 모델은 Amazon SageMaker JumpStart 및 Amazon Bedrock LLM(대규모 언어 모델)의 조합입니다. Canvas는 다음 모델을 제공합니다.

모델 유형 설명

Amazon Titan

Amazon Bedrock 모델

Amazon Titan은 요약, 텍스트 생성(예: 블로그 게시물 생성), 분류, 개방형 Q&A, 정보 추출 등의 작업에 사용할 수 있는 강력한 범용 언어 모델입니다. 이는 대규모 데이터세트에서 사전 훈련되므로 복잡한 작업과 추론에 적합합니다. 책임감 있는 AI 사용에 대한 모범 사례를 지속적으로 지원하기 위해 Amazon Titan 파운데이션 모델은 데이터에서 유해한 콘텐츠를 감지 및 제거하고, 사용자 입력에서 부적절한 콘텐츠를 거부하고, 부적절한 콘텐츠(예: 혐오 표현, 비속어, 폭력)가 포함된 모델 출력을 필터링하도록 빌드되었습니다.

Anthropic Claude Instant

Amazon Bedrock 모델

Anthropic의 Claude Instant는 더 빠르고 비용 효율적이면서도 여전히 뛰어난 성능을 발휘하는 모델입니다. 이 모델은 간단한 대화, 텍스트 분석, 요약, 문서 질문 답변 등 다양한 작업을 처리할 수 있습니다. Claude-2와 마찬가지로 Claude Instant는 각 프롬프트에서 최대 100,000개의 토큰을 지원할 수 있으며, 이는 약 200페이지의 정보에 해당합니다.

Anthropic Claude-2

Amazon Bedrock 모델

Claude-2는 Anthropic의 가장 강력한 모델로, 정교한 대화와 창의적인 콘텐츠 생성부터 자세한 지침 준수에 이르기까지 광범위한 작업에 탁월합니다. Claude-2는 각 프롬프트에서 최대 100,000개의 토큰을 사용할 수 있으며, 이는 약 200페이지의 정보에 해당합니다. 이는 이전 버전에 비해 더 긴 응답을 생성할 수 있습니다. 질문 답변, 정보 추출, PII 제거, 콘텐츠 생성, 객관식 분류, 역할극, 텍스트 비교, 요약, 인용과 문서 Q&A 등의 사용 사례를 지원합니다.

Falcon-7B-Instruct

JumpStart 모델

Falcon-7B-Instruct에는 70억 개의 파라미터가 있으며 채팅 및 명령 데이터세트를 혼합하여 세밀하게 조정되었습니다. 이는 가상 어시스턴트로 적합하며 지시를 따르거나 대화에 참여할 때 최고의 성능을 발휘합니다. 이 모델은 대량의 영어 웹 데이터를 기반으로 훈련되었으므로 온라인에서 흔히 볼 수 있는 고정관념과 편견을 지니고 있으며 영어 이외의 언어에는 적합하지 않습니다. Falcon-40B-Instruct와 비교하여 Falcon-7B-Instruct는 약간 더 작고 컴팩트한 모델입니다.

Falcon-40B-Instruct

JumpStart 모델

Falcon-40B-Instruct는 400억 개의 파라미터를 가지고 있으며 채팅 및 명령 데이터세트를 혼합하여 세밀하게 조정되었습니다. 이는 가상 어시스턴트로 적합하며 지시를 따르거나 대화에 참여할 때 최고의 성능을 발휘합니다. 이 모델은 대량의 영어 웹 데이터를 기반으로 훈련되었으므로 온라인에서 흔히 볼 수 있는 고정관념과 편견을 지니고 있으며 영어 이외의 언어에는 적합하지 않습니다. Falcon-7B-Instruct와 비교하여 Falcon-40B-Instruct는 조금 더 크고 강력한 모델입니다.

Jurassic-2 Mid

Amazon Bedrock 모델

Jurassic-2 Mid는 대규모 텍스트 코퍼스를 기반으로 훈련된 고성능 텍스트 생성 모델입니다(현재 2022년 중반까지). 이는 매우 다재다능하고 범용적이며 사람처럼 텍스트를 구성하고 질문 응답, 텍스트 분류 등과 같은 복잡한 작업을 해결할 수 있습니다. 이 모델은 제로샷 명령 기능을 제공하므로 예제를 사용하지 않고 자연어만 사용하여 지시할 수 있습니다. 이전 모델인 Jurassic-1 모델보다 최대 30% 더 빠르게 작동합니다.

Jurassic-2 Mid는 AI21의 중형 모델로, 뛰어난 품질과 경제성 사이에서 적절한 균형을 이루도록 세심하게 설계되었습니다.

Jurassic-2 Ultra

Amazon Bedrock 모델

Jurassic-2 Ultra는 대규모 텍스트 코퍼스를 기반으로 훈련된 고성능 텍스트 생성 모델입니다(현재 2022년 중반까지). 이는 매우 다재다능하고 범용적이며 사람처럼 텍스트를 구성하고 질문 응답, 텍스트 분류 등과 같은 복잡한 작업을 해결할 수 있습니다. 이 모델은 제로샷 명령 기능을 제공하므로 예제를 사용하지 않고 자연어만 사용하여 지시할 수 있습니다. 이전 모델인 Jurassic-1 모델보다 최대 30% 더 빠르게 작동합니다.

Jurassic-2 Mid에 비해 Jurassic-2 Ultra는 약간 더 크고 강력한 모델입니다.

Llama-2-7b-Chat

JumpStart 모델

Llama-2-7b-Chat은 의미 있고 논리 정연한 대화에 참여하고, 새 콘텐츠를 생성하고, 기존 노트에서 답변을 추출하는 데 적합한 Meta의 파운데이션 모델입니다. 이 모델은 영어로 된 대량의 인터넷 데이터를 기반으로 훈련되었으므로 온라인에서 흔히 볼 수 있는 고정관념과 편견을 지니고 있으며 영어를 사용하는 작업에 가장 적합합니다.

Llama-2-13B-Chat

Amazon Bedrock 모델

Meta의 Llama-2-13B-Chat은 인터넷 데이터에 대한 초기 훈련 후 대화형 데이터에 대해 미세 조정되었습니다. 자연스러운 대화와 참여도 높은 채팅 기능에 최적화되어 대화 에이전트로 적합합니다. 더 작은 Llama-2-7b-Chat과 비교할 때 Llama-2-13B-Chat은 파라미터가 거의 두 배로 많아 컨텍스트를 더 많이 기억하고 뉘앙스가 있는 대화 응답을 더 많이 생성할 수 있습니다. Llama-2-7b-Chat과 마찬가지로 Llama-2-13B-Chat은 영어 데이터에 대해 훈련되었으며 영어를 사용하는 작업에 가장 적합합니다.

Llama-2-70B-Chat

Amazon Bedrock 모델

Llama-2-7b-Chat 및 Llama-2-13B-Chat과 마찬가지로 Meta의 Llama-2-70B-Chat 모델은 자연스럽고 의미 있는 대화에 참여하는 데 최적화되어 있습니다. 700억 개의 파라미터가 있는 이 대규모 대화형 모델은 더 컴팩트한 모델 버전과 비교할 때 더 광범위한 컨텍스트를 기억하고 매우 논리 정연한 응답을 생성할 수 있습니다. 그러나 응답 속도가 느려지고 리소스 요구 사항이 늘어납니다. Llama-2-70B-Chat은 영어로 된 대량의 인터넷 데이터에 대해 훈련되었으며 영어를 사용하는 작업에 가장 적합합니다.

Mistral-7B

JumpStart 모델

Mistral.AI의 Mistral-7B는 텍스트 생성, 요약 및 질문 응답과 같은 다양한 자연어(NLP) 작업에 적합한 우수한 범용 언어 모델입니다. 추론 속도가 빨라지는 그룹 쿼리 어텐션(GQA)을 활용하므로 파라미터가 두 배 또는 세 배 더 많은 모델과 비슷하게 작동합니다. 영어로 된 책, 웹 사이트 및 과학 논문 등이 혼합된 텍스트 데이터에 대해 훈련되었으므로 영어를 사용하는 작업에 가장 적합합니다.

Mistral-7B-Chat

JumpStart 모델

Mistral-7B-Chat은 Mistral-7B를 기반으로 한 Mistral.AI의 대화형 모델입니다. Mistral-7B는 일반적인 NLP 작업에 가장 적합하지만 Mistral-7B-Chat은 대화형 데이터를 추가로 미세 조정하여 자연스럽고 참여도 높은 채팅을 위한 기능을 최적화했습니다. 따라서 Mistral-7B-Chat은 인간과 유사한 응답을 더 많이 생성하고 이전 응답의 컨텍스트를 기억합니다. Mistral-7B와 마찬가지로 이 모델은 영어를 사용하는 작업에 가장 적합합니다.

MPT-7B-Instruct

JumpStart 모델

MPT-7B-Instruct는 작업에 따른 긴 형식의 지침을 위한 모델이며, 텍스트 요약 및 질문 답변을 포함한 작업 작성을 지원하여 시간과 노력을 절약할 수 있습니다. 이 모델은 대량의 미세 조정된 데이터를 기반으로 훈련되었으며 복잡한 문서와 같은 대규모 입력을 처리할 수 있습니다. 대량의 텍스트를 처리하거나 모델이 긴 응답을 생성하도록 하려는 경우 이 모델을 사용하세요.

Amazon Bedrock의 파운데이션 모델은 현재 미국 동부(버지니아 북부) 및 미국 서부(오레곤) 리전에서만 제공됩니다. 또한 Amazon Bedrock의 파운데이션 모델을 사용하는 경우 각 모델 공급자가 지정한 입력 토큰 및 출력 토큰의 양을 기준으로 요금이 부과됩니다. 자세한 정보는 Amazon Bedrock 요금 페이지를 참조하세요. JumpStart 파운데이션 모델은 SageMaker AI 호스팅 인스턴스에 배포되며 사용된 인스턴스 유형에 따라 사용 기간에 대한 요금이 부과됩니다. 다양한 인스턴스 유형의 비용에 대한 자세한 내용은 Amazon SageMaker SageMaker AI 호스팅: 실시간 추론 섹션을 참조하세요.

문서 쿼리는 Amazon Kendra를 사용하여 인덱스에 저장된 문서를 쿼리하고 해당 문서에서 통찰력을 얻는 데 사용할 수 있는 추가 기능입니다. 이 기능을 사용하면 파운데이션 모델이 훈련된 대량의 데이터에 대한 일반적인 응답과 달리, 해당 문서의 컨텍스트에서 콘텐츠를 생성하고 비즈니스 사용 사례에 맞는 응답을 받을 수 있습니다. Amazon Kendra의 인덱스에 대한 자세한 내용은 Amazon Kendra 개발자 안내서를 참조하세요.

데이터 및 사용 사례에 맞게 사용자 지정된 파운데이션 모델에서 응답을 가져오려면 파운데이션 모델을 미세 조정하면 됩니다. 자세한 내용은 파운데이션 모델 미세 조정을 참조하십시오.

애플리케이션 또는 웹 사이트를 통해 Amazon SageMaker JumpStart 파운데이션 모델에서 예측을 가져오려면 모델을 SageMaker AI 엔드포인트에 배포할 수 있습니다. SageMaker AI 엔드포인트는 모델을 호스팅하며, 애플리케이션 코드를 통해 엔드포인트에 요청을 보내 모델로부터 예측을 수신할 수 있습니다. 자세한 내용은 엔드포인트에 모델 배포 단원을 참조하십시오.

프라이버시사이트 이용 약관쿠키 기본 설정
© 2025, Amazon Web Services, Inc. 또는 계열사. All rights reserved.