Salesforce에 연결하여 Amazon Bedrock 지식 베이스를 확인해 보십시오. - Amazon Bedrock

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

Salesforce에 연결하여 Amazon Bedrock 지식 베이스를 확인해 보십시오.

Salesforce는 지원, 영업 및 마케팅 팀을 관리하기 위한 고객 관계 관리 (CRM) 도구입니다. 다음 중 하나를 사용하여 Amazon Bedrock 지식 베이스의 Salesforce 인스턴스에 연결할 수 있습니다. AWS Amazon Bedrock 또는 Amazon Bedrock용 관리 콘솔 CreateDataSourceAPI(참조) 지원 및 SDKs AWS CLI).

참고

Salesforce 데이터 소스 커넥터는 프리뷰 릴리스 중이며 변경될 수 있습니다.

현재는 Amazon OpenSearch 서버리스 벡터 스토어만 이 데이터 소스와 함께 사용할 수 있습니다.

크롤링할 수 있는 파일 수와 파일당 MB 수에는 제한이 있습니다. 지식 기반은 할당량을 참조하십시오.

지원되는 기능

  • 기본 문서 필드 자동 감지

  • 포함/제외 콘텐츠 필터

  • 추가, 업데이트, 삭제된 콘텐츠에 대한 증분 콘텐츠 동기화

  • OAuth2.0 인증

사전 조건

Salesforce에서는 다음을 확인하십시오.

  • Salesforce 인스턴스를 기록해 두십시오. URL 예: https://company.salesforce.com/. 인스턴스는 Salesforce 커넥티드 앱을 실행해야 합니다.

  • Salesforce 커넥티드 앱을 만들고 클라이언트 자격 증명을 구성합니다. 그런 다음 설정에서 선택한 앱에 대해 소비자 키 (클라이언트 ID) 와 소비자 암호 (클라이언트 암호) 를 복사합니다OAuth. 자세한 내용은 연결된 앱 만들기 및 OAuth 2.0 클라이언트 자격 증명을 위한 연결된 앱 구성에 대한 Salesforce 설명서를 참조하십시오.

    참고

    Salesforce 커넥티드 앱의 경우 클라이언트 자격 증명 흐름에서 “Run As” 필드에서 클라이언트 자격 증명의 사용자 이름 또는 별칭을 검색하고 선택해야 합니다.

AWS 계정에서 다음을 확인하세요.

  • 인증 자격 증명을 다음 위치에 저장하십시오. AWS Secrets Manager 비밀을 유지하고 비밀의 Amazon 리소스 이름 (ARN) 을 기록해 둡니다. 이 페이지의 연결 구성 지침에 따라 암호에 포함해야 하는 키-값 쌍을 포함시키십시오.

  • 데이터 원본에 연결하는 데 필요한 권한을 다음 위치에 포함시키십시오. AWS Identity and Access Management (IAM) 지식창고의 역할/권한 정책. 이 데이터 소스를 지식창고에 추가하는 데 필요한 권한에 대한 자세한 내용은 IAM 역할은 데이터 원본에 액세스할 수 있는 권한을 참조하십시오.

참고

콘솔을 사용하는 경우 다음으로 이동할 수 있습니다. AWS Secrets Manager 암호를 추가하거나 데이터 원본 구성 단계의 일부로 기존 암호를 사용할 수 있습니다. The IAM 지식창고를 만들기 위한 콘솔 단계의 일부로 필요한 모든 권한이 포함된 역할을 자동으로 만들 수 있습니다. 데이터 원본 및 기타 구성을 구성한 후에는 IAM 필요한 모든 권한이 있는 역할이 특정 지식창고에 적용됩니다.

보안 인증 정보와 보안 암호를 정기적으로 새로 고치거나 교체하는 것이 좋습니다. 보안을 위해 필요한 액세스 수준만 제공하세요. 여러 데이터 원본에서 자격 증명과 암호를 재사용하지 않는 것이 좋습니다.

연결 구성

Salesforce 인스턴스에 연결하려면 Amazon Bedrock이 데이터에 액세스하고 크롤링할 수 있도록 필요한 구성 정보를 제공해야 합니다. 또한 다음을 준수해야 합니다. 사전 조건

이 섹션에는 이 데이터 원본의 구성 예가 포함되어 있습니다.

문서 필드 자동 감지, 포함/제외 필터, 증분 동기화, 비밀 인증 자격 증명 및 작동 방식에 대한 자세한 내용은 다음을 선택하십시오.

데이터 소스 커넥터는 문서 또는 콘텐츠의 모든 기본 메타데이터 필드를 자동으로 탐지하고 크롤링합니다. 예를 들어 데이터 원본 커넥터는 문서에 해당하는 문서 본문, 문서 제목, 문서 작성 또는 수정 날짜 또는 문서에 적용될 수 있는 기타 핵심 필드를 크롤링할 수 있습니다.

중요

콘텐츠에 민감한 정보가 포함된 경우 Amazon Bedrock 민감한 정보를 사용하여 응답할 수 있습니다.

메타데이터 필드에 필터링 연산자를 적용하여 응답의 관련성을 더욱 높일 수 있습니다. 예를 들어, 문서 “epoch_modification_time” 또는 문서가 마지막으로 업데이트된 시점을 나타내는 1970년 1월 1일에 경과된 시간 (초) 을 예로 들 수 있습니다. “epoch_modification_time”이 특정 숫자보다 큰 최신 데이터를 기준으로 필터링할 수 있습니다. 메타데이터 필드에 적용할 수 있는 필터링 연산자에 대한 자세한 내용은 메타데이터 및 필터링을 참조하십시오.

특정 콘텐츠 크롤링을 포함하거나 제외할 수 있습니다. 예를 들어 파일 이름에 '비공개'가 포함된 파일은 크롤링하지 않도록 제외 접두사/정규 표현식 패턴을 지정할 수 있습니다. 특정 콘텐츠 엔티티 또는 콘텐츠 형식을 포함하도록 포함 접두사/정규 표현식 패턴을 지정할 수도 있습니다. 포함 및 제외 필터를 지정하고 둘 다 문서와 일치하면 제외 필터가 우선하며 문서가 크롤링되지 않습니다.

캠페인 이름에 “private”이 포함된 캠페인을 제외하거나 필터링하기 위한 정규 표현식 패턴의 예:” *비공개. *”

다음 콘텐츠 유형에 포함/제외 필터를 적용할 수 있습니다.

  • Account: 계정 번호/식별자

  • Attachment: 확장자가 있는 첨부 파일 이름

  • Campaign: 캠페인 이름 및 관련 식별자

  • ContentVersion: 문서 버전 및 관련 식별자

  • Partner: 관련 식별자를 포함한 파트너 정보 필드

  • Pricebook2: 제품/가격표 이름

  • Case: 고객 문의/문제 번호 및 관련 식별자를 포함한 기타 정보 필드 (참고: 개인 정보를 포함할 수 있으며, 개인 정보는 제외하거나 필터링할 수 있음)

  • Contact: 고객 정보 필드 (참고: 제외하거나 필터링할 수 있는 개인 정보를 포함할 수 있음)

  • Contract: 계약명 및 관련 식별자

  • Document: 확장자가 있는 파일 이름

  • Idea: 아이디어 정보 필드 및 관련 식별자

  • Lead: 잠재적 신규 고객 정보 필드 (참고: 개인 정보를 포함할 수 있으며, 개인 정보는 제외하거나 필터링할 수 있음)

  • Opportunity: 보류 중인 판매/거래 정보 필드 및 관련 식별자

  • Product2: 제품 정보 필드 및 관련 식별자

  • Solution: 고객 문의/문제의 솔루션 이름 및 관련 식별자

  • Task: 작업 정보 필드 및 관련 식별자

  • FeedItem: 채터 피드 게시물의 식별자

  • FeedComment: 댓글이 속한 채터 피드 게시물의 식별자

  • Knowledge__kav: 참조 문서 버전 및 관련 식별자

  • User: 조직 내 사용자 별칭

  • CollaborationGroup: Chatter 그룹 이름 (고유)

데이터 원본 커넥터는 데이터 원본이 지식창고와 동기화될 때마다 새 콘텐츠, 수정된 콘텐츠, 삭제된 콘텐츠를 크롤링합니다. Amazon Bedrock 데이터 원본의 메커니즘을 사용하여 콘텐츠 변경 사항을 추적하고 마지막 동기화 이후 변경된 콘텐츠를 크롤링할 수 있습니다. 데이터 원본을 지식창고와 처음으로 동기화하는 경우 기본적으로 모든 콘텐츠가 크롤링됩니다.

데이터 원본을 지식창고와 동기화하려면 를 사용하거나 콘솔에서 지식창고를 선택하고 데이터 원본 개요 섹션에서 동기화를 선택합니다. StartIngestionJobAPI

중요

데이터 원본에서 동기화하는 모든 데이터는 데이터를 검색할 bedrock:Retrieve 권한이 있는 모든 사람이 사용할 수 있습니다. 여기에는 통제된 데이터 원본 권한이 있는 모든 데이터도 포함될 수 있습니다. 자세한 내용은 지식창고 권한을 참조하십시오.

(OAuth2.0 인증의 경우) 비밀 인증 자격 증명은 AWS Secrets Manager 다음과 같은 키-값 쌍을 포함해야 합니다.

  • consumerKey: app client ID

  • consumerSecret: app client secret

  • authenticationUrl: Salesforce instance URL or the URL to request the authentication token from

참고

비밀은 AWS Secrets Manager 지식창고의 동일한 영역을 사용해야 합니다.

Console

다음은 Amazon Bedrock 지식 베이스를 위해 Salesforce에 연결하기 위한 구성 예제입니다. 콘솔에서 지식 기반 생성 단계의 일부로 데이터 소스를 구성합니다.

  1. 에 로그인하십시오. AWS Management Console Amazon Bedrock 권한이 있는 IAM 역할을 사용하여 에서 Amazon Bedrock 콘솔을 엽니다. https://console.aws.amazon.com/bedrock/

  2. 왼쪽 탐색 창에서 지식 베이스를 선택합니다.

  3. 지식베이스 섹션에서 지식창고 만들기를 선택합니다.

  4. 지식창고 세부 정보를 제공하십시오.

    1. 지식창고 이름과 설명 (선택 사항) 을 입력합니다.

    2. 다음을 입력하십시오. AWS Identity and Access Management 지식창고를 만드는 데 필요한 액세스 권한의 역할.

      참고

      The IAM 지식창고를 만들기 위한 콘솔 단계의 일부로 필요한 모든 권한이 포함된 역할을 자동으로 만들 수 있습니다. 지식창고 만들기 단계를 완료한 후에는 IAM 필요한 모든 권한이 있는 역할이 특정 지식창고에 적용됩니다.

    3. 지식창고에 할당할 태그를 마음대로 만드세요.

    다음 섹션으로 이동하여 데이터 소스를 구성하세요.

  5. Salesforce를 데이터 소스로 선택하고 연결 구성 세부 정보를 제공합니다.

    1. 데이터 소스 이름과 선택적 설명을 입력합니다.

    2. Salesforce 인스턴스를 제공하십시오. URL 예: https://company.salesforce.com/. 인스턴스는 Salesforce 커넥티드 앱을 실행해야 합니다.

    고급 설정을 확인하세요. 선택한 기본 설정을 선택적으로 변경할 수 있습니다.

  6. 고급 설정에서 임시 데이터 암호화 키 및 데이터 삭제 정책을 설정합니다.

    에 대해 KMS key 설정에서는 사용자 지정 키를 선택하거나 제공된 기본 데이터 암호화 키를 사용할 수 있습니다.

    데이터를 임베딩으로 변환하는 동안 Amazon Bedrock 다음과 같은 키로 임시 데이터를 암호화합니다. AWS 기본적으로 소유하고 관리합니다. 자체 KMS 키를 사용할 수 있습니다. 자세한 내용은 데이터 모으기 중 임시 데이터 스토리지의 암호화 단원을 참조하십시오.

    데이터 삭제 정책 설정의 경우 다음 중 하나를 선택할 수 있습니다.

    • 삭제: 지식 기반 또는 데이터 원본 리소스 삭제 시 벡터 임베딩으로 변환된 모든 데이터를 데이터 원본에서 삭제합니다. 벡터 저장소 자체는 삭제되지 않고 데이터만 삭제된다는 점에 유의하세요. 다음과 같은 경우 이 플래그는 무시됩니다. AWS 계정이 삭제되었습니다.

    • 보존: 지식 기반 또는 데이터 소스 리소스 삭제 시 벡터 임베딩으로 변환된 데이터 원본의 모든 데이터를 보존합니다. 지식 기반이나 데이터 소스 리소스를 삭제해도 벡터 저장소 자체는 삭제되지 않는다는 점에 유의하세요.

    데이터 소스를 계속 구성하세요.

  7. Salesforce 인스턴스에 연결하는 데 필요한 인증 정보를 제공하십시오.

    1. OAuth2.0 인증의 경우 다음으로 이동하십시오. AWS Secrets Manager 보안 인증 자격 증명을 추가하거나 생성한 암호에 기존 Amazon 리소스 이름 (ARN) 을 사용하십시오. 암호에는 Salesforce Connected 앱 소비자 키 (클라이언트 ID), 소비자 암호 (클라이언트 암호), 인증 토큰을 요청하는 Salesforce 인스턴스 URL 또는 이 URL (가) 포함되어야 합니다. 자세한 내용은 연결된 앱 만들기 및 2.0 클라이언트 자격 증명을 위한 연결된 앱 구성에 대한 Salesforce 설명서를 참조하십시오. OAuth

    데이터 소스를 계속 구성하세요.

  8. 필터/정규 표현식 패턴을 사용하여 특정 콘텐츠를 포함하거나 제외하도록 선택합니다. 그렇지 않으면 모든 표준 콘텐츠가 크롤링됩니다.

    데이터 원본을 계속 구성하세요.

  9. 기본 구성 또는 사용자 지정된 청크 및 파싱 구성을 선택합니다.

    1. 사용자 지정 설정을 선택하는 경우 다음 청크 옵션 중 하나를 선택하십시오.

      • 고정 크기 청킹: 콘텐츠를 설정된 대략적인 토큰 크기의 텍스트 청크로 분할합니다. 청크의 최대 토큰 개수를 초과해서는 안 되는 최대 토큰 수와 연속된 청크 간의 겹침 비율을 설정할 수 있습니다.

      • 기본 청킹: 콘텐츠를 최대 300개의 토큰으로 구성된 텍스트 청크로 분할합니다. 단일 문서 또는 콘텐츠에 포함된 토큰이 300개 미만인 경우 문서는 더 이상 분할되지 않습니다.

      • 계층적 청킹: 콘텐츠는 상위-하위 청크의 중첩 구조로 구성됩니다. 최대 부모 청크 토큰 크기와 최대 하위 청크 토큰 크기를 설정합니다. 또한 연속된 부모 청크와 연속되는 하위 청크 사이의 오버랩 토큰의 절대 개수를 설정합니다.

      • 시맨틱 청킹: 콘텐츠를 의미상 유사한 텍스트 청크 또는 문장 그룹으로 정리합니다. 대상/현재 문장을 둘러싸고 그룹화할 최대 문장 수 (버퍼 크기) 를 설정합니다. 또한 텍스트를 의미 있는 청크로 나누기 위한 중단점 백분위수 임계값을 설정합니다. 시맨틱 청킹은 기초 모델을 사용합니다. 보기Amazon Bedrock 가격 책정은 기초 모델 비용에 대한 정보를 제공합니다.

      • 청킹 없음: 각 문서는 단일 텍스트 청크로 취급됩니다. 문서를 별도의 파일로 분할하여 사전 처리하는 것이 좋습니다.

      참고

      데이터 원본을 만든 후에는 청크 전략을 변경할 수 없습니다.

    2. 사용하도록 선택할 수 있습니다. Amazon Bedrock표준 텍스트 이상의 내용을 파싱하기 위해 문서를 파싱하기 위한 기본 모델입니다. 예를 들어 구조를 그대로 유지한 상태에서 문서 내의 표 형식 데이터를 파싱할 수 있습니다. 보기Amazon Bedrock 가격은 기초 모델 비용에 대한 정보를 제공합니다.

    3. 다음을 사용하도록 선택할 수 있습니다. AWS Lambda 청킹 전략을 사용자 지정하고 문서 메타데이터 속성/필드가 처리되고 수집되는 방식을 사용자 지정하는 함수입니다. 다음을 제공하십시오. Amazon S3 Lambda 함수 입력 및 출력을 위한 버킷 위치

    벡터 스토어를 구성하려면 다음 섹션으로 이동하십시오.

  10. 데이터를 벡터 임베딩으로 변환하기 위한 모델을 선택하세요.

    허용할 벡터 저장소를 생성하세요. Amazon Bedrock 임베딩을 저장, 업데이트, 관리할 수 있습니다. 새 벡터 저장소를 빠르게 만들거나 만든 지원되는 벡터 저장소에서 선택할 수 있습니다. 현재는 Amazon OpenSearch 서버리스 벡터 스토어만 이 데이터 소스와 함께 사용할 수 있습니다. 새 벡터 저장소를 생성하면 필수 필드가 포함된 Amazon OpenSearch Serverless 벡터 검색 컬렉션 및 색인이 자동으로 설정됩니다. 지원되는 벡터 저장소에서 선택하는 경우 벡터 필드 이름과 메타데이터 필드 이름을 매핑해야 합니다.

    다음 섹션으로 이동하여 지식창고 구성을 검토하세요.

  11. 지식창고의 세부 정보를 확인하세요. 지식창고를 만들기 전에 모든 섹션을 편집할 수 있습니다.

    참고

    지식창고를 만드는 데 걸리는 시간은 특정 구성에 따라 달라집니다. 지식창고 생성이 완료되면 지식창고 상태가 준비 또는 사용 가능 상태로 변경됩니다.

    지식창고가 준비되고 사용할 수 있게 되면 콘텐츠를 최신 상태로 유지하고 싶을 때마다 처음으로 데이터 원본을 동기화하세요. 콘솔에서 지식창고를 선택하고 데이터 원본 개요 섹션에서 동기화를 선택합니다.

API

다음은 Amazon Bedrock 지식 베이스를 위해 Salesforce에 연결하기 위한 구성 예제입니다. 다음과 같이 를 사용하여 데이터 소스를 구성합니다. API AWS CLI 또는 Python과 같이 지원됩니다SDK. 호출한 CreateKnowledgeBase후에는 를 CreateDataSource호출하여 연결 정보가 포함된 데이터 원본을 만듭니다dataSourceConfiguration. 청킹 전략/접근 방식을 vectorIngestionConfiguration 명시하고 데이터 삭제 정책도 명시해야 한다는 점도 잊지 마세요. dataDeletionPolicy

AWS Command Line Interface

aws bedrock create-data-source \ --name "Salesforce connector" \ --description "Salesforce data source connector for Amazon Bedrock to use content in Salesforce" \ --knowledge-base-id "your-knowledge-base-id" \ --data-source-configuration file://salesforce-bedrock-connector-configuration.json \ --data-deletion-policy "DELETE" \ --vector-ingestion-configuration '{"chunkingConfiguration":[{"chunkingStrategy":"FIXED_SIZE","fixedSizeChunkingConfiguration":[{"maxTokens":"100","overlapPercentage":"10"}]}]}' salesforce-bedrock-connector-configuration.json { "salesforceConfiguration": { "sourceConfiguration": { "hostUrl": "https://company.salesforce.com/", "authType": "OAUTH2_CLIENT_CREDENTIALS", "credentialsSecretArn": "arn:aws::secretsmanager:your-region:secret:AmazonBedrock-Salesforce" }, "crawlerConfiguration": { "filterConfiguration": { "type": "PATTERN", "patternObjectFilter": { "filters": [ { "objectType": "Campaign", "inclusionFilters": [ ".*public.*" ], "exclusionFilters": [ ".*private.*" ] } ] } } } }, "type": "SALESFORCE" }