Amazon Bedrock 침해 탐지 - Amazon Bedrock

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

Amazon Bedrock 침해 탐지

AWS AI를 책임감 있게 사용하기 위해 최선을 다하고 있습니다. 잠재적 오용을 방지하기 위해 Amazon Bedrock은 자동화된 침해 탐지 메커니즘을 구현하여 AWS의 이용 정책(AUP) 및 책임 있는 AI 정책 또는 타사 모델 공급자의 AUP에 대한 잠재적 위반을 식별하고 완화합니다.

침해 탐지 메커니즘은 완전히 자동화되어 있으므로, 사용자 입력 또는 모델 출력을 사람이 검토하거나 액세스할 필요가 없습니다.

자동 침해 탐지 기능은 다음과 같습니다.

  • 콘텐츠 분류 - 분류자를 사용하여 사용자 입력 및 모델 출력에 있는 유해한 콘텐츠(예: 폭력을 조장하는 콘텐츠)를 탐지합니다. 분류자는 모델 입력 및 출력을 처리하고 유해성의 유형과 신뢰도를 할당하는 알고리즘입니다. 당사는 이러한 분류기를 타사 모델 Titan 모두에서 실행할 수 있습니다. 분류 프로세스는 자동화되어 있으며 사용자 입력 또는 모델 출력을 사람이 검토하지 않습니다.

  • 패턴 식별 - 분류자 지표를 사용하여 잠재적 위반과 반복되는 행동을 식별합니다. 당사는 익명화된 분류자 지표를 컴파일한 후 타사 모델 공급자와 공유할 수 있습니다. Amazon Bedrock은 사용자 입력 또는 모델 출력을 저장하지 않으며 타사 모델 제공업체와 공유하지 않습니다.

  • 아동 성 학대 자료 (CSAM) 탐지 및 차단 — Amazon Bedrock에 업로드하는 콘텐츠에 대한 책임은 귀하 (및 최종 사용자) 에게 있으며 해당 콘텐츠에 불법 이미지가 없는지 확인해야 합니다. CSAM의 확산을 막기 위해 Amazon Bedrock은 자동화된 악용 탐지 메커니즘 (예: 해시 매칭 기술 또는 분류기) 을 사용하여 명백한 CSAM을 탐지할 수 있습니다. Amazon Bedrock이 이미지 입력에서 명백한 CSAM을 감지하는 경우 Amazon Bedrock은 요청을 차단하고 자동 오류 메시지를 받게 됩니다. Amazon Bedrock은 국립 실종 및 학대 아동 센터 (NCMEC) 또는 관련 기관에 신고할 수도 있습니다. 아마존은 CSAM을 진지하게 받아들이고 있으며 탐지, 차단 및 신고 메커니즘을 지속적으로 업데이트할 것입니다. 관련 법률에 따라 추가 조치를 취해야 할 수 있으며 이러한 조치에 대한 책임은 귀하에게 있습니다.

자동 악용 탐지 메커니즘으로 잠재적 위반 사항이 식별되면 아마존은 사용자의 Amazon Bedrock 사용 및 아마존 서비스 약관 또는 타사 공급자의 AUP 준수에 대한 정보를 요청할 수 있습니다. 본 약관 또는 정책을 준수할 의사가 없거나 준수할 수 없는 경우 Amazon Bedrock에 대한 액세스를 일시 중단할 AWS 수 있습니다.

추가 질문이 있는 경우 AWS Support에 문의하세요. 자세한 내용은 Amazon Bedrock FAQ를 참조하세요.