本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
Amazon Bedrock 滥用检测
AWS 致力于负责任地使用人工智能。为了帮助防止潜在的滥用行为,Amazon Bedrock 实施了自动化滥用检测机制,以识别可能违反 AWS 的 Acceptable Use Policy
我们的滥用检测机制是完全自动化的,因此无需人工审核或者访问用户输入或模型输出。
自动化滥用检测包括:
-
对内容进行分类 — 我们使用分类器来检测用户输入和模型输出中的有害内容(例如,煽动暴力的内容)。分类器是一种处理模型输入和输出,并指定危害类型和置信度级别的算法。我们可能会对两个模型Titan和第三方模型的使用情况运行这些分类器。分类过程是自动化的,不涉及对用户输入或模型输出进行人工审核。
-
识别模式 — 我们使用分类器指标来识别潜在的违规行为和反复出现的行为。我们可能会编译匿名的分类器指标,并与第三方模型提供商共享。Amazon Bedrock 不存储用户输入或模型输出,也不会与第三方模型提供商共享这些信息。
-
检测和屏蔽儿童性虐待材料 (CSAM) — 您应对您(和您的最终用户)上传到 Amazon Bedrock 的内容负责,并且必须确保这些内容不含非法图片。为了帮助阻止 CSAM 的传播,Amazon Bedrock 可能会使用自动滥用检测机制(例如哈希匹配技术或分类器)来检测明显的 CSAM。如果 Amazon Bedrock 在您的图片输入中检测到明显的 CSAM,Amazon Bedrock 将阻止该请求,并且您将收到一条自动错误消息。Amazon Bedrock 还可能向国家失踪与被剥削儿童中心 (NCMEC) 或相关机构提交报告。我们认真对待 CSAM,并将继续更新我们的检测、屏蔽和报告机制。适用法律可能会要求您采取其他行动,并且您应对这些行为负责。
一旦我们的自动滥用行为检测机制发现了潜在的违规行为,我们可能会要求您提供有关您使用 Amazon Bedrock 以及遵守我们的服务条款或第三方提供商的 AUP 的信息。如果您不愿或无法遵守这些条款或政策, AWS 可以暂停您对 Amazon Bedrock 的访问权限。
如果您还有其他问题,请联系 AWS Support。有关更多信息,请参阅 Amazon Bedrock 常见问题