本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
的隐私保护 AWS Clean Rooms ML
Clean Rooms ML 旨在降低成员资格推断攻击的风险,在这种攻击中,训练数据提供者可以了解谁在种子数据中,种子数据提供者可以了解谁在训练数据中。我们采取了一些措施以防范这种攻击。
首先,种子数据提供者不会直接观察 Clean Rooms ML 输出,训练数据提供者也永远无法观察种子数据。种子数据提供者可以选择将种子数据包含在输出细分中。
接下来,通过训练数据的随机样本创建相似模型。此示例包括大量与种子受众不匹配的用户。此过程使得确定用户是否不在数据中变得更加困难,这是推断成员资格的另一种途径。
此外,可以在种子特定的相似模型训练的每个参数中使用多个种子客户。这限制了模型可以过度拟合的程度,从而限制了可以推断的用户相关数据量。因此,我们建议种子数据的最小大小为 500 个用户。
最后,一定不要向训练数据提供者提供用户级指标,这可以阻断成员身份推断攻击的另一种途径。