的隱私保護 AWS Clean Rooms 機器學習 (ML) - AWS Clean Rooms

本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。

的隱私保護 AWS Clean Rooms 機器學習 (ML)

Clean Rooms ML 旨在降低會員資格推論攻擊的風險,其中訓練資料提供者可以了解種子資料中的誰,並且種子資料提供者可以了解訓練資料中的人員。採取了幾個步驟來防止這種攻擊。

首先,種子資料提供者不會直接觀察 Clean Rooms ML 輸出,訓練資料提供者永遠無法觀察種子資料。種子資料提供者可以選擇在輸出區段中包含種子資料。

接下來,相似模型是從訓練資料的隨機樣本建立的。此範例包含大量不符合種子受眾的使用者。這個過程使得確定用戶是否不在數據中變得更加困難,這是成員資格推斷的另一種途徑。

此外,多個種子客戶可以用於特定種子相似模型培訓的每個參數。這限制了模型可以過度容納多少,因此可以對使用者進行推斷多少。因此,我們建議種子資料的最小大小為 500 個使用者。

最後,永遠不會將使用者層級指標提供給訓練資料提供者,這樣就消除了會員資格推論攻擊的另一個途徑。