HRNN 配方 (舊版) - Amazon Personalize

本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。

HRNN 配方 (舊版)

注意

舊版 HRNN 配方不再可用。本文件僅供參考。

我們建議您在舊版 HRNN 配方上使用 aws-user-personalizaton (User-Personalization) 配方。使用者個人化可改善並統一 HRNN 配方提供的功能。如需詳細資訊,請參閱使用者個人化配方

Amazon Personalize 階層式遞歸神經網路 (HRNN) 配方模型會變更使用者行為,以在工作階段期間提供建議。工作階段是一組在指定時間範圍內的使用者互動,目標是要尋找特定項目以滿足需求,例如。透過權衡使用者最近的互動,您可以在工作階段期間提供更相關的建議。

HRNN 滿足使用者意圖和興趣,這些意圖和興趣會隨著時間而改變。其會採用排序過的使用者歷史記錄,並自動加權以做出更好的推論。HRNN 會使用閘道機制來建立折扣加權的模型,做為項目和時間戳記的可學習函數。

Amazon Personalize 會從資料集衍生每個使用者的功能。如果您已經完成即時資料整合,則會根據使用者活動即時更新這些特性。若要取得建議,您只需提供 USER_ID。如果您也提供 ITEM_ID,Amazon Personalize 會忽略它。

HRNN 配方具有下列屬性:

  • 名稱aws-hrnn

  • 配方 Amazon Resource Name (ARN)arn:aws:personalize:::recipe/aws-hrnn

  • 演算法 ARNarn:aws:personalize:::algorithm/aws-hrnn

  • 功能轉換 ARNarn:aws:personalize:::feature-transformation/JSON-percentile-filtering

  • 配方類型USER_PERSONALIZATION

下表說明 HRNN 配方的超參數。超參數 是一種演算法參數,您可以調整以改善模型效能。演算法超參數可控制模型的執行方式。特徵化超參數可控制如何篩選要在訓練中使用的資料。選擇超參數最佳值的程序稱為超參數最佳化 (HPO)。如需詳細資訊,請參閱超參數和 HPO

該表格也提供每個超參數的下列資訊:

  • 範圍:[下限、上限]

  • 值類型:整數、連續 (浮點數)、分類 (布林值、清單、字串)

  • HPO 可調整:參數可以參與 HPO 嗎?

名稱 描述
演算法超參數
hidden_dimension

模型中使用的隱藏變數數量。隱藏變數 會重新建立使用者的購買歷史記錄和項目統計資料,以產生排名分數。當您的項目互動資料集包含更複雜的模式時,請指定更多隱藏維度。使用更多隱藏維度需要更大的資料集和更多時間處理。若要決定最佳值,請使用 HPO。若要使用 HPO,請在呼叫 CreateSolutionCreateSolutionVersion 操作時將 performHPO 設定為 true

預設值:43

範圍:[32, 256]

值類型:整數

HPO 可調整:是

bptt

決定是否透過時間技術使用反向傳播。透過時間的反向傳播 是一種遞歸神經網路演算法中權重的技術。使用 bptt 做為長期信用來連接早期事件的延遲獎勵。例如,延遲獎勵可以是按幾下滑鼠後的購買。早期事件可以是初始的按一下。即使在相同的事件類型中 (例如按一下),最好還是考慮長期效果,並將總獎勵最大化。若要考慮長期效果,請使用較大的 bptt 值。使用更大的 bptt 值需要更大的資料集和更多時間來處理。

預設值:32

範圍:[2, 32]

值類型:整數

HPO 可調整:是

recency_mask

決定模型是否應考慮項目互動資料集中的最新熱門趨勢。最新的熱門趨勢可能包括互動事件基礎模式的突然變化。若要訓練模型更多加權最近的事件,請將 recency_mask 設定為 true。若要訓練模型將過去的互動加權同等,請將 recency_mask 設定為 false。若要使用同等權重來獲得良好的建議,您可能需要較大的訓練資料集。

預設值:True

範圍:TrueFalse

值類型:布林值

HPO 可調整:是

特徵化超參數
min_user_history_length_percentile

要包含在模型訓練中的使用者歷史記錄長度的最小百分位數。歷史記錄長度 是有關使用者的資料總量。使用 min_user_history_length_percentile 排除歷史記錄長度較短的使用者百分比。歷史記錄短的使用者通常根據項目熱門程度顯示模式,而不是使用者的個人需求或想要顯示模式。移除它們可以訓練模型更專注於資料中的基礎模式。檢閱使用者歷史記錄長度後,請使用長條圖或類似的工具,選擇適當的值。我們建議設定保留大部分使用者的值,但移除邊緣案例。

例如,設定 min__user_history_length_percentile to 0.05max_user_history_length_percentile to 0.95 包含所有使用者,歷史記錄長度底部或頂端 5% 的使用者除外。

預設值:0.0

範圍:[0.0, 1.0]

值類型:浮點數

HPO 可調整:否

max_user_history_length_percentile

要包含在模型訓練中的使用者歷史記錄長度的最大百分位數。歷史記錄長度 是有關使用者的資料總量。使用 max_user_history_length_percentile 排除歷史記錄長度較長的使用者百分比,因為這些使用者的資料往往包含雜訊。例如,機器人可能有一長串的自動化互動。移除這些使用者會限制訓練中的噪音。使用長條圖或類似工具檢閱使用者歷史記錄長度後,請選擇適當的值。我們建議設定保留大部分使用者的值,但移除邊緣案例。

例如,設定 min__user_history_length_percentile to 0.05max_user_history_length_percentile to 0.95 包含所有使用者,歷史記錄長度底部或頂端 5% 的使用者除外。

預設值:0.99

範圍:[0.0, 1.0]

值類型:浮點數

HPO 可調整:否