60基於深度學習的推薦系統(二)MLP based

2021-09-22 16:31:55 字數 2001 閱讀 1050

在第二部分,我們總結mlp基礎上的推薦系統,我在這裡只擷取了原文的一部分內容。這篇部落格中所使用的註解字元和參考文獻目錄可以在 基於深度學習的推薦系統(一)overview 中找到。我們把這些工作分為如下幾部分:

許多現有的推薦模型基本上是線性方法。 mlp可用於向現有rs方法新增非線性變換。

在大多數情況下,推薦被視為使用者偏好和專案特徵之間的雙向互動。 例如,矩陣分解(mf)將評分矩陣分解為低維的使用者/專案latent factors。 構建雙神經網路來模擬使用者和專案之間的雙向互動是很自然的。 神經網路矩陣分解(nnmf)[37]和神經協同過濾(ncf)[53]是兩個代表性的著作。

圖2a顯示了ncf架構。 設 和 表示使用者和item的特徵(例如使用者簡檔和專案特徵),或者僅表示使用者 和專案 的乙個one-hot編碼。 其評分函式定義如下: ,其中 是mlp網路, 是網路的引數。傳統的mf可以被視為ncf的乙個特例。 因此,將矩陣因子分解與mlp融合,以制定更通用的模型是很方便的,該模型利用mf的線性和mlp的非線性來提高推薦質量。 整個網路可以用加權平方損失(用於顯式反饋)或二進位制交叉熵損失(用於隱式反饋)來訓練。

deepfm[47]是一種端到端模型,可無縫整合fm和mlp。它能夠通過深度神經網路來建模high-order interactions,用fm來建模low-order interactions。分解機器(fm)利用加法和內積運算來捕獲特徵之間的線性和成對相互作用(更多細節參見[119]中的等式(1))。mlp利用非線性啟用和深層結構來建模高次特徵互動。 mlp與fm結合的方式受到wide & deep 的網路的啟發。它用fm的神經解釋取代了wide分量。與wide & deep模型相比,deepfm不需要繁瑣的特徵工程。圖2b說明了deepfm的結構。 deepfm的輸入是由pair (user和item的標識和特徵)組成的m欄位資料。為簡單起見,fm和mlp的輸出分別表示為 和 。**分數的計算方法是: 。 代表sigmoid方法。 上述方法都有很多改進版本,我在這裡不再贅述,感興趣的讀者可以去看原文。

使用mlp進行特徵表示非常簡單且高效,即使它可能不像自編碼器,cnn和rnn那樣強大。

形式上,wide元件可以表示為 ,即線性模型。 表示一組輸入,輸入由原始輸入特徵 和變換(例如,交叉 轉換以捕獲特徵之間的相關性)之後的特徵組成。而深度網路部分的每一層的形式都為 , 代表層數, 是啟用函式。整個wide & deep模型則表示為: 。其中 代表sigmoid函式, 代表最後一層的activation。

同樣地,這個模型的其他擴充套件也請去原文閱讀。

深度結構化語義模型(dssm)[65]是一種深度神經網路,用於學習公共連續語義空間中實體的語義表示並測量它們的語義相似性。 它廣泛應用於資訊檢索領域,非常適合於top-n推薦[39,182]。 dssm將不同的實體投射到乙個共同的低維空間,並計算它們的余弦相似性。基本的dssm由mlp組成,因此我們將其放在本節中。 請注意,更高階的神經層(如卷積和最大池層)也可以輕鬆整合到dssm中。

deep semantic similarity based personalized recommendation (dspr) [182]是標籤感知個性化推薦器,其中每個使用者 和專案 由標籤注釋表示並對映到公共標籤空間。 余弦相似度 用於決定item和user的相關性(或使用者對專案的偏好)。 dspr的損耗函式定義如下:

其中 是從負的user-item pair中隨機抽取的負樣本。

multi-view deep neural network (mv-dnn) [39]是為跨域推薦而設計的。 它將使用者視為樞軸檢視,並將每個域(假設我們有z個域)視為輔助檢視。 顯然,z個user-domain對有z個相似度得分。 圖3b示出了mv-dnn的結構。 mv-dnn的損失函式定義為: 

其中 是模型引數, 是平滑因子, 是user檢視的輸出,a是當前active的檢視的index, 是view a的輸入domain。mv-dnn能夠擴充套件到許多domain。 然而,它基於這樣的假設:如果使用者在某乙個domain中具有相似的品味,那麼他們在其他domain中也應該具有相似的品味。 直觀地說,在許多情況下,這種假設可能是不合理的。 因此,我們應該對不同domain之間的相關性有一些初步了解,以充分利用mv-dnn。

深度學習推薦系統 第二章

推薦模型演化 協同過濾 usercf 基於使用者相似度 itemcf 基於物品相似度 相似度計算 cosine similarity 皮爾遜相關係數 引入使用者平均分,減少了使用者評分偏置影響 還可以引入物品平均分,減少物品評分偏置對結果的影響 usercf具備強的社交特性,itemcf適用於興趣變...

深度學習在推薦系統的應用

目錄結構 模型集合 wide and deep learning youtube recommendation deepfm lattice 模型原理 lattice是多維內插式查詢表,為了模型更好地泛化,我們充分利用查詢表的結構來滿足您指定的 單調關係,這種結構能夠通過使用多重輸入估計任意柔性關係...

推薦系統 3 深度學習發展

深度學習推薦模型,有早期微軟的deepcrossing,google的wide deep,阿里的mlr,到現在影響力非常大的din,dien,youtube的深度推薦模型等。經典的推薦演算法,矩陣分解,在矩陣分解模型的結構中,使用者one hot向量和物品one hot向量分局兩側,他們會先通過隱向...