學習週報20200621 深度學習推薦系統

2021-10-07 09:44:44 字數 701 閱讀 7495

【學習週報】

總結自己的學習和遇到的好材料。

往期回顧:

最近調整了作息,早上早起晚上早睡,所以學習策略也有一些調整,但是學習是一直不能落下,query理解層面自己有了比較完整的一年經驗,要開始把坑挖大,自己的計畫是稍微在推薦系統這個角度看看有沒有一些經驗可以使用吧,一方面是深度學習推薦系統這本書,另一方面也開始嘗試學習一些推薦系統的一些操作,**之類的跟起來。

雖然沒有在文章裡面推進,但其實我已經看到第五章了哈哈哈(第五層哈哈哈),這本書看著還是比較爽的,有一些思路思維上的東西看著提公升會很高。

整本書講模型講的不是很多,喜歡看模型的會覺得這本書很乏味吧,不過對於我這種理解不是很深的而言,其實是給了我看**的指導吧,大浪淘沙剩下的都是金子,這裡面提到的**都值得我去精讀。現在我讀這本書的策略是模型之類的跳過,先記錄,慢慢跟進,書本持續讀下去。

剩下的我在candyhub下面聊吧。

推薦系統常用策略模型選讀

很多推薦系統的基本**開始慢慢的看起來哈哈哈,先從簡單的開始,後面再開始追新,這些**多半比較經典了,一搜部落格都不少,所以我也不打算再單獨撰文跟進了,除非遇到很多部落格都沒談到或者聊錯誤了,再來繼續寫文章補充,好的鏈結我都會放出的。

fm&ffm

pnn(product-based neural networks)

nfm(neural factorization machine)

動手學深度學習

線性回歸的基本要素 模型 為了簡單起見,這裡我們假設 只取決於房屋狀況的兩個因素,即面積 平方公尺 和房齡 年 接下來我們希望探索 與這兩個因素的具體關係。線性回歸假設輸出與各個輸入之間是線性關係 price warea area wage age b price warea area wage a...

《動手學深度學習》 深度學習基礎複習

交叉熵只關心對正確類別的 概率,因為只要其值足夠大,就可以確保分類結果正確,而平方損失則過於嚴格,例如y i 1 y i 2 0比y i 1 0,y i 2 0.4的損失要小很多,雖然兩者都有同樣正確的分類 結果。正則化通過為模型損失函式新增懲罰項使學出的模型引數值較小,是應對過擬合的常用手段。權重...

動手學深度學習之深度學習基礎

資料集的形式主要有三種 訓練集測試集 測試資料集不可以用來調參 驗證集 k折交叉驗證 把原始資料分成k組,每次訓練時,使用k 1個子資料集訓練,使用乙個作為驗證,最後通過k次求取訓練誤差和驗證誤差的平均。過擬合 overfitting 模型的訓練誤差遠小於它在測試資料集上的誤差 欠擬合 underf...