wide deep模型的認知 未完結

2021-10-16 17:56:46 字數 1193 閱讀 1887

wide&deep模型:深度加寬度的模型正規化,本身並不是乙個具體的模型,wide和deep部分可以用任意結構框架,wide的baseline是lr模型,deep的baseline是mlp模型(mlp指多層感知器,是一種籤祥結構的人工沉靜網路,對映一組輸入向量到一組輸出向量)

面試時會問這種不起眼的問題:

1、wide&deep模型是誰提出來的?那一年提出來的?你在哪知道這個模型的?

回答:wide&deep是由谷歌16年6月左右提出來的,

2、wide&deep中感覺wide時多餘的,可以去掉嗎?

回答:先帶著這個問題往下面繼續看吧!!!!!

wide&deep中谷歌提出兩個概念:記憶性和泛化性

舉例:人們的大腦很複雜,但是大腦可以記憶每天發生的事情(燕子會風,老鷹會風)然後泛化這些知識到之前沒有看到過的東西上(得出結論:有翅膀的動物多能飛)

但是,泛化的規則有時候不是特別的準,有時候會出錯(有翅膀的動物都能飛嗎)

這時候由於泛化的出錯,最終泛化的結果不准,但是記憶可以修改泛化的規則,

把(企鵝有翅膀但是不會飛,稱為特例),兩者結合保證最後的輸出結果近似的正確。

聽完這段文字,應該就懂為什麼不能去掉wide端了吧。

wide—記憶性:wide部分常處於學習樣本的高頻部分,

優點是模型的記憶性好,對於樣本**現過的高頻低階特徵能夠用少量引數學習,

缺點:模型的泛化能力差,

例如:對於沒有見過的id類特徵,模型學習能力較差。

deep—泛化性:deep部分常處於學習樣本的長尾部分(長尾部分–名詞解析:俗話講,每次賺的很少,但是我每天可幹的次數很多)

優點是泛化能力強,對於少量出現過的樣本甚至沒有出現過的樣本都能做出**(非零embedding向量),容易帶來驚喜,缺點是模型對於低階特徵的學習需要較多引數才能等同wide部分效果,而且泛化能力強,某種程度上也可能導致過擬合出現,尤其是對於冷啟動的一些item,也有可能給使用者帶來驚嚇。

俗話說:wide&deep模型就跟千里眼順風耳成為乙個人的技能。

wide模型使用ftrl加l1正則化來優化,

deep模型使用adagrad來優化

wide deep模型筆記

線性模型無法學習到訓練集中未出現的組合特徵 fm或dnn通過學習embedding vector雖然可以學習到訓練集中未出現的組合特徵,但是會過度泛化。wide part其實是乙個廣義的線性模型 長處在於學習樣本中的高頻部分,優點是模型的記憶性好,對於樣本 現過的高頻低階特徵能夠用少量引數學習 缺點...

學習筆記 深度模型Wide Deep

來自16年的一篇google的 wide deep learning for recommender systems 文章將傳統的lr和dnn組合構成乙個wide deep模型 並行結構 既保留了lr的擬合能力,又具有dnn的泛化能力,並且不需要單獨訓練模型 join 可以方便模型的迭代。問題的提出...

OSI模型的認知(一)

2018.3.30 協議棧學習 osi模型與協議棧 要弄懂什麼是協議棧,首先就得學習一種協議棧。無線自組網協議棧是以osi七層模型為原型的,於是我開始學習osi模型,希望到時學習前者時能更好更快地理解。osi模型是幹嘛的?個人認為是一種參考,一種比較穩健高效的跨裝置資訊互動的系統。它分很多層次,自底...