動手學深度 Task04

2021-10-03 00:04:34 字數 432 閱讀 1129

思考:課程中提到了beam search

覺得講的太粗略,而且例子給的不清晰,留下兩個疑問

在beam search裡面,每乙個保留的是所有搜尋的top k最優,還是一開始分成k個子搜尋,然後每一步保留子搜尋的最優?

最終有k個結果,如何選擇最優?

注意力機制,簡單的理解,就是對輸入進行加權求平均,而這個權就是注意力的分配

最核心的概念, encoder 與 decoder

這個框架其實可以用在許多地方,比如影象生成,風格轉移等等

簡單說就是通過迴圈神經網路將輸入進行編碼,相當於得到一把秘鑰

然後把秘鑰輸入到第二個迴圈神經網路進行解碼,得到輸出

只要想辦法將輸入與輸出配對進行訓練,便可以通過這種框架實現編碼與解碼

因此個人認為這套框架可以用在很多有意思的場景,比如將與詩詞配對,演算法學習的就是看圖寫詩了

動手學深度 Task08

資料增強 模型微調 文字分類 資料增強 通過對資料進行翻轉 增加雜訊 調整色調亮度等等操作,提高模型的泛化能力。模型微調 屬於遷移學習的範疇,學習如何將別人訓練好的模型嫁接到目標專案上 裡面講到乙個技巧是,將輸出層引數隨機初始化,而隱藏層不變 學習過程中,隱藏層用較小的學習率,輸出層用較大的學習率 ...

天池語義分割task04

tp tn fp fn 在講解語義分割中常用的評價函式和損失函式之前,先補充一 tp 真正例 true positive tn 真反例 true negative fp 假正例 false positive fn 假反例 false negative 的知識。在分類問題中,我們經常看到上述的表述方式...

動手學深度學習 task01

task 1 線性回歸 多層感知機 softmax函式 1 線性回歸作為基本的機器學習演算法,實現較簡單,應用廣泛。以下為用pytorch編寫的線性回歸類 import torch.nn as nn import torch from torch.autograd import variable f...