cs231n 注意力模型

2021-09-07 14:02:48 字數 973 閱讀 9467

弊端是影象資訊只在初始化時有用到

每一層具有三個輸入:隱藏狀態 + 注意力特徵向量 + 詞向量

上圖介紹了兩種計算注意力特徵向量的方式,cnn特徵和rnn產生位置分布的結合方式,d維指的應該是feature深度

這裡展示了兩種注意力向量生成方式的異同,可以看到soft模式更為發散且更為直觀,當然比較厲害的是這是無監督學習出來的結果(神經網路麼)

其他的soft模式展示

但是sotf模式不是隨意關注的,它的關注區域大小也是收到感受野大小影響的(廢話... ...)

空間轉化器:彌補soft模式關注區受限制的問題

關注位置裁剪可學習化:

裁剪操作是不可微的,但是可以通過引數使得這一過程連續,即建立座標對映,這樣就可以將關注位置到輸入影象這一過程可學習化,整合入網路

cs231n筆記總結

cs231n的課程以及作業都完成的差不多了,後續的課程更多的涉及到卷積神經網路的各個子方向了,比如語義分割 目標檢測 定位 視覺化 遷移學習 模型壓縮等等。assignment3有涉及到這些中的一部分,但需要深入了解的話還是得看 了。所以在看 前把之前已學的知識,筆記和作業 一起做個整理。部落格裡主...

CS231n理解筆記

linear classification notes 該方法的組成 乙個是評分函式 原始影象資料到類別分值的對映 乙個是損失函式 用來量化 分類標籤的得分和真實標籤之間的一致性。影象分類的任務是從已有的固定分類標籤中選擇乙個並分配一張影象,我們介紹了knn分類器,該分類器的基本思想是通過將測試影象...

cs231n 學習 前言

吐槽 我為啥學這個 學這門課之前,到官網 要科學上網哦 查了下相關資訊,有部分需求 要求1,得會 python 且熟悉 c c 其實我是不會 python 的,但語言只是一種工具,不該成為鴻溝,且這麼流行的語言上手也不應該難吧 盲目自信一把 要求2,微積分和線性代數,嗯,這個不是問題。要求3,概率統...