學習日記2020 10 21(注意力模組)

2021-10-25 01:24:34 字數 758 閱讀 6870

注意力模組:

物體間或者物體內一些區域的關聯性是有助於目標檢測任務的,但是之前沒人有實際的證明如何使用這種關聯性是一定可行的,本文作者就嘗試在檢測網路中新增注意力模組。《relation networks for object detection》

新增鏈結描述

計算機視覺(computer vision)中的注意力機制(attention)的基本思想就是想讓系統學會注意力——能夠忽略無關資訊而關注重點資訊

主要是三種注意力域,1空間域(spatial domain),2通道域(channel domain),3混合域(mixed domain)。–時間域(time domain)

1spatial transformer networks(stn)pooling的方法太過於暴力,直接將資訊合併會導致關鍵資訊無法識別出來,所以提出了乙個叫空間轉換器(spatial transformer)的模組,將中的的空間域資訊做對應的空間變換,從而能將關鍵的資訊提取出來。

這是空間變換網路(spatialtransformer network)中最重要的空間變換模組,這個模組可以作為新的層直接加入到原有的網路結構,比如resnet中。空間轉換器中產生的取樣矩陣是能夠將原圖中關鍵的訊號提取出來

2基本的訊號變換的角度去理解。訊號系統分析裡面,任何乙個訊號其實都可以寫成正弦波的線性組合,經過時頻變換《注4>之後,時域上連續的正弦波訊號就可以用乙個頻率訊號數值代替

不同通道的值乘上不同的權重,從而可以增強對關鍵通道域的注意力

新增鏈結描述

文字蘊含日記2 注意力機制

注意力attention,人類在觀察周圍環境時,總會優先注意到一些部分來獲取自己需要的資訊,這些部分就代表了周圍環境的某種描述。而注意力機制通過學習不同區域性的重要性,再結合起來。對attention常見的有三種理解 1 從數學公式和 實現上attention可以理解為加權求和 2 從形式上atte...

機器學習 注意力機制

深度學習中的注意力機制從本質上講和人類的選擇性視覺注意力機制類似,核心目標也是從眾多資訊中選擇出對當前任務目標更關鍵的資訊注意力機制就是一種加權 卷積是如何提取特徵的?卷積操作實際上是向量的內積,而兩個向量的內積代表他們的相關程度 卷積是是乙個線性的過程,為了增加非線性特徵,加入了池化層和啟用層。這...

attention注意力機制學習

目前主流的attention方法都有哪些?jaylou婁傑的回答 知乎 目前主流的attention方法都有哪些?張戎的回答 知乎 attention機制解讀 高峰ouc的文章 知乎 transformer詳解 一 attention機制詳解 被包養的程式猿丶的文章 知乎 簡說seq2seq原理及實...