深度學習(1)一些常見詞解釋

2021-08-13 08:52:16 字數 1559 閱讀 3050

在看深度學習資料時一直提到回歸這個詞,最近在看rcnn時又提到邏輯回歸。

1 回歸問題:

回歸分析**法,最早是在分析市場現象自變數和因變數之間相關關係的基礎上,建立變數之間的回歸方程,並將回歸方程作為**模型,根據自變數在**期的數量變化來**因變數關係大多表現為相關關係。

在深度學習中,我的理解就是根據資料擬合函式以後,再**時將**的值**在(回歸到)擬合函式上,所以叫回歸。

2 邏輯回歸的定位:

首先,邏輯回歸是一種分類(classification)演算法。比如說:

邏輯回歸是網際網路上最流行也是最有影響力的分類演算法,也是深度學習(deep learning)的基本組成單元。

在神經網路中,啟用函式就是一種邏輯回歸。

我對邏輯回歸的通俗理解是,回歸就是把資料去擬合(回歸)原始的資料趨勢(所以稱為回歸)。而邏輯回歸則是在意義上(邏輯上)去擬合資料屬於哪種類,即在邏輯上去定義,去判斷,去分類。

3 聚類:

簡單地說,聚類是指事先沒有「標籤」而通過分析找出事物之間存在聚集性原因的過程。在深度學習中,應該就是非監督學習,網路通過學習,自動將特徵相同的類識別出來的過程。
分類聚類區別:
分類是事先定義好類別 ,類別數不變 。分類器需要由人工標註的分類訓練語料訓練得到,屬於有指導學習範疇。聚類則沒有事先預定的類別,類別數不確定。 聚類不需要人工標註和預先訓練分類器,類別在聚類過程中自動生成 。
4 rcnn中正負樣本:
負樣本: 給定一張訓練影象 --> 形成原始的過分割區域 --> 使用本文ss方法對區域進行融合,形成一系列最可能的候選區域 --> 計算每個候選區域與真實標記區域gt之間的重合度,如果區域a與gt的重合度在20-50%之間,而且a與其他的任何乙個已生成的負樣本之間的重合度不大於70%,則a被採納為負樣本,否則丟棄a,繼續判別下乙個區域;

就是那些識別出來分錯類的樣本。

正樣本: 就是那些手工標記的樣本。

識別出來正確的樣本。

5 非極大值抑制:

從一張中找出n多個可能是物體的矩形框,然後為每個矩形框為做類別分類概率:

演算法先找出了一堆的方框,我們需要判別哪些矩形框是沒用的。非極大值抑制:先假設有6個矩形框,根據分類器類別分類概率做排序,從小到大分別屬於車輛的概率分別為a、b、c、d、e、f。

(1)從最大概率矩形框f開始,分別判斷a~e與f的重疊度iou是否大於某個設定的閾值;

(2)假設b、d與f的重疊度超過閾值,那麼就扔掉b、d;並標記第乙個矩形框f,是我們保留下來的。

(3)從剩下的矩形框a、c、e中,選擇概率最大的e,然後判斷e與a、c的重疊度,重疊度大於一定的閾值,那麼就扔掉;並標記e是我們保留下來的第二個矩形框。

就這樣一直重複,找到所有被保留下來的矩形框。

6.子取樣:

就是平時所說的池化的另一種說法。

7.region proposal與anchor的區別

經過rpn網路後產生300個 region proposal,每個根據不同比例產生9個anchor。

Linux一些常見命令及解釋

ls 顯示當前路徑下的檔案和資料夾 ls a 顯示當前路徑下的所有檔案和資料夾 包括隱藏檔案 ls l 以列表方式顯示當前路徑下檔案和資料夾的詳細資訊 ls h 以列表方式顯示當前路徑下檔案和資料夾的詳細資訊,並用合適的單位來表示檔案的大小 ls help 檢視命令幫助文件 上述a l h是ls命令...

深度學習一些學習鏈結(補充)

機器學習庫 sklearn,scikit 乙份pytorch web ml notes ml assignments 班級學霸整理,照搬的。適合新手學習,比如我。都要看得懂,各種 原始碼基本兩種都有,有的用pytorch寫有的用tf.企業招聘的要求也是一般要求精通一門框架,熟悉一門其他框架。新手可以...

關於深度學習的一些思考

問1 有監督學習中,機器學習是什麼?答1 機器學習就是先假設乙個函式,使用訓練樣本來選取最優的引數 當有新樣本時,把特徵輸入已訓練好的函式中,得到 值。問2 神經網路中,神經元的作用是什麼?答2 1 對輸入特徵進行線性加權 z w1 a1 w2 a2 w3 a3 b,其中wi是權重,ai是特徵值,b...