深度學習中的資料增強

2021-08-24 23:31:10 字數 1673 閱讀 9468

關於計算機視覺領域資料增強的一些常用的方法一般而言,比較成功的神經網路需要大量的引數,許許多多的神經網路的引數都是數以百萬計,而使得這些引數可以正確工作則需要大量的資料進行訓練,而實際情況中資料並沒有我們想象中的那麼多

增加訓練的資料量,提高模型的泛化能力

增加雜訊資料,提公升模型的魯棒性

如何獲得大量的資料 :

一種方法是獲得新的資料,這種方法比較麻煩,需要大量的成本,而第二種方法則是對資料進行增強,即利用已有的資料比如翻轉、平移或旋轉,創造出更多的資料,來使得神經網路具有更好的泛化效果。

離線增強 : 直接對資料集進行處理,資料的數目會變成增強因子 x 原資料集的數目 ,這種方法常常用於資料集很小的時候

首先定義增強因子 : 指的是資料做離線增強之後增長的倍數。

翻轉 :增強因子 2 或 3

資料翻轉是一種常用的資料增強方法,這種方法不同於旋轉 180 這種方法是做一種類似於鏡面的翻摺。

旋轉 : 增強因子 2 到 4

旋轉就是順時針或者逆時針的旋轉,注意在旋轉的時候, 最好旋轉 90 - 180 度否則會出現尺度的問題

縮放 :增強因子任意

影象可以被放大或縮小。放大時,放大後的影象尺寸會大於原始尺寸。大多數影象處理架構會按照原始尺寸對放大後的影象進行裁切。我們將在下一章節討論影象縮小,因為影象縮小會減小影象尺寸,這使我們不得不對影象邊界之外的東西做出假設。下面是影象縮放的例子。

裁剪 :增強因子任意

這種方法更流行的叫法是隨機裁剪,我們隨機從影象中選擇一部分,然後降這部分影象裁剪出來,然後調整為原影象的大小

平移 : 增強因子任意

平移是將影象沿著 x 或者 y 方向 (或者兩個方向) 移動。我們在平移的時候需對背景進行假設,比如說假設為黑色等等,因為平移的時候有一部分影象是空的,由於中的物體可能出現在任意的位置,所以說平移增強方法十分有用。

新增雜訊 :增強因子任意 看雜訊的型別

過擬合通常發生在神經網路學習高頻特徵的時候 (因為低頻特徵神經網路很容易就可以學到,而高頻特徵只有在最後的時候才可以學到) 而這些特徵對於神經網路所做的任務可能沒有幫助,而且會對低頻特徵產生影響,為了消除高頻特徵我們隨機加入雜訊資料來消除這些特徵。

影象增強非常必要,我也有過親自的實驗,特別是有些**中,如果不進行增強,就無法達到**中提到的效果,下面展現一下增強的效果示意圖 :

深度增強學習入門筆記(一)

知乎專欄智慧型單元的學習筆記,僅為自己學習所用,侵刪。openai的三個主要研究方向 1.深度生成模型 deep generative model 通過學習現有的資料生成新的資料。相關研究 1 otoro.net 學習文字自動生成新的文字 2 deep dream neural art 畫風遷移 3...

深度增強學習入門筆記(二)

知乎專欄智慧型單元的學習筆記,就真的只是一邊看一邊記的而已,僅為自己學習所用,侵刪。是增強學習領域最重要的乙個方程。使用價值函式進行決策就需要計算這個函式,那怎麼計算呢?bellman方程。簡而言之,bellman方程的作用 表明價值函式是可以迭代進行計算的。將價值函式的公式 a 表示,s代表狀態,...

深度增強學習前沿演算法思想

2016年 alphago 計算機圍棋系 勝頂尖職業棋手李世石,引起了全世界的廣泛關注,人工智慧進一步被 推到了風口浪尖。而其中的深度增強學習演算法是 alphago 的核心,也是通用人工智慧的實現關鍵。本文將 帶領大家了解深度增強學習的前沿演算法思想,領略人工智慧的核心奧秘。前言深度增強學習與通用...