演算法工程師修仙之路 Keras(三)

2021-09-11 00:00:54 字數 417 閱讀 2028

由於這一領域是靠實驗結果而不是理論指導的,所以只有當合適的資料和硬體可用於嘗試新想法時(或者將舊想法的規模擴大,事實往往也是如此),才可能出現演算法上的改進。機器學習不是數學或物理學,靠一支筆和一張紙就能實現重大進展。它是一門工程科學。硬體

資料如果有乙個資料集是深度學習興起的催化劑的話,那麼一定是 imagenet 資料集。它包含140萬張影象,這些影象已經被人工劃分為1000個影象類別(每張影象對應1個類別)。但 imagenet 的特殊之處不僅在於其數量之大,還在於與它相關的年度競賽。

演算法只有這些改進可以訓練 10 層以上的模型時,深度學習才開始大放異彩。

這種趨勢會持續嗎

可擴充套件。

多功能與可復用。訓練好的深度學習模型可用於其他用途,因此是可以重複使用的。

演算法工程師修仙之路 Keras(四)

接下來的工作流程如下 神經網路的核心元件是層 layer 要想訓練網路,我們還需要選擇編譯 compile 步驟的三個引數。優化器 optimizer 在訓練和測試過程中需要監控的指標 metric 編譯步驟 network.compile optimizer rmsprop loss catego...

演算法工程師修仙之路 TensorFlow(二)

張量在 tensorflow 中的實現並不是直接採用陣列的形式,它只是對tensorflow 中運算結果的引用。在張量中並沒有真正儲存數字,它儲存的是如何得到這些數字的計算過程。tensorflow中的張量和 numpy 中的陣列不同,tensorflow 計算的結果不是乙個具體的數字,而且乙個張量...

演算法工程師修仙之路 TensorFlow(五)

乙個最簡單的神經元結構的輸出就是所有輸入的加權和,而不同輸入的權重就是神經元的引數。神經網路的優化過程就是優化神經元中引數取值的過程。全連線神經網路是相鄰兩層之間任意兩個節點之間都有連線的神經網路結構。乙個簡單的判斷零件是否合格的三層全連線神經網路。第二個部分為神經網路的連線結構。最後乙個部分是每個...