機器學習基礎(一)

2021-08-23 12:31:23 字數 1500 閱讀 6111

核心:資料—演算法—算力

(人工)神經網路(nn)

原理:基於tensorflow的nn:用張量表示資料,用計算圖搭建神經網路,在會話裡執行計算圖,優化引數(權重),得到模型。

過程:訓練(資料集-前向傳播-反向傳播)——推理-**和分類(前向傳播)

張量——多維陣列;

計算圖——搭建神經網路的計算過程,是承載乙個或多個計算節點的一張圖,只搭建網路,不運算;

會話——執行計算圖的過程;

資料集——準備資料集,提取其特徵灌入nn;

前向傳播——入、出、中間(權重、神經網路層配置等);

反向傳播——不斷迴圈訓練優化使loss最小(損失-loss(均方誤差、交叉熵等)、訓練方法(梯度下降、迭代、自適應法等)

注:(本人較為淺顯的認識~~~)

乙個神經網路模型的有效性、可靠性(本科資訊類,慣用這兩個詞)也是相互矛盾,此消彼長。想提高模型的可靠性、準確度可以從以下幾個方面著手:(按影響程度排序)

a、    換為更牛x的模型(如mnist由lr——>cnn,**準確率大幅度提公升)——模型網路種類

b、    增加nn層數——模型網路層數;

c、    換為更牛x的訓練方法——訓練方法

d、    增加訓練次數——訓練次數

e、    調整網路引數——權重(以上幾個,就是要得到最好的引數)

模型的可靠性提公升了,有效性必然下降,訓練和推理的耗時將大大增加。(所以要在二者間折中~~呵呵,才怪勒!!!能用錢解決的問題就不是問題,alphago的能耗==200個李世石,那又怎樣,google隨手一揮,一堆gpu搞起來,那演算法在你的pc機器上怕是永遠跑不起來,但是人家那處理器,拿錢堆起來的,速度限制?不存在的……)

有效性這個東西說白了就是靠硬體,對大公司來說其實問題不大,可靠性上去了,就是牛x。當然,從普及層面(咱普通人能夠用起來)來說,你自己的pc機上還是權衡一下演算法的可靠性和有效性吧。

說到這裡,又拐到硬體上了,就像寒武紀的夢想「讓每個人的手機上都可以有alphago」。確實,目前還比較遙遠,不過萬一實現了呢,你拿個手機就可以當鋼鐵俠~~~想想還是很不錯的~~~

附:google的deepmind的alphago採用的是深度學習+強化學習,利用強化學習得到深度學習網路的最優引數(權重),使其效能大幅度提高。在某些其他領域用這個框架去搞也是所向披靡,把人類碾壓的體無完膚。但是它不是萬能的,比如。。。。。。。(星際爭霸要是你技術高了,可以打敗alphago~~~)。現在他們團隊用這些正在搞醫療,已有很大進展,期待~~~

(哦,對了,有朝一日能進google,此生無憾~~~come on!!!)

機器學習 一 基礎介紹

2.機器學習就業需求 linkedin所有職業技能需求量第一 機器學習,資料探勘和統計分析人才 3.深度學習 deep learning 3.1 什麼是深度學習?深度學習是基於機器學習延伸出來的乙個新的領域,由以人大腦結構為啟發的神經網路演算法為起源加之模型結構深度的增加發展,並伴隨大資料和計算能力...

機器學習數學基礎 (一)

1.1分類 離散值 1.2回歸分析 連續值 資料集分為 訓練集和測試集 訓練集包含n個特徵 feature 和標籤 label 測試集只有特徵沒有標籤。任務就是根據測試集 標籤。2.1聚類 2.2關聯規則 訓練集只有特徵沒有標籤。測試集需要根據已有特徵 標籤。3.1q learning 3.2時間差...

機器學習 基礎概念 一

lstm rnn長短期記憶rnn 自編碼autoencoder 生成對抗網路gan 梯度下降 gradient descent 人體900億神經細胞組 體神經網路。神經網路的構建 可稱之人工神經元的組合,在外部刺激上不斷改變自身。人工神經網路可以分為輸入層,隱藏層 資訊的加工處理層 輸出層。中間的 ...