機器學習小短片

2021-09-28 00:24:53 字數 1346 閱讀 2381

神經網路技巧

強化學習

進化演算法

有趣的機器學習系列 | 莫煩python

監督學習(有資料有標籤)

無監督學習(有資料無標籤)

半監督學習

神經網路

生物:產生新連線

人工:誤差反向傳遞

卷積神經網路 cnn

迴圈神經網路 rnn

寫**,寫程式,作曲

序列化資料,參考以前的狀態

解決:長短期記憶 lstm

自編碼(無監督)

對輸入資料(無監督)進行壓縮 (+ 解壓)。降維

生成對抗網路 gan

generator用隨機數生成,discriminator判斷

黑盒神經層的代表特徵可以提取

遷移學習

借鑑已有經驗

梯度下降

區域性最優

神經網路技巧

檢驗神經網路

訓練資料70% + 測試資料30%

誤差曲線,精確度曲線

特徵標準化:預處理,使跨度盡量統一

好特徵:有區分度,多維特徵,避免無意義特徵,避免重複特徵,避免複雜特徵

激勵函式

處理不能用線性方程解決的問題,用激勵函式「掰彎」線性函式

過擬合解決:增加資料量,正則化,dropout

加速神經網路訓練

sgd:分塊批量

momentum,adagrad,rmsprop,adam

處理不均衡資料

更多資料,換個評判方式,重組資料,修改演算法

批正則化

讓每一層的值在有效的範圍內傳遞

l1 l2 正則化

誤差公式加項

強化學習

q learning

q表——潛在獎勵

sarsa

sarsa(lambda)

回合更新

deep q network (dqn)

策略梯度 policy gradients

actor critic

deep deterministic policy gradient (ddpg)

asynchronous advantage actor-critic (a3c)

並行運算,有效利用計算資源, 提公升訓練效用

alphago zero

進化演算法

遺傳演算法

進化策略

神經網路進化

學習小筆記 機器學習

看書的時候做點筆記,偶爾翻出來看看才能真正掌握 否則很快就遺忘了 艾賓浩斯遺忘曲線 1 整合學習bagging基於自助取樣法 給定包含 m 個樣本的資料集,我們先隨機取出乙個樣本放入取樣集中,再把該樣本放回初始資料集,使得下次取樣時該樣本仍有可能被選中,這樣,經過 m次隨機取樣操作,我們得到含 m ...

機器學習小練習

import pandas as pd from sklearn.tree import decisiontreeclassifier from sklearn.model selection import train test split from sklearn.metrics import a...

機器學習小概論

機器學習發展歷程 人類一直試圖讓機器具有智慧型,也就是人工智慧 artificial intelligence 從上世紀50年代,人工智慧的發展經歷了 推理期 通過賦予機器邏輯推理能力使機器獲得智慧型,當時的ai程式能夠證明一些著名的數學定理,但由於機器缺乏知識,遠不能實現真正的智慧型。因此,70年...