學習觀(二) 人工智慧入門理解

2021-09-25 06:55:49 字數 2521 閱讀 4970

前提/背景知識:

本圖是所有ml和dl的切入口

黑盒應該指代t,而通過對e和f的處理(構造新的評價函式、特徵工程等),來優化這個**p

人類天生的四種能力

但在學校考試卻僅僅強化了記憶與分析兩方面的能力,大大弱化了聯想和創新的能力

而聯想能力的高低會對記憶和分析能力訓練的成本有強反饋作用,有的人舉一反三,有的人死記硬背就在於此;有的人說兩句就能上手,但有的人卻要考題海戰術、趕鴨子上架。

創新能力則是在前三者基礎做出價值取向,即朝著更適應環境的方向發展,比如社會***,又比如瓦特改良蒸汽機。

什麼是學習:

智慧型的核心內容——關聯能力

其中l是損失函式即對原有評價函式(比如,人腦現有認知)的調整。

霍金:intelligence is the ability to adapt to change.

總結:學習就是對環境的適應和自我提公升的過程!

第二步:尋找f

方向二:加入先驗知識,調整假設空間-引數驅動

引數驅動和任務驅動的區別,引數驅動主要任務學習是學習關聯f,而任務驅動是在學習f的同時也要學習e(主動適應環境)!而且現有的引數驅動都很難處理高階突變論的問題~

深度神將網路為什麼比資料驅動的方法高效

1、因素(引數)共享:

表述1:新狀態由若干舊狀態並行組合形成。

表述2:會對變體(複雜組合)進行拆分,其低層權重(引數/因素,準確說應該是子系統)會被共用。可間接增強-關聯性/先驗性/並行性

2、迭代變換 :在淺層網路中只負責學習自己的關聯,  而在深層網路中,那些共用相同因素的樣本也會被間接的訓練到。

自然界的先驗知識:

並行:新狀態由若干舊狀態並行組合形成。

迭代:新狀態由已形成的狀態再次迭代形成。

小結:

(1)神經網路的高效:「學習的過程是因素間關係拆分,關係的拆分是資訊的回卷,資訊的回卷是變體的消除,變體的消除是不確定性的縮減」

(2)ann的變體-rnn、cnn就是提供了更多的十分具有針對性的先驗知識,可以縮小搜尋的可能性空間,排除掉那些噪音的規律所帶來的額外干擾。

設計深度神經網路理念與原則

設計dl的關鍵在於如何拆分與合併——演化出乙個能更好關聯t的f的。

通俗的說就是,如何共享這些引數的,這個網路框架又是由什麼子系統組成。

從此角度出發:

(1)卷積並不針對畫面識別,迴圈也不僅針對時序訊號,實質-rnn是時間共享,cnn是空間共享!

空間共享:不同區域的狀態都具有類似的規則。比如一幅畫,雖然畫面顏色斑斕,但是每個部分之間都是有一定關聯的。

(2)殘差網路實現不同層之間的組合而不是本層與下一層的簡簡單單i/o關係-跨層組合

(3)distribution(蒸餾模型,類似於rl裡面的irl-模擬學習)是標籤共享 !屬於遷移學習但又有區別。

(4)遷移學習就是f1(部分層的權重)的共享:

多工還會有資料上共享:

作用:約束f更快收斂,擴充資料集。

過擬合處理策略

機器學習專案(二) 人工智慧輔助資訊抽取(二)

字串搜尋演算法,用於在輸入的一串字串中匹配有限組 字典 中的子串。它與普通字串匹配的不同點在於同時與所有字典串進行匹配。演算法均攤情況下具有近似於線性的時間複雜度,約為字串的長度加所有匹配的數量 kmp演算法核心為部分匹配表,記錄字串中的字首集合與字尾集合的交集中最長元素的長度。根據部分匹配表,可避...

1 2人工智慧與機器學習

機器學習是一門交叉學科 模式識別,機器學習也是模式學習,只是換了個說法,機器學習把各種各樣的場景當成各種模式,把模式識別出來,相當於總結模式的規律 資料探勘,很多時候是和資料庫的知識,然後加上核心的演算法,就可以做資料探勘方面的事情了。拿到資料就會對資料進行清洗 etl 再加上一些機器學習演算法,就...

1 人工智慧(AI)概述

學習筆記。楊正洪 郭良越 劉瑋.人工智慧與大資料技術導論 清華大學出版社.kindle版本.人工智慧是一門利用計算機模擬人類智慧型行為科學的統稱,它涵蓋了訓練計算機使其能夠完成自主學習 判斷 決策等人類行為的範疇。ai是人工智慧的英文artificialintelligence的首字母的組合,它是當...