機器學習知識匯入

2021-06-29 00:12:19 字數 1700 閱讀 7110

每隔一段時間如果沒有看相關文獻,就會把machine learning的知識忘了一些,所以打算寫一篇來給將來的自己溫故知新使用。

1、world?

世界這麼大,從表面上看充斥著有規律和無規律的事件。有規律,代表著已被人類歸納總結出來了,具有一定的週期性、原因可循以及未來可**;再來看看所謂的無規律,實際上是相對」有規律「而定義的:發生隨機、原因未知、未來不可測。

問題來了,真的是這樣嗎?

根據統計學基礎,概率是基於大量重複試驗,事件發生佔比趨於穩定的一種可能性度量。請注意這裡有個詞是」重複「。實際上,我們所處的世界只是宇宙中極微小的一部分,因為我們觀察到的事件都是發生在有限時間(最長不過宇宙**到現在,或者人類文明到現在)、有限空間(地球上,更多時候是乙個國家、乙個地區)。在有限時間和空間內,有些事件自然不可能重複或大量重複,所以在人類認知範圍內把它界定成」無規律「。

綜上所述,時間、空間、感知的有限性,使得人類不得不去通過事物的關聯去發現更多規律,以便讓它們在自然中得到成長。老師在一門課上告訴過我們說:「學習完概率統計有時候會顛覆你對這個世界的看法。「對此我很贊同。先前你所認為的世界觀也許是紛繁複雜,但是也許背後都是在用極其簡單的規則在運作大自然這台大機器。」世界是簡單的,亦是複雜的。「

2、why machine learning?

從上一章我們知道,世界背後應是簡單規則的交織和疊加。然而經過時間積累,它已經越來越複雜,要發現它背後的規律也越來越不容易。這一方面需要人類的共同智慧型,另一方面也需要這樣對世界具有極高理解的人劃開乙個口讓眾人的智慧型從這個入口去挖掘更多東西。

隨著計算機的發展,由於人類在前幾次的工業革命中都成功運用了機器來幫助解決生產、解放生產力,他們不禁思考:在這輪資訊革命中機器(包括計算機)能幫助人類減少什麼?體力勞動或者腦力勞動?

我們回顧一下人類思考問題的模式:在無知時,我們通過感官接收來自外界的刺激(光、聲、觸覺),並且對這些刺激做出原始反應(嬰兒的哭、擺手、踢腿);父母針對這些反應用外部的重複性動作加以訓練,例如哭的時候會哄,頑皮時候不理孩子等等,經過重複訓練後在大腦中形成了這樣一種思維分路:哭得不到獎勵,乖乖的可以獲得獎勵。以此為基礎和經驗,又再學習更複雜的行為,所以我們會發現無論教孩子發音或者動作父母都需要耐心地重複,孩子的大腦也會一直收到反饋與刺激直到學會為止。

3、how machine learning?

好,既然答案是肯定的,也許你不禁要問:為什麼現在計算機還無法替代人腦?前面說了,人類大腦構造與反饋機制是學習基礎,計算機的構造和人腦構造相差甚遠(雖然現在已經有科學家在研究神經計算機,但離實用領域尚需實驗與時間)。計算機的每個判斷或計算結果需要經過無數個」是「、」否「的子判斷來得到最終結果。對於某些計算機的判斷來說甚至用的是最原始方式:將所以可能路徑走一遍選擇出來。而人可不是這樣,對於稀鬆平常的事大腦已經對其可能性有了足夠的經驗支援。例如在超市看到了快過期的酸奶,有的人不介意,有的人則堅決不買。原因在於大家根據自己先前喝酸奶的經驗以及聽到的周圍人喝了這樣酸奶反應得出了自己的結論。如果是計算機來回答這個問題是什麼思維?計算機需要找到乙個樣本,可能是一千、一萬甚至更多,需要對樣本分類:男的、女的、小孩、老人等等,根據之前的經驗結果推出是該買還是不該買。

有沒發現,其實二者都是基於經驗的發掘,人對於這個判斷不會每次都去詳細想這個結果怎麼得來,而計算機需要知道確切的方式和步驟(事實上這個方式和步驟也是人類經過總結而告訴計算機的)。對於這些經驗,人類無法直接告訴計算機,但是它可以識別資料,所以我們可以通過匯入資料讓機器通過一定的方法去發現資料背景或者這個資料模型背後的一些規律,從而進行評估、**、推薦。這就是機器學習的工作基本原理。

機器學習相關知識

之前學習的東西很雜,都是想到哪個演算法,就去學。並沒有很系統的去理解他們的區別,這樣可能就沒辦法理解其真正的含義。再就是一心想著找實習,可是沒有足夠的水平水平很難去做這方面專案,即使找到了,可能也很low 所以其實我要做的是靜下心來,系統的,深入的去學習 理解和實現這些演算法 知識。常用的機器學習演...

機器學習知識總結

偏差表示輸出的期望與真實標記的差別,不考慮雜訊的話真實標記就是觀測到的資料,考慮雜訊的話觀測的值有可能是雜訊 方差表示 值的變化範圍,也就是 值離其期望的距離,等於 值減去 值的期望的平方的期望e f ef 的平方。模型的泛化誤差 方差 偏差 雜訊 如果不考慮雜訊就是方差 偏差分解 泛化的效能取決於...

機器學習相關知識

1.什麼是 size與epoch。假設train data一共有10000個資料,我們在訓練時並不是minimize整個train data的loss,而是把train data分為好多部分,每個部分的資料量的大小就是 size。如果 size 20,那在訓練時把20個資料作為一組,在這20個資料上...