深度學習中的大牛

2021-08-10 13:56:00 字數 1486 閱讀 5283

只怪自己太貪玩,知道的少,不小心發現大牛都是一起的,圈子是真的小。

大牛總是自帶光環與神秘感。最近一直晃蕩在學術圈,真的是很想志輝哥哥的,哼,思想太容易開小差。

(牛1)geoffrey hinton 傑弗里·辛頓

geoffrey hinton,被稱為「神經網路之父」、「深度學習鼻祖」,他曾獲得愛丁堡大學人工智慧的博士學位,並且為多倫多大學的特聘教授。現在的hinton:一半歸多倫多大學,一半歸google大腦。

(牛2)yann lecun 延恩·勒昆

yannlecun是個法國人,辛頓的學生。他是紐約大學終身教授,還是紐約大學資料科學中心的創始人,以及facebook人工智慧研究部門(fair)負責人。

(牛3)yoshua bengio 約書亞·本吉奧

yoshua bengio 是蒙特婁大學的教授,他的 a neural probabilistic language model」 這篇**開創了神經網路做 language model 的先河。裡面的思路影響、啟發了之後的很多基於神經網路做 nlp的文章。機器學習開源框架theano的開發者之一。

(牛4)michael jordan 邁克喬丹

(牛5)andrew ng 吳恩達

yann lecun是geoffrey hinton的博士

yoshua bengio是michael jordan的博士後

yann lecun與yoshua bengio在at&t bell labs是同事(1992-1993)

hugo larochelle讀的 yoshua bengio 的博士, 讀的 geoffrey hinton 的博士後

marcaurzlio ranzato讀的 yann lecun的博士, 讀的 geoffrey hinton 的博士後

活到老,學到老。hinton大牛都70歲了,還活躍在學術圈,我相信他是熱愛這份工作的,想起了大愛的***,做自己喜歡的事,應該會不遺餘力的。我也要堅持,做自己喜歡的事。

學習 積累 大牛

學習是什麼?為什麼要學習?如何學習?抓住重點學習。什麼是重點?能解決你的問題,那就是重點,所以要明確問題是什麼 目的是什麼 東西是學不完的。積累是什麼?為什麼要積累?怎麼積累?記錄關鍵點。站在巨人的肩膀上思考問題才更有效。從前者的 和思路中得到的。大牛是什麼?為什麼是大牛?怎麼成為大牛?主動對關鍵點...

深度學習中的Batch Normalization

batch normalization 假設我們有兩組training data x1 1,2,3,x 1 1,2 3,x2 100,200,300,x2 100,200,300,當我們利用這組資料進行機器學習的時候,會發現對於第一筆資料x1 x 1,它的梯度會比第二筆資料x2 x 2的梯度要小得多...

深度學習中的Batch Normalization

batch normalization原理 為了減少深度神經網路中的internal covariate shift,中提出了batch normalization演算法,首先是對 每一層 的輸入做乙個batch normalization 變換 批標準化 bactch normalization,...