tensorflow階段性學習總結(一)

2021-08-17 05:34:00 字數 496 閱讀 3162

feed,fetch:可以為任意的操作(arbitrary operation)賦值或從中獲取資料,相當於鏟子

通過呼叫tf.device()方法來決定機器的那些cpu或者gpu參與計算。如: with tf.device("/gpu:1"): 表示呼叫機器的第二個gpu參與計算。

softmax regression(「hello,world!」)

2)用softmax作為啟用函式

softmax:max(a,b)是指a和b取最大值,但有時候希望較小的數也有一定概率被取到,因此按照兩個值的大小,計算出概率,按照這個概率來取a或者b,比如a=9,b=1,則取a的概率為90%,b的概率為10%。相較max(a,b)的方式柔和一些,因此叫softmax【個人理解】

3)用交叉熵作為損失函式

4)用梯度下降作為優化方式

**實現

建立神經網路,設定損失函式,設定梯度下降的優化引數

初始化變數,設定好準確度的計算方法,在session中執行

階段性學習總結

我記得剛開學第一節課的時候,婁老師曾說過學期末會給排名靠前的同學發放小黃衫,沒想到這個獎勵來得這麼突然 手動開心 能夠成為第一批獲得小黃衫的人是對我這一學期以來的努力的肯定,但同時也讓我感到了幾分壓力,使我不太敢懈怠,而這種壓力也將支援我繼續前行。在這裡,我得先感謝一下進入大學以來第乙個讓我感到耳目...

階段性學習心得

本文是在2016年c 程式設計學習結束之後所作。首先,在這裡我衷心的感謝賀利堅老師,他真的特別特別用心的為我們這群it菜鳥鋪平起飛的跑道。但是也要說一聲對不起,因為這個學期我辜負了老師,也對不起自己。因為在大學之前一直是一種被動型學習,沒有養成主動學習的好習慣,所以賀老師的這種翻轉課堂讓我感到挺不適...

階段性總結

今天聽學長交流了一些人生的經驗,便有了一些感觸,加上對自己最近的學習狀態的總結,就寫一篇部落格給自己一點指示。最近渾渾噩噩的,有幾次考試也沒考好,考後也沒總結。晚自習本想刷一些題,複習一下,或是學習一點技術。看見其他同學在打擺,便動搖了。最後心中也只是徒留深深的罪惡感。所以我也是時候對自己的未來進行...