第乙個神經網路的訓練

2021-09-28 22:42:32 字數 476 閱讀 9188

什麼是遷移學習:

為了對遷移學習產生乙個直觀的認識,不妨拿老師與學生之間的關係做模擬。

一位老師通常在ta所教授的領域有著多年豐富的經驗,在這些積累的基礎上,老師們能夠在課堂上教授給學生們該領域最簡明扼要的內容。這個過程可以看做是老手與新手之間的「資訊轉移」。

這個過程在神經網路中也適用。我們知道,神經網路需要用資料來訓練,它從資料中獲得資訊,進而把它們轉換成相應的權重。這些權重能夠被提取出來,遷移到其他的神經網路中,我們「遷移」了這些學來的特徵,就不需要從零開始訓練乙個神經網路了 。

什麼是預訓練模型:

1) 預訓練模型就是已經用資料集訓練好了的模型。

2) 現在我們常用的預訓練模型就是他人用常用模型,比如vgg16/19,resnet等模型,並用大型資料集來做訓練集,比如imagenet, coco等訓練好的模型引數。

3 ) 正常情況下,我們常用的vgg16/19等網路已經是他人除錯好的優秀網路,我們無需再修改其網路結構。

構建第乙個神經網路

莫煩python 使用軟體anaconda3 import tensorflow as tf import numpy as np 匯入模組以後,構建乙個新增神經網路層的函式 add layer 其中需要設定的神經網路層的變數為輸入輸出和激勵函式,同時需要告知函式輸入輸出的大小 size def a...

建造第乙個神經網路

importtensorflowastf defadd layer inputs,in size,out size,activation function none 他有四個引數 輸入值,輸入的大小,輸出的大小,激勵函式 此處設定為none weights tf.variable tf.random...

自己的第乙個神經網路

最近一直在研究神經網路,於是週末空閒之餘通過一篇文章的啟發製作了乙個3層神經網路,用來計算加法 兩個輸入,3個隱含,1個輸出 訓練5000000次後效果還是不錯的,幾乎可以計算所有和小於10的加法了。import numpy as np import random def sigmoid x ret...