神經網路2

2021-07-11 15:09:10 字數 630 閱讀 8762

利用神經網路,採用合適的權重來實現邏輯電路中的與、或、非門等的實際計算

多個各種功能的神經元的疊加計算,有點類似agent的思想,將不同功能的單位組合起來實現同一目的

處理多種分類問題的模型,神經網路的優勢個人目前感覺就是我只需要收集簡單的資料資訊,神經網路自己進行挑選,計算,最終給出我們想要的結果,中間的權重可以通過反饋來自我修正。不過個人感覺,有點像黑匣子,因為裡面的神經元過多,各自的權重我們其實很難知道,這就造成了不確定性。例如將來人工智慧他選擇如何對待人類,我們其實是不知道的,對人類的看法的·權重不清楚。突然感覺人類個性差異好像和神經元權重不同有關係啊,因為環境的訓練樣本不同,造就了權重大小差異,也就造成了社會的多樣性。我可以研究人類學了……

神經網路 學習(2)

初始化,不能一開始全部全設成0,因為這樣的話,隱層結點就會變得全部一樣,體現不出神經網路多層多結點的優越性。咦 如果層數很多的話,超過三層,那麼有個潛規則就是中間的幾層的隱節點數一般都是一樣大小 隱節點數稍微大點輸入結點個數這個是極好的。下面就是幾個步驟 第一步,隨機化引數 第二步,前向得到乙個結果...

淺層神經網路 2

搭建乙個神經網路時,你可以選擇隱藏層中或者輸出層中使用什麼啟用函式 actuation function 到目前為止,我們一直使用的是sigmoid函式,但其他函式效果會更好。在實際訓練中,有個函式表現總是比sigmoid好,叫tanh 雙曲正切函式 它的輸出是 1,1 從數學上,它其實是sigmo...

搭建神經網路2

神經網路共有幾層 或當前是第幾層網路 都是指的計算層,輸入不是計算層,所以a為第一層網路,a是乙個一行三列矩陣。我們把每層輸入乘以線上的權重w,這樣用矩陣可以計算出y了。a tf.matmul x,w1 y tf.matmul a,w2 由於需要計算結果,就要用with結構實現,所有變數初始化過程 ...