Keras其中概念和函式的理解

2021-08-28 17:48:43 字數 512 閱讀 3930

一、shape/input_shape

shape:

在keras中,資料是以張量的形式表示的,張量的形狀稱之為shape,表示從最外層向量逐步到達最底層向量的降維解包過程。比如,乙個一階的張量[1,2,3]的shape是(3,); 乙個二階的張量[[1,2,3],[4,5,6]]的shape是(2,3);乙個三階的張量[[[1],[2],[3]],[[4],[5],[6]]]的shape是(2,3,1)。

input_shape:

就是指 輸入張量的shape,例如input_dim= 64,說明說入的是乙個64維向量,相當於乙個一階張量,它的shape是(64,)

input_shape =(64,)

input_dim = input_shape(input_dim,)

input_dim, input_length = input_shape(input_length, input_dim)

對keras函式中mask的個人理解

由於keras中許多網路並不支援mask,但最近本菜需要在自己的網路中實現mask,如果想讓keras中的自定義函式支援mask,就必須要實現comput mask方法,因為在官方的文件中我並沒有找到想要的東西,因此只能通過看原始碼的方式來學習,下面這一段就是keras中masking層的原始碼 c...

keras中的目標函式和優化函式

目標函式就是我們常說的損失函式,優化函式就是我們常說的反調引數的函式,包括 梯度下降函式 隨機梯度下降函式等。目標函式 keras文件 詳細請參照theano的官方文件,優化函式 keras文件 下面是乙個自定義的優化器的乙個demo model sequential model.add dense...

pytorch和keras損失函式區別

學習pytorch首先是要裝pytorch啦!但是這是乙個磨人的小妖精,傳統的用pip可是裝不上的。為此,可以參考我的另一篇部落格,這可是我研究一天的結晶!這篇筆記是 關於機器學習損失函式的,根據不同的應用場景,需要選擇不同的損失函式。線性回歸因為 的數值有具體的意義,所以損失函式一般使用的均方誤差...