機器學習函式

2021-09-27 13:55:21 字數 1859 閱讀 8187

1 tf.shape()

import tensorflow as tf

import numpy as np

a_array = np.array([[

1,2,

3],[

4,5,

6]])

b_list =[[

1,2,

3],[

3,4,

5]]c_tensor = tf.constant([[

1,2,

3],[

4,5,

6]])

with tf.session(

)as sess:

print

(sess.run(tf.shape(a_array)))

print

(sess.run(tf.shape(b_list)))

print

(sess.run(tf.shape(c_tensor)))

>>

>[2

,3],

[2,3

],[2

,3]

2 x.get_shape().as_list()

x.get_shape(), 只有tensor才可以使用這種方法,返回的是乙個元組

import tensorflow as tf

import numpy as np

a_array = np.array([[

1,2,

3],[

4,5,

6]])

b_list =[[

1,2,

3],[

3,4,

5]]c_tensor = tf.constant([[

1,2,

3],[

4,5,

6]])

print

(c_tensor.get_shape())

print

(c_tensor.get_shape(

).as_list())

with tf.session(

)as sess:

print

(sess.run(tf.shape(a_array)))

print

(sess.run(tf.shape(b_list)))

print

(sess.run(tf.shape(c_tensor)))

>>

>(2

,3),

[2,3

],[2

,3],

[2,3

],[2

,3]

3 tf.split()

tf.split(dimension, num_split, input):dimension的意思就是輸入張量的哪乙個維度,如果是0就表示對第0維度進行切割。num_split就是切割的數量,如果是2就表示輸入張量被切成2份,每乙份是乙個列表。

import tensorflow as tf

import numpy as np

a =[[1

,2,3

],[4

,5,6

]]x = tf.split(1,

3,a)

with tf.session(

)as sess:

c = sess.run(x)

for ele in c:

print

(ele)

>>

>[[

1],[

4]][

[2],

[5]]

[[3]

,[6]

]

score函式 機器學習 機器學習(一) 損失函式

優化是應用數學的乙個分支,也是機器學習的核心組成部分。實際上 機器學習演算法 模型表徵 模型評估 優化演算法其中,優化演算法起到的作用就是在模型表徵空間中找到模型評估指標最好的模型。不同的模型表徵和模型評估通常使用著不同的優化演算法。因此,為了利用優化演算法來對模型進行優化,我們通常需要給出乙個模型...

機器學習 代價函式

每對資料叫訓練樣本。我們用 x,y 表示乙個訓練樣本。x就是輸入變數 通俗的說就是x軸表示的變數 y就是目標變數,也就是我們要 的變數。給演算法一些資料集也就是訓練集,然後演算法會形成乙個函式h,我們稱它為假設函式,我們利用這個函式來 結果。單變數線性回歸方程 通俗的說就是一元一次線性方程,其中一些...

機器學習 機器學習中的損失函式

在機器學習中,損失函式是用來衡量 結果與實際值之間差別大小的指標。一般的損失函式有5五種 l m 01ifm 0ifm 0 主要用於maximum margin的分類演算法,如svm演算法。hinge損失函式的描述如下式 l y max 0 1 t y 這裡t 1 or 1 y是 值,而t 是實際真...