機器學習(2 1)資料知識積累 向量

2021-07-17 03:58:25 字數 1691 閱讀 8171

在數學中,幾何向量(也稱為歐幾里得向量,通常簡稱向量、向量),指具有大小(magnitude)和方向的量。

向量可以形象化地表示為帶箭頭的線段。箭頭所指:代表向量的方向;線段長度:代表向量的大小。

向量的記法:印刷體記作粗體的字母(如abuv),書寫時在字母頂上加一小箭頭→。

[1]如果給定向量的起點(a)和終點(b),可將向量記作ab(並於頂上加→)。給空間設一

直角座標系,也能把向量以

數對形式表示,例如oxy平面中(2,3)是一向量。

而在物理學和

工程學中,幾何向量更常被稱為向量。許多

物理量都是向量,比如乙個物體的

位移,球撞向牆而對其施加的

力等等。與之相對的是

標量,即只有大小而沒有方向的量。一些與向量有關的定義亦與物理概念有密切的聯絡,例如向量勢對應於物理中的

勢能。幾何向量的概念在

線性代數中經由抽象化,得到更一般的向量概念。此處向量定義為

向量空間的元素,要注意這些抽象意義上的向量不一定以數對表示,大小和方向的概念亦不一定適用。因此,平日閱讀時需按照語境來區分文中所說的"向量"是哪一種概念。不過,依然可以找出乙個向量空間的基來設定

座標系,也可以透過選取恰當的定義,在向量空間上介定

範數和內積,這允許我們把抽象意義上的向量模擬為具體的幾何向量。

主要公式請參考參考

1、向量表達

下面先看如何表達向量

x=np.array([5,5])#可以看做是從0,0 點 到 5,5的向量

y=np.array([5,0])#可以看做是從0,0 點 到 5,0的向量

任意乙個一維資料可以看做是原點到n維空間的一條向量如下面:

x1=np.array([5,5,5,10])

y2=np.array([5,0,25,0])

2、計算內積

print np.dot(x,y)#內積計算,如果是一維資料基本是距離的平方

print x.dot(y)#也可以寫成

3、計算模

求向量模,也叫向量長度,或者是從原點到目標的距離
print "------求向量模,也叫向量長度,或者是從原點到目標的距離--------"

print "x模長="+str(np.sqrt(x.dot(x)))

print "y模長="+str(np.sqrt(y.dot(y)))

4、通過以上我們可以求出夾角

根據向量公式:cosθ=向量a.向量b/|向量a|×|向量b| (注意是點乘)

cos_e=np.dot(x,y)/(np.sqrt(x.dot(x))*np.sqrt(y.dot(y)))

print "余弦值="+str(cos_e)

angle_pi=np.arccos(cos_e)#弧度

angle_e=angle_pi*(180/np.pi)#角度

print angle_pi

print angle_e

輸出:

余弦值=0.707106781187

0.785398163397

45.0

機器學習 2 100 資料知識積累 夏農熵

1948 年,夏農提出了 資訊熵 sh ng 的概念,才解決了對資訊的量化度量問題。一條資訊的 資訊量大小和它的不確定性有直接的關係。比如說,我們要搞清楚一件非常非常不確定的事,或是我們一無所知的事情,就需要了解大量的資訊。相反,如果我們對某件事已經有了較多的了解,我們不需要太多的資訊就能把它搞清楚...

機器學習 機器學習資料積累

前面我曾經發帖推薦過網上的一些做 影象處理和計算機視覺的 有料部落格資源,原帖位址 1 首先,是豆瓣上的資料鋪子主頁 因為我個人多是用r來做資料探勘和分析,所以主頁菌的內容很對我的胃口。這個主頁裡有大量用r做資料探勘的內容。我也向博主偷師了很多。儘管主頁菌已經停止更新內容了,但是現有的部分 其實文章...

MODIS資料知識積累

二 modis資料使用的投影 三 常用的modis資料 空間解析度 250 m 1 2波段 500 m 3 7波段 1000 m 8 36波段 掃瞄寬度 2330km 時間解析度 1天 光譜波段 36個離散光譜波段,光譜範圍寬,從0.4微公尺 可見光 到14.4微公尺 熱紅外 全光譜覆蓋 軌道 70...