機器學習 向量的各種積有哪些及其表示

2021-09-29 13:13:53 字數 1468 閱讀 4061

向量積(叉積,叉乘,外積) a×b = |a| * |b| * sinθ

1.概述

定義向量積,數學中又稱外積、叉積,物理中稱矢積、叉乘,是一種在向量空間中向量的二元運算。與點積不同,它的運算結果是乙個向量而不是乙個標量。並且兩個向量的叉積與這兩個向量和垂直。其應用也十分廣泛,通常應用於物理學光學和計算機圖形學中。

2.表示方法

兩個向量a和b的叉積寫作a×b(有時也被寫成a∧b,避免和字母x混淆)。

3.定義

向量積可以被定義為:

向量積|c|=|a×b|=|a||b|sin

即c的長度在數值上等於以a,b,夾角為θ組成的平行四邊形的面積。

而c的方向垂直於a與b所決定的平面,c的指向按右手定則從a轉向b來確定。

*運算結果c是乙個偽向量。這是因為在不同的座標系中c可能不同。

4.性質

行列式計算法如下:

5.座標運算

設=(),=()。i,j,k分別是x,y,z軸方向的單位向量,則:

a×b=(-)i+(-)j+(-)k,為了幫助記憶,利用三階行列式,寫成det

6.證明

為了更好地推導,我們需要加入三個軸對齊的單位向量i,j,k。

i,j,k滿足以下特點:

i=jxk;j=kxi;k=ixj;

kxj=–i;ixk=–j;jxi=–k;

ixi=jxj=kxk=0;(0是指0向量)

由此可知,i,j,k是三個相互垂直的向量。它們剛好可以構成乙個座標系。

這三個向量的特例就是i=(1,0,0)j=(0,1,0)k=(0,0,1)。

對於處於i,j,k構成的座標系中的向量u,v我們可以如下表示:

u=xui+yuj+zu*k;

v=xvi+yvj+zv*k;

那麼uxv=(xui+yuj+zuk)x(xvi+yvj+zvk)

=xuxv(ixi)+xuyv(ixj)+xuzv(ixk)+yuxv(jxi)+yuyv(jxj)+yuzv(jxk)+zuxv(kxi)+zuyv(kxj)+zuzv(kxk)

由於上面的i,j,k三個向量的特點,所以,最後的結果可以簡化為

uxv=(yuzv–zuyv)i+(zuxv–xuzv)j+(xuyv–yuxv)*k。[1]

7.與數量積的區別

注:向量積≠向量的積(向量的積一般指點乘)

一定要清晰地區分開向量積(矢積)與數量積(標積)。見下表。[1]

8.應用

(1)已知空間三個點,計算三角形的面積。

(2)判斷空間四點是否共面

初識機器學習演算法有哪些?

機器學習無疑是現在資料分析領域的乙個重要內容,凡事從事it工作領域的人都在平時的工作中或多 或少的會用到機器學習的演算法。機器學習有很多演算法,不過大的方面可分為兩類 乙個是學習的方式,乙個是演算法的類似性。學習方式 根據資料型別的不同,對乙個問題的建模有不同的方式。在機器學習或者人工智慧領域,人們...

機器學習實戰 5 支援向量積

1 是一種二分類模型,它的目的是尋找乙個超平面來對樣本進行分割,分割的原則是間隔最大化,最終轉化為乙個凸二次規劃問題來求解。由簡至繁的模型包括 當訓練樣本線性可分時,通過硬間隔最大化,學習乙個線性可分支援向量機 當訓練樣本近似線性可分時,通過軟間隔最大化,學習乙個線性支援向量機 當訓練樣本線性不可分...

機器學習中,常用的損失函式有哪些?

1 0 1 loss 記錄分類錯誤的次數。2 hinge loss 最常用在svm中 最大優化間隔分類 中,對可能的輸出t 1和分類器分數y,值y的hinge loss定義如下 l y max 0.1 t y 3 log loss對數損失 對於 對數函式 由於其具有 單調性 在求最優化問題時,結果與...