機器學習中的數學

2022-03-22 21:53:09 字數 1194 閱讀 8614

二、第二課時

1)極限:

通俗語言:函式f在\(x_0\)處的極限是l

數學符號:\(\lim_ f(x) = l\)

無窮如何比較大小呢?如x趨近0的時候,\(sin(x)\)和\(tan(x)\)同樣都趨近0,哪個趨近0的速度更快呢?我們可以採用求商的極限來求解:\(\lim_ sin(x)/tan(x) = \lim_ cos(x) = 1\),所以是同樣級別的無窮小

夾逼定理:如果三個函式滿足:\(f(x) <= g(x) <= h(x)\),並且他們在\(x_0\)處均有極限,則:\(\lim_ f(x) <= \lim_ g(x) <= \lim_ h(x)\)

幾個重要的極限:

\(\lim_ sin(x)/x = 1\)

\(\lim_ x^a/e^x = 0\),對於任意的正數\(a\)

\(\lim_ ln(x)/x^a = 0\),對於任意的正數\(a\)

\(\lim_ (1 + 1/x)^x = e\)

2)導數

如果乙個函式\(f(x)\)在\(x_0\)附近有定義,並且存在極限:\(l = \lim_ \frac\),那麼\(f(x)\)在\(x_0\)處可導且導數\(f'(x_0) = l\)

3)鏈式法則:即符合函式的求導法則

如:\(y = x^x\),求其導數。兩邊取對數:\(lny = xlnx\),然後兩邊同時求導:\((1/y)y'=lnx + 1\),\(y' = (lnx + 1)x^x\)

三、第三課時

1)單變數函式的黎曼積分:

\(f(x)\)為開區間(a, b)上的乙個連續函式,對於任意乙個正整數n,我們定義:\(x_i = a + i(b - a)/n\),求和式:\( s_n(f) = \sum_^f(x_i)(x_ - x_i) \)

如果極限\(\lim_s_n(f)\)存在,那麼函式\(f(x)\)在這個區間上的黎曼積分為:\( \int_^f(x)dx = \lim_s_n(f) \)

我們可以這樣理解:把區間分成n份,求函式與x軸的面積和

機器學習中的數學

從大學到現在,課堂上學的和自學的數學其實不算少了,可是在研究的過程中總是發現需要補充新的數學知識。learning和vision都是很多種數學的交匯場。看著不同的理論體系的交匯,對於乙個researcher來說,往往是非常exciting的enjoyable的事情。不過,這也代表著要充分了解這個領域...

小白機器學習中的數學

從平面線性擬合談起 我們知道,線性回歸是最簡單的一種資料擬合,說的直白點,我們舉平面上的例子來看,平面上有若干個樣本點,我們的目標就是去畫一條直線去擬合這些樣本點。如果你對擬合這兩個字還不是吃得很透,我們下面慢慢來介紹。高斯雜訊是如何和最小二乘估計聯絡起來的?也就是換句話說,我們如何從概率的視角去審...

機器學習 數學 機器學習涉及的數學知識

簡單總結 機器學習涉及的數學知識有 線性代數,概率論和統計學,多變數微積分,演算法和複雜優化,以及其他等。原文 在過去幾個月裡,有幾個人聯絡過我,說他們渴望進軍資料科學領域,使用機器學習 ml 技術探索統計規律,並打造資料驅動的完美產品。但是,據我觀察,一些人缺乏必要的數學直覺和框架,無法獲得有用的...