具體數學 3 和式與封閉式

2022-05-01 02:51:08 字數 2302 閱讀 2634

將\(\sum_^nk\)轉為封閉式

方法:成套方法

轉為遞迴式

令\(s(n)=\sum_^nk\)

不難看出,\(s(n)=s(n-1)+n\)

一般化令\(r(n)\)為\(s(n)\)的一般形式

即\(r(0)=\alpha \qquad r(n)=r(n-1)+\beta n+\gamma\)

(1) 令\(r(n)=1\)

\[\therefore r(0)=1

\]\[\therefore \alpha = 1

\]\[\because r(n)=r(n-1)+\beta n+\gamma

\]\[\therefore 1=1+\beta n + \gamma

\]\[ \left\

\alpha = 1 \\

\beta = 0 \\

\gamma = 0

\end

\right.

\](2) 令\(r(n)=n\)

\[\therefore r(0) = 0

\]\[\therefore \alpha = 0

\]\[\because r(n)=r(n-1)+\beta n+\gamma

\]\[\therefore n = (n-1)+\beta n + \gamma

\]\[ \left\

\alpha = 0 \\

\beta = 0 \\

\gamma = 1

\end

\right.

\](3) 令\(r(n) = n^2\)

\[\therefore r(0) = 0

\]\[\therefore \alpha = 0

\]\[\because r(n)=r(n-1)+\beta n+\gamma

\]\[\therefore n^2 = (n-1)^2+\beta n + \gamma

\]\[\therefore n^2 = n^2 - 2n + 1+\beta n + \gamma

\]\[\therefore -1 =(\beta - 2) n + \gamma

\]\[ \left\

\alpha = 0 \\

\beta = 2 \\

\gamma = -1

\end

\right.

\]3.計算係數

令\(r(n)=a(n)\alpha + b(n)\beta + c(n)\gamma\)

(1) 當\(r(n) = 1\)時:

\[\because\left\

\alpha = 1 \\

\beta = 0 \\

\gamma = 0

\end

\right.

\]\[\therefore a(n) = 1

\](2) 當\(r(n) = n\)時:

\[\because\left\

\alpha = 0 \\

\beta = 0 \\

\gamma = 1

\end

\right.

\]\[\therefore c(n) = n

\](3) 當\(r(n) = n^2\)時:

\[ \left\

\alpha = 0 \\

\beta = 2 \\

\gamma = -1

\end

\right.

\]\[\therefore 2b(n) - c(n) = n^2

\]綜上:

\[ \left\

a(n) = 1 \\

c(n) = n \\

2b(n) - c(n) = n^2

\end

\right.

\]解得

\[ \left\

a(n) = 1 \\

b(n) = \frac \\

c(n) = n

\end

\right.

\]4.具體化

\[s(n) = s(n-1) + n

\]令\(p(n)\)為當\(\beta = 1, \gamma = 0\)時\(r(n)\)的值

\[\therefore p(n) = p(n-1) + n = s(n)

\]\(\therefore s(n)\)為當\(\beta = 1, \gamma = 0\)時\(r(n)\)的值

\[\therefore s(n) = b(n)

\]\[\therefore s(n) = \frac

\]

3 數學基礎與深度學習

紮實的數學基礎是學習和研究深度學習的前提。沒有線性代數和統計學相關的知識,無法真正理解任何機器學習演算法的核心思想。在此要求所有的新生學習相關的數學基礎課程。prof.gilbert strang在mit講的線性代數 膜拜 是工科領域最強線代。來自cmu,世界上最好的工科統計學教材。學習內容 書上全...

3D Math 3D 數學 向量與點2

最近有粉絲反應,3d 數學可以不學嗎,太枯燥了。我想說這個是你在圖形界的立身之本,這些其實並不難,踏下心來看一下,基礎的也那些東西,還是再接再厲吧,堅持是不變的真理!今天來聊一下向量的運算,向量可以和標量 向量 矩陣進行運算,這裡先不談矩陣。負向量 即把向量的每乙個分量變負,且向量加上自身的負向量等...

深度學習 應用數學與機器學習基礎 3

矩陣分解除了分解成特徵值和特徵向量。還有一種分解矩陣的方法,被稱為奇異值分解 singular value decomposition svd 將矩陣分解為奇異向量和奇異值。通過奇異值分解,我們會得到一些與特徵分解相同型別的資訊。每個實數矩陣都有乙個奇異值分解,但不一定有特徵分解。回想一下,我們使用...