2018 4 5機器學習之刷題

2021-08-18 06:11:00 字數 1564 閱讀 7593

下列不是svm核函式的是:(b)

a.多項式核函式

b.logistic核函式

c.徑向基核函式

d.sigmoid核函式

svm核函式包括線性核函式、多項式核函式、徑向基核函式、高斯核函式、冪指數核函式、拉普拉斯核函式、anova核函式、二次有理核函式、多元二次核函式、逆多元二次核函式以及sigmoid核函式。

支援向量機是建立在統計學習理論基礎上的新一代機器學習演算法,支援向量機的優勢主要體現在解決線性不可分問題,它通過引入核函式,巧妙地解決了在高維空間中的內積運算,從而很好地解決了非線性分類問題。

構造出乙個具有良好效能的svm,核函式的選擇是關鍵。核函式的選擇包括兩部分工作:一是核函式型別的選擇,二是確定核函式型別後相關引數的選擇,因此如何根據具體的資料選擇恰當的核函式是svm應用領域中遇到的一格重大難題,也成為科研工作者所關注的焦點,即便如此,卻依然沒有得到具體的理論或方法來指導核函式的選取。

1、經常用到的核函式

核函式的定義並不困難,根據泛函的有關理論,只要一種函式k(xi,xj)滿足mercer條件,它就對應某一變換空間的內積,對於判斷哪些函式是核函式到目前為止也取得了重要的突破,得到mercer定理和以下常用的核函式模型:

1)線性核函式

2)多項式核函式

3)徑向基核

4)傅利葉核

5)樣條核

6)sigmoid核

採用sigmoid函式作為核函式時,支援向量機實現的就是一種多層感知器神經網路,應用svm方法,隱含層節點數目(它確定神經網路的結構)、隱含層節點對輸入節點的權值都是在設計(訓練)的過程中自動確定的。而且支援向量機的理論基礎決定了它最終求得的是全域性最優值而不是區域性最小值,也保證了它對於未知樣本的良好泛化能力而不會出現過學習現象。

2、核函式的選擇

在選取核函式解決實際問題時,通常採用的方法有:一是利用專家的先驗知識預先選定核函式;二是採用交叉熵方法,即在進行核函式選取時候,分別試用不同的核函式,歸納誤差最小的核函式就是最好的核函式,如針對傅利葉核、rbf核,結合訊號處理問題中的函式回歸問題,通過**實驗,對比分析了在相同資料條件下,採用傅利葉核的svm比採用rbf核的svm誤差小很多,二是採用混合核函式方法,該方法較之前兩者是目前選取核函式的主流方法,也是關於如何構造核函式的又一開創性工作,將不同的核函式結合起來後會有更好的特性,這時混合核函式方法的基本思想。

下列時間序列模型中,哪乙個模型可以較好的擬合波動性的分析和**(d)

a)ar模型

b)ma模型

c)arma模型

d)grach模型

解析:ar模型:自回歸模型,是一種線性模型,即已知n個資料,可由模型推出第n點前面或後面的資料,所以其本質類似於插值。

ma模型:移動平均法模型,其中使用趨勢移動平均法建立直線趨勢的**模型。

arma模型:自回歸滑動平均模型,擬合較高階模型,模型參量法高解析度譜分析方法之一。這種方法是研究平穩隨機過程有理譜的典型方法。它比ar模型法與ma模型法有較精確的譜估計及較優良的譜解析度效能,但其引數估算比較繁瑣。

garch模型:廣義回歸模型,對誤差的方差建模,適用於波動性的分析和**。

grach模型:廣義回歸模型,對誤差的方差建模,適用於波動性的分析和**

機器學習之概率題

投乙個骰子,各個數字的概率都是1 6。問投的數字6的期望次數。很顯然,這個題的答案是e 1 1 6 6 具體計算如下 分成兩部分 1 當前狀態下有1 6的概率投出數字6,投擲次數就是1 61 2 5 6的概率投擲出其他數字,那麼需要重現再投e次,才能得到數字6,投擲次數是5 6 1 e 因此,總的式...

刷題 學習資源

面試題 程式設計師面試金典 程式設計師面試金典 英文版 cracking the coding interview,6th edition 189 programming questions and solutions c programming tutorials c 教程 learn c c s...

LeetCode刷題之657 機械人能否返回原點

我不知道將去向何方,但我已在路上!示例 1 輸入 ud 輸出 true 解釋 機械人向上移動一次,然後向下移動一次。所有動作都具有相同的幅度,因此它最終回到它開始的原點。因此,我們返回 true。示例 2 輸入 ll 輸出 false 解釋 機械人向左移動兩次。它最終位於原點的左側,距原點有兩次 移...