機器學習習題(19)

2021-10-02 22:41:17 字數 3390 閱讀 1690

設線性規劃的約束條件為:

則基本可行解為 ()

a.(0, 0, 4, 3)

b.(3, 4, 0, 0)

c.(2, 0, 1, 0)

d.(3, 0, 4, 0)

2.在下面的數學模型中,屬於線性規劃模型的()

a.b.

c.d.

參***:b

解析:這道題的考點主要在於什麼是線性規劃,尤其是線性2字。線性就是指的是最普通的式子,只包含未知數之間只有加減的線性操作的式子。它是區別指數式等其他形式的說法。因此在目標函式和約束條件內,都不能有未知數之間的乘法。因此答案為b。

3.二分類任務中,有三個分類器h1,h2,h3,三個測試樣本x1,x2,x3。假設1表示分類結果正確,0表示錯誤,h1在x1,x2,x3的結果分別(1,1,0),h2,h3分別為(0,1,1),(1,0,1),按投票法整合三個分類器,下列說法正確的是()

a. 整合提高了效能

b. 整合沒有效果

c. 整合降低了效能

d. 整合效果不能確定

參***:a

解析:這道題三個注意點,乙個是整合學習,乙個是每個分類器的分類結果,乙個是使用投票法。整合學習就是集思廣益,看到多個分類器的結果後再做決定。第二個注意的就是每個分類器的結果如(1,1,0)指的是**結果的正誤,而不是**結果。第三個是投票法,即少數服從多數的方法決定整合學習的最終結果。因此這題的答案是(1,1,1) 因為每乙個樣本都有2個分類器為1。答案選a。

4.有關機器學習分類演算法的precision和recall,以下定義中正確的是(假定tp = true positive, tn = true negative, fp = false positive, fn = false negative)

a.precision= tp / (tp + fp), recall = tp / (tp + fn)

b.precision = tp / (tn + fp), recall = tp /(tp + fn)

c.precision = tp / (tn + fn), recall = tp /(tp + fp)

d.precision = tp / (tp + fp), recall = tp /(tn + fn)

參***:a

解析:這道題2個注意點,乙個是pr的含義,乙個是tp,tn,fp和fn的含義。

1、精確度(p)對應**正確的(tp)佔**情況中正類(真正類tp+假正類fp)的比例;

2、召回率(r)對應**正確的(tp)佔真實情況正類(真正類tp+假負類fn)的比例。

這裡比較難理解的是這4個類別,其實這四個類別都是針對**結果而言的,所謂的真正類,指的是**的正類是真,即**結果為正,真是結果也為正。同理,假的負類指的是**負類是假的。

5.下面哪些可能是乙個文字語料庫的特徵()

1.乙個文件中的詞頻統計

2.文件中單詞的布林特徵

3.詞向量

4.詞性標記

5.基本語法依賴

6.整個文件

a.123

b.1234

c.12345

d.123456

參***:c

解析:首先要明白特徵是什麼,特徵是指能夠區分乙個群體與其他群體的一些標記。那就知道了,首先特徵是這個群體固有的屬性,另外這些屬性必須得是可以量化,具有一定普適性的。因此1,2,3,4,5都可以在不同方面表示乙個文字語料庫,而且它可以以一定方法進行度量的。反觀6這個說法,一看就是出題人硬湊出來的,因為整個文件本身指代就不清楚,指的是每篇文件?還是整個語料庫?另外,整個文件的什麼?是文字?還是文章本身?最後,整個文件很難去和其他的東西進行乙個比較和區分,是和另乙個文字語料庫的文字區分?還是說有無這篇文章?因此6不是特徵。

設a為n階方陣,且a的行列式a.ab.1/a

c.a n−

1a^an−1

d.a na^

an

參***:c

解析: 首先原題目的c和d被畫成了矩陣的形式,給予了很大的誤導。這裡修正了回來,乙個矩陣的行列值怎麼也不可能是乙個矩陣。然後,我們來了解一下什麼是伴隨矩陣,最後根據行列式性質得出解:

7.設a.a(x)與b(x)是同階無窮小,但不是等價無窮小

b.a(x)與b(x)是等價無窮小

c.a(x)是比b(x)高階的無窮小

d.b(x)是比a(x)高階的無窮小

參***:a

解析:本題的關鍵在於如何判定是等價無窮小還是同階無窮小。其判斷方法高數就已經學過,直接兩者相除,如果是常數,則為同階,如果是1,則是等價。高階無窮小為分子更快的變為0(0),低階無窮小為分母更快的變為0(無窮大)

8.在機器學習中,如果一味的去提高訓練資料的**能力,所選模型的複雜度往往會很高,這種現象稱為過擬合。所表現的就是模型訓練時候的誤差很小,但在測試的時候誤差很大,對於產生這種現象以下說法正確的是:()

a.樣本數量太少

b.樣本數量過多

c.模型太複雜

d.模型太簡單

參***:ac

解析:這道題非常的簡單,在題幹中就已經給出了,模型的複雜度高,也就是模型太複雜,而且訓練資料少也是過擬合的乙個原因。其實這個說法並不嚴禁,因為樣本如果很有代表性,則很少的樣本也能夠訓練出很好的效果,但是如果很多樣本都是比較相似的樣本,也就是類別不平衡。那麼很難訓練出乙個好模型出來。

9.下列模型屬於機器學習生成式模型的是()

a.樸素貝葉斯

b.隱馬爾科夫模型(hmm)

c.馬爾科夫隨機場(markov random fields)

d.深度信念網路(dbn)

參***:abcd

解析:本道題還是老知識要點,那就是什麼樣的模型是生成式模型,什麼模型是判別式模型。判別式模型(discriminative model)是直接對條件概率p(y|x;θ)建模。常見的判別式模型有線性回歸模型、線性判別分析、支援向量機svm、神經網路等。

生成式模型(generative model)則會對x和y的聯合分布p(x,y)建模,然後通過貝葉斯公式來求得p(yi|x),然後選取使得p(yi|x)最大的yi,常見的生成式模型有隱馬爾可夫模型hmm、樸素貝葉斯模型、高斯混合模型gmm、狄利克雷分布模型(latent dirichlet allocation,lda)等。

機器學習習題

已知輸入變數x,判別模型 discriminative model 通過求解條件概率分布p y x 或者直接計算y的值來 y。生成模型 generative model 通過對觀測值和標註資料計算聯合概率分布p x,y 來達到判定估算y的目的。常見的判別模型有線性回歸 linear regressi...

機器學習 習題1 1

題目 表1.1中若只包含編號為1和4的兩個樣例,試給出相應的版本空間 表1.1 西瓜資料集 編號 色澤根蒂 敲聲好瓜1青綠 蜷縮濁響是4 烏黑稍蜷沉悶否 解答 2.色澤 青綠 根蒂 敲聲 3.色澤 烏黑 根蒂 敲聲 4.色澤 根蒂 蜷縮 敲聲 5.色澤 根蒂 稍蜷 敲聲 6.色澤 根蒂 敲聲 濁響 ...

指標練習習題

1 int ref ref是8的位址,ref 1是4的位址,而 ref不是合法的c表示式,因為ref是常量而不是變數。2 乙個包含20個指向char的指標的陣列 char psa 20 乙個指向陣列的指標,其中陣列由20個char值構成 char pstr 20 3 定義乙個包含100個int值的陣...