ENVI 非監督分類

2021-09-08 11:47:21 字數 2350 閱讀 3694

非監督分類的概念

非監督分類,又稱「聚類分析或者點群分析」。在多光譜影象中搜尋、定義其自然相似光譜集群的過程。它不必對影象地物獲取先驗知識,僅依靠影象上不同地物光譜資訊進行特徵提取,在統計特徵的差別來達到分類的目的,最後對已分出的各個類別的實際屬性進行確認。

在envi中isodata和k-means兩種非監督分類的方法:

isodata是一種重複自組織資料分析技術,計算資料空間中均勻分布的類均值,然後用最小距離技術將剩餘像元進行迭代聚合,每次迭代都重新計算均值,且根據所得的新均值,對像元再進行分類。

k-means使用聚類分析方法,隨機地查詢聚類簇的聚類相似度相近,即中心位置,是利用各聚類中物件的均值獲得乙個「中心物件」來進行計算的,然後迭代地重新配置她們,完成分類過程。

監督分類總體的步驟為:執行非監督分類、類別定義、合併子類和評價結果。

一、執行非監督分類:

1、isodata

在主選單上選擇:classification>>unsupervised>>isodata,在classification input file 對話方塊中選擇tm影像資料。單擊ok,開啟isodata parameters對話方塊,如圖。

主要的引數說明:

1)類別數量範圍:(number of classes:max min )一般輸入的最小數不能小於最終分類數量,最大數量為最終分類數量的2到3倍。min:6,max:20。

2)最大迭代數(maximum iteration):15.迭代地次越大,得到的結果越精確,運算的時間也就越長。

3)變換閾值(change threshold):5。每當一類的變化像元數小於閾值時,結束迭代過程。這個值越小得到的結果越精確,運算量也越大。

4)minimum #pixel in class:鍵入形成一類所需的最少像元數。如果其中的一類小於最少像元數,該類將會拆分成兩類。

5)最大分類標準差(maxium class stdev):1。以畫素為單位,如果某一類的標準差比該閾值大,該類將分成兩類。

6)類別均值之間的最小距離(minimum class distance):5。以畫素值為單位,如果類均值小之間的距離小於輸入的最小值,則類別將合併。

7)合併類的最大值(maxium # merge paris):2

8)距離類別的最大標準差(maximum stdev from mean),可選項。

9)允許的最大距離誤差(maximum distance error),可選項。

10)選擇檔案輸出位置,單擊ok。執行非監督分類。

結果如圖:

在主選單上,選擇classification>>unsupervised>>k-means,在classification input file中選擇tm影像,單擊ok。開啟k-means parameters對話方塊中,設定以下的引數:

1)分類數量(number of classes):一般為最終輸出分類數量的2-3倍。

2)最大迭代次數(maximum iterations):迭代次數越大,精度越高。

3)距離類別的值的最大誤差(maximum stdev from mean)。此數可選。

4)允許的最大距離誤差:(maximum distance error);可選

5)選擇路徑,ok執行。

機器學習非監督分類之主成分分析(PCA)

主成分分析是非監督分類中基礎的演算法,應用於降低特徵的維度。在介紹主成分分析之前,我們要先介紹一下特徵值和特徵向量,因為在後面我們要用到。一 特徵值和特徵向量 特徵值如果有 此時 為矩陣a的特徵值,對應的x為矩陣的特徵向量。對於不相同的特徵值,其特徵向量是正交的。二 主成分分析 演算法 首先將x進行...

監督學習 線性分類器

python 1 分割資料 部分資料用於做模型訓練 一般需要的資料量比較大,可以通過網上公開的資料來源,或者向企業獲取,或者自己爬蟲?一部分資料用於測試模型的準確度 用到sklearn.cross valiation裡的train test split函式 x train,x test,y trai...

Python監督學習 K近鄰分類

首先匯入資料集forge 畫出鄰居為1的情況的圖,橫縱軸均為特徵值 畫出鄰居為3的情況 匯入資料分好資料集與測試集 例項化 分類器進行擬合 評估 from sklearn.model selection import train test split x,y mglearn.datasets.mak...