什麼是離散化

2021-05-27 07:20:52 字數 1913 閱讀 3899

如果說今年這時候oibh問得最多的問題是二分圖,那麼去年這時候問得最多的算是離散化了。對於「什麼是離散化」,搜尋帖子你會發現有各種說法,比如「排序後處理」、「對座標的近似處理」等等。哪個是對的呢?哪個都對。關鍵在於,這需要一些例子和不少的講解才能完全解釋清楚。

離散化是程式設計中乙個非常常用的技巧,它可以有效的降低時間複雜度。其基本思想就是在眾多可能的情況中「只考慮我需要用的值」。下面我將用三個例子說明,如何運用離散化改進乙個低效的,甚至根本不可能實現的演算法。

《演算法藝術與資訊學競賽》中的計算幾何部分,黃亮舉了乙個經典的例子,我認為很適合用來介紹離散化思想。這個問題是uva10173(題目意思很簡單,給定平面上n個點的座標,求能夠覆蓋所有這些點的最小矩形面積。這個問題難就難在,這個矩形可以傾斜放置(邊不必平行於座標軸)。

這裡的傾斜放置很不好處理,因為我們不知道這個矩形最終會傾斜多少度。假設我們知道這個矩形的傾角是α,那麼答案就很簡單了:矩形面積最小時四條邊一定都挨著某個點。也就是說,四條邊的斜率已經都知道了的話,只需要讓這些邊從外面不斷逼近這個點集直到碰到了某個點。你不必知道這個具體應該怎麼實現,只需要理解這可以通過某種方法計算出來,畢竟我們的重點在下面的過程。

我們的演算法很顯然了:列舉矩形的傾角,對於每乙個傾角,我們都能計算出最小的矩形面積,最後取乙個最小值。

這個演算法是否是正確的呢?我們不能說它是否正確,因為它根本不可能實現。矩形的傾角是乙個實數,它有無數種可能,你永遠不可能列舉每一種情況。我們說,矩形的傾角是乙個「連續的」變數,它是我們無法列舉這個傾角的根本原因。我們需要一種方法,把這個「連續的」變數變成乙個乙個的值,變成乙個「離散的」變數。這個過程也就是所謂的離散化。

我們可以證明,最小面積的矩形不但要求四條邊上都有乙個點,而且還要求至少一條邊上有兩個或兩個以上的點。試想,如果每條邊上都只有乙個點,則我們總可以把這個矩形旋轉一點使得這個矩形變「松」,從而有餘地得到更小的矩形。於是我們發現,矩形的某條邊的斜率必然與某兩點的連線相同。如果我們計算出了所有過兩點的直線的傾角,那麼α的取值只有可能是這些傾角或它減去90度後的角(直線按「\」方向傾斜時)這麼c(n,2)種。我們說,這個「傾角」已經被我們 「離散化」了。雖然這個演算法仍然有優化的餘地,但此時我們已經達到了本文開頭所說的目的。

對於某些座標雖然已經是整數(已經是離散的了)但範圍極大的問題,我們也可以用離散化的思想縮小這個規模。最近搞模擬賽vijos似乎火了一把,我就拿兩道vijos的題開刀。

voj1056( 永遠是離散化的經典問題。大意是給定平面上的n個矩形(座標為整數,矩形與矩形之間可能有重疊的部分),求其覆蓋的總面積。平常的想法就是開乙個與二維座標規模相當的二維boolean陣列模擬矩形的「覆蓋」(把矩形所在的位置填上true)。可惜這個想法在這裡有些問題,因為這個題目中座標範圍相當大(座標範圍為-10^8到10^8之間的整數)。但我們發現,矩形的數量n<=100遠遠小於座標範圍。每個矩形會在橫縱座標上各「使用」兩個值, 100個矩形的座標也不過用了-10^8到10^8之間的200個值。也就是說,實際有用的值其實只有這麼幾個。這些值將作為新的座標值重新劃分整個平面,省去中間的若干座標值沒有影響。我們可以將座標範圍「離散化」到1到200之間的數,於是乙個200*200的二維陣列就足夠了。實現方法正如本文開頭所說的「排序後處理」。對橫座標(或縱座標)進行一次排序並對映為1到2n的整數,同時記錄新座標的每兩個相鄰座標之間在離散化前實際的距離是多少。這道題同樣有優化的餘地。

最後簡單講一下計算幾何以外的乙個運用例項(實質仍然是座標的離散)。才考的voj1238(中,標程開了乙個與時間範圍一樣大的陣列來儲存時間段的位置。這種方法在空間上來看十分危險。一旦時間取值範圍再大一點,盲目的空間開銷將導致memory limit exceeded。我們完全可以採用離散化避免這種情況。我們對所有給出的時間座標進行一次排序,然後同樣用時間段的開始點和結束點來計算每個時刻的遊戲數,只是一次性加的經驗值數將乘以排序後這兩個相鄰時間點的實際差。這樣,乙個1..n的陣列就足夠了。

離散化的應用相當廣泛,以後你會看到還有很多其它的用途。

matrix67原創

什麼是離散化?

matrix67 如果說今年這時候oibh問得最多的問題是二分圖,那麼去年這時候問得最多的算是離散化了。對於 什麼是離散化 搜尋帖子你會發現有各種說法,比如 排序後處理 對座標的近似處理 等等。哪個是對的呢?哪個都對。關鍵在於,這需要一些例子和不少的講解才能完全解釋清楚。離散化是程式設計中乙個非常常...

什麼是離散化 NOIP

就是將一組資料對應到一組整數上去,比如說有10個 10 18次方的浮點數,你可以將其排個序,然後給每個數重新標號,這樣每個數的大小 10,並且保持了原來的序關係。lz想說的是離散化吧.在某些問題當中,會出現某個量,我們只關心其相對大小而不關心其絕對大小,這個時候就可以把這個量離散化,即,把每個量用 ...

機器學習 為什麼離散化,離散化的優勢

1,為什麼離散化 2,離散化的優勢 1,特徵離散化 連續特徵離散化的基本假設,是預設連續特徵不同區間的取值對結果的貢獻是不一樣的。特徵的連續值在不同的區間的重要性是不一樣的,所以希望連續特徵在不同的區間有不同的權重,實現的方法就是對特徵進行劃分區間,每個區間為乙個新的特徵。常用做法,就是先對特徵進行...