新型I O架構引領儲存之變(一)

2021-06-21 23:22:01 字數 3127 閱讀 3244

新型i/o架構引領儲存之變(一)

i/o技術現狀分析

科技其實是乙個人造的世界,時刻適應著外部的需求變化以及與技術變革相關的內在誘因,而這些內在誘因又可能導致其他部件的變更。高科技公司為了業務發展,持續地關注著人們的需求變化以及技術領域的變革。這樣的變革通常以持續演進的形式發生,但是,由於某些環境中極端非連續性的因素,顛覆性的革命也偶有發生。

縱觀2023年,i/o技術領域中的觸發因素不斷積累,催生了一場迫在眉睫的變革。下文中將列舉出了幾個引發此變革的因素並進行詳細描述。

根據2023年針對超大規模資料中心的機架架構、業界標準的伺服器架構以及企業級儲存系統架構進行的一項廣泛調查,我們發現,有兩個主要的原因導致了i/o架構的變革。

首先,ssd的廣泛運用為i/o技術帶來巨大的躍進。先看一下ssd運用的廣泛程度。表1為idc全球固態儲存2013-2017**及分析報告:                     

表1 ssd出貨量**

表中可見,企業級ssd的出貨量將在2023年超過一千三百萬。在讀密集型應用中,大量pc級ssd(非企業級)也將運用到伺服器應用中,尤其在超大規模資料中心的伺服器中運用更為廣泛。這意味著平均每台伺服器將會帶1.5個ssd,而常見的資料中心伺服器中ssd的數量更為可觀。因此,ssd的i/o技術將會帶來廣泛的影響,不僅是在高效能伺服器領域,同時也影響到主流的伺服器。

讓我們來快速回顧一下2023年高階hdd及ssd的效能指標。從表2可以看出,ssd能提供明顯的效能提公升。

表2 ssd與hdd效能對比

效能上的巨大改善給現有的i/o架構帶來了前所未有的挑戰,具體如下:

·iops挑戰——只需1~2個ssd就能讓行業領先的sasio控制器的最大iops效能達到徹底飽和。

·吞吐量的挑戰——只需1~2個ssd就能讓行業領先的sas ioc的最大吞吐量效能達到徹底飽  和。只需1個ssd就能讓標準sas擴充套件的jbod介面(4條sas線纜)達到徹底飽和。

·延遲的挑戰——當前的sasi/o架構並非針對延遲而優化,可能遠遠超出訪問時間(10sµs)。主要的系統延遲形態為:

o  主機軟體堆疊延遲(10s µs)——堆疊的優化目標是將尋道所用的iops降至最低。

o  ioc延遲(10s µs)——ioc需要對主機請求進行語法分析,並將其轉化為sas i/o,通常需要乙個嵌入的cpu來執行韌體,以處理i/o請求並作出響應。

o  sas網格仲裁延遲(1~100s µs)——由於sas協議中非搶占性連線主導的特性,網格仲裁延遲的變化範圍十分寬廣。即便是最高優先順序的i/o請求也需要等 待正在進行中的連線完成資料傳輸並關閉,然後用於此高優先順序io請求的新連線才能建立起來。連線的持續時間則取決於io的資料大小。

·扇出與裝置共享帶來的挑戰——由於ssd與hdd相比,帶來了巨大的效能改善,對許多應用(如資料庫應用)而言,系統的瓶頸可能就從i/o轉移到了cpu。hdd作為儲存媒介時,常見的i/o密集型應用需要許多hdd來提供匯聚的i/o吞吐量及iops,才能與乙個cpu/主機板的處理能力相匹配。因此,當需要將乙個主機與多個hdd相連(1:n扇出)時,通常採用sas技術來實現i/o扇出式的架構。而採用ssd時,儲存與cpu的效能比反了過來。為了執行同乙個應用,可能需要多個cpu/主機板來產生足夠的i/o訪問以充分利用單個ssd。隨著摩爾定律的失效,半導體效能的提公升速度放緩,完全可以預見到ssdiops的提公升將會快過cpu時鐘頻率的提公升,因此ssd與cpu之間iops的差距預計將隨著時間而持續增加。這就意味著更加均衡的設計需要有扇入式的i/o網格來連線多個主機,共享單個ssd的訪問權(n:1扇入)。此外,為了容量擴充套件的需要,此i/o架構還需要支援n:m扇入/共享的能力。

必須發明新的i/o架構以應對這些挑戰

另外乙個重要的考量是ssd是否會徹底取代hdd,成為唯一的儲存媒介。下面的圖表給出了低容量盤(250gb及500gb)的ssd/hdd之間的歷史**對比。由此可見,對500g盤而言,ssd/hdd的**比大約為8:1,而250g盤則是4:1。對於更高容量的盤而言,**比大略穩定在10:1。其他更為複雜的研究也提供了裝置密度提公升的**,基本上都歸結到摩爾定律(每18個月積體電路上可容納的電晶體數目會增加一倍)對半導體儲存首席技術官期演進的推動,以及克萊德法則(每13~18個月同一**的硬碟儲存容量會翻一番)對磁碟密度的驅動。這些研究帶來的關鍵啟示如下:

·        未來十年中,大容量盤仍然以hdd為主。目前基於nand快閃儲存器的ssd技術不會超過hdd的密度。可能需要量產的新非易失性儲存技術來改變密度競爭的格局。

·        對低容量盤而言,ssd與hdd之間的**差距正在拉近,ssd也許會與hdd的**相近,在不遠的將來成為主要的儲存裝置。

·        採用nand及機械旋轉機制來進行資料儲存的混合盤可能會出現,成為中等容量區間中的主要儲存媒介。pc使用者已經在使用混合盤。但是,由於伺服器可以在系統層面混合ssd和hdd並提供更加直接的控制,因此,融合nand以及物理轉盤的混合盤在企業級伺服器/陣列及資料中心中的使用仍然不明朗。

因此,未來十年採用的i/o架構必須為ssd與hdd的混合應用提供強有力的支援。

圖1      ssd與hdd****

從磁碟介面協議的角度來看,眼下的低價hdd市場中主要採用sata連線,而具備冗餘訪問的高效能/可靠性的hdd則採用sas連線。兩種協議都針hdd的效能特性而進行優化。雖然sata和sas已經用作ssd的介面協議,但充分利用pcie匯流排介面的低延遲以及高頻寬的ssd新協議如nvme和scsie已然出現。為了支援hdd與ssd的混合應用,下一代的i/o架構需要為sata、sas及pcie提供原生支援。

kvm架構分析(一) IO裝置管理架構

kvm io裝置管理架構採用io匯流排方式,涉及到guest os陷入到hypervisor進行io的裝置都掛載在匯流排上。kvm提供四種匯流排 mmio和pio是常見的訪問硬體裝置暫存器的兩種方式,所以mmio和pio匯流排是用來掛載支援硬體虛擬化的硬體裝置,比如gicv3就是掛載在mmio匯流排...

一種新型的醫用物資智慧型語音儲存櫃

近年來我國的醫療機構改革在不斷深化,高值物資的多元化也日趨明顯,單單使用人力來管理這些物資將會大量增加人力成本,而且當人管理的物資越來越多時,出現失誤的機率就會也大,這也是存在的一種隱患。為了提高物資的整體管理水平,並降低損耗,醫院不得不通過優化物資管理方式的手段來應對當前激烈的醫療市場競爭。耗材管...

新型分布式架構的特點 大資料學習筆記之一

1,去中心化 在乙個分布式系統中,每個節點都具有高度自治的特徵,節點之間彼此可以自由連線,形成新的連線單元。任何乙個節點都可能成為階段性的中心,但不具備強制性的中心控制功能。節點與節點之間的影響,會通過網路而形成非線性英國關係,這種開放式 扁平化 平等性的系統現象或結構,我們稱之為去中心化。2,mp...