從邊緣到核心,PCIe Switch需要貴人相助!

2021-09-23 06:31:41 字數 1410 閱讀 2649

快閃儲存器市場上,nvme發展速度可以用出乎意料來形容,總之普及速度超快。在我看來,原因也很簡單,當ssd解決了磁碟低i/o 效能的問題,這個瓶頸消失後,iscsi儲存傳輸協議的瓶頸,特別是時延的問題就會凸顯出來。從技術上,nvme專門針對ssd的特點而設計,解決了儲存傳輸協議,nvme ssd成為伺服器標準配置,這是時代的選擇。

採用傳統的架構設計方式,cpu是核心,記憶體、ssd、 網絡卡以及gpu等通過cpu進行控制和排程,在這種模式下,資料首先要傳遞給cpu記憶體,gpu相關應用中,gpu要到cpu 記憶體來讀取資料,在這個過程中 ,記憶體和網路訪問就會成為瓶頸。冬瓜哥指出,cpu擅長邏輯控制,類似位元幣挖礦這類的應用,主要依靠gpu的計算能力,資料經過cpu,有些多此一舉。

有沒有更加理想的模式呢?對此,冬瓜哥給出了如下架構模型。

新的模型以pcie switch為核心進行鏈結。cpu仍然擔任邏輯控制和排程,但是資料傳輸透過pcie switch直接連線,其效率更高。

新設計模型的思想和網絡卡協議解除安裝、rdma的思想有些類似,核心都是針對特殊的應用需求(例如儲存),bypass掉cpu、或者os,縮短路徑,提公升效率。傳統模型主要針對通用場景設計,針對特殊的場景,其應用效率不高。與之相比,新的模型顯然更加具有競爭力。

從pcie switch擔任核心效果看,成效顯著。以gpu家督影象搜尋應用為例,採用傳統方式,資料讀取速度為1.90gb/s,主機記憶體(cpu)相對使用率為5230;對比新的方式,速度為2.50gb/s,主機資源佔用率僅為1。影象處理速度方面,傳統方式為312.5畫素點/秒,其主要瓶頸在主機記憶體;與之相比,新的模式為534.2畫素點/秒,影象處理的速度完全取決於gpu的能力。

無獨有偶。同樣在2017中國快閃儲存器峰會上,啟示錄技術服務公司創始人張廣彬在演講中披露,intel下一代處理器(skylake)會整合nvme raid 控制器(rste),未來io路徑更短,計算能力更強。因此,cpu會整合更多的功能,但與此同時,裝置廠商也希望更多bypass掉cpu。這是一場有關控制力的爭奪。pcie switch要從邊緣到核心,cpu將是其強大對手和阻力。

毫無疑問,但pcie switch的角色從邊緣演變為核心,效果顯而易見。pcie switch已經散發出王者氣息,但要想成為真正的王者,pcie switch顯然還有一段艱難旅程,誰會成為pcie switch真正的貴人呢?!還是靜觀其變吧!

從 GRUB 到核心,從核心到根檔案系統

原貼 http www.ownlinux.cn 2008 11 20 from grub to kernel to rootfiesystem 登雲梯 於 2008 11 20,01 50 瀏覽 161 按下電源,咔一下,電腦啟動啦,接著bios的畫面出來啦,不一會,grub的介面出來,然後就是一行...

從0到1學習邊緣容器系列 3 應用容災之邊緣自治

邊緣計算使用的邊緣裝置數量龐大 分布全國各地,網路環境複雜,網際網路 乙太網 5g wifi 等形態均有可能。因此,雲端的控制中心和邊緣端的裝置之間網路環境較複雜,網路質量差次不齊沒有保障。kubernetes 傳統工作模式是所有元件 list watch kube apiserver,然後 rec...

核心模組編寫從入門到放棄

我是第一次接到寫核心模組的作業,基本是從零開始。該文章適合什麼都不會的小白圍觀,有錯誤希望指正。以我做的ip包加密任務為例,學習核心模組的編寫。使用的環境是ubuntu和c語言環境。核心模組的編寫和核心版本息息相關,不同的版本的核心函式名和資料結構名都不同,由於網上的教程一般比較老,因此在初學的時候...