memcached分布式實現原理

2021-08-28 04:55:32 字數 3411 閱讀 7025

memcache是該系統的專案名稱,memcached是該系統的主程式檔案(字母d可以理解為daemon),以守護程式方式執行於乙個或多個伺服器中,隨時接受客戶端的連線操作,使用共享記憶體訪問資料。

正文在高併發環境下,大量的讀、寫請求湧向資料庫,此時磁碟io將成為瓶頸,從而導致過高的響應延遲,因此快取應運而生。無論是單機快取還是分布式快取都有其適應場景和優缺點,當今存在的快取產品也是數不勝數,最常見的有redis和memcached等,既然是分布式,那麼他們是怎麼實現分布式的呢?本文主要介紹分布式快取服務mencached的分布式實現原理。

一、快取本質計算機體系快取

什麼是快取,我們先看看計算機體系結構中的儲存體系,根據馮·諾依曼計算機體系結構模型,計算機分為五大部分:運算器、控制器、儲存器、輸入裝置、輸出裝置。結合現代計算機,cpu包含運算器和控制器兩個部分,cpu負責計算,其需要的資料由儲存提供,儲存分為幾個級別,就拿我當前的pc舉個例子,我的機器儲存清單如下:

356g的磁碟

4g的記憶體

3mb**快取

256kb二級快取(pre core)

除了上述部分,還有cpu內的暫存器,當然有的計算機還有一級快取等。cpu運算器工作的時候需要資料,資料**來?首先從距離cpu最近的二級快取去拿,這塊快取速度最快,通常也是體積最小,因為**最貴:

儲存金字塔

如上圖所示,儲存體系就像個金子塔,最上層最快,**最貴,最下層最慢,**也最便宜,cpu的資料來源優先順序一層層從上到下去尋找資料。

很顯然,除了最慢的那塊儲存,在計算機體系中,相對較快的那些儲存都可以被稱為快取,他們解決的問題是讓儲存訪問更快。

快取應用系統

計算機體系儲存系統模型擴充套件到應用也是一樣,應用需要資料,資料**來?快取(更快的儲存)->db(較慢的儲存),他們的工作流程大致如下圖所示:

帶快取的儲存訪問一般模型

如上圖所示,快取應用系統一般儲存訪問流程:首先訪問快取較快的儲存介質,如果命中且未失效則返回內容,如果未命中或失效則訪問較慢的儲存介質將內容返回同時更新快取。

memcached簡介

什麼是memcached

memcached是livejournal旗下的danga interactive公司的brad fitzpatric為首開發的一款軟體。現在已經成為mixi、hatena、facebook、vox、livejournal等眾多服務中提高web應用擴充套件性的重要因素。傳統的web應用都將資料儲存到rdbms中,應用伺服器從rdbms中讀取資料、處理資料並在瀏覽器中顯示。但是隨著資料量增大、訪問的集中、就會出現rdbms的負擔加重、資料庫響應變慢、導致整個系統響應延遲增加。

而memcached就是為了解決這個問題而出現的,memcached是一款高效能的分布式記憶體快取伺服器,一般目的是為了通過快取資料庫的查詢命中減少資料庫壓力、提高應用響應速度、提高可擴充套件性。

memcached快取應用

memcached快取特點

協議簡單

基於libevent的事件處理

內建記憶體儲存方式

memcached不相互通訊的分布式

memcached分布式原理

今天的內容主要涉及memcached特點的第四條,memcached不相互通訊,那麼memcached是如何實現分布式的呢?memcached的分布式實現主要依賴客戶端的實現:

memcached分布式

如上圖所示,我們看下快取的儲存的一般流程:

當資料到達客戶端,客戶端實現的演算法就會根據「鍵」來決定儲存的memcached伺服器,伺服器選定後,命令他儲存資料。取的時候也一樣,客戶端根據「鍵」選擇伺服器,使用儲存時候的相同演算法就能保證選中和存的時候相同的伺服器。

餘數計算分散法

餘數計算分散法是memcached標準的memcached分布式方法,演算法如下:

crc($key)%n

該演算法下,客戶端首先根據key來計算crc,然後結果對伺服器數進行取模得到memcached伺服器節點,對於這種方式有兩個問題值得說明一下:

當選擇到的伺服器無法連線的時候,一種解決辦法是將嘗試的連線次數加到key後面,然後重新進行hash,這種做法也叫rehash。

第二個問題也是這種方法的致命的缺點,儘管餘數計算分散發相當簡單,資料分散也很優秀,當新增或者移除伺服器的時候,快取重組的代價相當大。

consistent hashing演算法

consistent hashing演算法描述如下:首先求出memcached伺服器節點的雜湊值,並將其分配到0~2^32的圓上,這個圓我們可以把它叫做值域,然後用同樣的方法求出儲存資料鍵的雜湊值,並對映到圓上。然後從資料對映到的位置開始順時針查詢,將資料儲存到找到的第乙個伺服器上,如果超過0~2^32仍找不到,就會儲存在第一台memcached伺服器上:

memcachd基本原理

再丟擲上面的問題,如果新新增或移除一台機器,在consistent hashing演算法下會有什麼影響。上圖中假設有四個節點,我們再新增乙個節點叫node5:

新增了node節點之後

node5被放在了node4與node2之間,本來對映到node2和node4之間的區域都會找到node4,當有node5的時候,node5和node4之間的還是找到node4,而node5和node2之間的此時會找到node5,因此當新增一台伺服器的時候受影響的僅僅是node5和node2區間。

優化的consistent hashing演算法

上面可以看出使用consistent hashing最大限度的抑制了鍵的重新分配,且有的consistent hashing的實現方式還採用了虛擬節點的思想。問題起源於使用一般hash函式的話,伺服器的對映地點的分布非常不均勻,從而導致資料庫訪問傾斜,大量的key被對映到同一臺伺服器上。為了避免這個問題,引入了虛擬節點的機制,為每台伺服器計算出多個hash值,每個值對應環上的乙個節點位置,這種節點叫虛擬節點。而key的對映方式不變,就是多了層從虛擬節點再對映到物理機的過程。這種優化下儘管物理機很少的情況下,只要虛擬節點足夠多,也能夠使用得key分布的相對均勻。

總結本文介在理解快取基本概念的情況下介紹了memcached的分布式演算法實現原理,memcached的分布式是由客戶端函式庫實現的。

memcached分布式實現原理

正文 在高併發環境下,大量的讀 寫請求湧向資料庫,此時磁碟io將成為瓶頸,從而導致過高的響應延遲,因此快取應運而生。無論是單機快取還是分布式快取都有其適應場景和優缺點,當今存在的快取產品也是數不勝數,最常見的有redis和memcached等,既然是分布式,那麼他們是怎麼實現分布式的呢?本文主要介紹...

Memcached 分布式快取實現原理

在高併發環境下,大量的讀 寫請求湧向資料庫,此時磁碟io將成為瓶頸,從而導致過高的響應延遲,因此快取應運而生。無論是單機快取還是分布式快取都有其適應場景和優缺點,當今存在的快取產品也是數不勝數,最常見的有redis和memcached等,既然是分布式,那麼他們是怎麼實現分布式的呢?本文主要介紹分布式...

Memcached 分布式快取實現原理

在高併發環境下,大量的讀 寫請求湧向資料庫,此時磁碟io將成為瓶頸,從而導致過高的響應延遲,因此快取應運而生。無論是單機快取還是分布式快取都有其適應場景和優缺點,當今存在的快取產品也是數不勝數,最常見的有redis和memcached等,既然是分布式,那麼他們是怎麼實現分布式的呢?本文主要介紹分布式...