實測aiCache加速效能測試報告

2021-05-11 04:07:13 字數 2317 閱讀 8527

伺服器:

amd雙核dualcore ql-62,

系統搭載

743m

的ram,

執行64

位ubuntu 9.1。軟體

apache2

配置:

未修改的預設配置。

apache2

配置偵聽

82埠

, aicache

採用http80

埠。測試細節:

apache

配置偵聽

82埠。

測試工具:

消減網路頻寬

/吞吐量

,在相同伺服器上生成負載,使用

apache bench

工具(ab)

。在動態頁面自身執行測試

,不測試輔助內容(影象

,css

和js)

。aicache

配置aicache5.478版,

定義單個模式

,允許快取演示頁10分

ttl。

命令列配置

普通訪問模式

加速訪問模式

統計75%訪問請求

測試環境

apache

apache

+aicache

度量單位

伺服器軟體:

apache/2.2.4

aicache 5.478

伺服器主機名:

192.168.1.247

192.168.1.247

伺服器端口:

8280

檔案長度:

177

177

bytes

並行等級:

1000

1000

level

測試所用時間:

66.8125

57.62500

seconds

完成請求:

5000

5000

失敗請求:

00寫入錯誤:

00總傳輸:

2255000

1600000

位元組html傳輸:

885000

885000

位元組每秒請求:

74.84

87.62

平均每請求時間:

13362.500

11412.500

毫秒每請求時間

(在所有並行請求):

13.363

11.413

毫秒傳輸率:

32.96

27.37千位/

秒半數連線時間:

00毫秒處理:

3343

515毫秒等候:

3203

312毫秒總計:

3343

515毫秒

請求百分比於某一時間(毫秒

) 50%3343

515毫秒

66%3718

562毫秒

75%3750

562毫秒

80%31015

2771

毫秒90%

58015

54968

毫秒95%

58062

55000

毫秒98%

61078

55031

毫秒99%

6109.

55031

毫秒100%(

最長請求)

61109

55046

毫秒總結

在本次測試例項中的

85%的請求中提供了

6~7倍的效能改進。

由於有15%~20%

請求得到響應的時間很長,導致總的測試時間延長,因此每秒請求、傳輸率等

aicache

測試資料值偏低。

疑問:可能受限於當前的配置情況,每次測試總是有

5%~20%

請求得到響應的時間很長。具體原因目前仍需要排查

實測TCP BBR演算法加速效果

作為一枚學生黨,國內的雲伺服器 和頻寬太過昂貴,有提供學生優惠的雲服務頻寬也只有1m,而我想做的是在伺服器上搭建乙個同步雲盤,當然這些都不是最重要的,最重要的是無法幫助我科學上網。恰巧去年暑假的時候,vultr搞活動註冊了乙個賬號,現還有15美元,當時因為它們的網路對電信太不友好,速度慢丟包率高,用...

TCP BBR演算法加速效果實測(比對)

作為一枚學生黨,國內的雲伺服器 和頻寬太過昂貴,有提供學生優惠的雲服務頻寬也只有1m,而我想做的是在伺服器上搭建乙個同步雲盤,當然這些都不是最重要的,最重要的是無法幫助我科學上網。恰巧去年暑假的時候,vultr搞活動註冊了乙個賬號,現還有15美元,當時因為它們的網路對電信太不友好,速度慢丟包率高,用...

給Python加速(效能加速的方法)

轉譯解讀 首先提高 的效能不能以改變 功能為代價。簡而言之,按照原文說的 詳細的解讀包括 選擇乙個正確的資料結構。這個說法深有體會。python中多變的資料結構可以造成很大的差異,使用乙個set就可以事半功倍。甚至乙個自己定義的資料結構,對於記憶體,運算速度,處理方式等都有很大的影響。進行排序 我在...