linux核心優化引數web伺服器

2021-09-21 19:58:38 字數 2895 閱讀 8200

惆悵啊沒辦法,總監讓優化整個架構的核心引數,沒辦法就到處蒐集了一些整理到下面了。

看下面引數我還是建議先看下:

減少tcp 連線中的time-wait sockets:  

net.ipv4.tcp_syncookies = 1 

// 表示開啟syn cookies。當出現syn等待佇列溢位時,啟用cookies來處理,可防範少量syn攻擊,預設為0,表示關閉;

net.ipv4.tcp_tw_reuse = 1 

//表示開啟重用。允許將time-wait sockets重新用於新的tcp連線,預設為0,表示關閉;

net.ipv4.tcp_tw_recycle = 1 

//表示開啟tcp連線中time-wait sockets的快速**,預設為0,表示關閉。

用以下語句檢視伺服器的tcp狀態:

#netstat -n | awk '/^tcp/ end

net.ipv4.ip_local_port_range = 32768 65000 

// 允許系統開啟的埠範圍。

net.ipv4.tcp_keepalive_time = 30 

// 當keepalive起用的時候,tcp傳送keepalive訊息的頻度。預設是2小時

net.ipv4.tcp_max_tw_buckets = 6000 

// timewait的數量,預設是180000。

表示系統同時保持time_wait套接字的最大數量,如果超過這個數字,time_wait套接字將立刻被清除並列印警告資訊。預設為180000,改為 6000。對於apache、nginx等伺服器,上幾行的引數可以很好地減少time_wait套接字數量,但是對於squid,效果卻不大。此項引數可以控制time_wait套接字的最大數量,避免squid伺服器被大量的time_wait套接字拖死。

net.ipv4.tcp_max_syn_backlog = 65536 

//記錄的那些尚未收到客戶端確認資訊的連線請求的最大值。對於有128m記憶體的系統而言,預設值是1024,小記憶體的系統則是128

net.core.netdev_max_backlog = 32768 

//每個網路介面接收資料報的速率比核心處理這些包的速率快時,允許送到佇列的資料報的最大數目。

net.core.somaxconn = 32768 

//web應用中listen函式的backlog缺省會給我們核心引數的net.core.somaxconn限制到128,

而nginx定義的ngx_listen_backlog預設為511,所以有必要調整這個值。

net.core.wmem_default = 8388608 

net.core.rmem_default = 8388608

net.core.rmem_max = 16777216 

//最大socket讀buffer,可參考的優化值:873200

net.core.wmem_max = 16777216 

//最大socket寫buffer,可參考的優化值:873200

net.ipv4.tcp_timestsmps = 0 

//時間戳可以避免序列號的捲繞。乙個1gbps的鏈路肯定會遇到以前用過的序列號。時間戳能夠讓核心接受這種「異常」的資料報。這裡需要將其關掉

net.ipv4.tcp_synack_retries = 2 

//為了開啟對端的連線,核心需要傳送乙個syn並附帶乙個回應前面乙個syn的ack。

也就是所謂三次握手中的第二次握手。這個設定決定了核心放棄連線之前傳送syn+ack包的數量

net.ipv4.tcp_syn_retries = 2 

//在核心放棄建立連線之前傳送syn包的數量

#net.ipv4.tcp_tw_len = 1

net.ipv4.tcp_tw_reuse = 1 

// 開啟重用。允許將time-wait sockets重新用於新的tcp連線。

net.ipv4.tcp_wmem = 8192 436600 873200 

// tcp寫buffer,可參考的優化值: 8192 436600 873200

net.ipv4.tcp_rmem 

= 32768 436600 873200 

// tcp讀buffer,可參考的優化值: 32768 436600 873200

net.ipv4.tcp_mem = 94500000 91500000 92700000 

// 同樣有3個值,意思是:

\net.ipv4.tcp_mem[0]:低於此值,tcp沒有記憶體壓力.

\net.ipv4.tcp_mem[1]:在此值下,進入記憶體壓力階段.

\net.ipv4.tcp_mem[2]:高於此值,tcp拒絕分配socket.

\ 上述記憶體單位是頁,而不是位元組.可參考的優化值是:786432 1048576 1572864

net.ipv4.tcp_max_orphans = 3276800

//系統中最多有多少個tcp套接字不被關聯到任何乙個使用者檔案控制代碼上。

如果超過這個數字,孤兒連線將即刻被復位並列印出警告資訊。

這個限制僅僅是為了防止簡單的dos攻擊,不能過分依靠它或者人為地減小這個值,

更應該增加這個值(如果增加了記憶體之後)。

net.ipv4.tcp_fin_timeout = 30 

//如果套接字由本端要求關閉,這個引數決定了它保持在fin-wait-2狀態的時間。

對端可以出錯並永遠不關閉連線,甚至意外當機。預設值是60秒。2.2 核心的通常值是180秒,

你可以按這個設定,但要記住的是,即使你的機器是乙個輕載的web伺服器,

也有因為大量的死套接字而記憶體溢位的風險,fin- wait-2的危險性比fin-wait-1要小,

因為它最多只能吃掉1.5k記憶體,但是它們的生存期長些。

linux核心引數優化

linux核心引數優化 主要針對 etc sysctl.conf檔案 etc sysctl.conf是乙個允許你改變正在執行中的linux系統的介面。它包含一些tcp ip堆疊和虛擬記憶體系統的高階選項,可用來控制linux網路配置,由於 proc sys net目錄內容的臨時性,建議把tcpip引...

linux核心引數優化

linux如何在系統執行時修改核心引數 proc sys 與 etc sysctl.conf redhat向員提供了非常好的方法,使我們可以在系統執行時更改核心引數,而不需要重新引導系統。這是通過 proc虛擬檔案系統實現的。proc sys目錄下存放著大多數的核心引數,並且設計成可以在系統執行的同...

Linux核心引數優化

核心引數是使用者和系統核心之間互動的乙個介面,通過這個介面,使用者可以在系統執行的同時動態更新核心配置,而這些核心引數是通過linux proc檔案系統存在的。因此,可以通過調整proc檔案系統達到優化linux效能的目的。sysctl命令 被用於在核心執行時動態地修改核心的執行引數,可用的核心引數...