優化Linux下的核心TCP引數以提高系統效能

2021-07-02 17:57:14 字數 2892 閱讀 4077

那是不是所有執行主動關閉的socket都會進入time_wait狀態呢?有沒有什麼情況使主動關閉的socket直接進入closed狀態呢?答案是主動關閉的一方在傳送最後乙個ack後就會進入time_wait狀態,並停留2msl(max segment lifetime)時間,這個是tcp/ip必不可少的,也就是「解決」不了的。

tcp/ip的設計者如此設計,主要原因有兩個:

防止上一次連線中的包迷路後重新出現,影響新的連線(經過2msl時間後,上一次連線中所有重複的包都會消失)。

為了可靠地關閉tcp連線。主動關閉方傳送的最後乙個ack(fin)有可能會丟失,如果丟失,被動方會重新發fin,這時如果主動方處於closed狀態,就會響應rst而不是ack。所以主動方要處於time_wait狀態,而不能是closed狀態。另外,time_wait並不會占用很大的資源,除非受到攻擊。

在squid伺服器中可輸入檢視當前連線統計數的命令,如下所示:

netstat -n| awk '/^tcp/ end ' last_ack 14 syn_recv 348 established 70 fin_wait1 229 fin_wait2 30 closing 33 time_wait 18122

closed:無連線是活動的或正在進行中的。

listen:伺服器在等待進入呼叫。

syn_recv:乙個連線請求已經到達,等待確認。

syn_sent:應用已經開始,開啟乙個連線。

established:正常資料傳輸狀態。

fin_wait1:應用說它已經完成。

fin_wait2:另一邊已同意釋放。

closing:兩邊同時嘗試關閉。

time_wait:另一邊已初始化乙個釋放。

last_ack:等待所有分組死掉。

也就是說,這條命令可以把當前系統的網路連線狀態分類彙總。

在linux下高併發的squid伺服器中,tcp time_wait套接字數量經常可達兩三萬,伺服器很容易就會被拖死。不過,我們可以通過修改linux核心引數來減少squid伺服器的time_wait套接字數量,命令如下所示:

vim /etc/sysctl.conf

然後,增加以下引數:

net.ipv4.tcp_fin_timeout = 30 net.ipv4.tcp_keepalive_time = 1200 net.ipv4.tcp_syncookies = 1 net.ipv4.tcp_tw_reuse = 1 net.ipv4.tcp_tw_recycle = 1 net.ipv4.ip_local_port_range = 1024 65000 net.ipv4.tcp_max_syn_backlog = 8192 net.ipv4.tcp_max_tw_buckets = 5000

其中:net.ipv4.tcp_syncookies=1表示開啟syn cookies。當出現syn等待佇列溢位時,啟用cookie來處理,可防範少量的syn攻擊。預設為0,表示關閉。

net.ipv4.tcp_tw_reuse=1表示開啟重用。允許將time-wait套接字重新用於新的tcp連線。預設為0,表示關閉。

net.ipv4.tcp_tw_recycle=1表示開啟tcp連線中time-wait套接字的快速**。預設為0,表示關閉。

net.ipv4.tcp_fin_timeout=30表示如果套接字由本端要求關閉,這個引數決定了它保持在fin-wait-2狀態的時間。

net.ipv4.tcp_keepalive_time=1200表示當keepalive啟用時,tcp傳送keepalive訊息的頻度。預設是2小時,這裡改為20分鐘。

net.ipv4.ip_local_port_range=1024 65000表示向外連線的埠範圍。預設值很小:32768~61000,改為1024~65000。

net.ipv4.tcp_max_syn_backlog=8192表示syn佇列的長度,預設為1024,加大佇列長度為8192,可以容納更多等待連線的網路連線數。

net.ipv4.tcp_max_tw_buckets=5000表示系統同時保持time_wait套接字的最大數量,如果超過這個數字,time_wait套接字將立刻被清除並列印警告資訊。預設為180000,改為5000。對於apache、nginx等伺服器,前面介紹的幾個引數已經可以很好地減少time_wait套接字數量,但是對於squid來說,效果卻不大。有了此引數就可以控制time_wait套接字的最大數量,避免squid伺服器被大量的time_wait套接字拖死。

執行以下命令使核心配置立即生效:

/sbin/sysctl -p

如果是用於apache或nginx等的web伺服器,或nginx的反向**,則只需要更改以下幾項即可:

net.ipv4.tcp_syncookies=1 net.ipv4.tcp_tw_reuse=1 net.ipv4.tcp_tw_recycle = 1 net.ipv4.ip_local_port_range = 1024 65000

執行以下命令使核心配置立即生效:

/sbin/sysctl -p

如果是郵件伺服器,則建議核心方案如下:

net.ipv4.tcp_fin_timeout = 30 net.ipv4.tcp_keepalive_time = 300 net.ipv4.tcp_tw_reuse = 1 net.ipv4.tcp_tw_recycle = 1 net.ipv4.ip_local_port_range = 5000 65000 kernel.shmmax = 134217728

執行以下命令使核心配置立即生效:

/sbin/sysctl -p

當然這些都只是最基本的更改,大家還可以根據自己的需求來更改核心的設定,同樣也要本著穩定的原則,如果伺服器不穩定的話,一切工作和努力都會白費。如果以上優化仍無法滿足你的要求,有可能你需要定製你的伺服器核心或公升級伺服器硬體。至於服務的配置優化,超出了本章的內容,大家可根據自己的需求有針對性地進行更改。

優化Linux下的核心TCP引數以提高系統效能

核心的優化跟伺服器的優化一樣,應本著穩定安全的原則。下面以64位的centos 5.5下的squid伺服器為例來說明,待客戶端與伺服器端建立tcp ip連線後就會關閉socket,伺服器端連線的埠狀態也就變為time wait了。那是不是所有執行主動關閉的socket都會進入time wait狀態呢...

優化Linux下的核心TCP引數以提高系統效能

2011 12 08 10 03 核心的優化跟伺服器的優化一樣,應本著穩定安全的原則。下面以64位的centos5.5下的squid伺服器為例來說明,待客戶端與伺服器端建立tcp ip連線後就會關閉socket,伺服器端連線的埠狀態也就變為time wait了。那是不是所有執行主動關閉的socket...

優化Linux下的核心TCP引數以提高系統效能

優化linux下的核心tcp引數以提高系統效能 核心的優化跟伺服器的優化一樣,應本著穩定安全的原則。下面以squid伺服器為例來說明,待客戶端與伺服器端建立tcp ip連線後就會關閉socket,伺服器端連線的埠狀態也就變為time wait了。那是不是所有執行主動關閉的socket都會進入time...