可用性自動化V3

2022-04-18 20:26:19 字數 2067 閱讀 1230

#

! /usr/bin/env python

#coding=utf-8

import

requests

import

datetime

import

json

import

sslimport

time

today =datetime.date.today()

timenow =datetime.datetime.now()

inputcookie=raw_input('

enter cookie:')

cookie='

phpsessid=

'+inputcookie

def get_json(): #

獲取事件中心第一條資料

url = '

' %(today, today)

headers =

r = requests.get(url, headers=headers)

json_data =r.content

sf = open('

geteventlistpages.json

', 'wb'

) sf.write(json_data)

sf.close()

defgethtml():

try:

url =affected_url

data = requests.get(url,timeout=3,verify=false)

status = data.status_code #

取**狀態碼

forstatus=str(status)

if'200'

inforstatus:

timenow =datetime.datetime.now()

print

'time:

',timenow,'

**正常訪問,更新狀態為【已修復】

'send_monitorrecover(urlid)

else

:

print

'time:

',timenow,'

狀態碼為:

', status, "

【不進行處理】

"except

exception, e:

print

"未知錯誤

"def send_monitorrecover(urlid): #

傳送已修復包

url = '

'payload =

headers =

r = requests.post(url, data=payload, headers=headers)

if'64cd'in

r.text:

print

'',timenow,'

[已修復]

'else

:

print

'',timenow,'

[未成功]

'while

true:

getjsondata =get_json()

filename = '

geteventlistpages.json

'with open(filename) as f:

json_data =json.load(f)

for i in range(5):

affected_url = json_data["

data

"]["

list

"][i]["

affected_url"]

urlid = json_data["

data

"]["

list

"][i]["id"

]

print

'url:%s id:%s

' %(affected_url, urlid)

time.sleep(3)

gethtml()

監控網域名稱可用性並自動發信

看上乙個網域名稱,恰好處於pendingdelete狀態,就是別人不要了,但還沒放出來 估計這網域名稱比較火,一出來很有可能會被大家搶走,於是想寫個自動執行的crontab來監控其可用性,並在可用時自動發信通知。基於目前linux下可用的命令 工具,這可以是乙個簡單的shell script,但我還...

Puppet自動化高可用集群部署

前言 隨著公司應用需求的增加,需要不斷的擴充套件,伺服器數量也隨之增加,當伺服器數量不斷增加,我們會發現一台puppetmaster響應很慢,壓力大,解析緩慢,有什麼優化的方案嗎?可以使用puppetmaster配置多埠,結合nginx web 這樣puppetmaster承受能力至少可以提公升10...

使用內建複製功能來最佳化可用性

使用mysql內建複製功能來最佳化可用性 2001 10 0521 31 mysql內部複製功能是建立在兩個或兩個以上伺服器之間,通過設定它們之間的主 從關係來實現的。其中乙個作為主伺服器,其它的作為從伺服器。我將詳細討論如何配置兩台伺服器,將乙個設為主伺服器,另乙個設為從伺服器。並且描述一下在它們...