爬蟲(一) 有道翻譯

2021-10-23 21:42:56 字數 1867 閱讀 9535

實現爬蟲主要找到以下三個部分,分別是url,header,form data。直接從谷歌開發工具中複製出來,再做一些修改即可!

#請求位址

url =

''

headers =

破解方法:

然後在複製出來,用編譯器開啟,找到salt的位置,實現方法為(new date).gettime(),js中gettime 方法返回乙個整數值,這個整數代表了從 1970 年 1 月 1 日開始計算到 date 物件中的時間之間的毫秒數,轉換成python方法就可以了

salt =

int(time.time()*

1000

)+random.randint(0,

10)

sign的加密方式使用了md5加密演算法,js**中可以看到md5()引數乙個有4個字串組成,其中第乙個和第二個都是常字串,直接複製過來,第三個是所謂的salt,第四個是輸入要翻譯的單詞

u =

'fanyideskweb'

d = content

f =str(

int(time.time()*

1000

)+ random.randint(1,

10))# salt

c='ry0d^0\'nm0}g5mm1z%1g4'

sign = hashlib.md5(

(u + d + f + c)

.encode(

'utf-8'))

.hexdigest(

)

data = urllib.parse.urlencode(data)

.encode(

'utf-8'

) request = urllib.request.request(url=url,data=data,headers=head, method=

'post'

)

response  = urllib.request.urlopen(request)
line = json.load(response)

# 將得到的字串轉換成json格式

text=

''for x in line[

'translateresult']:

text += x[0]

['tgt'

] yd = text

user1=

user2=

user3=

user4=

// 隨機選擇乙個user-agent

user-agent = random.choice(

[user1, user2, user3, user4]

)

# 在網上找一些免費可用的**ip

iplist =

['118.31.220.3:8080'

,'221.228.17.172:8181'

,'219.141.153.4:80'

]#**ip及埠

# 在請求時隨機使用乙個作為**ip位址進行訪問

dict1 =

proxy_support = urllib.request.proxyhandler(dict1)

opener = urllib.request.build_opener(proxy_support)

urllib.request.install_opener(opener)

我的部落格

爬蟲 有道翻譯

import time import requests import hashlib class youdaofanyi def get cookie self url ret requests.get url url return ret.headers.get set cookie def tr...

有道翻譯 爬蟲

目標 user agent身份驗證 請求頭設定 請求體資料 傳送請求並接收響應 接收資料簡單處理 在抓包工具中找到目標 或者在瀏覽器開發者工具中找到 不要找錯了 user agent身份資訊,這個比較簡單請求頭內容用抓包工具可以獲得抓包工具中的body表單 一般都是json格式的資料pycharm中...

爬蟲 有道翻譯

author blues date 2020.9.8 python import hashlib import time import random import requests headers def func word r str int time.time 1000 1599574041 t...