學習爬蟲有道翻譯中遇到的

2021-08-09 01:30:33 字數 1150 閱讀 6751

import urllib.request

import urllib.parse

import json

#from tkinter import *

'''root =tk()

root.wm_attributes('-topmost',1)

root.geometry('+1000+40')

root.minsize(300,200)'''

fanyi = input('輸入你想要翻譯的:')

url = ""

#url中?前有個_o,刪除後,response中的errorcode=50就會解決。

head = {}

data = {}

data['i']=fanyi

data['from']='auto'

data['to']='auto'

data['smartresult']='dict'

data['client']='fanyideskweb'

data['salt']='1507343425426'

data['sign']='0df813336ad806fbaa2e0120dddb1d02'

data['doctype']='json'

data['version']='2.1'

data['keyfrom']='fanyi.web'

data['action']='fy_by_clickbuttion'

data['typoresult']='true'

data = urllib.parse.urlencode(data).encode('utf-8')

response = urllib.request.urlopen(url,data)

html = response.read().decode('utf-8')

print (html)

target = json.loads(html)

result = target['translateresult'][0][0]['tgt']

print (result)

告一段落之後,昨天發現了魚c論壇以為網友做了乙個tk的桌面翻譯爬蟲,檢視原始碼之後發現只是把url中的_o去掉,就能用了。

爬蟲 有道翻譯

import time import requests import hashlib class youdaofanyi def get cookie self url ret requests.get url url return ret.headers.get set cookie def tr...

有道翻譯 爬蟲

目標 user agent身份驗證 請求頭設定 請求體資料 傳送請求並接收響應 接收資料簡單處理 在抓包工具中找到目標 或者在瀏覽器開發者工具中找到 不要找錯了 user agent身份資訊,這個比較簡單請求頭內容用抓包工具可以獲得抓包工具中的body表單 一般都是json格式的資料pycharm中...

爬蟲 有道翻譯

author blues date 2020.9.8 python import hashlib import time import random import requests headers def func word r str int time.time 1000 1599574041 t...