我用Python爬蟲原理 做的乙個翻譯器

2021-10-09 06:36:28 字數 1868 閱讀 2150

有人用python爬,有人爬文件,有人爬文字,我突發奇想,既然都是網路請求,那我是不是也能把功能爬下來[doge]…

我的思路跟爬文字一樣,也是先傳送請求,獲得響應,然後讀取文件,不過這裡讀取輸出的內容要換成翻譯後的內容。

大部分解釋程式的注釋裡都有,這裡詳細說一下data字典,data作為響應的引數之一,按f12測試**,找到下圖network所示的

然後將各個鍵值對分別賦值給data的原本的空字典即可,同時要注意url的引入也是要用有道這裡的源**(去掉_o,新的好像有保護機制),這時得到的字典data還是未編碼的,我們對其進行編碼,使用encode模組。隨後傳送請求,解碼,裝載,輸出即可。

**:

import urllib.request

import urllib.parse

import json

import os #避免結果一閃而過

content =

input

("請輸入要翻譯的內容:"

)#賦值url

url =

''#建立data

data =

data[

'i']

= content

data[

'from']=

'auto'

data[

'to']=

'auto'

data[

'smartresult']=

'dict'

data[

'client']=

'fanyideskweb'

data[

'salt']=

'15976478948697'

data[

'sign']=

'141de79685d17d12d73a3179afee6053'

data[

'lts']=

'1597647894869'

data[

'bv']=

'97ba7c7fb78632ae9b11dcf6be726aee'

data[

'doctype']=

'json'

data[

'version']=

'2.1'

data[

'keyfrom']=

'fanyi.web'

data[

'action']=

'fy_by_clickbuttion'

#編碼data

data = urllib.parse.urlencode(data)

.encode(

'utf-8'

)#發出請求,得到響應

response = urllib.request.urlopen(url,data)

#解碼read()讀開的文件

html = response.read(

).decode(

'utf-8'

)#裝載json

target = json.loads(html)

#輸出的內容是載入後的字典的三重內容的使用者所需選項,第乙個0是第一層,一直到『tgt』的翻譯結果

print

("翻譯結果:%s"

%(target[

'translateresult'][

0][0

]['tgt'])

)os.system(

"pause"

)

執行結果:

我的爬蟲段位不高,歡迎各位大神指點

這裡爬蟲借用的是有道翻譯,其他翻譯應該也可

用python寫爬蟲(一)初識爬蟲

爬蟲又被稱之為網路蜘蛛 網路機械人等,簡單來說就是模擬客戶端傳送網路請求,接收請求響應,按照一定的規則自動的抓取網際網路資訊的程式。1.從個人角度來說,爬蟲可以做我們的生活助手。2.從商業角度來說,爬蟲能實現巨大的商業價值。網路爬蟲根據系統結構和開發技術大致可以分為四種型別 通用網路爬蟲 聚焦網路爬...

用Python做爬蟲時,提取Excel資料

需求 爬蟲時,根據excel裡的資料進行爬取,再將獲取的資料匯入並儲存到新的excel裡 import xlrd data xlrd.open workbook r 此處為excel檔案.xlsx 預設當前路徑 獲取所有的sheet sheet name data.sheet names 0 根據s...

python之爬蟲(二)爬蟲的原理

在上文中我們說了 爬蟲就是請求 並提取資料的自動化程式。其中請求,提取,自動化是爬蟲的關鍵!下面我們分析爬蟲的基本流程 發起請求 通過http庫向目標站點發起請求,也就是傳送乙個request,請求可以包含額外的header等資訊,等待伺服器響應 獲取響應內容解析內容 得到的內容可能是html,可以...