爬蟲 requests 使用百度翻譯

2021-10-25 05:35:43 字數 660 閱讀 4970

import requests

import json

if __name__ == '__main__':

#1. 指定url

post_url = ''

#2. ua偽裝

headers =

#3. 傳送請求

word = input('enter a word:')

if not word:

print('您沒有輸入任何單詞')

data =

if word:

response = requests.post(url=post_url,data=data,headers=headers)

#4. 獲取資料:json返回的是obj(如果確認響應資料是json型別的,才可以使用json())

dic_obj = response.json()

#5. 永久化儲存

filename = word + '.json'

a= open(filename,'w',encoding='utf-8')

json.dump(dic_obj,fp=a,ensure_ascii=false)#中文,所以json不能使用ascii

print('儲存成功:', dic_obj)

百度文庫爬蟲

可用的page number 0 10 20 30 根據url和type爬取檔案類容 doc和txt檔案使用不同的爬取方法 爬取的結果儲存在txt outputs search word freefromwenku main.py 程式入口 readme.md read me requirement...

百度翻譯 爬蟲

2.開啟抓包,發現有三個sub的post請求,確定為ajax,最後乙個post請求攜帶完整引數dog 3.然後檢視返回資料為json串 import requests import json if name main post url kw input 請輸入你要翻譯的文字 修改爬蟲的ua為瀏覽器的...

requests 獲取百度推廣資訊

2019年的第一篇部落格,恩,好久沒寫過部落格了,恩,忘了,哈哈,實在是太懶了 注意 有的時候,get或post方法獲取資料是會報ssl等錯誤,要驗證啥的,沒搞懂,網上搜尋,都是設定 verify false,我也懶得去詳細分析,你們要是有興趣可以去了解一下,然後這麼設定了,在get或者post是會...