學python爬蟲第二天

2021-10-07 10:20:09 字數 1469 閱讀 5104

墨跡少女,隨心學習,啊,好慢!

import requests

# 定義請求的url

url =

''# 定義請求頭

headers =

# 定義輸入變數

input

=input()

# post傳送的資料

data =

# 傳送請求

res = requests.post(url=url,headers=headers,data=data)

# 接受返回資料

code = res.status_code

if code ==

200:

print

('請求成功'

) data = res.json(

)if data[

'errno']==

0:print

('響應成功'

)print

(data[

'data'][

0]['k'])

v = data[

'data'][

0]['v'

]print

(v.split(

';')[-

2])

對於輸入資料的話

是定義了個變數為input函式,然後就可以通過本地輸入該變數

最後那塊

接受返回資料

就是如果可以正常訪問到,就把訪問到的資訊以json檔案的形式存到date,然後如果沒有錯誤的話,就會再列印某些資訊。對於split就是以什麼分割開呀,python得話,貌似分開之後,計數是……-3,-2,-1

http請求是無狀態請求協議,不會記住使用者的狀態和資訊,也不清楚你在這之前訪問過什麼

因為**需要記錄使用者是否登入時,就需要在使用者登入後建立一些資訊,並且要把這些資訊記錄在當前使用者的瀏覽器中,記錄的內容就是cookie

使用者使用當前瀏覽器繼續訪問該伺服器是,會主動攜帶這個**設定的cookie資訊

cookie會在瀏覽器中記錄資訊,並且在訪問時攜帶這個資訊

1.瀏覽器更換或刪除cookie後,資訊丟失

2.cookie在瀏覽器中記錄的資訊是不安全的,因為不能記錄敏感資訊

session是在伺服器端進行資料的幾乎,並且給每個使用者會生成乙個sessionid,並且會把sessionid設定在使用者的瀏覽器中,也就是設定為cookie

該**pypi.org上有python的所有第三方庫,並且還有一些對於該庫的使用講解等

http(hyper text transfer protocol)和https(hyper text transfer protocol over securesocket layer)的區別在s上了,就是secure,安全的意思吧,就是https是安全傳輸,就是多了乙個安全啦,

啦啦啦啦啦

第二天堅持哈

行不禿頭少女

零基礎開始

也不是啥大問題

python爬蟲第二天

時間字串轉換 contents獲取內容 strftime轉化時間格式 內文的提取 實參位置用空格分隔 加一級的標籤 import requests import json jd json.loads comments.text.strip 需剔除部分 抓取內文資訊方法寫成函式 commenturl ...

Python爬蟲第二天

python爬蟲第二天 超時設定 有時候訪問網頁時長時間未響應,系統就會判斷網頁超時,無法開啟網頁。如果需要自己設定超時時間則 通過urlopen 開啟網頁時使用timeout欄位設定 import urllib.request for i in range 1,100 迴圈99次 try file...

第二天學python

while else else是跟在while後的,while沒有被break打斷走else,被break打斷,不走else。utf 8 3個位元組表示乙個中文。中文全包括。至少用乙個位元組表示。unicode 4個位元組表示乙個中文。gbk 包含中文與英文本母,乙個中文用兩個位元組。不全。冪運算 ...