python入門 之教你編寫自動獲取金幣指令碼

2021-09-07 17:11:47 字數 3824 閱讀 3729

來收割金幣。

使用burp抓取一下提交的包,如下圖所示:

因此我們的目的是寫乙個自動提交心情的python指令碼,提交包中需要包含必要的cookie資訊,隱藏的radom字串,心情文字內容,和檔案,經測試發現檔案可為空。表單中只包含前兩項就可以成功增加金幣,這就更加省事了。

文末附有完整python**,接下來我們看一下是怎麼一步步寫出來的。

第一步首先先寫讀取頁面的功能!這個之前也寫過很多,都是搜尋出一段**來直接使用。然而這次找了幾段****應為python及庫的版本問題都不太好除錯。

就直接看requests庫官方文件,官方文件才是最好的資料。

版本1**

此時獲得的頁面是未曾登陸的無法發表心情狀態。

版本2**:

接下來我們提取需要提交表單的隱藏input隨機字串,同時選擇當前首頁的其他人的心情狀態作為我們的文字內容。

解析html,當然是神庫beautifulsoup4了,別無他想。分析需要提取的值在html頁面的具體位置,檢視官方文件選擇合適的api方法,然後編寫**實現。

接下來我們來實現提交心情狀態功能。

只需要將上一步驟提取的內容構造post提交就可以了。

版本4**

因此可以使用session來改造**,requests中的session將會自動儲存相關的cookie資訊,如此每次執行就可以自動使用賬號及密碼登陸。

版本5**

#coding:utf-8  

import requests

from bs4 import beautifulsoup

s = requests.session()

url_home = ""     s.get(url_home)     url_login = ""     data_login =     text = s.post(url_login,data=data_login)     r = s.get(url_home)     soup = beautifulsoup(r.text, 'html.parser')     random = soup.form.input.attrs["value"]     content = soup.select_one(".content").contents[0]     mood_create = ''     payload =     s.post(mood_create, cookies=cookies, data=payload)

上面的步驟完成後,我們可以執行一次自動提交心情狀態的**。我們想要做的每隔一定的時間間隔提交一條狀態。因此還要新增上乙個定時器,來自動執行這個過程。

最終完整**如下,justforfun。

#coding:utf-8

import threading

import requests

import random

from bs4 import beautifulsoup     url_login = ""     url_home = ""     mood_create = ""     s = requests.session()     def create():         global timer         global s         s.get(url_home)         data_login =         text = s.post(url_login,data=data_login)         res = s.get(url_home)         soup = beautifulsoup(r.text, 'html.parser')         random = soup.form.input.attrs["value"]         content = soup.select_one(".content").contents[0]         payload =         s.post(mood_create, cookies=cookies, data=payload)         timer = threading.timer(5*60*60, create)         timer.start()     timer = threading.timer(1, create)        timer.start()

>>>>>>  黑客入門必備技能帶你入坑和逗比表哥們一起聊聊黑客的事兒,他們說高精尖的技術比農藥都好玩~

19 2 Python入門之編寫爬蟲實戰

準備 beatiful soup庫 該庫可以從html或xml檔案中提取資料,通過轉換器實現常規的文件導航,查詢,修改等操作,該庫需要安裝後使用 目標 實現過程 首先使用前先使用urllib.request模組從指定 上讀取html檔案 import urllib.request from bs4 ...

Python爬蟲 編寫簡單爬蟲之新手入門

最近整理了一下python的基礎知識,大家一般對 爬蟲 這個詞,一聽就比較熟悉,都知道是爬一些 上的資料,然後做一些操作整理,得到人們想要的資料,但是怎麼寫乙個爬蟲程式 呢?相信很多人是不會的,今天寫乙個針對新手入門想要學習爬蟲的文章,希望對想要學習的你能有所幫助 廢話不多說,進入正文!1 首先 使...

Python爬蟲(一) 編寫簡單爬蟲之新手入門

最近學習了一下python的基礎知識,大家一般對 爬蟲 這個詞,一聽就比較熟悉,都知道是爬一些 上的資料,然後做一些操作整理,得到人們想要的資料,但是怎麼寫乙個爬蟲程式 呢?相信很多人是不會的,今天寫乙個針對新手入門想要學習爬蟲的文章,希望對想要學習的你能有所幫助 廢話不多說,進入正文!1 首先 使...