爬蟲學習 批量在geoserver發布向量資料

2021-10-02 08:45:27 字數 3267 閱讀 3312

def getfiles(dir, suffix): # 查詢根目錄,檔案字尾

res =

for root, directory, files in os.walk(dir): # =>當前根,根下目錄,目錄下的檔案

for filename in files:

name, suf = os.path.splitext(filename) # =>檔名,檔案字尾

driver.find_element_by_id("username").send_keys("admin") # 填入使用者名稱

driver.find_element_by_id("password").send_keys("geoserver") # 填入密碼

driver.find_element_by_css_selector(".positive").click()

for file in getfiles("e:\\我的堅果雲\\new\\", '.shp'): # =>查詢以shp結尾的檔案

driver.find_element_by_css_selector(".longtext").send_keys("file://e:\\我的堅果雲\\new\\"+file+".shp") //你的檔案路徑

driver.find_element_by_xpath('/html/body/div[2]/div[1]/div[2]/div[2]/form/div[3]//a[1]').click()

time.sleep(2)

driver.find_element_by_xpath('/html/body/div[2]/div/div[2]/div[2]/div/div[2]/div/table/tbody/tr/td[3]/span/a').click()

time.sleep(2)

driver.find_element_by_xpath('/html/body/div[2]/div/div[2]/div[2]/form/div[2]/div[2]/div[1]/'

'div/ul/li[1]/fieldset/ul/li[1]/input').send_keys("typhoon-point"+file) //自定義命名方式,我的是typhoon-point加編號

driver.find_element_by_xpath('/html/body/div[2]/div/div[2]/div[2]/form/div[2]/div[2]/div[1]/div/ul/div/li[2]/'

'fieldset/ul/li[1]/div[2]/a[1]').click()

driver.find_element_by_xpath('/html/body/div[2]/div/div[2]/div[2]/form/div[2]/div[2]/div[1]/div/ul/div/li[2]/f'

'ieldset/ul/li[2]/a').click()

time.sleep(1)

driver.find_element_by_xpath('/html/body/div[2]/div/div[2]/div[2]/form/div[2]/div[1]/ul/li[2]/a').click()

driver.find_element_by_xpath('/html/body/div[2]/div/div[2]/div[2]/form/div[2]/div[2]/div[3]/div/ul/li/fieldset/'

'ul[3]/li[1]/span/span[1]/span/span[1]').click()

driver.find_element_by_xpath('/html/body/span/span/span[1]/input').send_keys("point") //這裡的point改為你用的style名字

Scrapy 執行爬蟲檔案批量

吧 1.使用修改 crawl 原始碼 自定義命令方式實現 2.建立專案 scrapy startproject mymultispd 3.進入專案檔案建立多個爬蟲檔案 scrapy genspider t basic myspd1 sina.com.cn scrapy genspider t bas...

爬蟲請求頭批量加引號

python中編寫爬蟲程式通常需要新增請求頭,但是從瀏覽器中複製的請求頭沒有加引號。當請求頭資訊比較多的時候,加引號是乙個非常痛苦的事情,所以筆者寫了乙個小指令碼,可以批量給請求頭資訊新增引號。import re defmakeheaders data rule re.compile results...

在Hibernate中處理批量更新和批量刪除

page load marshal data pump 批量更新是指在乙個事務中更新大批量資料,批量刪除是指在乙個事務中刪除大批量資料。以下程式直接通過hibernate api批量更新customers表中年齡大於零的所有記錄的age欄位 tx session.begintransaction i...