3 1資訊收集的一般步驟

2021-06-26 08:38:00 字數 991 閱讀 7345

dns與ip位址挖掘

1.whois 通過網域名稱 獲取dns  註冊資訊,管理員基本資訊

2.nslookup 和 idg網域名稱查詢 查詢出ip,

nslookup   非權威

set type=....

網域名稱....

....

exit

dig @

3.ip2location地里位置查詢  ** www.maxmind.com

www.cz88.net

4.netcraft**提供的資訊查詢  **構架   searchdns.netcraft.com

5.ip2domain反查網域名稱   虛擬機器單個ip多個網域名稱  www.ip-adress.com/reverse_ip/ 二:

通過搜尋引行收集資訊

1,google hacking技術   www.exploit-db.com/google-dorks

2.探索**目錄結構  接觸metasploit中的brute_dir,dir_listing,dir_scanner等模組

3.檢索特定型別檔案

site:testfire.net filetype:xls

4.搜尋**中e-mail位址

metasploit中的模組search_email_collector

use auxiliary/gather/search_email_collector

set domain altoromutual.com

run(貌似預設google,yahoo,沒成功)

5.搜尋易存在sql注入點的頁面  site:testfire.net inurl:login

site:dvssc.com  限定情報收集

SEO一般步驟

seo並不是簡單的幾個秘訣或幾個建議,而是一項需要足夠耐心和細緻的腦力勞動。大體上,seo包括六個環節 2 架構分析 結構符合搜尋引擎的爬蟲喜好則有利於seo。架構分析包括 剔除 架構不良設計 實現樹狀目錄結構 導航與鏈結優化。3 目錄和頁面優化 seo不止是讓 首頁在搜尋引擎有好的排名,更重要的是...

jdbc的一般步驟

1.匯入jdbc驅動jar 2.註冊jdbc驅動 引數 驅動程式類名 class.forname 驅動程式類名 3.獲得connection物件 conn.getstatement 方法建立物件 用於執行sql語句 execute sql 執行任何sql,常用執行ddl executeupdate ...

爬蟲的一般步驟

希望下次寫 的時候可以嚴格按照這個步驟進行除錯,寫可維護的 1.建立乙個專案 scrapy startproject demo 1.根據需要設計字段 items.py 2.資料提取 spiders.py 1 針對沒有ban且沒有動態資料的 無需設定相應得策略 設定useragentmiddlewar...