搜尋引擎投毒攻擊方式的原理及如何防範

2022-09-23 14:57:13 字數 1725 閱讀 1571

一、什麼是搜尋引擎投毒?

搜尋引擎投毒這種攻擊,能夠利用搜尋引擎來顯示搜尋結果,該結果包含著對交付惡意軟體的**的乙個或多個引用。有多種方法可以執行搜尋引擎投毒,其中包括控制流行**、使用搜尋引擎的「贊助」鏈結,其目的都是為了鏈結到惡意**,進而注入惡意**。

此外,攻擊者通過操縱搜尋引擎來返回搜尋結果(該結果包含著對感染了跨站指令碼的**的引用),也可以實施搜尋引擎投毒。受感染的網頁將輕信的使用者重新定向到惡意**。在該使用者點選這些鏈結時,其計算機就有可能感染惡意軟體。這種伎倆很不一般,因為它並不要求攻擊者控制或攻入任何伺服器。

二、攻擊原理與步驟

首先,攻擊者搭建一台在收到請求後就交付惡意軟體的伺服器。可通過不同的方法來交付惡意軟體,如通過乙個能夠利用瀏覽器漏洞的html頁面或其它方法。

然後,攻擊者獲得一系列易於遭受跨站指令碼攻擊的url。為了產生攻擊效果,這些url必須從搜尋引擎給出的搜尋結果中排名靠前的網域名稱中取得。攻擊者通常會通過搜尋引擎查詢一些專門偽造的搜尋詞,這些搜尋詞往往能夠洩露特定漏洞的存在。

下一步,攻擊者使用這些url,根據有漏洞的url建立大量的專門偽造的url,其中包括目標關鍵詞和一段能夠與惡意軟體交付伺服器進行互動的指令碼。

然後,攻擊者獲得乙個支援簡單使用者內容生成的應用程式清單,如一些論壇程式。攻擊者會用各種專門仿造的url,使網頁的內容氾濫,並有可能包含多個鏈結,並使其接受不同的應用程式。

此後,流行的搜尋引擎在掃瞄整個web,就會選取專門偽造的url,並跟蹤這些url,進而對這些網頁進行索引。其結果是,目標關鍵詞與專門偽造的url發生了關聯。由於攻擊者選取了高優先順序的網域名稱作為開始,而且由於對這些url的大量引用,受到「投毒」的搜尋結果的排名當然就靠前了。

最後,搜尋這些關鍵詞且容易輕信的使用者單擊這些url中的乙個鏈結,其計算機便容易被感染惡意軟體。

總之,搜尋引擎投毒易於實施,卻難被搜尋引擎檢測到。這種伎倆的目標是誘導無辜的搜尋者到達惡意**或欺詐**。例如,攻擊者利用機械人程式生成大量的使用者名稱,在論壇上彼此發布擁有許多鏈結的帖子進行討論,顯得不亦樂乎。對搜尋引擎來說,這倒是乙個好事兒,既然有這麼多使用者牽涉進來,因而搜尋引擎便把這種網頁放在顯赫的位置。在某個使用者單擊了其中的某個鏈結後,就會開啟乙個鏈結到.或購物**的網頁。在使用者再次單擊後,該鏈結就會將惡意軟體安裝到使用者的計算機上,進而對使用者實施欺詐或其它犯罪活動。

三、防範

攻擊者以這種方式濫用**可以導致企業的商譽和品牌受到破壞,丟失客戶和潛在的訪客。而且,這種攻擊對**的可訪問性造成明顯的負面影響,這會導致搜尋引擎將url引用標記為「有害」或「危險」,甚至被完全地從搜尋索引中刪除,從而使企業遭受嚴重的經濟損失。

從管理層面來說,系統管理員可以使用乙個具備「黑名單」功能的安全閘道器,截獲被列入「黑名單」的**上的所有通訊,從而阻止一些不確定的或具有潛在威脅的url分類,從而阻止搜尋引擎投毒的危害。此外,保護好公司自己的**(部落格和使用者論壇)也很重要,因為這樣做就不會使其成為搜尋引擎投毒的**。保護web應用程式免受xss攻擊可以防止這些**被攻擊者用作發動搜尋引擎投毒的媒介。

從使用者層面來說,防止搜尋引擎投毒攻擊要從提公升搜尋使用者的認識水平開始。研究發現,雖然許多人已經理解在郵件中可能包含惡意軟體,卻並未認識到在上網搜尋時,其搜尋結果也有可能是不安全的。企業必須教育雇員不能訪問.、賭博等**,在搜尋資訊時,要盡量使用知名**上的url。

僅有防火牆或反病毒軟體對於防護動態變化的惡意軟體及其靈活多變的交付方式是不夠的。相反,企業需要實時的保護情報,基於雲的web防禦可以快速地適應新的威脅,應當作為企業的首選方案。  

techtarget中國原創內容

搜尋引擎的爬行原理及流程

搜尋引 擎最主要的由三部分組成 蜘蛛 google的稱為機械人 索引和程式。蜘蛛程式 google的蜘蛛程式分為主蜘蛛和從蜘蛛,當google全面更新資料庫或收錄新 時,派出主蜘蛛,對 進行全面的索引 如收錄新頁 重新確定網頁級別等 當google對 日常更新時,派出從蜘蛛,對 內容進行維護。當發現...

搜尋引擎的爬行原理及流程

搜尋引 擎最主要的由三部分組成 蜘蛛 google的稱為機械人 索引和程式。蜘蛛程式 google的蜘蛛程式分為主蜘蛛和從蜘蛛,當google全面更新資料庫或收錄新 時,派出主蜘蛛,對 進行全面的索引 如收錄新頁 重新確定網頁級別等 當google對 日常更新時,派出從蜘蛛,對 內容進行維護。當發現...

搜尋引擎的工作原理

搜尋引擎是通過一種特定的規律的軟體跟蹤網頁的鏈結,從乙個鏈結爬到另乙個鏈結,像蜘蛛在蜘蛛網上爬行一樣,所以被稱為 蜘蛛 也被稱為是 機械人 搜尋引擎的爬行是被輸入了一定的規則的,它需要遵從一些命令或檔案的內容。搜尋引擎是通過蜘蛛跟蹤鏈結爬行到網頁,並將爬行的資料存入到原始頁面資料庫。其中的頁面資料與...