搜尋引擎優化 排除重複內容

2021-06-21 20:10:34 字數 1253 閱讀 4971

1.使用robots meta標籤

使用robots meta標籤,就可以從**中以網頁為基礎排除基於html的內容。為了用meta來排除頁面,只需簡單地將以下**插入到要排除的html文件的節

這就表明頁面不能被索引,並且頁面的鏈結不能被跟隨。

2.robots.txt模式排除

meta標籤有技術限制,必須對應用程式源**修改,而且只能用html。

robots.txt是位於**根目錄下的文字檔案,並符合robots.txt標準。3個基本概念:

(1)只能有乙個robots.txt

(2)robots.txt應放在web站點的根目錄下

(3)位於子目錄下的robots.txt無效果

下面位於站點根資料夾下的robots.txt檔案示例,不允許任何robots(*)訪問站點的檔案:

user-agent:*

disallow:/

以下示例不允許任何以「/directory」開頭的url位址被google索引(googlebot是谷歌的使用者**名):

user-agent:googlebot

disallow:/directory

如果只希望directory資料夾下的內容被排除,/directory/

如果想要googlebot排除x,y,z,應該這樣寫:

user-agent:*

disallow:x

disallow:y

user-agent:googlebot

disallow:x

disallow:y

disallow:z

只允許google來檢索站點:

user-agent:googlebot

disallow:

user-agent:*

disallow:/

3.實時生成robots.txt

web開發人員可以實時動態地程式化生成robots.txt檔案。在.htaccess中包括以下規則,能夠把robots.php對映成robots.txt,並使用指令碼robots.php來生成後者。

.htaccess裡的以下規則,將對robots.txt的請求重寫到robots.php:

rewriteengine on

rewriterule ^robots.txt$ /robots.php

robots.php檔案:

<?

header('content-type:text/plain');

......

?>

重複內容如何影響seo搜尋引擎優化?

對所謂 重複內容 duplicated content如何影響seo優化很多時候被誤解。有些人說會引致被搜尋引擎懲罰。對何為搜尋引擎懲罰亦有很多誤解。最近乙個客戶問海瑤seo小編 想在網頁內利用 css設定不同的桌面和手機排版布局,有需要將同一段內容重複,會否因重複內容而被搜尋引擎懲罰。網際網路上重...

搜尋引擎優化

十 註冊alexa,並通過 認證。http www.alexa.com data details contact info?url taoyinqing.com 中國雅虎 http search.help.cn.yahoo.com h4 4.html 微軟live msn http search.m...

搜尋引擎優化

做seo也不長不短的做了四五年了。其他行業,做四五年只能算是新手。但是想想seo行業什麼時候才出現,再看看同行的不少更新手,發現自己竟然還算資深了。但做幾年seo之後,仔細回想每天進行的工作也會經常迷惑,到底seo是什麼?先從定義上看看,seo是什麼意思?定義很容易理解,實踐中卻有些迷惑。seo部落...