禁止搜索引擎收錄后網站一直有排名怎么辦?這個問題可能需要從以下多個方面分析:
1、為什么要禁止搜索引擎收錄網站?
2、怎么禁止搜索引擎收錄網頁?
3、禁止搜索引擎收錄后網頁仍然有排名是什么原因?
4、禁止搜索引擎收錄后網站一直有排名怎么辦?
下面,由北京網站制作公司金方時代來給大家一一回答吧 :
1、為什么要禁止搜索引擎收錄網站?
答:這個問題一般有幾種情況,常見的是:
①網站在上線初期還沒有做好,內容沒有填充,但需要上線測試的時候,為了防止搜索引擎收錄測試的未完成頁面和未調整的TDK而影響之后的優化,便會需要采取這種方式來禁止;
②第二種常見的原因是網站本身被多個域名綁定后沒有做301重定向,或者有其他網站需要跟該網站一樣(如做百度推廣),但有一個網站要主做SEO的時候,比如像金方時代的http://www.bjjfsd.cn 和http://xinglida168.com 中,.cn的域名因為是企業備案的百度競價推廣賬戶,主要用于百度、360付費推廣,而.com則主要用于SEO,那么我們便需要屏蔽禁止掉.cn的域名搜索引擎的收錄。
③第三種情況多見于大型商城類網站,如:淘寶天貓的網站,為了禁止搜索引擎收錄其內容,保證網站內容的實時性,則對所有搜索引擎進行了全站禁止收錄!另外還有就是百度知道、文庫、經驗等內容對360搜索也進行了全站禁止收錄,不過這就涉及到搜索引擎之間的競爭了,我們不多講。
2、怎么禁止搜索引擎收錄網頁?
常用的禁止搜索引擎收錄的方式有兩種:
①新建一個命名為“robots”的文本文件,robots文件是搜索引擎和網站之間的一個協議,設置搜索引擎和網站之間的協議,User-agent:* 表示和所有搜索引擎協議適用;Disallow:/ 表示禁止抓取收錄全站;
如果只是禁止某一個搜索引擎抓取收錄網站的某一個目錄,比如要禁止百度抓取收錄jinzhi目錄,則:User-agent:baiduspider Disallow:/jinzhi/保存文件后,把文件上傳到服務器根目錄,即表示搜索引擎和網站之間的協議生效,可以禁止搜索引擎抓取收錄網站內容。
②除了設置robots協議之外,還可以在網頁代碼里面設置。在網頁<head></head>之間加入<meta name="robots" content="noarchive">代碼。表示禁止所有搜索引擎抓取網站和顯示快照;
如果要針對某一個搜索引擎禁止抓取,在網頁<head></head>之間加入<meta name="baiduspider" content="noarchive">代碼,表示禁止百度抓取,<meta name="googlebot" content="noarchive">表示禁止谷歌抓取,其他的搜索引擎一樣原理。
3、禁止搜索引擎收錄后網頁仍然有排名是什么原因?
那么,說了那么多,不管是通過什么方式禁止搜索引擎收錄之后,仍然在百度等搜索引擎有排名的原因是什么呢?當然,首先要確定robots協議是否生效一般看到搜索出來的網站標題和域名是這個網站,但描述會顯示:“由于該網站的robots.txt文件存在限制指令(限制搜索引擎抓取),系統無法提供該頁面的內容描述 - 了解詳情”的原因是什么呢?
還有諸如:淘寶網等網站均采用了robots協議之后,仍然能存在于各大搜索引擎,且仍然擁有很好的排名!這種情況其實在搜索引擎來說也很好理解,因為雖然網站主動提交了禁止搜索收錄,但由于這類網站本身的流量非常高!網民和用戶都會通過各種渠道最終進入網站,而進入網站的過程可能會有搜索引擎蜘蛛不斷爬行、經過!最終因為基于搜索引擎優化和用戶體驗的原因,百度等均對該類網站進行了標題收錄,而描述等則被隱藏。
當然造成這種結果的原因大多是因為:網站本身權重比較高,域名時間較長等,在搜索引擎的認知中這類網站屬于“優質”網站。因此各搜索引擎仍然會只通過標題和域名便能階段性的在禁止收錄后仍然判定其排名!
4、禁止搜索引擎收錄后網站一直有排名怎么辦?
如果要解決這個問題,那首先得搞清楚我們是為了什么而要禁止搜索引擎收錄網站?是因為網站臨時性需求?還是因為出現了重復網站在優化的過程中需要禁止其中一個呢?或者是因為其他原因?找到問題之后,相信一定會有解決辦法!如:將網站301永久重定向到其他域名或者閉站保護等都是有效的屏蔽網站排名的好辦法。
當然了,大多數網站不管是在推廣營銷還是在優化過程中,當然排名越多越好,越靠前越好!不過其中也可能出現其他各種如禁止搜索引擎收錄等的問題,我們都是有辦法解決的!
原文鏈接出自:http://xinglida168.com/index_show_catid_28_id_487.html