出處: 作者: 發表時間:2019-03-16
目前百度Spider抓取新鏈接的途徑有兩個,一是主動出擊發現抓取,二就是從百度站長平臺的鏈接提交工具中獲取數據,其中通過主動推送功能“收”上來的數據最受百度Spider的歡迎。對于站長來說,如果鏈接很長時間不被收錄,建議嘗試使用主動推送功能,尤其是新網站,主動推送首頁數據,有利于內頁數據的抓取。為什么提交了數據還是遲遲在線上看不到展現呢?那涉及的因素可就多了,在Spider抓取這個環節,影響線上展現的因素有:
1、網站封禁。你別笑,真的有同學一邊封禁著百度蜘蛛,一邊向百度狂交數據,結果當然是無法收錄。
2、質量篩選。百度Spider進入3.0后,對低質內容的識別上了一個新臺階,尤其是時效性內容,從抓取這個環節就開始進行質量評估篩選,過濾掉大量過度優化等頁面,從內部定期數據評估看,低質網頁比之前下降62%。
3、抓取失敗。抓取失敗的原因很多,有時你在辦公室訪問完全沒有問題,百度spider卻遇到麻煩,站點要隨時注意在不同時間地點保證網站的穩定性。
網站服務器不夠穩定的因素。
我們都知道百度蜘蛛在爬取我們的網站的時候是需要事先對服務器進行訪問的,如果我們的服務器不是很穩定,在蜘蛛過來的時候正好因為該問題而無法訪問的話就會影響到蜘蛛對頁面的抓取,從而影響到百度的收錄,百度蜘蛛在訪問我們網站的時候時間是不定期的,如果長時間多次的遇到無法訪問的情況,時間就了之后,它就會認為我們的網站是不正規的,會減少對網站的訪問次數,seo而訪問次數的減少又會導致我們的網頁被收錄的幾率就更小了。
網站服務器不穩定是導致網站不被收錄的重要原因,很多網站明明頁面質量都是很不錯的,就是因為這個原因導致無法被很好的收錄。
解決辦法:我們在選擇網站服務器的時候盡可能選擇國內的,同時要保證服務器運行的穩定性。
ROBOTS協議設置出現問題的因素。
只有有了robots文件的搜索遵循協議之后百度蜘蛛才會對網頁進行爬取,百度排名我們在建完一個網站之前或者是在調試期間往往會對robots文件進行設置,這樣就可以屏蔽百度蜘蛛的抓取,但是有的時候因為我們在正式上線后忘記了修改robots文件,這樣就導致我們的網站一直對百度進行屏蔽,自然是不會得到收錄了。
解決辦法:在出現網頁不被收錄的時候第一時間就要去檢查下robots文件的設置是否正確。
域名被列入百度黑名單的因素。
有些網站負責人在購買域名的時候沒有做好很好的插底工作,沒有去查域名的歷史表現,網站優化而有一些域名已經進入了百度的黑名單后者是進入了可疑域名的名單,如果我們使用的是這種域名的話,即使網站的內容沒有任何的問題,也會導致網站無法被收錄的情況。
解決辦法:我們需要及時的對域名的歷史狀態進行查詢,如果發現了之前有被百度懲罰過,被列入百度黑名單的話建議大家最好是更換域名。
頁面沒有被百度蜘蛛抓取到的因素。
還有一些頁面不管如何修改就是無法被收錄,但是網站中的其他頁面卻是可以被正常收錄的,一般情況下,都要先去分析一些網站日志,整站優化看一下蜘蛛是不是已經成功的對這些頁面進行了抓取,如果沒有被抓取到的話自然是不會有收錄。
解決辦法:有很多的網頁之所以沒有被收錄的原因都是因為沒有被蜘蛛抓取到,如果一個網站其他的頁面可以被正常收錄而且收錄的情況還很不錯的話,建議可以給那些不被收錄的網頁增加鏈接入口,包括內鏈和外鏈。
上一篇:網站優化有哪些優勢?
下一篇:SEO優化網站需要注意哪些細節?