抓取策略:那些網頁是我們需要去下載的,那些是無需下載的,那些網頁是我們優(yōu)先下載的,定義清楚之后,能節(jié)省很多無謂的爬取。更新策略:監(jiān)控列表頁來發(fā)現(xiàn)新的頁面;定期check 頁面是否過期等等。抽取策略:我們應該如何的從網頁中抽取我們想要的內容,不僅僅包含最終的目標內容,還有下一步要抓取的url.抓取頻率:我們需要合理的去下載一個網站,卻又不失效率。
讓我對“如何和爬蟲對話 ”這個課題有了一些思考,下面歸納的主要用于迎合上面提到的爬蟲“抓取策略”。
1、通過 robots.txt 和爬蟲對話:搜索引擎發(fā)現(xiàn)一個新站,原則上第一個訪問的就是 robots.txt 文件,可以通過 allow/disallow 語法告訴搜索引擎那些文件目錄可以被抓取和不可以被抓取。
關于 robots.txt 的詳細介紹:about /robots.txt另外需要注意的是:allow/disallow 語法的順序是有區(qū)別的
2、通過 meta tag 和爬蟲對話:比如有的時候我們希望網站列表頁不被搜索引擎收錄但是又希望搜索引擎抓取,那么可以通過 <meta name=“robots” content=“noindex,follow”> 告訴爬蟲,其他常見的還有 noarchive,nosnippet,noodp 等。
3、通過 rel=“nofollow” 和爬蟲對話:關于 rel=“nofollow” 最近國平寫了一篇文章《如何用好 nofollow》很值得一讀,相信讀完之后你會有很大的啟發(fā)。
4、通過 rel=“canonical” 和爬蟲對話:關于 rel=“canonical” 谷歌網站站長工具幫助有很詳細的介紹:深入了解 rel=“canonical”
5、通過網站地圖和爬蟲對話:比較常見的是 xml 格式 sitemap 和 html 格式 sitemap,xml 格式 sitemap 可以分割處理或者壓縮壓縮,另外,sitemap 的地址可以寫入到 robots.txt 文件。
6、通過網站管理員工具和搜索引擎對話:我們接觸最多的就是谷歌網站管理員工具,可以設定 googlebot 抓取的頻率,屏蔽不想被抓取的鏈接,控制 sitelinks 等,另外,Bing 和 Yahoo 也都有管理員工具,百度有一個百度站長平臺,內測一年多了仍舊在內測,沒有邀請碼無法注冊。
另外,這里面還衍生出一個概念,就是我一直比較重視的網站收錄比,所謂網站收錄比=網站在搜索引擎的收錄數(shù)/網站真實數(shù)據(jù)量,網站收錄比越高,說明搜索引擎對網站的抓取越順利。
暫時就想到這些,目的在于嘗試性的探討如何更有效的提高網站在搜索引擎的收錄量。
評論(0人參與,0條評論)
發(fā)布評論
最新評論