如何讓各大搜索引擎收錄的四個步驟
日期:2013-04-24 13:16:10
訪問:次
作者:淮安互聯
1.大站優先策略
大站優先的思路很直接,以網站為單位來衡量網頁的重要性,對于待抓取的URL隊列中的網頁,根據所述網站歸類,如果哪個網站等待下載的頁面最多,則 優先下載這些鏈接。其本質思想是「傾向于優先下載大型網站URL」。因為大型網站往往包含更多的頁面。鑒于大型網站往往是名站,其網頁質量一般較高,所以 這個思路雖然簡單,但有一定依據。
2.網頁評級
而第二階段則是對網頁的重要性進行評級,PageRank是一種著名的鏈接分析算法,可以用來衡量網頁的重要性,很自然的,站長可以用 PageRank的思路來對URL進行排序,這就是各位熱衷的「發外鏈」,據一位朋友了解,在中國「發外鏈」這個市場每年有上億元的規模。
爬蟲的目的就是去下載網頁,但PageRank是個全局性算法,也就是當所有網頁有下載完成后,其計算結果才是可靠的。對于中小網站來講,服務器如果質量不好,如果在抓取過程中,只看到部分內容,在抓取階段是無法獲得可靠的PageRank得分。
3.大小通吃
搜索引擎的網頁抓取都是采取「大小通吃」的策略,也就是把網頁中能發現的鏈接逐一加入到待抓取URL中,機械性的將新抓取的網頁中的URL提取出來,這種方式雖然比較古老,但效果很好,這就是為什么很多站長反應蜘蛛來訪問了,但沒有收錄的原因,這僅僅是一階段。
4.OCIP策略
OCIP策略更像是PageRank算法的改進。在算法開始之前,每個網頁都給予相同的「現金」,每當下載某個頁面A后,A將自己的「現金」平均分給頁面中包含的鏈接頁面,把自己的「現金」清空。這就是為什么導出的鏈接越少,權重會越高的原因之一。
而對于待抓取的網頁,會根據手頭擁有的現金多少排序,優先下載現金最充裕的網頁,OCIP大致與PageRank思路一致,區別在于:PageRank每次要迭代計算,而OCIP則不需要,所以計算速度遠遠快于PageRank,適合實時計算使用。這可能就是為什么很多網頁會出現「秒收」的情況了。
下一篇:避免網站重復性收錄的四個問題