我們知道,網站流量的來源有絕大部分在於搜尋引擎,搜尋流量佔據著比較大的比重。因此,在網站運營優化的過程中,必須讓搜尋引擎更加友好地對待網站,使網站效果得到最大程度的體現。
那麼,什麼樣的網站設計是對搜尋引擎友好(Search Engine Friendly)的呢?
我們不妨從搜尋引擎蜘蛛的角度去看待一個網站,在抓取、索引和排名時會遇到哪些問題呢?解決了這些問題的網站設計就是對搜尋引擎友好的。
1) 搜尋引擎蜘蛛能否找到網頁?
要讓搜尋引擎發現網站首頁,就必須要有外部連結連到首頁,找到首頁後,蜘蛛沿著網站的內部連結找到更深層次的內容頁面。所以,必須要求網站要有良好的結構,符合邏輯,並且網站內所有頁面可以通過可爬行的普通 HTML 連結到好的結構,符合邏輯,並且網站內所有頁面可以通過可爬行的普通 HTML 連結到達。
搜尋引擎蜘蛛一般不能跟蹤爬行 JavaScript 連結、Flash 中的連結等,這就會造成收錄問題。
網站所有頁面離首頁點選距離不能太遠,最好在 4~5 次點選之內到達所需頁面。要被搜尋引擎收錄,頁面就需要有最基本的權重,良好的網站連結結構可以適當地傳遞權重,使盡量多的頁面達到收錄門檻。
2) 找到網頁後能否順利抓取頁面內容?
蜘蛛在發現網站的頁面之後,作為 SEOer 必須保證 URL 是可以被抓取的,雖然這些 URL 不一定會全部抓取,但需要盡可能地增大頁面被抓取的可能性。
資料庫動態生成、帶有過多引數的 URL、整個頁面都是 Flash、框架結構(frame)等都可能使搜尋引擎敬而遠之。
如果網站內的某些目錄或檔案不希望被搜尋引擎抓取或收錄,除了不連結到這些目錄或檔案意外,更為妥當的方式是使用 robots 協定或 meta robots 標籤禁止蜘蛛存取。
3) 抓取頁面後能否提取有用資訊?
若使搜尋引擎抓取頁面之後能夠快速有效地提取有用的資訊,首先必須保證網頁程式碼的精簡性,不要過於冗餘,也就是網頁格式標籤所佔的比例越小越好,真正的內容所佔的比例越大越好,整個網頁檔案越小越好。
建議將 CSS、JavaScript 通過外部呼叫的方式寫入程式碼中,盡可能縮減程式碼行數。
另外,關鍵詞在頁面重要位置的合理分布、重要標籤的撰寫等可以幫助搜尋引擎理解頁面內容,提取有用資訊。
只有搜尋引擎能順利找到所有頁面,抓取這些頁面並提取其中真正有相關性的內容,網站才可以被視為是對搜尋引擎友好的。