電腦滑鼠細菌數
是馬桶400倍
搬家專業居家清潔
免費到府估價,清潔養護馬上搞定

首頁  •  j2h 論壇 • 網路行銷     • 

[討論]搜尋引擎最佳化

房東:阿龍
發表時間:2007-11-05


早期搜尋引擎
網站管理員以及網路內容提供者在90年代中期開始使用搜尋引擎來優化網站。此時第一代搜尋引擎開始對網際網路分門別類。一開始,所有網站員得做的事只有提交所屬網站到各家搜尋引擎。這些引擎跑一些蜘蛛機器人(spider)──擷取於網頁程式中找到連至其他網頁的連結──並且儲存所找到的資料。過程中同時包含了將網頁下載並儲存至搜尋引擎擁有者的伺服器中,這時有另外一個軟體稱為Indexer來擷取頁面中不同的資訊——頁面中的文字、文字的位置、文字的重要性以及頁面所包含的任何連結,之後將頁面置入清單中等待過些時日後,再來擷取一次。隨著線上文件數目日積月累,越來越多網站員意識到基本搜尋 (organic search,亦翻為隨機搜尋[1]) 條目的重要性,所以較普及的搜尋引擎公司開始整理他們的列表,以顯示根據最洽當適合的網頁為優先。搜尋引擎與網站員的戰爭就此開始,並延續至今。

一開始搜尋引擎是被網站員本身牽著走的。早期版本的搜尋演算法有賴於網站員提供資訊,如關鍵字的基本定義標籤(meta tag)。當某些網站員開始濫用標籤,造成該網頁排名與連結無關時,搜尋引擎開始捨棄標籤並發展更複雜的排名演算法。由於數繁不及備載,僅列舉數個分析目標如下:

在標題簽裡的文字,如

引擎


域名,如 wikipedia.org
統一資源定位符下屬的目錄與檔名,如 http://zh.wikipedia.org/wiki/Seo
關鍵字密度
關鍵字接近度,如 '軟盤、軟碟' '硬盤、硬碟'
圖形連結的 Alt 屬性,如 MediaWiki
由於這些都還在網站員的眼皮下打滾,搜尋引擎陸陸續續碰到諸多濫用與操縱排名等難題。為了要提供較好的結果給使用者,搜尋引擎必須調適到讓他們的搜索結果表現出最適當的結果,而非某些不道德的網路員產生的、只有塞滿關鍵字的無用網頁。由此,新種類的搜尋引擎應運而生。


[編輯] 基本搜尋引擎
Google 由兩名在史丹福大學的博士生佩吉 (Larry Page) 和布林 (Sergey Brin) 開始。他們帶來了一個給網頁評估的新概念。這個概念, 稱網頁級別 (PageRank), 是從Google 演算法[1]重要的開端 。網頁級別十分倚賴導入鏈結 (incoming link) ,並利用這種每個導入某網頁的鏈結相當於給該網頁價值投一票的理論建立起邏輯系統。越多導入鏈結意味著該網頁越有「價值」。而每個導入鏈結本身價值直接根據該鏈結從何而來的網頁級別,以及相反的該頁導出鏈結 (outgoing link) 。

在網頁級別幫助下,Google 在服務相關的結果上證明它相當優異。Google 成為了最普遍和最成功的搜索引擎。由於網頁級別度量了站點外因子, Google 感到它會比頁內因子難以動手腳。

然而道高一呎魔高一丈。網站員們已經開發出對付Inktomi 搜索引擎的鏈結操作工具和計劃。這些方法證明對Google 演算法一樣管用。許多站集中於交換、買賣大量鏈接。隨著『網站員尋求獲取鏈結只單單要影響Google送更多流量給該站,而不管是否對站點訪客有用否』這種行為增加,網頁級別對原始演算法的信賴度漸漸被破壞了。

此時,是Google 和其它查尋引擎對廣大範圍的站外因子仔細檢視的時候。開發更加聰明的演算法有其他原因。網際網路已經膨脹到擁有非技術的廣大族群。他們經常無法使用先進的提問技術來取得資訊;而且他們得面對比起發展早期更龐大資料、更複雜的索引。搜尋引擎必須開發具備預測性、語義性、語言性和啟發性演算法。

目前,網頁級別的縮小版仍然被顯示在Google 工具條上,不過網頁級別只不過是Google 考慮在網頁分級時超過100 個因素裡中的一個。

今天,大多數搜尋引擎對它們的如何評等的演算法保持秘密。搜索引擎也許使用上百因素在排列目錄;每個因素本身和因素所佔比重可能不斷的在改變。

大部分當代搜尋引擎優化的思路──哪些有效、哪些沒效──這些很大部分在於觀察與根據內線消息來的猜測。某些優化員得執行控制下的實驗以取得不同優化方法的結果。

儘管如此,以下是搜尋引擎發展它們演算法時的一些考慮,另,這份Google 專利清單[2]也許讀者可猜出他們會走哪條路線:

站點的年齡
自該網域註冊後過多久
內容的年齡
新內容增加的規律性
鏈接的年齡,連接站點的名譽和其相關程度
一般站內因素
負面站內因素 (例如,太多關鍵字匯標(meta tag),很顯然被優化過,會對站點造成傷害)
內容的獨特性
使用於內容的相關術語 (搜尋引擎關聯到的術語的方式視同如何關聯到網頁的主要內容)
Google網頁級別 (只被使用在Google 的演算法)
外在鏈接、外部鏈接的鏈結文字、在那些和在站點/網頁包含的那些鏈接
引證和研究來源(表明內容是研究性質)
在搜索引擎資料庫裡列舉的詞根與其相關的術語(如 finance/financing)
導入的逆向鏈結,以及該鏈結的文字
一些導入鏈結的負面計分 (或許那些來自低價值頁、被交換的逆向鏈結等)
逆向鏈結取得速率:太多太快意味著「不自然」的鏈結購買活動
圍繞在導出鏈結、導入的逆向鏈結周圍的文字。例如一個鏈結如果被 "Sponsored Links" (贊助商連結) 包圍,該鏈結可能會被忽略。
用 "rel=nofollow" 建議搜尋引擎忽略該鏈接
在站點該文件的結構深度
從其他資源收集的網格表,譬如監視當搜尋結果導引用戶到某頁後,用戶有多頻繁按瀏覽器的返回鈕
從來源像:Google AdWords/Adsense、Google 工具條等程序收集的網格表
從第三方資料分享協議收集的網格資料 (譬如監測站點流量的統計程式提供商)
刪除導入鏈結的速率
使用子網域、在子網使用關鍵字和內容質量等等,以及從這些活動來的負面計分
和主文件語意上的連結
文件增加或改動的速率
主機服務商 IP 和該 IP 旗下其它站點的數量/質量

其他鏈結站會員 (link farm / link affiliation) 與被鏈結的站 (他們分享IP嗎? 有一個共同的郵遞地址在"聯絡我們 (Contact Us)" 頁嗎?)
技術細節像利用301重定向被移除的網頁、對不存在網頁顯示404伺服器標頭而非200伺服器標頭、適當的利用 robots.txt
主機服務商正常運行時間
是否站點對不同類的用戶顯示不同的內容 (掩飾 (cloaking))
未及時矯正、無效的導出的鏈結
不安全或非法內容
HTML代碼品質,以及錯誤出現數
由搜尋引擎自他們搜尋結果觀察到的實際點擊通過率評等
由最常存取搜尋結果的人手動評等

[編輯] 搜尋引擎優化和搜尋引擎之間關係
在第一代搜尋引擎發表後,搜尋引擎操作員變得對搜尋引擎優化社區感興趣。在一些早期搜尋引擎, 譬如INFOSEEK, 要得到第一名不過是把頂尖的網頁代碼抓下、放在您的網站、並提交個URL讓搜尋引擎立即索引並排名該頁這麼簡單。

由於搜尋本身的高價值和標定性,搜尋引擎和搜尋引擎優化員間自始便存在對抗的關係。最近一次於2005 年召開的AirWeb年會,旨在談論縮小這種敵對關係差距,和如何最小化某些太過於侵略性優化造成的損壞效果。

某些更具侵略性的優化員產生自動化的站點,或者使用某些最終會讓該網域被搜尋引擎掃地出門的技術。而大多數優化公司則銷售長期、低風險的策略服務,而且大部分使用高風險戰略的優化公司,則在他們旗下的會員點使用、產生商業線索、或者純內容站點,而非讓它們客戶站親身涉險。

這裡提供一個使用侵略性優化技術的優化公司讓他們客戶被取締的案例。華爾街時報描述了某個使用高風險技術和涉嫌沒有透露客戶得承擔那些風險的公司[3]。Wired報告了該公司起訴某部落格,因為提及該公司被取締[4]。Google 的克特斯 (Matt Cutts) 稍後確認Google 確實取締了Traffic Power以其他們的客戶群[5]。

某些搜尋引擎對搜尋引擎優化產業提供了援助,而且是常常是優化會議和研討會的贊助商和來訪貴賓。實際上,自從付費收錄 (paid inclusion) 降臨,一些搜尋引擎現在在網站優化社區的健康有了既得利益。所有主要搜尋引擎都提供資訊/指南以協助站點優化: Google 、 Yahoo, 和MSN 。Google提供了Sitemaps 程序幫助網站員學習如果Google 有任何問題檢索他們的網站時該如何做,並且提供Google流量與您網站關係間無價的豐富資料。雅虎的SiteExplorer,旨在提供一個免費方式遞交您的URL, 該方法能讓你決定打算讓雅虎索引多少頁、索引多深。雅虎的 Ambassador Program 與Google的 Google Advertising Professionals 提供專家級的認證。


[編輯] 搜尋引擎入手
新站點不需要"提交"到搜尋引擎才能登記上市。一個來自於以建立好的、其他站點的簡單鏈結就會讓搜尋引擎拜訪新站點,並且開始『爬』過該站內容。它可能得花幾天甚或幾週從這樣一個已建立站點取得連結,並使所有主要搜索引擎開始拜訪並索引新站點。

一旦搜索引擎發現了新站點,它一般將拜訪和開始索引該站,直到所有標準的 超連結被鏈結的頁索引到為止。只能透過Flash或JavaScript才能拜訪的鏈結可能不會被蜘蛛機器人找到。

當搜索引擎的蜘蛛機器人爬過一個站點時會取決相當數量的不同因子,並且該站的許多頁可能不會被索引到除非它們網頁級別、連結、或流量增加到一個程度。從站點的根目錄到該頁的距離,以及其它比重考量,也許也是決定是否該頁得到檢索的因素。Cho et al.(Cho et al. 1998) [6] 描述了哪些頁會被拜訪、哪些會收入搜尋引擎索引的決定標準。

網站員可透過在網域根目錄裡標準robots.txt檔案指示蜘蛛機器人不索引某些文件或目錄。標準的實現要求是搜索引擎在拜訪這個網域時參考這個文件,雖然搜索引擎的蜘蛛機器人當它拜訪某站點網頁時將保留這個文件的快取拷貝,並且更新速度沒像網站員那麼快。網站發展人員可能使用這個特性防止某些頁,譬如購物車或其它動態、特定使用者的內容出現在搜索引擎結果中,並且防止機器人進入死循環和其它機器人陷阱。

對於某些有償提交的查尋引擎(像雅虎),支付象徵性費用提交也許會節省一些時間,雖然雅虎有償提交方案不保證提交人/公司包括在他們的查尋結果中。


[編輯] 白帽方法
搜尋引擎優化的白帽法包括遵循搜尋引擎哪些可接受哪些不能接受的指導方針。他們的建議一般是為用戶創造內容,而非搜尋引擎、是讓這些內容易於被蜘蛛機器人索引、並且不嘗試對搜尋引擎系統耍花招。經常網站員於設計或構建他們的網站犯了致命錯誤、疏忽地"毒害" 該站以致排名不會很好。白帽法優化員企圖發現並糾正錯誤,譬如機器無法讀取的選單、無效鏈接、臨時改變導向、或粗劣的導引結構。

因為搜尋引擎是以文本為中心,許多有助於網頁親和力的同樣手段同樣便利於搜尋引擎優化。這些方法包括最佳化圖形內容、包括ALT 屬性、和增加文本說明。甚至Flash動畫可於設計該頁時包括替代性內容──這本來用來給訪客無法閱讀Flash的環境用的──來幫助優化。

這裡是一些搜尋引擎認為適當的方法:

在每頁使用一個短、獨特、和相關的標題。
編輯網頁,用與該頁的主題有關的具體術語替換隱晦的字眼。這有助於該站訴求的觀眾群,在搜尋引擎上搜尋而被正確導引至該站。
在該站點增加相當數量的原創內容。
使用合理大小、準確描述的匯標,而不過度使用關鍵字、驚嘆號、或不相關標題術語。
確認所有頁可透過正常的鏈結來訪問,而非只能透過Java 、JavaScript或Macromedia Flash應用程序訪問。這可透過使用一個專屬列出該站所有內容的網頁達成(網站地圖(SiteMap))
透過自然方式開發鏈結:Google不花功夫在這有點混淆不清的指南上。寫封電子郵件給網站員,告訴他您剛剛貼了一篇挺好的文章,並且請求鏈接,這種做法大概很可能為搜尋引擎所認可。
參與其他網站的網路集團(譯按:web ring 指的是有相同主題的結盟站群)──只要其它網站是獨立的、分享同樣題目、和可比較的品質。

[編輯] 黑帽方法
主條目:垃圾索引和斗蓬法
垃圾索引(Spamdexing)意指透過欺騙技術和濫用搜索演算法來推銷毫不相關、主要以商業為著眼的網頁。許多搜索引擎管理員認為任何搜索引擎優化的形式,其目的用來改進網站的頁排名者,都是垃圾索引。然而,隨時間流逝,業界內公眾輿論發展出哪些是哪些不是可接受的、促進某站的搜索引擎排名與流量結果的手段。

因為搜尋引擎以高度自動化的方式運作,網站員通常可以利用某些未被搜尋引擎認可的手段、方法來促進排名。這些方法經常未被注意除非搜索引擎雇員親臨該站點並注意到不尋常活動、或在排名演算法上的某個小變化導致站點丟失以過去方式取得的高排名。有時某些公司僱用優化顧問評估競爭者的站點、和"不道德的" 優化方法向搜尋引擎報告。

垃圾索引經常與合法的、不介入欺騙的搜尋引擎優化技術搞混。垃圾索引專注於讓該網站得到更多的曝光率,而非他們選用的關鍵詞,這導致令人不滿的搜尋結果;相對的,優化則專注於他們希望得到的排名,基於特定目標關鍵字上;這導致令人滿意的搜尋體驗。

當這些不好的垃圾索引被發現時, 搜尋引擎也許會對那些被發現使用不道德的優化手段者採取行動。在2006 年2月,Google拿掉了BMW 德國站和Ricoh 德國站,因為他們用了這些方法[7]。

斗蓬法(cloaking)簡單來講就是網站站長用了兩版不同的網頁來達到最佳化的效果。一個版本只給搜索引擎看,一個版本給人看。搜索引擎說這種做法是不正規,如發現,該網站會永遠從搜索引擎名單中被剔除[8]。

關鍵字隱密字 (hidden text with keyword stuffing) 是另外一欺騙搜索引擎的做法。通常是指設定關鍵字的顏色和網頁背景顏色一樣,或透過 css hidden attribute (隱密特性) 來達到優化效果。這種做法一旦被Google發現,遭遇也會是該網站從Google的資料庫中除名! [9]


[編輯] 搜尋引擎優化與行銷
當這篇文章傾向建立間的搜尋引擎優化師間戴哪種顏色帽子的區別,這些產業寫照實際上對於某些促成業界某些影響巨大成就部分的工作者著墨不多。

有相當多的優化實踐者只是認為把搜尋引擎當作該站的另一個訪客,並設法讓該站點親和如同真正訪客拜訪那些網頁一般。他們的工作焦點不集中於將許多術語於搜尋引擎排名最高,而是幫助站點擁有者達到該站點的商業目標。這也許以實現導引基本搜尋結果、甚或利用在搜尋引擎做有償廣告的形式到某些頁。至於其他頁,建立高品質網頁吸引參與和說服, 闡明技術問題,這些手段可讓搜尋引擎繼續爬過並檢索這些站。另,設定分析程序可以讓網站主衡量該網站成就,並且讓該站更親和更有用。

這些搜尋引擎優化員可能是某組織的一員,或者是個顧問,而搜索引擎優化也許只是他們每天例行工作的一部分。通常他們有關搜尋引擎功能的知識來自於論壇、部落格、一般的會議和研討會間的互動和討論主題、甚或經由在他們自己的站點實驗獲得。目前極少的大學課程涵蓋電子交易觀點的網上行銷,可能肇因於網路上一日數變的關係。

當許多人檢閱和致力於符合搜尋引擎指南時──這可幫助某人於網路上的成功打造堅實基礎──跟隨這些指南的結果實際上不過只是個開始。許多人認為搜索引擎行銷不過是個搜尋優化下較大一點的支部而已,但它可能是許多主要集中於搜尋引擎優化的老兵,集合了更多更多的行銷靈感所帶來的成就。搜尋引擎因為認知到這一點,他們擴展了搜尋引擎覆蓋面,包括了RSS提供元、錄影搜尋、地方結果、地圖、和更多他們必須提供的功能。


[編輯] 法律案例
2002 年, 搜索引擎操作者SearchKing在俄克拉何馬法院提出了訴訟,反對搜索引擎Google。SearchKing的要求是, Google防止垃圾索引的手段構成了一條不公正的商業慣例。這也許可想像為垃圾電子郵件營銷者控告反垃圾電子郵件者,如同許多反對地圖以及其他DNS黑洞表(DNSBL)的案例。2003年1月,法院發布了一個Google勝訴的判決摘要[10]。


[編輯] 高品質網站通常排名很優
對許多有心於最大化網站附加價值的網站員們,可閱讀由搜尋引擎出版的、以及W3C發行的編碼指南。如果該指南被遵循,站點頻繁地更新,有用、原創的內容,和建立幾個實用、有意義的導入鏈接,獲得相當可觀數目的基本搜尋流量不是甚麼難事。

當站點擁有有用的內容,其它站點員自然而然會連結至該站,進而增加訪客它的網頁級別和訪客流。當訪客發現一個有用的網站,他們傾向於利用電子郵件或者及時訊息連結介紹給其它訪客。

總括來說,增進網站品質的搜尋引擎優化實現很可能比直接尋找操控搜尋排名手段的短期實現要活得長久。頂尖的搜尋引擎優化員們找尋的目標與搜尋引擎追求發揚光大的東西二者不雷而同。他們是:相關性、對他們用戶有用的內容。




  • 贊助網站       

    明日黃金屋
    提供租屋廣告刊登與租屋查詢,有實景照片、電子地圖、租屋配對等功能。
    易祺清潔公司
    年終大掃除,解決您清潔的困擾,由我們專業的清潔服務員到府提供完善的清潔服務。
    明日黃金屋
    租屋就找明日黃金屋



  •  共 0 人回應

    姓名:
    佈告內容:
    其他選項: