我的 SEO 初體驗 – UFO 搜尋引擎

故事開始

在 1997 年的時候,我加入了學長成立的網路公司,當時公司的主要業務,是網頁設計,主要的客戶群是工廠、及實體商店,而我則是負責管理設計部門。

公司剛開始有一條中華電信的 64K 數據專線,一個月二萬多,後來升到了 256K,一個 domain 需要一個實體 IP,而一片網路卡(好像)只能設定一個 IP,公司內堆疊了一堆主機,每部主機都插滿了網路卡 … 總之,那時候的網站經營成本不低,所以網站設計的收費也不低。

這些花了不少錢設計了自己專屬網站的工廠、實體商店,不外乎是為了帶進更多的電話、客人,所以他們都很在乎曝光率。

那時還不是 Google 獨大的年代,搜尋引擎百家爭鳴,或許沒有百家,但大大小小至少十幾二十家,當時幫客戶設計網站,都會附帶幫忙登錄到各大搜尋引擎的服務。

突發奇想

為了在業務上尋求突破,我向學長提議了開發自家搜尋引擎的計畫,一方面可以向客戶展示我們公司的技術實力,一方面可以讓客戶的網站,在我們自家的搜尋引擎優先顯示,提供額外的加值服務。

於是 「UFO 搜尋引擎」 誕生了,我用 ColdFusion (https://zh.wikipedia.org/zh-tw/Adobe_ColdFusion) 加上資料庫系統(哪一種資料庫我已經不記得了),簡單的做出了一個提供網站登錄、修改功能,前端開放以分類、或關鍵字搜尋的陽春搜尋引擎,包含開放登錄者有修改功能,讓他們修改聯絡資料,其實我有一點把它當成網路黃頁般的設計,因為登錄的網站大部分是工廠及店家。

這顆搜尋引擎雖然非常陽春,連關鍵字比對都只是採用 LIKE 語法,不過在工廠、店家搶搭網路熱潮的年代,這顆搜尋引擎其實也是蠻多人來捧場的,我記得最旺的時期,每天新登錄的網站大約有 500 家以上,這其中有大部分是來自其他網頁設計公司的代登案件。

貓抓老鼠

一開始設計的搜尋結果頁(Search Engine Results Pages),只有內定的排序方式,是以最後修改時間排序,越新的優先排序,登錄及修改網站有審查機制,是由我一個人審查,那是我每天上班的第一件事,而當我審查了一段時間之後,發現了一個現象,有一些網站總是不定期來修改資料,頻繁到太不正常,過一陣子我才弄懂,原來是有某幾家設計公司,一直在透過這種方法,為他們的網站客戶爭取到更好的 SERP 排名 ….

於是我開始思考如何防止這類的作弊行為,限制可修改登錄資料的時間間隔、改以網站登錄時間來排序等等。

過了一陣子,我把這一套程式移植,另外開闢了二手屋及二手車的買賣網站,又遇到了不同的情境,有些二手屋或二手車會修改價格、物件內容,理應讓修改過的物件優先排序,但又得過濾作弊。

接著,又發現同一物件有重複刊登的情形,又得再加強登錄審查規則,感覺好像在貓抓老鼠。

然後,我又發現二手網站網友刊登資料的品質不一,有的連照片都沒有,首頁列出的新進物件一堆無照片的,看起來實在不吸引人入內查詢,於是我又改了程式,讓有照片的案件優先。

然後又覺得新進物件穿插了一些商品描述太過簡單的物件,看起來有損網站的品質,所以我又加強了商品描述字數的判斷,太短的往後面排。

那一段時期,一直處在對抗狀態,整天都在思考如何讓我的 SERP 呈現更理想,思考如何讓作弊者無法得逞,讓守規則的人得到優待,那時候應該還沒有 SEO 這個詞,但現在回想起來,其實我就是在設計 SEO 的規則啊,雖然很陽春,但的確是那個角色。

回到現實

現今 Google 搜尋引擎核心程式的複雜度已不可同日而語,排名的影響因素早已多如牛毛,在導入機器學習(Machine Learning)的演算法之後,排名影響因素更是難以量化計數。

而如今我已不再負責經營搜尋引擎,不用再與刊登者鬥智,轉變成了 Google 搜尋引擎的刊登(提交)者、使用者,思考著如何讓我的客戶網站能爭取到更好的排名,不過,就因為曾經扮演過那個角色,使得我的 SEO 思考邏輯常會站在 Google 的角度,另外,為了弄懂機器學習(Machine Learning)的邏輯,我又花了一些時間,從 CNN (卷積神經網路) 的運作原理學起,讀了不少有關監督式學習的文章,理解了分類(Classification)演算法,甚至實作了簡單的 Tensorflow 程式。

持續探索

如果你也喜歡以 Machine Learning 的角度來探索 SEO,歡迎追蹤我的粉絲頁,跟我一起討論。

含有 UFO 搜尋引擎的歷史遺跡
http://www2.nsysu.edu.tw/GSA/search/
http://lins.fju.edu.tw/mao/internet/zsearch_taiwan.html