网站首页 >> 威尼斯人威尼斯人网址 >>当前页

HAO123的迷思:网址类网站与SEO的关系2

发布时间:2020-11-30 07:12 编辑: 来源:

若这些还算只欺骗搜索引擎的话,剩下的行为就更让那些要学习HAO123的IT大腕考验自己的良心了。HAO123早期是靠病毒修改用户主页的。不仅仅它这么做,它的一系列站点也都这么做,据说它还用过QQ病毒传播。这些现在已经找不到痕迹,它已经成功洗白了自己。但有一点还存在,就是网页总会跳出来提示,让你把HAO123设为主页。即使现在HAO123本身不这么做了,它的子站点依然还有这么做的痕迹。你可能访问一个看起来无关的站点,而把HAO123设成了主页。HAO123就是靠它SEO的一系列站点,成功的让很多计算机把它设成了主页。

这也是某些观察家们所说的,低水平用户欢迎,甚至喜欢到会把它设成主页的地步。我们去网吧看看,也确实能发现很多机器这样,因为大家对网吧的机器更不在乎,让我按“确定”我就按呗。网吧确实是中国特色,但我不认为HAO123是某些IT人士理解的中国特色。顺便说一句,要了解一般网民习惯的IT人士请抽出时间,定期去网吧。先观察大家在干什么、比例,然后再着重看某一个浏览页面的人,看他上网具体的点击习惯,和遇到的困惑。最后找台机器,把历史记录考下来,发到自己邮箱里,回去做网站访问分析。多做点基本功,别老畅想。

又说远了。

SEO手段还有很多,很细致具体。我只重点说了桥页。一方面我不可能详细介绍,这可以写专著了。另一方面很多技巧我也不知道。但大家只要想一下,很多站长靠这个就可以吃饭了,就明白这是一个很复杂的系统。

所以说HAO123类站点在某种程度上是寄生在搜索引擎上的,而不是为了满足低水平用户需求。某种意义上我们说“纯洁”的GOOGLE其实也助长了垃圾站点的产生。我要是GOOGLE,早把此类站点手动清除了。但GOOGLE 的原则是相信程序,不会人工干预。另外它们虽然反对(并准备惩罚)桥页类的SEO,但可能对中国类型的桥页应用还不是很重视吧,做起来确实没看到什么成效。百度就更奇怪了。HAO123已经靠流量卖广告实现了赢利,被收购也不奇怪。但谁收购它也不应该是百度收购,因为SEO站点的技巧,搜索引擎最清楚。谁需要SEO的站点,也不该是百度需要。那些说百度需要一个静态目录站点来帮助完善的人,完全混淆了dmoz.org类的INDEX服务和HAO123类站点的区别。但这些外人可能混淆,做搜索引擎的人不会混淆。那么为什么收购HAO123呢?

我不喜欢简单嘲弄收购傻,能花几千万的人都不会太傻。回忆一下,那些我们曾经见过的最傻的网站烧钱行为。嘲笑他们傻?但谁傻了呢?每个过手的人都可能赚的脑满肠肥。谁傻?是他们还是我们这些没赚到钱的看客?呵呵,看出来了吧,我开始往恶意度人的道路上引导大家。

最会SEO的是谁?当然是掌握全部搜索引擎规则的人。谁掌握全部规则?要是这个人后来又收购了该SEO站点,他傻?呵呵,我本能的反射是:洗钱。当然了,我没有说我这感觉是对的。反射嘛,不走脑子,也不负责任。只不过暴露一下我的阴暗心理。

第N次说远了。

SEO是不是一无是处?不是。搜索引擎已经成为用户习惯,适应用户习惯本来就是我们应该做的。搜索引擎是告戒大家不要去适应引擎,只要适应用户,自然会在引擎上体现。理想情况当然是这样。但我可以举例。某个很有名的BLOG,当别人问为什么搜索到该BLOG文章时,列出的不同文章标题都是一样的?答:因为工程师图省事,是用一段JS程序来改写某个页面的TITLE。

TITLE就是我们打开浏览器显示在左上角的东西,这个如果显示的是具体内容的标题,当然比千篇一律的显示该站点的名称要符合用户习惯。但用JS来实现该功能,开发上更省事,对用户来说也没什么大区别。按照搜索引擎的只要适应用户原则,应该对该做法一视同仁。但搜索引擎不是人,它很笨。它不会看JS显示的结果,它对JS的态度是直接跳过,只去读它读的懂的简单东西。

而很不幸,一般来说TITLE是搜索引擎判断页面是否符合搜索词的重要因素。所以用这个很方便的对用户也很友好的方式,对网站访问却很吃亏。如果你想改进,就一定不能只考虑用户,而要专门考虑搜索引擎,也就是SEO。

所以,我前面说的要学习HAO123的大腕其实他的网站是很适合SEO的网站,只要他不认为HAO123确实方便用户,他去采用SEO技巧其实是很对路的----只要你做的本身对网民有用,而不仅仅是垃圾,那么期望通过搜索引擎带来更多的网民访问就无可非议。

又比如桥页,我说的我曾经做的类似桥页,其实是一个排行列表。它是有一个无数LINK的,假静态页。但这个页对用户来说是有价值的,从这个页面找所需要的东西就是很方便。虽然我做了专门对搜索引擎的优化,但不能说我的SEO是不对的。这个页成为搜索引擎收录这个站点的入口。因为每个LINK后面对网民都有价值,所以希望他们从搜索引擎找到这些页,就不是垃圾SEO。

其实所谓WEB2.0(我非常讨厌这个词)的一些东西恰恰无形中适应了SEO要求。比如RSS,这样规范的XML语言对搜索引擎非常友好。所以BLOG类的站点在GOOGLE相关结果上都会排的比较高(当然了GOOGLE的规则本身也对这类站点有利,这个从其他地方能看出来,就不深说了)。还有WEB2.0站点代码都很规范、简洁,不为SEO考虑,这本来也是我们应该做的。早期国内门户繁杂的页面,混乱的代码,影响了大家的审美是小事,代码混乱对开发、再组织,都会是很头疼的事。所以某种意义上,我们的大站、门户,还不如HAO123做的好。

我们看FLICKR,没有人会说它试图SEO吧?但你看,它分给每个人地址就是http://www.flickr.com/photos/xba/ 这样简单。仅仅这个很多站点还能做到,但它里面所有的连接,都是这样http://www.flickr.com/photos/xba/sets/608668/ 假静态的地址形式,这就很考验工程师的水平和耐心了。难道它不知道http://www2.tianyablog.com/blogger/post_show.asp?BlogID=18398&PostID=180370... 这样的连接,开发起来要简单的多么?对于FLICKR的细致我们不能只佩服,要去学到它每一点小地方的用意。

所以SEO虽然产生了很多垃圾站点,但一个优秀的站点,它也应该去学习SEO技术,帮助搜索引擎,也同时帮助网民,最重要的是这会帮助它自己。

好的一方面,是终于写完了。坏的一方面是这好象对我要写的方案书帮助不大

本文永久链接:http://www.957gg.com/detail-zhan-14894120.shtml
分享到:0

相关阅读

最新发布