首页 | 站长免费中心 | 新手上路 | 网站运营 | 网页制作 | 图片设计 | 动画设计 | 网页编程 | 网页特效 | 本站专题 | 虚拟主机 | 域名注册 | 网站建设 | 程序下载
       免费空间资源 | 新闻咨询 | 免费域名 | 免费网盘 | 网站推广 | 网站策划 | 建站经验 | 网站优化 | 网页代码 | 源码下载 | 音乐小偷 | 网络赚钱 | 论坛交流
网站建设
网站建设
虚拟主机
虚拟主机
域名注册
域名注册
711网络首页
站长工具
站长工具
网站源码
网站源码
站长论坛
站长论坛

 711网络 网站运营seo优化

SEO案例:SEO是如何依赖技术分析的

来源: 互联网    日期:2009-10-5
 

我前面的文章,都是从技术角度出发来做SEO的。这篇文章就再举几个例子,来说明一下做SEO为什么要依赖技术分析的。另外写这篇文章还出于我一直以来的一个想法,就是我一直都很想赞扬一下07年之前阿里巴巴某些做SEO的同事,他们很早就在SEO领域做出了非常多好的实践,也给网站做出了很大的贡献。

07年以前的阿里巴巴,经过几年的努力,已经把SEO做到了一个很高的境界。大家那时可能还只关注国内中文版的阿里巴巴,称“google是阿里巴巴的站内搜索引擎”。其实阿里巴巴国际站在国外同行当中的表现要更加优秀。当时很多产品类词语,排在首页的10个结果当中就可能会有6个是阿里巴巴国际站的。

当时领导SEO团队的人员是做技术出生,所以大家大量借助技术手段来分析和解决SEO当中出现的很多问题,取得了很好的效果。

因为涉及到现有的业务,只能说几个不那么敏感的例子。

Google 网站管理员工具刚出来的时候,我们网站有很多频道都验证不了那个google需要你上传的文件。工程师那边帮助查了很多问题,以为是什么跳转之类的没有做好。查了很多资料,也没有找到特征吻合的相关解决办法。而meta验证的方法因为技术上有一点问题做不了。

所以我们SEO团队就帮工程师去找问题。我同事瞿波不一会就找出问题出在什么地方了,原来问题出在泛解析上。

具体的过程是这样的:

用了泛解析的url,无论你把url组合成一个什么样子,都会有一个正常的页面给你的。比如:如果你网站的根目录下用了泛解析,http://www.xxxxxx.com/a.html 这个url是你网站本来正常的url。那么你随意的输入一个本来不存在的url 如 http://www.xxxxxx.com/adasdsadw.html 甚至 http://www.xxxxxx.com/@####¥¥.html ,网站CMS返回的都是一个正常的页面。

这在一个大型网站中,很多地方出于业务需要,都是这么处理的。但是这样做,在“网站管理员工具”的验证方面就一定不能通过。为什么呢?

因为这样谁都可以把这个网站加到自己的网站管理员工具中。比如:www.made-in-china.com 根目录如果用了泛域名解析,我把这个网站添加到我的“网站管理员工具”里,系统要我验证一下 http://www.made-in-china.com/google15c03c9b508311f6.html 这个文件是不是存在的时候,因为有泛解析,这个文件是一定存在的,那么我就成功把这个本不属于我的网站加到我的“网站管理员工具”里了。我可以随意更改里面的很多设置。

而实际上这样的情况是不会发生的,因为google不光会验证你上传的文件存不存在,还会验证一个不应该存在的文件是不是不存在。google验证完你上传的文件后,接着会模拟一个叫做 google404errorpage.html 的页面是不是不存在。google觉得你网站根目录下恰好存在一个名叫google404errorpage.html的几率是零,所以如果检测下来发现你这个页面也存在的话,那就不能验证通过。google这个时候已经知道你这是因为泛解析导致的缘故。出于保护你的网站,google不会让这个验证通过。

上面的这个分析过程,在公开的渠道里是找不到的。现在在《google网站质量指南》里也只是让你给不存在的页面返回 4xx 状态码而已。

http://www.google.com/support/webmasters/bin/answer.py?hl=cn&answer=35638

而且这个规则也是最近加进去的。以前,根本找不到相关的资料来参考。

那我的同事为什么一下子就找到问题在哪里了呢?那是因为服务器的log日志里一定会记录google验证的这个过程的,把相关目录下、某个时间段的log日志调出来查看就可以看到了。

如果没有LOG日志分析,谁能想得到还有这么一个过程在里面呢? 至今,还有很多网站验证不了这个文件的,现在就可以看看有没有这个泛解析的问题,或者去分析log日志看看。

还有一次,网站改版后,网站流量骤然下降了。我们知道影响SEO流量的因素有很多,那到底是什么原因导致流量下降呢。我以前的主管BEN通过自己的分析,觉得是url出了问题。

当时的url是这样的: http://www.alibaba.com/bin/buyoffer/mp3.html

我想很多人都不会觉得这个url有什么异常。但是在当时,这个url有一个致命问题的。

在02年google的爬虫还不是很成熟的时候,为了避免陷入死循环,爬虫不光会对那些有多余参数的url抓取量减少,还会对某些特定的目录不抓取的。这样的目录中,就有 /cgi-bin/ 以及类似的 /bin/ 这样的目录。学过CGI语言的人都知道,/cgi-bin/这个目录下是放置cgi程序的地方,这种目录下进行抓取是没什么意义的。/bin/这个目录也是其他很多系统或者语言默认的文件夹名称,这些目录下都不存在google应该抓取的页面,所以搜索引擎就屏蔽了这样的目录抓取。而偏偏我们定义的文件夹名称就是/bin/,google是不会抓取这个目录的。

之后,把这个目录名称改为/trade/,流量马上就恢复了。如今,百度也在robots文件的用法中,就拿/cgi-bin/这个目录做了例举。 http://www.baidu.com/search/robots.html

我相信这样的问题即使放到现在,也没有人敢怀疑是google本身出了问题。有些人还会从上百个因素里找一个看似很合理的原因,导致真正的原因被掩盖了。但是ben通过技术分析并实践,却得出了让人信服的结论。类似的事情,我后来也碰到过好几回,因为有他们的经验在鼓舞我,使我也做了一些让别人不能理解,但是却给网站带来很大流量的事情。

技术分析在和竞争对手抢流量的时候,也是竞争力之一。举一个不那么恰当的例子:

sitemap.xml刚出来的时候。我们自己制作好了sitemap.xml文件,但是毕竟这么大型的sitemap文件谁也没有做过,特别是里面权重的设置在一个大型网站来说是很有讲究的。所以我们就想参考一个国外主要竞争对手的文件。一开始通过一个方法拿到了他们的文件地址,但是怎么也打不开那个链接,老是返回404错误。通过国外的代理服务器去访问也是这样。最后,通过模拟google爬虫才能正常的访问这个文件。 原来同样非常重视SEO的这个对手,为了让自己的sitemap.xml文件不被其他人看到,只有对那种user-agent是google爬虫的访问才显示这个文件,由于浏览器的user-agent是很容易判断出来的,就拦截掉了浏览器的访问。

怎么样去学SEO》一文,讲述了学SEO要从了解网站和搜索引擎相关的技术开始。而这篇文章就是让大家看看具体是如何应用的。阿里巴巴最早做SEO的那批人,早在国内还不知道SEO是什么的时候就已经涉及到了诸多技术问题,并马上取得压倒性的优势。虽然现在他们因为某些原因都没有在做SEO了,但是他们给网站的贡献是非常大的。我个人的观点: 从某方面来说,是SEO成就了alibaba。

原文地址:http://www.semyj.com/archives/620



更多的SEO案例:SEO是如何依赖技术分析的请到论坛查看: http://BBS.TC711.COM



【 双击滚屏 】 【 评论 】 【 收藏 】 【 打印 】 【 关闭 】 来源: 互联网    日期:2009-10-5   

发 表 评 论
查看评论

  您的大名:
  • 尊重网上道德,遵守中华人民共和国的各项有关法律法规
  • 承担一切因您的行为而直接或间接导致的民事或刑事法律责任
  • 本站管理人员有权保留或删除其管辖留言中的任意内容
  • 本站有权在网站内转载或引用您的评论
  • 参与本评论即表明您已经阅读并接受上述条款
认证编码: 刷新验证码
点评内容: 字数0
  精品推荐  
  本月推荐  
  友情赞助  

关于我们 | 联系我们 | 广告投放 | 留言反馈 | 免费程序 | 虚拟主机 | 网站建设 |  网站推广 |  google_sitemap baidu_sitemap RSS订阅
本站所有资源均来自互联网,如有侵犯您的版权或其他问题,请通知管理员,我们会在最短的时间回复您
Copyright © 2005-2015 Tc711.Com All Rights Reserved 版权所有·711网络   蜀ICP备05021915号
110网监备案 信息产业备案 不良信息举报