分页: 2/4 第一页 上页 1 2 3 4 下页 最后页 [ 显示模式: 摘要 | 列表 ]
     随着微软和雅虎这两个实力超强的竞争对手大举挺进互联网搜索市场,分别开发出自己的搜索技术,以及在搜索方面的不断改进和加强,Google的领先地位已遭到严重威胁。根据美国知名市场调研公司ComScore Media今年年初和5月份发布的搜索引擎访问流量对显示(如右图所示):占据排行榜冠亚军宝Google和雅虎,AOL原来占据的季军位置则MSN Search在搜索市场中的潜力已日渐凸显,掌握数以十亿美元计的搜索广告营收商机的不遗余力以大手笔开拓着它的新市场。在这针对Google 和雅虎进行网站的优化外,同时还需针对MSN搜索引擎进行优化。
Tags: , ,
子站包围主站的结构设计对关键词排名是非常有利的,但子站是使用二级域名还是一极目录呢?二级域名和一极目录之间哪个对搜索引擎来说权重更高?

子站包围主站的设计思想

我们共同来模拟一个网站的逻辑结构:

首页--频道页1--分类页1--内容页1-1
              --内容页1-2
          分类页2--内容页2-1
              --内容页2-2
  --频道页2--分类页3--内容页3-1
              --内容页3-2
        --分类页4--内容页4-1
              --内容页4-2

这是一个典型的CMS系统的设计结构。
几年前搜索引擎google的评价网页级别的参数Page Rank曾经引起了轰动,并申请了专利。PR一般可以理解为:指向一个网页的链接越多,而这些链接本身的权重越高,那么这个被指向的网页的重要性及PageRank就越高,不过网页级别的计算需要进行多个循环的替代计算,才能得到近似于最终结果的PR值。

Google PR是用来描述某一个文件或网页的重要性或地位,PR只与外部链接页(linking pages)的数量以及质量有关系。PR以前是SEO领域里最关注的话题,因为PR高低在很大程度上决定着网页排名,成为SEO重点研究对象很正常;不过,随着PR在搜索排名中的权重降低以及搜索引擎算法不断完善,PR已不是关注的焦点。

而现在国内的搜索引擎厂商搜狗(www.sogou.com)也推出了其网页评级参数。查询一个站点被sogou所评定的级别分数很简单(当然,前提条件是这个站点必须已经被sogou收录了),只要打开搜狗的搜索页面,在搜索栏里面写上 “link:your website” 就可以查看到该网站的Sogou Rank值
     什么是面包屑型网站导航链接?

     在童话故事“汉泽尔和格雷特尔”中,当汉泽尔和格雷特尔穿过森林时,他们在沿途走过的地方都撒下了面包屑,让这些面包屑来帮助他们找到回家的路。虽然这只是一个孩子们的童话故事,但它却蕴涵了多种含义。实际上,网站设计者亦可从中受到启发:在结构上纵深的网站应该采用这种“面包屑型”结构,以足迹的方式呈现用户走过的路径,或者说以层层渐进方式呈现该网页在整个网站架构中所处的位置,从而为用户提供清晰分明的网站导览。

  “面包屑型”架构让用户对他们所访问的此页与彼页在层次结构上的关系一目了然。这种网站结构的其中一个最明显的特性体现莫过于返回导览功能。
Goolge TrustRank(Google网页信任指数):TrustRank是一个对网站排名有重大影响的参数,重要性超过PR值。SEO绝对不应该忽视TrustRank的存在。
谈了不少具体的SEO技巧,做网站优化的朋友还要注意一点,那就是千万不要过度优化网站

同样这又是一个度和平衡的问题。

SEO的人应该了解所有可以被优化的地方,应该了解怎样优化这些地方,但同时也应该了解不能同时优化所有这些地方,不然网站很容易被某种形式的惩罚。

典型的过度优化的网站特征包括

1)外部链接锚文字都是一样的,一般都是最主要的目标关键词。

2)外部链接在短时期内快速增长,然后就停止增长。很多站长都倾向于花一段时间来交换链接,等效果达到了就停止建立链接了。

3)外部链接的锚文字和网页标题高度吻合。

4)网页上该针对关键词优化的地方都优化过了,比如标题标签,关键词和描述标签,H1,H2,黑体,链接,图片ALT属性,网页第一段文字,内部链接锚文字,正文,URL。这些地方都是可以做SEO优化的地方,但真的把这些地方都优化了,再加上其他因素,离被惩罚的门槛就不远了。

5)内部链接和外部链接缺少变化,绝大部分都是以目标关键词为锚文字指向首页。自然的链接会有URL形式的,会有链向深层页的。

6)具有这些特征的网站,如果是新网站,呆在sandbox的时间可能会更长。如果是老的网站,当这些因素全都加起来,达到某一个门槛的时候,可能受到某种程度某种形式的惩罚,比如最主要关键词排名急剧下降。

如果你的网站排名下降很多,找不到其他原因,网站过度优化是要考虑的重要因素之一。

解决的方法就是去优化,比如把网页标题做一个改变,稀释关键词,使整个优化程度降到要被惩罚的门槛之下。当然也可以从网页里面其他因素着手。

总之,不要把能优化的地方都优化,要使网站和网页显得自然平衡。
眼下最热、最重要的一个话题就是Google幽灵现象。一般情况下,把一个网站递交到互联网上,在每月固定更新之前,你会发现这个网站出现在索引里。有时,这个网站能够获得很高的排名,但可怕的 是,几天或一周以后,这个网站会突然消失。这种幽灵现象困扰着网络新手们,同时也给经验丰富的网络行家出了一道难题。其实,这种现象很容易理解。

Google有两种网络爬虫,主爬虫和新爬虫。主爬虫主要负责发现新的网页。一个网页在新索引建立之后,马上会被主爬虫发现。如果一个网页建立索引需要经过一个月的时间,这个网页就会失效。

新索引的建立还需要考虑其他非询问式的决定因素。这些决定因素关系着网页排名的高低。为了充分利用这些网页,而不是浪费时间等着下一次索引算法的更新,Google必须采取一些简单的措施来猜测排 名,猜测访客难以利用的新内容是什么。
网址URL规范化(URL canonicalization)是近一年来在Google搜索结果中出现的一个很大的问题。它指的是搜索引擎挑选最好的URL网址作为真正网址的过程。举例来说,下面这几个URL一般来说指的是同一个文件或网页:


http://www.domainname.com
http://domainname.com
http://www.domainname.com/index.html
http://domainname.com/index.html


但是从技术上来讲,这几个URL网址都是不同的。虽然在绝大部分情况下,这些网址所返回的都是相同的文件,也就是你的主页。但是从技术上来说,主机完全可以对这几个网址返回不同的内容。
词干技术(keyword stemming)在英文网站优化中比较明显,但对中文网站优化也有一定的借鉴意义。

词干技术指的是英文中某些词是由一个主要的词干衍生出来的,比如说work是一个词干,由这个词可以产生很多意义相同或相关但不同的时态,语态,单复数等形式,如working,worked,worker, works, workers。

在网页内容的写作中,应该尽量把同一词干衍生出的不同形式自然的融合在句子当中,而不要仅使用单一形式。也就是说,如果你的目标关键词是work,最好working,worked,worker, works, workers等这些词也要适当出现。
某设计公司的网站刚刚被搜索引擎google收录才几天,就发现网站再次用site:命令检测为结果0。
到底是何原因导致被google删除,必须分析清楚网站被删除的原因

1。分析网站的外部链接:网站拥有的反向链接整体质量不高,是一些不知名的网址站、分类目录站,但因为这些网站本身并没有被google删除,链接页面有正常的PR值,也非“链接基地”网站,因此排除了外部链接不当导致除名的可能。

2。分析网站自身情况:没有诸如隐藏文字、超小文字、超淡文本、堆砌关键词等;网站没有跳转程序,没有桥页,不过是一个普普通通的静态企业网站;

3:用IP检测工具检测网站所在IP下的其他网站被GOOGLE收录的情况,发现其他网站均在google上有收录,说明服务器IP并没有被GOOGLE列入黑名单;

4:再检查域名的历史情况,这的确是一个新域名,以前没有使用过,排除域名因素;

5:该公司网站以前并未做过搜索引擎优化SEO

到底是什么原因导致的呢?按理说,Google删除一个网站,一定是有原因的。

看到这里,可能你也在想问题所在。。。
为解决问题,我们来说说网站的情况吧

这个网站是企业网站,与其它众多设计公司网站一样,网站是自己做的,完全采用平面设计的思维来做网页。网页铺天盖地的大图片,首页创意非凡,看得出花了很多心思打造这个网站。导航和菜单全部采用图片;内容页面的业务介绍2/3的面积是高深莫测的创意拼图,1/3为文字——文字同样以图片的方式呈现,而且为了表现创意,文字说明都在图片中表达了。网页中唯一的文本内容是他们在每个页面底部老老实实放置了与网站业务有关的文本链接及一些文字介绍,各自链接到业务介绍页面。

也许你找到问题所在了——复制网页。

虽然这个网站的每个页面有不同的设计画面、文字介绍、菜单名称,但是由于这些核心内容全部被做到图片或FLASH中,底部有限的文本内容又是全站统一的格式及内容,因此在无法分析图片的搜索引擎蜘蛛眼中,每个页面的内容全部相同。页面底部的文字链接到的不同URL,而这些URL的页面内容一模一样,这就无意间触犯了搜索引擎关于复制网页作弊的禁忌

所有 HTTP 状态代码及其定义。

代码 指示
2xx  成功
200  正常;请求已完成。
201  正常;紧接 POST 命令。
202  正常;已接受用于处理,但处理尚未完成。
203  正常;部分信息 — 返回的信息只是一部分。
204  正常;无响应 — 已接收请求,但不存在要回送的信息。
3xx  重定向  
301  已移动 — 请求的数据具有新的位置且更改是永久的。
302  已找到 — 请求的数据临时具有不同 URI。
303  请参阅其它 — 可在另一 URI 下找到对请求的响应,且应使用 GET 方法检索此响应。
304  未修改 — 未按预期修改文档。
305  使用代理 — 必须通过位置字段中提供的代理来访问请求的资源。
306  未使用 — 不再使用;保留此代码以便将来使用。
4xx  客户机中出现的错误
400  错误请求 — 请求中有语法问题,或不能满足请求。
401  未授权 — 未授权客户机访问数据。
402  需要付款 — 表示计费系统已有效。
403  禁止 — 即使有授权也不需要访问。
404  找不到 — 服务器找不到给定的资源;文档不存在。
407  代理认证请求 — 客户机首先必须使用代理认证自身。
410   请求的网页不存在(永久);
415  介质类型不受支持 — 服务器拒绝服务请求,因为不支持请求实体的格式。
5xx  服务器中出现的错误
500  内部错误 — 因为意外情况,服务器不能完成请求。
501  未执行 — 服务器不支持请求的工具。
502  错误网关 — 服务器接收到来自上游服务器的无效响应。
503  无法获得服务 — 由于临时过载或维护,服务器无法处理请求。

比如说:
2004-12-03 07:33:25 61.135.145.208 - *.*.*.* 80 GET /index/119.htm - 304 Baiduspider+(+http://www.baidu.com/search/spider.htm)
这就意味着百度蜘蛛在2004-12-03 07:33:25爬过/index/119.htm这一页,它发现这页是没有更新过的。

再比如说:2004-12-03 07:33:25 61.135.145.208 - *.*.*.* 80 GET /index/120.htm - Googlebot/2.1
(http://www.google.com/bot.html)
这就意味着Google蜘蛛在2004-12-03 07:33:25爬过/index/119.htm这一页,它发现这页是新的,并全部爬完。
8月22号,美国专利局刚刚批准了一份有关Google排名算法的专利,标题是”搜索结果排名中引入支持性编辑意见的系统和方法(System and method for supporting editorial opinion in the ranking of search results)“。

简单的说,这个专利提出了用人工编辑修正搜索结果的方法,大致程序是:
今天就又从SEO Vista看到了一个例子,王文辉先生写了一篇”王通终于撕下了SEO的神秘面纱“,评论王通的文章”SEO没太多技术含量“。

如果我的中文还没有退步的太厉害的话,”撕下了神秘面纱”这句话应该不是在夸奖。说”摘下面纱”还比较中性,说”撕下”就有点意味着SEO是见不得阳光,得被别人揭露的意思。
Tags: , ,
这篇文章很老了,但对于刚开始接触SEO的人还是有一定的借鉴意义,在此发上来供好大家参考,好象王通的第一本书也借用了部分内容。
Tags: ,
怎样针对动态生成的不同页面中,keywords和description,写不同的关键字和描述?

我想针对这个问题可以更宽泛的谈一下CMS系统(content management system,内容管理系统)和SEO的关系。

现在很多网站都是由CMS系统建成的,电子商务网站,新闻类网站还有博客等等,绝大部分都是用CMS系统做成的。CMS优点很多,做的不好的话缺点也不少。

使用CMS系统制作页面和管理网站都变得容易,但缺点是大部分CMS系统都不够搜索引擎友好。

我觉得一个好的CMS系统在搜索引擎优化方面应该做到以下这些功能,读者在选择系统的时候可以注意看有没有这些功能,开发CMS系统的读者也可以做参考。
分页: 2/4 第一页 上页 1 2 3 4 下页 最后页 [ 显示模式: 摘要 | 列表 ]