Matt Cutts观点整理2

关于黑体字的补充

Matt Cutts曾经提到黑体字,Google给bold的权重比strong要高一点。他做了更正,Google对这两种黑体的权重完全一样,对两种斜体em和i两种标签的处理也完全一样


对复制内容的补充

前面有说Google进行非常复杂的复制内容检测,Matt Cutts建议,如果你的网页有差不多相同的内容,那么尽量使它们看起来不同

如果有相似的内容在不同的域名上,一个是法语一个是英语,那么完全不必担心。但是如果内容相似,一个是在加拿大网站,一个是在.com网站,那么一般来说,Google就会判断哪个看起来更好点,就显示哪个。但是复制内容被检测出后,并不一定会带来惩罚。

如果你想避免的话,你可以试着确保网站的模板非常非常不一样。一般来说如果内容差不多,Google就会自行判断,然后选出一个他们认为最好的。


Google在索引和排名博客的时候,是不是和普通网站不一样

并不是。

以前曾经有人问gov和edu域名的链接是不是比普通域名的权重要高?实际上我们并不会看这个链接来自开放目录,或者来自gov或edu域名,就给它特殊的对待。只是这些网站一般都有比较高的PR值,有更多的网站链接向他们。

博客和普通网站没有什么大的区别,除非你做的是博客搜索(blog search)。

理论上来说我们可以给他们做不同的排名处理,但实际上如果是普通搜索,我们不会这么做。


Google的数据中心

在很久很久以前,一台电脑就可以运行一个搜索引擎,现在基本上你得有一个数据中心。在数据中心你可以利用DNS的设置做负载平衡。Google利用很聪明的负载平衡办法,使所有数据中心都能运行正常。

在大部分情况下,这些数据中心应该是一样的,应该有同样的数据设置。但是也并不总是这样,比如说一个数据中心出了故障,或者数据中心不在你访问的地理位置,在这种情况下,即使你通过IP地址访问,你也会被转到不同的数据中心。看起来你是在一直访问同一个数据中心,但实际上后台通过Google的负载平衡,你可能完全是在访问不同的数据中心。

虽然这种情况比较少见,但是也不太少。

在Google进行算法更新的时候,或者测试新的功能的时候,我们都在一个数据中心先进行,确认质量达到我们的期望。

这些数据中心之间确实是有不同的,同样一个C class的IP地址,你应该看到的是同一个数据中心,但并不总是这样。

对一个普通的用户来说,通过查看同一个数据中心,来研究或者猜测在数据中心所进行的变化是非常困难的。

所以完全不必要去观察不同数据中心返回的搜索结果,最好把时间花在别的东西上,观察每一个数据中心是根本不值得的。


Google索引更新index update,算法更新algorithm update,数据刷新data refresh。

2003年的时候,Google差不多每个月爬行一次互联网,抓取网页,这个过程是索引更新index update。算法可能改变,数据也改变,差不多什么都改变了,一次过,这也就是人们常说的Google Dance,站长世界会给这些Google Dance命名。

现在Google是每一天都在爬行和刷新索引,这是个不间断的过程。现在人们能看到的最大的变化是算法更新algorithm update,那种每个月一次的索引更新不再进行了。只是在出现旧索引不匹配的时候,比如说重建CJK(中日韩文)索引的时候,才可能会出现这种完整的索引更新。

算法更新基本上就是算法的改变,比如说对某一个网页的排名,PR权重是多一点还是少一点。这个改变可能是随时发生的。

最小的改变是数据刷新data refresh,这其实是改变给算法的输入,也就是改变算法所要处理的数据。

拿车来做比喻的话,索引更新是把整个车都换了。算法更新是换了车的一部分,比如引擎之类的。数据刷新相当于换了汽油。

数据更新是很常见的,我们会对结果做观察,比如Google不间断的在计算和改变PR。

相比之下,某些算法是每个星期都会改变,或者几个星期做改变。

如果你的网站受到了影响,你就要回头看一看你的网页是不是过度优化,或者找一个专家替你看一下网站有什么问题。如果你确认都很正常,那我建议你继续建新网页内容,使网页对用户有用,Google自然会解决其他的。


 

Google Analytics是否影响Google排名

Google Analytics是Google的免费流量统计服务,很多人怀疑Google在排名算法中会使用其收集的数据。

Matt Cutts回答,就我所知,没有。当然我也不能笼统的说在Google所有地方都不使用Google Analytics的数据。去年我被问到这个问题的时候,我也曾经肯定的说,我们反垃圾组(webspam team)不会使用Google Analytics的数据。垃圾只是质量的一部分,质量只是Google的一部分。

反垃圾组绝没有使用Google Analytics的数据。就我所知,Google其他地方也没有,因为我们希望人们能放心的使用它。


Google怎样检测复制网页

简单的说,我们进行很多的复制内容检测。这种检测并不是一次性的,而是从爬行,索引,排名到最后返回搜索结果的前几毫秒,都存在复制内容检测。

有各种不同的复制内容,比如说完全一样的网页,也有的是近乎复制的网页,我们有很多非常复杂的逻辑来进行检测。

如果你觉得你可能有复制内容网页的问题,那就要确保你的网页之间全都不同。


是否可以在下拉菜单中放入链接

Matt Cutts回答,可以,但不建议这样做,这也不是标准的制作手法。他建议还是把链接放在网页底部或网站地图上。


在不同域名间做301转向

有的公司会买一些很彼此相关的网站和域名,然后做301转向到主网站。

Matt Cutts回答,这没有问题,在很多行业里网站的合并转手都是很正常的。把不同域名做301转向,转到其他域名是可以接受的,只要这两个网站是在相关的领域。但是如果你突然从一个谈音乐的网站链接向债务重组的网站,就比较可疑了。


怎样用关键字形成网站结构主题

有的人问,是不是可以把关键词放在目录名中来形成不同的主题?

Matt Cutts回答,关键词不是重要的,重要的是网站的确应该根据不同的话题来分成不同的目录,形成一个树型结构。至于目录名用什么就无关紧要了,重要的是在不同的目录下话题是紧密相关的。这样在各个目录下自然会包含关键词。


如果URL有太多参数,可不可以给Google蜘蛛返回静态网页

Matt Cutts提醒,这样做要非常小心,因为弄不好就会变成隐藏网页。所以要十分小心,不要让Google蜘蛛看到的内容和真正访客看到的内容不同。


怎样做AB交叉实验

A/B交叉实验(A/B split test)指的是用户来访网站的时候,一半用户看到内容A ,一半用户看到内容B,以检测不同的营销手法的效果。

Matt Cutts提醒,如果Google蜘蛛来访的时候,看到不同的内容或者浏览器刷新的时候都返回不同的内容,这的确是非常奇怪的。所以这么做要十分小心,同样搞不好就会引起隐藏页面的嫌疑。最好用robots.txt文件阻止Google蜘蛛抓取交叉实验的内容。


关于补充材料

这一段回答了三个问题都是关于补充材料(supplemental result)的。

有人说他的网站用site:指令返回很多补充材料,有的人说做了301转向以后,网页还是补充材料很长时间,还一个是PR6的网站从5月份就一直是补充材料。

Matt Cutts回答说,基本上补充材料的出现不用担心(但实际上人们还是担心的,因为很多时候造成排名的下降)。Matt Cutts知道Google至少在做两个改动,一是使结果更准确,二是架构的改进以提高整体质量。

Matt Cutts提到,Google内部有专门的补充材料小组在研究和观察,主Google蜘蛛和补充材料蜘蛛是分开的。当下一次补充材料蜘蛛来访你的网页的时候,如果看到了301转向或者质量的提高,自然网页会回到主索引库。

补充材料蜘蛛现在使用新的架构,更新度在加快中。在夏天结尾的时候,大家可能看到比较大的变化。

希望如此。


还记不记得一段时间以期,我曾经说过你在要求网站被重新收录之前,最好仔细检查你的网站。通常来说,任何时间如果你觉得Google把你的网站删除了的话,你应该首先检查你自己的网站是不是用了恶意作弊手段。

例如这个The People’s Cube网站最近发了一篇给Google的公开信,因为他们的网站在Google里找不到了。公开信以“亲爱的在Google的同志们”为开头:

我们怀疑这是有意的删除,和1984年风格的历史性的更新一样,把人民的敌人从生活和历史当中删除。我们只能想到3个原因:

1)Google对批评他们的Google中国项目的网站很反感。

2)Google开始在自由世界的其他地方实施Google中国的政策。

3)一个左派的Google员工进入数据库的时候,感受到了严重的精神伤害…….

你告诉我是哪一个呢?

实话说我们不在乎你的网站是新反马克思主义还是谈论猫讨论狗的,我们不在乎你的网站是保守主义的,自由主义的还是什么的。我们在乎的是垃圾,隐藏文字,隐藏链接,垃圾链接,隐藏页面,可疑的重定向等等。所以我会选择第四个原因,你的网页上有垃圾,尤其是隐藏文字。

当Google机器人在2006年3月5号访问这个网页的时候,你的网页对访客来说看起来没问题,但是有隐藏文字。下面是CSS打开的时候所看到的网站:

但是如果你关掉CSS,你会在网页的底部看到这些东西:

我对他们的回答是:确保你的网站上所有的隐藏文字和链接都不在了,然后再要求重新收录。

同时也别以为我没发现你的网站和gqw.us,siteexpress.net,che-mart.com网站之间的交叉链接,而这些网站都有隐藏文字和链接,这些网站最好也被清理。

不知道为什么这个网站用隐藏链接连到buyonlywithus.com,而通过CSS,包含了很多隐藏文字。这些是你的网站被从Google中删除的原因,而不是因为在你的网站上说了什么。


别把Matt Cutts的话当圣旨

Matt Cutts在第一段视频里面提到过Google对两种黑体字bold和strong权重稍微有点不一样。但是后来经过同事的提醒,Matt Cutts做了改正,说Google对两种黑体字和两种斜体字的处理权重是完全一样的

Matt Cutts对Google算法不可能了解每一个细节,Google那么多员工,那么多部门,算法那么复杂,一个人不太可能了解全部,这是很合情理的。

当然大的原则问题,我宁可相信Matt Cutts说的。


复制内容的产生和预防

Matt Cutts的片子透露一个很重要的信息,复制内容的检测不是只存在于计算文件相关性的时候,而是贯彻于整个过程,甚至于从文件的爬行抓取就开始了。

这是不是就意味着如果是复制内容网页,那么收录都可能成问题呢?最近很多人都观察到Google收录的网页数急剧下降,这会不会是原因之一呢?

当然我相信复制内容应该不是唯一的原因,甚至不会是重要的原因。搜一下我这个博客的文章就会知道,很多转载,甚至抄袭的版本都被收录了。

但是如果域名的信任度比较低,再加上其他一些问题,可能复制内容网页会有不能被收录的情况。

Matt Cutts也有谈到网站设计模板非常非常不一样的话,可以帮助避免被判断为复制内容,大家不妨一试。


唯一不变的是变化

有太多的朋友问过,为什么排名会掉下去?为什么上个月排的挺好,这个月就不好?

这实在是一个很难回答的问题,因为唯一肯定不变的就是搜索引擎算法一直在改变。

Matt Cutts详细介绍了Google的索引更新,算法更新,数据刷新,这些改变的频率不一,没有固定的周期,可以想象排名上下波动是再正常不过的一件事了。


Google很看重网站相关性和权威度

在第一段视频Matt Cutts谈网站质量问题的时候,谈到了很重要的一点是,你要找到你的行业最相关的人,让他们知道你的网站。他没继续往下说的是,这些已经在这个行业的人知道你的网站后,(如果你的网站质量够好),很自然的就会提到你的网站,链接向你的网站,从而形成一个关系网络,和线下的关系网络是一样的。

与一些技术性的SEO技巧相比,这种可以与线下市场营销相通的技巧,现在变得越来越重要了。


搜索引擎优化好,还是最终用户优化好?

Matt Cutts回答,两个都很重要。

这两天我们在讨论搜索引擎优化是不是合法,我想,这已经给了很清楚的回答。

Matt Cutts说,如果不做SEO,用户找不着你。如果没有用户优化,那么用户在你的网站上不会停留,不会买东西,不能转化为客户,又有什么用呢?所以两者都很重要。

他的建议是,应该把这两个部分变成同一件事情。如果你能把网站做的既搜索引擎友好又用户友好,这是最理想的。


垃圾检测工具

有的人问有没有垃圾检测工具,好检测一下自己的网站,让自己的网站保持干净。

Matt Cutts说,Google内部有很多检测工具,但当然不能对外公开。他建议大家可以用Yahoo Site Explorer查一下网站的反向链接,用工具查一下在同一个IP地址上有没有其他可疑的网站,也可以用Google网站地图里面的工具看一下你的网站有什么问题。


网页的干净度

有很多人问,网页非常干净(clean),符合W3C标准,对网页排名有没有什么影响?

比较没想到的是,Matt Cutts说,他不会担心这个,因为40%的网页都有编码错误,搜索引擎不会因为网页上有错误而抛弃40%的网站内容。所以用W3C标准验证网页当然是一件很好的事,但是不必太担心,对他来说,这是在他要做的事情里面最后面的一件事。


静态URL和动态URL对排名有什么影响?

Matt Cutts回答,他们对静态和动态URL处理的方式是类似的,也就是说PR值在动态URL和静态URL页面的传递是一样的。如果纽约时报的一篇文章连向你的动态URL,这个页面会得到相同的PR值。

但是他建议,不要在动态URL中使用太多参数,最多用两三个。同时不要用太长的数字,因为那可能会与Session ID混淆。

最好能够用mod_rewrite进行URL改写,把动态URL改为静态URL。


Google网站地图能不能提醒站长,他的网站被黑客侵入

Google目前没有这个资源和计划。


Google对geo-targeting怎么处理

很多大型网站经常使用这一手法,根据用户的IP地址所在地理位置返回相应的不同内容,所谓geo-targeting。

Matt Cutts以前也讲过多次,这种手法本身没有问题,Google自己也用。只要你不把Google蜘蛛特殊对待就可以了。

如果检测用户来自于加拿大,就返回适用于加拿大用户的页面内容。如果用户来自与德国,就返回适用于德国用户的页面内容。

根据用户所在地理位置的IP地址,返回不同内容,不会被认为是隐藏网页(cloaking)。但如果你的网页给予Google蜘蛛特殊的对待,当检测出是Google蜘蛛来访时,返回的内容与用户所看到的内容不一样的话,就会被当作隐藏网页。

 


看来Matt Cutts非常讨厌那些标榜保证前十或前二十结果的所谓搜索引擎专家。在很多场合,不同的搜索引擎公司的职员都肯定,没有人能保证任何搜索引擎结果,甚至包括他们内部员工自己也不能保证。如果有人能标榜自己能保证的话,你可以确定他是个骗子无疑


网站的质量问题

怎样提高在Google的可见率?Matt Cutts提到了几部分,首先是网页必须能够被爬行和抓取,这是很多网站犯的错误,诸如带有很多参数的URL,蜘蛛不能跟踪的链接等。

然后是有用的内容,只要你提供对用户有帮助的内容,而这些内容又可以被蜘蛛顺利抓取,正常情况下,就已经解决了大部分问题。

然后是找到你这个行业最相关的人,让他们知道你的网站。就像线下营销一样,网上营销也需要一个关系网络,你这个行业里的相关的人知道了你,就有可能链接向你,有可能谈论你。

再加上有意思的,能抓住眼球的,能像病毒一样传播的内容,人们就会开始连向你的网站,把你的网页放入书签等。


Google什么时候会使用dmoz的网页标题

很多人发现,最近Google,MSN在搜索结果中都会使用dmoz(开放目录)的标题,而不是网页title tag的真正标题。Matt Cutts说,这个过程不会影响网页排名,实际上是网页排名先计算出来,这个网页应该排第一,然后Google会看这个网页真正的标题和dmoz的标题,针对被搜索的关键词,哪一个更相关。如果Google认为dmoz的标题更相关,就用了dmoz的标题。

当然站长也可以用NOODP属性来防止Google和MSN使用dmoz标题。

这几天有不少人在讨论放了NOODP属性以后,网站排名有下降。看来这是一个巧合,NOODP属性不会影响排名。


bold tag 比 strong tag 好?

两个都是黑体。

我们给bold的权重比strong稍高一点,但差别很小,不用在这方面想太多。用你想用的,而不是考虑斜体会不会对Google排名好点之类的问题。用对用户和网站好的。


搜索引擎优化迷思和误区

有的站长有很多网站在同一架服务器上,或使用同一个IP地址,或者有多个网站使用相同的javascript脚本会不会影响排名?

Matt Cutts回答说,对一般的站长来说,不用担忧这些。绝大部分网站都是放在虚拟主机上的,也就是很多网站共享同一个IP地址,放在同一架服务器上,完全没有问题,不必担心。

但是以前有人问,为什么我的网站被Google和雅虎同时除名了?问他到底有多少网站,这个人想了一下回答说,大概2000多个。

你要是真有2000多个网站,那就真的得担心了。扪心自问, 你真的有时间和能力在2000多个网站上提供对用户有价值的内容吗?估计不会。

还有人问,他们公司通常在不同的国家发布新网站的时候,都是上百万个新网页同时上线,而且通过公关公司的运作,都能有大量高质量反向链接,但最近这个方法效果都不好。

Matt Cutts建议,和上面的问题一样,这里有一个程度和范围的问题。上百万个网页同时上线,不一定有问题,但绝大部分情况下这都是够可疑的。所以他建议,你要真有这么多网页,最好尝试软性逐渐发布,几千页几千页的上线,可能会好一点。

 

, , ,
我们将在15分钟内联系你

免费提供行业网站方案以及海外推广计划