关于百度收录的常见问题及解答-设计理念

王朝数码·作者佚名  2010-05-10
宽屏版  字体: |||超大  

挂黑链接后不收录新文章

问:网站被黑客攻击,在网站加了一个小偷程序,是股票类的,百度当天就收录近几千多条,几天我们发现后就删除了这个程序,并设置了robots屏蔽了该地址,第二天百度也删除了这些内容,但是从此之后,网站就不在被搜索引擎收录新文章,排名主关键词也受到了影响。

现在一个月多了还是没有恢复,请问这种有什么好的解决方法?

答:这类问题去年开始流行,我们进行了遏制。我们也希望能分清良莠,但实现上总是有一些不完美。但是这个问题比较奇怪,建议该站长再细细看下抓取和索引记录。不要用site来判定。(百度知道说不知道)

百度支持链接的nofollow属性

问:简单明确的一个问题,百度目前支持链接的nofollow属性吗?rel=’external nofollow’

答:百度现在支持nofollow标签。带nofollow标签的链接,我们会忽略掉它绝大部分的作用。nofollow主要用在用户留言等不受站长控制的地方,这些地方的投票不是站长的意志,告诉搜索引擎不要给他投票是合适的,就象zac博客中那些以请输入关键词、网购推荐等做为Anchor描述的链接,肯定不是zac想推荐的。

如果是做友情链接正式地推荐别的人网站,当然就不能使用nofollow了。

购买链接是否会被百度惩罚

问:百度对于明显的,通过大量购买链接来作SEO,强行登顶的作法今后是否会受到百度的惩罚?

答:这种手段奏效,说明百度在识别和处理超链作弊方面,仍存在很多问题。这类问题理应得到妥善的解决,以使互联网环境得到净化。我们回头会和相关的同事就此问题了解一下。(还是黑链的问题) HTTPS的网页网页被收录

问:一般来说,网站所有者不是太希望 https 的网页被收录。

如果收录了,如何处理?把 https 的网页URL更换成 http 形式的?还有一种情况,就是 ip 地址形式的URL被收录。

答:如果不希望被收录,常规的做法是设置robots文件。

https主要的出发点是安全,并没有太多考虑搜索引擎。从用户角度,很多采用了https的站点(尤其是首页),也是需要被搜索到的,比如支付宝,贝宝等。通常情况下,搜索引擎对这类网页并不做内容解析,而只是将url进行索引。

IP地址的url被收录,除了spider在机制上的不完善之外,通常站点设计上也有一些缺陷。一般情况下,这类问题是可以被规避的。

服务器开启gzip压缩

问:服务器开启gzip压缩,是否会影响蜘蛛抓取和收录量?

答:服务器开启gzip压缩,不会对spider抓取产生影响,我们会以压缩的方式来抓取。并且也能够节省站点的网络流量。

第一页    上一页    第1页/共2页    下一页    最后页
第01页 第02页 
 
 
 
免责声明:本文为网络用户发布,其观点仅代表作者个人观点,与本站无关,本站仅提供信息存储服务。文中陈述内容未经本站证实,其真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
© 2005- 王朝网络 版权所有