首页 首页 >  文章资讯

网站优化影响页面抓取的几个重要原因

发布者:小猪猪佩奇    发布时间:2018-07-19 11:08:47    浏览次数:42次

  影响蜘蛛爬行并最终影响到页面收录结果主要有几个方面的原因。

  1.网站的更新情况

  一般来说,网站更新很快,蜘蛛就会更快地抓取网站的内容。如果网站的内容很长时间都没有任何的更新,蜘蛛也会相应调整对网站的爬行频率。更新频率对新闻等网站来说很关键。因此,保持每天一定的更新数量,对吸引蜘蛛是非常重要的。

  2.网站内容的质量

  对于低质量的页面,搜索引擎一直是打击的,因此,创建高质量的内容,对于吸引蜘蛛是非常关键的,从这个角度来说,“内容制胜”是完全正确的。如果网页是低质量的,比如大量采集相同内容,页面核心内容空泛,就无法获得蜘蛛的青睐。

  3.网站是否可以正常访问

  网站是否可以正常访问对搜索引擎来说就是连通度。连通度要求网站不能经常访问不了,或者访问速度特别慢。从蜘蛛角度来看,希望能提供给检索客户的网页都是可以正常访问的页面,对于服务器反应速度慢或者经常死机的服务器,相关网站肯定会有负面的印象,严重的就是逐渐减少爬行,甚至剔除已经收录的页面。

  在现实中,因为国内的服务器服务比较贵,另外,基于监管的要求,国内网站的建立需要有备案制度,需要经历网上上传备案信息等流程,部分中小网站的站长可能会租用国外的服务器服务,比如Godaddy(一家提供域名注册和互联网主机服务的美国公司)服务等。不过从国内访问国外服务器,距离较远的原因,访问慢或者死机情况不可避免,从长远来说,对网站的SEO效果是一个制约。如果要用心经营一个网站,还是尽量采用国内的服务器服务,可以选择一些服务比较好、界面比较友好的服务器供应商,当前多家公司推出的云服务器就是不错的选择。

  此外,搜索引擎会依据网站的综合表现,对网站进行评级,这个评级不能完全等同于权重,但是,评级的高低会影响到蜘蛛对网站的抓取策略。

  在抓取频次方面,搜索引擎一般都提供可以调整抓取频次设置的工具,SEO人员可以依据实际情况进行调整。对于服务请求比较多的大型网站,可以通过调整频次的工具来减轻网站的压力。

  在实际抓取过程中,如果遇到无法访问的抓取异常情况,会导致搜索引擎对网站的评级大大降低,相应影响抓取、索引、排序等一系列SEO效果,最终反馈到流量的损失上。

  抓取异常的原因有很多,比如服务器不稳定,服务器一直超负荷运行,或者协议出现了错误。因此,需要网站运维人员对网站的运行进行持续跟踪,确保网站稳定运行。在协议配置上,需要避免一些低级的错误,比如Robots的Disallow设置错误。曾经有一次,一个公司管理人咨询SEO人员,问他们委托外部开发人员做好网站后,在搜索引擎怎么都无法搜索到,是什么原因。SEO人员直接在URL,地址栏输入他的网站Robots地址,赫然发现里面禁止了(Disallow命令)蜘蛛的爬行!

  关于网站无法访问,还存在其他可能,比如网络运营商异常,即蜘蛛无法通过电信或者网通等服务商访问到网站;DNS异常,即蜘蛛无法正常解析网站IP,可能是地址错误,也可能是域名商封禁,遇到这种情况需要和域名商联系。还有的可能是网页的死链,比如当前页面已经失效或者出错等,可能部分网页已经批量下线,遇到这种情况,最好的方法是提交死链说明;如果是uRL变更导致的旧的URL失效无法访问,最好设置301跳转,把旧的URL和相关权重过渡到新的页面来。当然,也可能是搜索引擎本身负荷过大,临时封禁。

  针对已经抓取回来的数据,接着就是蜘蛛进行建库的环节。在这个环节里,搜索引擎会依据一些原则对链接的重要性进行判断。一般来说,判断的原则如下:内容是否原创,如果是,会获得加权;主体内容是否是鲜明的,即核心内容是否突出,如果是,会获得加权;内容是否丰富,如果内容非常丰富,会获得加权;用户体验是否好,比如页面比较流畅、广告加载少等,如果是,会获得加权等。http://www.chinamaofa.com/

【版权与免责声明】如发现内容存在版权问题,烦请提供相关信息发邮件至 335760480@qq.com ,我们将及时沟通删除处理。 以上内容均为网友发布,转载仅代表网友个人观点,不代表平台观点,涉及言论、版权与本站无关。