适合自己的 ● 才是最好的 新闻动态,洞悉互联网前沿资讯,探寻网站营销规律
当前位置: 首页 > 百科知识 > 网站优化 >
网站页面过长,也会导致搜索引擎不收录
日期:2017-11-02 编辑:admin 阅读:

       网站页面过长,也会导致搜索引擎不收录?

  最近公司收到一个非常典型的页面收录的优化例子,整理一下分享给各位,各位站长们以后避免不要出现相同的情况。

  站点反馈:

  网站主体内容都是用js文件生成,用户访问没问题,但是没有做优化。网站针对爬虫抓取做了优化,且将图片也直接做了转化,然而后来发现内容却不被百度收录

  页面质量很好,还针对爬虫做了相关优化,为什么内容反而不收录了呢?

  百度工程师分析:

  1、网站针对爬虫爬取做的优化,直接将图片二进制内容放到了html中导致页面太长,网站页面长度达164k;

  2、 站点优化后将主体内容放于最后,图片却放于前面;

  3、爬虫抓取内容后,由于页面内容过长而被截断,已抓取部分无法识别到主体内容,最终导致页面被认定为主题不明确而不收录。

  昆山优化公司建议:

  1、站点不要使用js生成主体内容,如js渲染出错,很可能出现页面内容读取错误,导致页面无法抓取。

  2、 如站点针对爬虫爬取做过优化,建议页面长度在128k之内,切记内容不要过长。

  3、针对爬虫爬取做优化,请将主题内容放于前方,图片后置,避免抓取截断造成内容不全。