当前位置:网站首页 > 北京SEO > 正文

网站不被百度收录的原因(seo自然搜索优化)

三石哥三石哥 2022-10-09 13:51:29 165

seo优化分析:分析搜索引擎不收录网站的原因

1.网站权限问题,如果网站需要打开许可,搜索引擎将无法包含它;

2.网站的URL结构太深,路径太长;

网站的网址链接太深,将影响搜索引擎蜘蛛的爬行抓取。 随着时间的流逝,蜘蛛的爬行抓取的数量将减少,或者抓取不到,从而导致蜘蛛不喜欢这个网站,那网站不会被抓到内容、链接。 通常建议使用扁平结构,URL位于三层以内,以方便蜘蛛爬网。

3.网页结构不合理?

该网站使用了大量的js,flash,ifrmae和其他内容。 或者如果网站的结构混乱,那么整个网站将变得杂乱无章,缺乏层次感、逻辑性,用户体验将非常差,更重要的是,蜘蛛会不喜欢它,并且当您查看它时会感到混乱。

网站不被百度收录的原因(seo自然搜索优化)

4.robots文件屏蔽robots.txt文件设置错误;

5.网站服务器稳定吗?

某些虚拟主机IP被搜索引擎阻止,或者主机已禁用蜘蛛IP,服务器频繁停机,并且空间访问速度缓慢。 它将导致搜索引擎爬虫无法爬网,或者网站无法打开或爬网时速度太慢,阻碍了爬网,并且随着时间的推移爬网的次数将越来越少 。 蜘蛛如何不进行爬行抓取它如何收录您的网站? 在网站建设初期的时候要考虑这个因素,如何规划成本预算,并考虑成本和收益。

6、404死链接?

无效链接表示服务器地址已更改。 无法找到当前地址位置,包括协议无效链接和内容无效链接两种形式。

7.网站被黑,是否存在隐藏的安全风险?

该网站已被链接为黑色链接,并已植入恶意代码,严重影响了安全性。 搜索引擎将做出判断,从而导致该网站未被收录或被收录。

8.网站内容质量低劣?

如果您网站上的内容仅仅是复制和粘贴或大量收集并重新发布其他人的网站内容,那么肯定存在问题。 因为蜘蛛喜欢新事物,却不喜欢旧事物,所以众所周知,如果您没有新事物来吸引它,它将很难爬网您的网站,更不用说收录起来它了。

网站不被百度收录的原因(seo自然搜索优化)

9.复杂而冗长的代码?

代码是网站后端的主要元素,干净的代码是蜘蛛的最爱。

10.网站缺少高质量的外部链接吗?

网站上缺少外部链接或高质量的外部链接太少也是不收录该网站的原因之一。 将相关的外部链接发布到高重量平台可以吸引蜘蛛并提高网站收录速度。

11.新站的总体权重会影响收录吗?

刚上线的网站, 即使您的文章是原创且内容丰富,搜索引擎也不会立即将其抓取收录在内。 搜索引擎有一个收集周期。 通常,首先收录主页,然后缓慢收录内容再释放该页面后,此周期可能需要1到2个月。 请耐心等待并坚持要做好网站内容。

网站不收录成为SEO主要问题,解析搜索引擎不收录的原因

一般来说,阻止搜索引擎收录也可能成为一个SEO问题,尽量让搜索引擎抓取和索引更多内容是SEO们经常头疼的一个问题,没有收录、索引就无从谈排名。尤其对达到一定规模的网站来说,使上海seo的网站充分收录是个颇令人费神的SEO技术,当页面达到比如说几十万,无论网站架构怎么设计、多么优化,100%收录都是不可能的,只能尽量提高收录率。

但有时候怎么阻止搜索引擎收录也可能成为一个问题,网站不收录近几年越来越成为SEO问题。需要阻止收录的情况如保密信息、复制内容、广告链接等。过去常用的阻止收录方法包括密码保护、把内容放在表格后面、使用JS/Ajax、使用Flash等。

使用Flash

Google几年前就开始尝试抓取Flash内容了,简单文字性内容已经能抓取。Flash里面的链接也能被跟踪。

表格

Google蜘蛛也能填表,也能抓取POST请求页面。这个早就能从日志中看到。

JS/Ajax

使用JS链接一直以来被当作不搜索引擎友好的方法,因此可以阻止蜘蛛爬行,但两三年前我就看到JS链接不能阻止Google蜘蛛抓取,不仅JS中出现的URL会被爬,简单的JS还能被执行找到更多URL。

网站不被百度收录的原因(seo自然搜索优化)

上图为:阻止搜索引擎收录的原因

前几天有人发现很多网站优化使用的Facebook评论插件里的评论被爬、被收录,插件本身是个AJAX。这是个好消息。我的一个实验电子商务网站产品评论功能就因为这个费了不少心思,用Facebookcomments插件好处大大的,具体什么好处以后有时间再说,唯一的问题就是评论是AJAX实现的,不能被抓取,而产品评论被收录是目的之一(产生原创内容)。我当时想了半天也没有解决方法,只好先傻傻地既放上Facebookcomments插件又打开购物车本身的评论功能。现在好了,Facebookcomments里的评论能被收录,就不用两套评论功能了。

Robots文件

目前唯一确保内容不被收录的方法是robots文件禁止。但也有个坏处,会流失权重,虽然内容是不能收录了,但页面成了只接受链接权重、不流出权重的无底洞。

Nofollow

Nofollow并不能保证不被收录。就算自己网站所有指向页面的链接都加了NF,也不能保证别人高端网站建设不给这个页面弄个链接,搜索引擎还是能发现这个页面。

MetaNoindex+Follow

为防止收录又能传递权重,可以在页面上使用metanoindex和metafollow,这样页面不收录,但能流出权重。确实如此,也是个比较好的方法。也有一个问题,还是会浪费蜘蛛爬行时间。哪位读者有能防止收录、又没有权重流失、又不浪费爬行时间的方法,请留言,对SEO界功德无量。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 3561739510@qq.com 举报,一经查实,本站将立刻删除。

转载请注明来自专注SEO技术,教程,推广 - 8848SEO,本文标题:《网站不被百度收录的原因(seo自然搜索优化)》

标签:

关于我

关注微信送SEO教程

搜索
最新文章
热门文章
热门tag
抖音优化提升网站排名百度SEO优化网站优化提高网站排名抖音小店SEO优化SEO优化技巧网站SEO优化网站排名seo优化seo网站优化关键词优化百度SEO排名小红书关键词排名seoSEO优化排名搜索引擎优化
友情链接