教程SEO百度搜索引擎优化整站(对网站seo有什么好处和坏处)
三石哥 2023-01-17 17:26:02 145
robots协议是什么?对网站SEO有什么好处?
在网站优化中,robots协议一直是优化人员重视的细节,想要网站能够有更高的抓取和排名,此协议也起到很大的作用,那么robots协议是什么呢?它对网站的SEO有什么作用和好处呢?下面一起来了解一下。
一、什么是robots协议?
robots协议全称“网络爬虫排除标准”,又称爬虫协议、机器人协议等,它规定着搜索引擎抓取网站时所能抓取的内容,是网络爬虫爬行网站时第一个需要访问的文件,该文件位于网站的根目录下,文件名是robots.txt 。
二、robots协议在SEO中的作用是什么?
robots协议是来用于保护网站的隐私,来防止网站重要的信息被泄露,对网站安全起到一定的作用。同时,robots协议也能让网络爬虫合理地抓取网站内资源,这就要优化人员进行合理的设置robots协议文件了,可以将网站不重要的内容、模块等进行屏蔽,让蜘蛛爬行和抓取更多有价值高质量的内容和网页,从而提升高排名的几率。
此外,robots协议还可以用于屏蔽一些网站中比较大的文件,比如图片、音乐、视频等,帮助网站节省服务器宽带,提高网站打开速度,给用户留下更好的印象。
三、注意事项有哪些?
千万不能随便进行整站屏蔽,因为robots协议的生效时间短的是几天,长的是一个月,一旦整站屏蔽蜘蛛就抓取不了信息了;要注意空格,在“User-agent:”、“Disallow:”和“Allow:”的后面都有一个空格;要注意每一行的第一个首字母都需要大写。
综上所述,以上就是为大家总结的几点robots协议的内容与作用,通过以上的介绍,相信优化人员对网站的优化也有更多细节方面的注意,帮助做好robots协议的设置,促使网站收录更高。
网站SEO优化:快速提升网站页面收录的文件,robots书写规则
我们很多时候感觉网站页面被搜索引擎收录得越多越好,这句话本身没有什么错误,但是我们会发现很多网站页面是我们不需要被收录都被收录了,我们需要搜索引擎收录的页面的反而没有被收录,其实爬虫在爬取我们网站的时间是有限的,怎么样才能在有限的时间爬取我们的更多的页面,我们就要告诉爬虫爬取我们需要它去爬取的内容页面,那么就需要一个robots.txt文本文件。
tobots.txt网站收录协议
什么是robots.txt文件
robots是网站跟爬虫间的协议,用简单直接的txt格式文本方式告诉对应的爬虫被允许的权限,也就是说robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。当一个搜索引擎蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。
robots.txt文件放置的位置
robots.txt文件放在网站根目录下。搜索引擎蜘蛛访问一个站点时,首先检查该站点根目录下是否存在robots.txt文件,如果搜索引擎蜘蛛找到这个文件,它就会根据这个文件的内容,来确定它访问权限的范围。
robots.txt文件规则
robots.txt规则
该文件中的记录通常以一行或多行User-agent开始,后面加上若干Disallow行,详细情况如下:
User-agent:
该项的值用于描述搜索引擎robot的名字,在"robots.txt"文件中,如果有多条User-agent记录说明有多个robot会受到该协议的限制,对该文件来说,至少要有一条User-agent记录。如果该项的值设为*,则该协议对任何机器人均有效,在"robots.txt"文件中,"User-agent:*"这样的记录只能有一条。
Disallow:
该项的值用于描述不希望被访问到的一个URL,这个URL可以是一条完整的路径,也可以是部分的,任何以Disallow开头的URL均不会被robot访问到。例如"Disallow:/help"对/help.html 和/help/index.html都不允许搜索引擎访问,而"Disallow:/help/"则允许robot访问/help.html,而不能访问/help/index.html。任何一条Disallow记录为空,说明该网站的所有部分都允许被访问,在"/robots.txt"文件中,至少要有一条Disallow记录。如果"/robots.txt"是一个空文件,则对于所有的搜索引擎robot,该网站都是开放的。
Allow:
该项的值用于描述希望被访问的一组URL,与Disallow项相似,这个值可以是一条完整的路径,也可以是路径的前缀,以Allow项的值开头的URL是允许robot访问的。例如"Allow:/baidu"允许robot访问/baidu.htm、/baiducom.html、/baidu/com.html。一个网站的所有URL默认是Allow的,所以Allow通常与Disallow搭配使用,实现允许访问一部分网页同时禁止访问其它所有URL的功能。
robots.txt语法
1.允许所有搜索引擎收录本站信息:
robots.txt为空就可以,什么都不要写。或者
User-agent: *
Disallow:
2. 禁止所有搜索引擎收录网站的某些目录:
User-agent: *
Disallow: /目录名1/
Disallow: /目录名2/
Disallow: /目录名3/
3. 禁止某个搜索引擎收录本站,比如禁止某度收录:
User-agent: Baiduspider
Disallow: /
4. 禁止所有搜索引擎收录本站信息:
User-agent: *
Disallow: /
robots.txt对于网站SEO优化的作用
搜索引擎通过爬虫spider程序会自动搜集互联网上的网页并获取相关信息。我们通常网站上会有一些内容是不想让蜘蛛抓取的,所以经常会使用robots文件把一些不想被抓取的内容告诉爬虫。
还有就是我们希望搜索引擎爬虫在有限的带宽爬取我们更多更有用的信息,进而让这些页面获取更好的排名。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 3561739510@qq.com 举报,一经查实,本站将立刻删除。
转载请注明来自专注SEO技术,教程,推广 - 8848SEO,本文标题:《教程SEO百度搜索引擎优化整站(对网站seo有什么好处和坏处)》
- 搜索
- 最新文章
- 热门文章
-
- 小红书标题文案写作技巧有哪些?小红书标题文案写作方法是什么?
- 快手新人开直播十大技巧是什么?快手新人直播技巧有哪些?
- SEO关键词优化如何提高网站排名?SEO关键词排名提升方法是什么?
- 搜索关键词如何让排名靠前?揭秘关键词排名提升方法
- 抖音视频上热门标准是什么?抖音视频上热门条件有哪些?
- 如何进行网站头部标签的优化设置?
- 网站关键词确定方法:精准定位,提高搜索排名
- 抖音标题如何写?抖音标题写作技巧是什么?
- 如何优化网站图片以提升主题相关性(掌握图片优化技巧)
- 网站标题优化技巧:提升搜索排名,吸引更多流量
- 快手点赞对主播有什么好处?快手点赞主播收益是什么?
- 快手播放量1000代表什么?快手播放量1000意义是什么?
- 如何进行网站图片优化(优化网站图片的好处和具体方法)
- 抖音直播带货佣金如何计算?抖音直播带货佣金模式是什么?
- 如何优化网站排名以提升流量?揭秘网站排名提升的五大策略
- 快手直播如何提升人气?快手直播人气提升方法是什么?
- 网站图片优化对排名的影响(如何通过图片优化提高网站排名)
- SEO作弊和惩罚分析是什么?SEO作弊惩罚机制是什么?
- 抖音与快手流量对比分析:谁更胜一筹?
- 如何通过SEO提升网站排名(15个实用技巧让你的网站名列前茅)
- 热门tag