robots.txt文件时seo优化中非常重要的一个文件,也是大家seo培训的重点之一。规范合适的抒写robots.txt文件,可以有效的提升蜘蛛抓取的效率,避免造成搜索引擎蜘蛛封禁的情况。下面郑州seo杨超就来解释一下robots协议怎么写。
什么是robots.txtRobots协议:网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。 协议写在robots.txt文件里面。
要不要使用robots.txt1、如果你的网站有部分内容不希望搜索引擎抓取,那么请设置robots.txt
2、如果你的网站全部内容都需要被搜索引擎抓取,可以不设置。
3、一般来说,一些后台文件(如css、js)、用户隐私的文件不用被搜索引擎抓取。
4、如果有些文件频繁被蜘蛛抓取,但是这些文件又是不重要的,那么可以用robots.txt进行屏蔽。
robots.txt的用法User-agent: * 这里的*代表的所有的搜索引擎种类,*是一个通配符
Disallow: /文件夹名称/ 这里定义是禁止爬取这个文件夹下面的目录
Disallow: /cgi-bin/*.htm 禁止访问/cgi-bin/目录下的所有以”.htm”为后缀的URL(包含子目录)。
Disallow: /*?* 禁止访问网站中所有包含问号 (?) 的网址
Disallow: /.jpg$ 禁止抓取网页所有的.jpg格式的图片
Disallow:/ab/adc.html 禁止爬取ab文件夹下面的adc.html文件。
Allow: /cgi-bin/ 这里定义是允许爬寻cgi-bin目录下面的目录
Allow: /tmp 这里定义是允许爬寻tmp的整个目录
Allow: .htm$ 仅允许访问以”.htm”为后缀的URL。
Allow: .gif$ 允许抓取网页和gif格式图片
Sitemap: 网站地图的URL 告诉爬虫这个页面是网站地图
robots.txt示例# robots.txt for 阅读青春readu.net
User-agent: *
Allow: /
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /wp-content/plugins/
Disallow: /?r=*
robots标签的用法(mate标签是写在网页head里面的代码)<meta name=”robots” content=”nofollow”> 所有搜索引擎都不允许爬行
<meta name=”baiduspider” content=”nofollow”> 百度搜索引擎不允许爬行
<meta name=”robots” content=”noarchive”> 所有搜索引擎都不允许收录
<meta name=”baiduspider” content=”noarchive”> 百度搜索引擎都不允许收录
robots.txt具体用途1、一个页面对应多个URL时,应屏蔽多余的URL。
2、如果网站有页面是没有实质性内容的,应该屏蔽掉。
3、如果网站改版删除了大量的页面(404),应该屏蔽掉。
4、如果是UGC网站,用户产生了大量的不良内容,应该屏蔽掉。
5、不希望被搜索引擎索引的内容(后台界面、用户隐私),应该屏蔽掉。