怎么禁止搜索引擎访问或收录网站
一般在网站还处于测试阶段时,我们并不想搜索引擎收录我们的网站,那么我们可以做哪些设置以达到目的呢。
方法一:设置 robots.txt 方法
搜索引擎默认的遵守 robots.txt 协议,创建 robots.txt 文本文件放至网站根目录下,编辑代码如下:
1 2 | User-agent: * Disallow: / |
通过以上代码,即可告诉搜索引擎不要抓取采取收录本网站,注意慎用如上代码:这将禁止所有搜索引擎访问网站的任何部分。
下面举几个 robots.txt 用法的例子:
- 禁止所有搜索引擎访问网站的所有部分
1
2User-agent: *
Disallow: / - 禁止百度收录全站
1
2User-agent: Baiduspider
Disallow: / - 禁止 Google 收录全站
1
2User-agent: Googlebot
Disallow: / - 禁止除 Google 外的一切搜索引擎收录全站
1
2
3
4User-agent: Googlebot
Disallow:
User-agent: *
allow: / - 禁止除百度外的一切搜索引擎收录全站
1
2
3
4User-agent: Baiduspider
Disallow:
User-agent: *
allow: / - 禁止所有搜索引擎访问某个目录(例如禁止根目录下的 admin 和 css)
1
2
3User-agent: *
Disallow: /css/
Disallow: /admin/
方法二:设置网页代码方法
在网站首页代码<head>与</head>之间,加入<meta name=”robots” content=”noindex”>代码,此标记禁止搜索引擎的收录和索引。
在网站首页代码<head>与</head>之间,加入<meta name=”Baiduspider” content=”noindex”>即可禁止百度搜索引擎的收录和索引。
在网站首页代码<head>与</head>之间,加入<meta name=”googlebot” content=”noindex”>即可禁止谷歌搜索引擎的收录和索引。