千家信息网

robots.txt文件你怎么用呢

发表于:2024-10-20 作者:千家信息网编辑
千家信息网最后更新 2024年10月20日,robots.txt文件你怎么用呢,相信很多没有经验的人对此束手无策,为此本文总结了问题出现的原因和解决方法,通过这篇文章希望你能解决这个问题。搜索引擎通过一种程序robot(又称spider),自动
千家信息网最后更新 2024年10月20日robots.txt文件你怎么用呢

robots.txt文件你怎么用呢,相信很多没有经验的人对此束手无策,为此本文总结了问题出现的原因和解决方法,通过这篇文章希望你能解决这个问题。

搜索引擎通过一种程序robot(又称spider),自动访问互联网上的网页并获取网页信息。

您可以在您的网站中创建一个纯文本文件robots.txt,在这个文件中声明该网站中不想被robot访问的部分,这样,该网站的部分或全部内容就可以不被搜索引擎收录了,或者指定搜索引擎只收录指定的内容。robots.txt文件应该放在网站根目录下。

当一个搜索机器人(有的叫搜索蜘蛛)访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,那么搜索机器人就沿着链接抓取。

robots.txt文件的格式:

"robots.txt"文件包含一条或更多的记录,这些记录通过空行分开(以CR,CR/NL, or NL作为结束符),每一条记录的格式如下所示:

":"。

在该文件中可以使用#进行注解,具体使用方法和UNIX中的惯例一样。该文件中的记录通常以一行或多行User-agent开始,后面加上若干Disallow行,详细情况如下:

User-agent:

该项的值用于描述搜索引擎robot的名字,在 "robots.txt"文件中,如果有多条User-agent记录说明有多个robot会受到该协议的限制,对该文件来说,至少要有一条User- agent记录。如果该项的值设为*,则该协议对任何机器人均有效,在"robots.txt"文件中,"User-agent:*"这样的记录只能有一条。

Disallow:

该项的值用于描述不希望被访问到的一个URL,这个URL可以是一条完整的路径,也可以是部分的,任何以Disallow开头的URL均不会被robot 访问到。例如"Disallow:/help"对/help.html 和/help/index.html都不允许搜索引擎访问,而"Disallow:/help/"则允许robot访问/help.html,而不能访问 /help/index.html。任何一条Disallow记录为空,说明该网站的所有部分都允许被访问,在"/robots.txt"文件中,至少要有一条Disallow记录。如果"/robots.txt"是一个空文件,则对于所有的搜索引擎robot,该网站都是开放的。

robots.txt文件用法举例:

例1. 禁止所有搜索引擎访问网站的任何部分 下载该robots.txt文件 User-agent: * Disallow: /

例2. 允许所有的robot访问 (或者也可以建一个空文件 "/robots.txt" file) User-agent: *Disallow:

例3. 禁止某个搜索引擎的访问 User-agent: BadBotDisallow: /

例4. 允许某个搜索引擎的访问 User-agent: baiduspiderDisallow: User-agent: *Disallow: /

例 5.一个简单例子  在这个例子中,该网站有三个目录对搜索引擎的访问做了限制,即搜索引擎不会访问这三个目录。  需要注意的是对每一个目录必须分开声明,而不要写成 "Disallow: /cgi-bin/ /tmp/"。  User-agent:后的*具有特殊的含义,代表"any robot",所以在该文件中不能有"Disallow: /tmp/*" or "Disallow:*.gif"这样的记录出现。 User-agent: *Disallow: /cgi-bin/Disallow: /tmp/Disallow: /~joe/

Robot特殊参数:

1. Google

允许 Googlebot:

如果您要拦截除 Googlebot 以外的所有漫游器访问您的网页,可以使用下列语法:

User-agent:Disallow:/

User-agent:Googlebot

Disallow:

Googlebot 跟随指向它自己的行,而不是指向所有漫游器的行。

"Allow"扩展名:

Googlebot 可识别称为"Allow"的 robots.txt 标准扩展名。其他搜索引擎的漫游器可能无法识别此扩展名,因此请使用您感兴趣的其他搜索引擎进行查找。"Allow"行的作用原理完全与 "Disallow"行一样。只需列出您要允许的目录或页面即可。

您也可以同时使用"Disallow"和"Allow"。例如,要拦截子目录中某个页面之外的其他所有页面,可以使用下列条目:

User-Agent:Googlebot

Disallow:/folder1/

Allow:/folder1/myfile.html

这些条目将拦截 folder1 目录内除 myfile.html 之外的所有页面。

如果您要拦截 Googlebot 并允许 Google 的另一个漫游器(如 Googlebot-Mobile),可使用"Allow"规则允许该漫游器的访问。例如:

User-agent:Googlebot

Disallow:/

User-agent:Googlebot-Mobile

Allow:

使用 * 号匹配字符序列:

您可使用星号 (*) 来匹配字符序列。例如,要拦截对所有以 private 开头的子目录的访问,可使用下列条目:

User-Agent:Googlebot

Disallow:/private*/

要拦截对所有包含问号 (?) 的网址的访问,可使用下列条目:

User-agent:*

Disallow:/*?*

使用 $ 匹配网址的结束字符

您可使用 $ 字符指定与网址的结束字符进行匹配。例如,要拦截以 .asp 结尾的网址,可使用下列条目:

User-Agent:Googlebot

Disallow:/*.asp$

您可将此模式匹配与 Allow 指令配合使用。例如,如果 ? 表示一个会话 ID,您可排除所有包含该 ID 的网址,确保 Googlebot 不会抓取重复的网页。但是,以 ? 结尾的网址可能是您要包含的网页版本。在此情况下,可对 robots.txt 文件进行如下设置:

User-agent:*

Allow:/*?$

Disallow:/*?

Disallow:/ *?一行将拦截包含 ? 的网址(具体而言,它将拦截所有以您的域名开头、后接任意字符串,然后是问号 (?),而后又是任意字符串的网址)。

Allow: /*?$ 一行将允许包含任何以 ? 结尾的网址(具体而言,它将允许包含所有以您的域名开头、后接任意字符串,然后是问号 (?),问号之后没有任何字符的网址)。

Sitemap 网站地图:

对网站地图的新的支持方式,就是在robots.txt文件里直接包括sitemap文件的链接。

就像这样:

Sitemap: http://www.eastsem.com/sitemap.xml

目前对此表示支持的搜索引擎公司有Google, Yahoo, Ask and MSN。

不过,我建议还是在Google Sitemap 进行提交,里面有很多功能可以分析你的链接状态。

看完上述内容,你们掌握robots.txt文件你怎么用呢的方法了吗?如果还想学到更多技能或想了解更多相关内容,欢迎关注行业资讯频道,感谢各位的阅读!

文件 搜索 引擎 搜索引擎 网址 网站 字符 内容 条目 目录 网页 部分 漫游 开头 机器 问号 页面 一行 字符串 扩展名 数据库的安全要保护哪些东西 数据库安全各自的含义是什么 生产安全数据库录入 数据库的安全性及管理 数据库安全策略包含哪些 海淀数据库安全审计系统 建立农村房屋安全信息数据库 易用的数据库客户端支持安全管理 连接数据库失败ssl安全错误 数据库的锁怎样保障安全 生物信息学与网络安全研究生 安卓端可视化软件开发教程 服务器重启数据库写入错误 舵手软件设置数据库 方舟手游服务器的密码是多少 迅雷登录ftp服务器安全吗 学习网络知识提高网络安全 浪潮服务器运行风扇声音大 网络安全教育教案 高中 app软件开发制作哪家质量好 老年人网络安全知识宣传活动总结 拼多多平台服务器是干嘛的 童装网络技术解决方案 互联网金融科技业务有什么 石家庄软件开发皆往驰宇网络 ne是哪个服务器 上海博科软件开发公司 传染病网络安全管理制度内容 网络安全常见端口 网络安全漏洞会影响 硬件开发和软件开发哪个难 南沙app软件开发价格表 代理服务器怎样添加地址 域名与服务器备案主体信息 服务器天信 张家界网络安全和信息化 淮安品牌软件开发咨询 红楼梦小说是不是数据库 比亚迪做软件开发 服务器可以装win8系统吗
0