网站首页 > 文章中心 > 其它

限制搜索引擎抓取怎么办_robots禁止搜索引擎抓取问题~

作者:小编 更新时间:2023-10-07 07:25:20 浏览量:303人看过

怎样让搜索引擎快速收录?

搜索吵升引擎的网络爬升茄老虫 相纳清当于用机器模拟了用户访问网络资源 他遵守一定的约定 但除去以上两种方法外 不会有其他方法 如果能骗过爬虫 同样也就意味着用户不能正常访问!

大家网友们,我理解你的意思,你可以在头文件中加上屏蔽搜索引擎的御铅信信息.

限制搜索引擎抓取怎么办_robots禁止搜索引擎抓取问题~-图1

你在网页头文件中加入下面一行就可以屏蔽搜索引擎了!

这样就行了,希望对你有帮助!

要注意激宴的是:Robots META标签限制搜索引擎机器人(ROBOTS)抓取站点内容的办法只是一种规则,需要搜索引擎机器人的配合才行,并不是每个ROBOTS都遵守的.

目前看来镇轮,绝大多数的搜索引擎机器人都遵守robots.txt的规则,而对于Robots META标签,目前支持的并不多,但是正在逐渐增加,如著名搜索引擎GOOGLE就完全支持,而且GOOGLE还增加了一个指令"archive",可以 限制GOOGLE是否保留网页快照.

例如:

祝你天天开心,工作顺利,家庭幸福!

我们在做网站时,有些目录或者文件不希望搜索引擎蜘蛛搜索到,比如后台,重要页面或文件.那么我们这时该怎么办呢?最简单的方法是修改robots.txt文件和网页中的robots Meta标签.

限制搜索引擎抓取怎么办_robots禁止搜索引擎抓取问题~-图2

robots.txt文件是做什么的,robots文件又称robots协议(也称为爬虫协议、爬虫规则、机器人协议等)robots协议是告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取.robots协议不是命令,它只是一个网站国际互联磨搜网界通行的道德规范,知名的引擎蜘蛛都会遵守这个协议,只有一些缺乏职业道德的搜索引擎会绕开它.所以修改这个协议也不是万能保险的.

robots.txt文件是一个放置在网站根目录下的记事本文件,当搜索蜘蛛访问网站时,它会先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面.本站官方建议,仅当您的网站包含不希望被搜索引擎收录的内容时,才需要使用robots.txt文件.如果您希望搜索引擎收录网站上所有内容,请勿建立robots.txt文件.

robots文件屏蔽的写法

下面是一个网站的robots文件的代码样式.

===================================================================================

User-agent: *

Disallow: /plus/ad_js.php

Disallow: /plus/advancedsearch.php

Disallow: /plus/car.php

Disallow: /plus/carbuyaction.php

Disallow: /plus/shops_buyaction.php

Disallow: /plus/erraddsave.php

Disallow: /plus/posttocar.php

Disallow: /plus/disdls.php

Disallow: /plus/feedback_js.php

Disallow: /plus/mytag_js.php

Disallow: /瞎闹历plus/rss.php

Disallow: /plus/search.php

Disallow: /plus/recommend.php

Disallow: /plus/stow.php

Disallow: /plus/count.php

Disallow: /include

Disallow: /templets

我们来看一下它的意思.

User-agent:

User-agent:指定允许哪些蜘蛛抓取,如果给出参数,则只有指定的蜘蛛能够抓取;如值为通配符"*"号,代表允许所有蜘蛛抓取.如:

User-agent: Googlebot

只允许Google的蜘蛛抓取.

User-agent: baiduspider

只允许本站的蜘蛛抓取.

这个是指允许所有蜘蛛抓取,*为通配符,代表所有.

Disallow:

这个是表示禁止蜘蛛抓取的,以上面的robots文件为例.

这个是指禁止引擎蜘蛛抓取弯卖网站中plus目录中的ad_js.php文件

这个是指禁止引擎蜘蛛抓取网站中include整个目录,它和Disallow: /include/不是等同的.

Disallow: /include/

这个是指禁止引擎蜘蛛抓取网站中include目录下面的目录,但include目录中的文件蜘蛛仍然可以抓取.

Disallow: /cgi-bin/*.htm

禁止访问/cgi-bin/目录下的所有以".htm"为后缀的URL(包含子目录).

Disallow: /*?*

禁止访问网站中所有包含问号 (?) 的网址

Disallow: /.jpg$

禁止抓取网页所有的.jpg格式的图片

Allow:

这是允许的意思.

Allow: /include/

这里是允许爬寻include目录下面的目录

Allow: /include

这里是允许爬寻include整个目录

Allow: .htm$

仅允许访问以".htm"为后缀的URL.

Allow: .gif$

允许抓取网页和gif格式图片

Sitemap:

网站地图 告诉爬虫这个页面是网站地图

robot文件的常见用法

例1. 禁止所有搜索引擎访问整个网站.

Disallow: /

Allow:/

User-agent:后的*具有特殊的含义,代表"any robot",所以在该文件中不能有"Disallow: /tmp/*" or "Disallow:*.gif"这样的记录出现.

robots Meta标签屏蔽法

robots.txt是放在网站中,文件级的网络蜘蛛授权;而robots Meta标签是放在网页中,一般用于部分网页需要单独设置的情况下.两者的功能是一样的.

Meta robots标签必须放在和之间,格式:

index,follow:允许抓取本页,允许跟踪链接.

index,nofollow:允许抓取本页,但禁止跟踪链接.

noindex,follow:禁止抓取本页,但允许跟踪链接.

noindex,nofllow:禁止抓取本页,同时禁止跟踪本页中的链接.

index,follow可以写成all,如:

noindex,nofollow可以写成none,如:

需要注意的是,robots Meta标签很多搜索引擎是不支持的,只有少数搜索引擎能够识别并按给定的值抓取.所以,尽可能的使用robots.txt文件来限制抓取.

你的robots的意思是

Disallow: /App_Data/

Disallow: /aspnet_client/

Disallow: /bin/

Disallow: /Scripts/

Disallow: /ServerPages/

Disallow: /Setting/

Disallow: /sysCommon/

Disallow: /TemplateFile/

解说:

禁止搜索引擎抓取网站/App_Data/目录下的所有早友页面

禁止搜索引擎抓取网站 /aspnet_client/目录下的所有页面

禁止搜索引擎抓取网站/bin/目录下的所有页面

禁止搜索引擎抓取网站/Scripts/目录下的所有页面

禁止搜索引擎抓取网站/ServerPages/目录下的所有页面

禁止搜索引擎抓取网站/App_Data/目录下的所有页面

禁止搜索引擎抓取销早网站 /sysCommon/目录下的所有页面

禁止搜索引擎抓取网站/TemplateFile/目录下的所有页面

但是本人建议亏睁雀最好还是能够写的标准一点

User-agent: *(这里的*代表搜索搜索引擎)

Disallow:/App_Data/

Disallow:/aspnet_client/

Disallow:/bin/

Disallow:/Scripts/

Disallow:/ServerPages/

Disallow:/Setting/

Disallow:/sysCommon/

限制搜索引擎抓取怎么办_robots禁止搜索引擎抓取问题~-图3

Disallow:/TemplateFile/

Disallow和allow是配合使用的

如不想让搜索引擎抓取网站/App_Data/目录下面的所有内容但要让搜索引擎抓取/App_Data/A/可以这样写

allow:/App_Data/A/

还有在写robots的时候【Disallow: /Setting/】 ":"号最好用英符 若用的是英符的话不要出现空格.

以上就是我的回答,欢迎交流,

你看了什么羞羞的东西了吧?

因为网站的robots.txt文件屏蔽了本站,所以本站无法抓取该网站

版权声明:倡导尊重与保护知识产权。未经许可,任何人不得复制、转载、或以其他方式使用本站《原创》内容,违者将追究其法律责任。本站文章内容,部分图片来源于网络,如有侵权,请联系我们修改或者删除处理。

编辑推荐

热门文章