限制没有限制的国外搜索引擎怎么办

)时首先会检查该网站中是否存在/robots.txt这个文件,如果 Spider找到这个文件它就会根据这个文件的内容,来确定它访问权限的范围

3. 我在robots.txt中设置了禁止收录我网站的内容,为何還出现在百度搜索结果中

如果其他网站链接了您robots.txt文件中设置的禁止收录的网页,那么这些网页仍然可能会出现在百度的搜索结果中但您的网页上的内容不会被抓取、建入索引和显示,百度搜索结果中展示的仅是其他网站对您相关网页的描述

4. 禁止没有限制的国外搜索引擎跟踪网页的链接,而只对网页建索引

5. 禁止没有限制的国外搜索引擎在搜索结果中显示网页快照而只对网页建索引

6. 我想禁止百度图片搜索收录某些图片,该如何设置

禁止Baiduspider抓取网站上所有图片、禁止或允许Baiduspider抓取网站上的某种特定格式的图片文件可以通过设置robots实现,请参考“robots.txt文件用法举例”中的例10、11、12

该项的值用于描述没有限制的国外搜索引擎robot的名字。在"robots.txt"文件中如果有多条User-agent记录说明有多个robot会受 到"robots.txt"的限制,对该文件来说至少要有一条User-agent记录。如果该项的值设为*则对任何robot均有效,

/hibaidu/com.html一个网站的所有URL默认是Allow的,所以Allow通常与Disallow搭配使用实现允許访问一部分网页同时禁止访问其它所有URL的功能。

注:我们会严格遵守robots的相关协议请注意区分您不想被抓取或收录的目录的大小写,我們会对robots中所写的文件和您不想被抓取和收录的目录做精确匹配否则robots协议无法生效。          




例1. 禁止所有没有限制的国外搜索引擎访问网站的任何蔀分
在这个例子中该网站有三个目录对没有限制的国外搜索引擎的访问做了限制,即robot不会访问这三个目录需要注意的是对每一个目录必须分开声明,而不能写成 "Disallow: /cgi-bin/ /tmp/"
例7. 允许访问特定目录中的部分url
例10. 禁止访问网站中所有的动态页面
仅允许抓取网页,禁止抓取任何图片
允许抓取网页和gif格式图片,不允许抓取其他格式图片

robots.txt文件的更具体设置,请参看以下链接:

我要回帖

更多关于 没有限制的国外搜索引擎 的文章

 

随机推荐