• 长度能绕田径场一圈  加长版“复兴号”动车组将亮相京沪高铁 2019-02-25
  • 李慎明:奋力谱写社会主义现代化新征程壮丽篇章 2019-02-14
  • 走高端路线 北汽与麦格纳拟成立合资公司 2019-02-02
  • 推进新时代中国特色社会主义云南新实践——访云南省委书记陈豪 2019-02-02
  • 时速350公里自动驾驶!京张智能高铁大片来了 2018-12-08
  • 老旧厂房里的“文创梦”(人民眼·建设新型城市文化空间) 2018-11-27
  • 代理加盟 2019全新代理计划 赚钱+省钱双管齐下,独立平台,丰厚利润!

    您现在的位置: 11选五开奖结果走势图 > 站长学院 > SEO资讯 >

    北京2014:如何让网站robots.txt不泄露后台等安全秘密

    来源:未知 发布时间:2016-10-17热度: ℃我要评论
    搞过网站的朋友都知道robots.txt文件是用来限制搜索引擎不乱抓取,只抓取我们希望被收录的内容的。比如我们网站的后台就不希望被搜索抓取,那么robots文件需要这样写: User-agent: * Disallow...

    11选五开奖结果走势图 www.dwxy9.com

    搞过网站的朋友都知道robots.txt文件是用来限制搜索引擎不乱抓取,只抓取我们希望被收录的内容的。比如我们网站的后台就不希望被搜索抓取,那么robots文件需要这样写:

    User-agent: *

    Disallow: /admin/

    但是这样我们很容易发现了一个问题,如果有人要破解攻击的话,很容易就知道了后台,一下子就清楚了网站的结构。

    我们并不想这样!

    有没有办法让robots.txt既能限制搜索引擎,又不泄露后台地址和隐私目录呢?有!

    一、使用通配符(*):

    User-agent: *

    Disallow: /a*/

    这样的写法,禁止所有的搜索引擎抓取根目录下a开头的目录。当您的后台是admok165的话,还有谁会看到呢?

    二、只写目录前几个字母,不写全:

    User-agent: *

    Disallow: /ad

    这种的写法,是禁止所有的搜索引擎抓取根目录下ad开头的目录。

    最后说明一下,以上这两种方法,需要网站目录没有相同字母开头的,例如ad目录,如果有两个一样的,那需在robots.txt文件里再加上一个字母区别开来。

    本文地址://www.dwxy9.com/seo/753.html

    • 长度能绕田径场一圈  加长版“复兴号”动车组将亮相京沪高铁 2019-02-25
    • 李慎明:奋力谱写社会主义现代化新征程壮丽篇章 2019-02-14
    • 走高端路线 北汽与麦格纳拟成立合资公司 2019-02-02
    • 推进新时代中国特色社会主义云南新实践——访云南省委书记陈豪 2019-02-02
    • 时速350公里自动驾驶!京张智能高铁大片来了 2018-12-08
    • 老旧厂房里的“文创梦”(人民眼·建设新型城市文化空间) 2018-11-27