网站建设

发现插件生成的robots.txt不能被谷歌和360识别

Jager · 1月19日 · 2014年 · 1736次已读

上次通过《正确的Win主机网站伪静态设置方法》重新设置了玛思阁的伪静态,当时由于使用Rewrite robots没有效果,就安装了一个生成robots.txt的插件,然后发现访问robots地址也有了指定的内容。几天却发现360全部被K,仅剩首页,而谷歌也不再收录新页面,一直以为是我的robots内容有误,于是搜来搜去,改了无数次robots内容。谷歌在【已拦截的网址】选项中总是显示【语法有误】,在sitemap提交界面也用英文提示“所有内容被robots拦截…”云云。但是百度却未受影响,开始收录玛思阁的文章了。。。

发现插件生成的robots.txt不能被谷歌和360识别

发现插件生成的robots.txt不能被谷歌和360识别

今天闲下来了,决定解决这个疑难杂症!于是我去复制了别人正常收录的robots内容,然后贴到robots插件中生成新的,结果发现在谷歌sitemap提交时依然提示全部被拦截!我勒个去,这明显说明问题出现在插件上了!但是使用插件生成了robots,百度站长平台检测又是没问题的,真是纳闷!

于是重新去查Rewrite规则相关资料,并通过UE编辑器重建httpd.ini文件,新增了内容:

RewriteRule /robots.txt /robots.txt [L]

删除robots插件之后,发现可以访问自定义的robots了!以前httpd里面也有这条规则,就是不生效!难道是编码错了么?

重新编写robots.txt上传后,再到谷歌提交sitemap,发现问题已解决:

发现插件生成的robots.txt不能被谷歌和360识别至于效果,可能要等几天再去查看下收录情况了!

下面贴一下我的httpd.ini和robots内容,以供参考:

httpd.ini

[ISAPI_Rewrite]  
# 3600 = 1 hour  
CacheClockRate 3600  
RepeatLimit 32  
RewriteCond Host: ^marsge.cn$  
RewriteRule (.*) https://zhang.ge$1 [I,R]  
# Protect httpd.ini and httpd.parse.errors files  
# from accessing through HTTP  
# wordpress weijingtai  
# For tag  
RewriteRule /tag/(.*)/page/(\d+)$ /index\.php\?tag=$1&paged=$2  
RewriteRule /tag/(.+)$ /index\.php\?tag=$1  
# For category  
RewriteRule /category/(.*)/page/(\d+)$ /index\.php\?category_name=$1&paged=$2  
RewriteRule /category/(.*) /index\.php\?category_name=$1  
# For sitemapxml  
RewriteRule /sitemap.xml /sitemap.xml [L]  
RewriteRule /favicon.ico /favicon.ico [L]  
RewriteRule /robots.txt /robots.txt [L]  
# For file-based wordpress content (i.e. theme), admin, etc.  
RewriteRule /wp-(.*) /wp-$1 [L]  
# For normal wordpress content, via index.php  
RewriteRule ^/$ /index.php [L]  
RewriteRule /(.*) /index.php/$1 [L]

robots.txt

User-Agent: *  
Allow: /*.html$  
Allow: /wp-content/uploads  
Disallow: /wp-admin  
Disallow: /wp-includes  
Disallow: /wp-content/  
Disallow: /blogmap  
Disallow: /myfeed  
Disallow: /liuyan  
Disallow: /readers  
Disallow: /tougao  
Disallow: /page  
Disallow: /*/page*  
Disallow: /*comments  
Disallow: /bulletin*  
Disallow: /feed  
Disallow: /date/*  
Disallow: /*trackback  
Disallow: /tag/*  
Disallow: /*?*  
Disallow: /*?  
Disallow: /*.css$  
Disallow: /*.js.$  
Disallow: /*.php$  
  
Sitemap: https://zhang.ge/sitemap.xml

robots内容暂时先这样了,以后观察收录情况再来修改。

另外,不知道各位有没有设置过更新服务【WP后台=>设置=>撰写】,在我搜索robots的时候看到了别人提供的博客更新通知列表,管它有没有用,先加上再说:

发现插件生成的robots.txt不能被谷歌和360识别

 

RPC更新列表如下:

http://blogsearch.google.com/ping/RPC2  
http://ping.baidu.com/ping/RPC2  
http://rpc.pingomatic.com/  
http://blogsearch.google.com/ping/RPC2  
http://api.my.yahoo.com/RPC2  
http://www.feedsky.com/api/RPC2  
http://api.my.yahoo.com/rss/ping  
http://ping.feedburner.com  
http://www.zhuaxia.com/rpc/server.php  
http://www.xianguo.com/xmlrpc/ping.php  
http://blog.iask.com/RPC2  
http://ping.blog.qikoo.com/rpc2.php  
http://rpc.pingomatic.com/  
http://rpc.technorati.com/rpc/ping  
http://rpc.pingomatic.com  
http://api.feedster.com/ping  
http://api.moreover.com/RPC2  
http://api.moreover.com/ping  
http://api.my.yahoo.com/RPC2  
http://api.my.yahoo.com/rss/ping  
http://www.blogdigger.com/RPC2  
http://www.blogshares.com/rpc.php  
http://www.blogsnow.com/ping  
http://www.blogstreet.com/xrbin/xmlrpc.cgi  
http://bulkfeeds.net/rpc  
http://www.newsisfree.com/xmlrpctest.php  
http://ping.blo.gs/  
http://ping.feedburner.com  
http://ping.syndic8.com/xmlrpc.php  
http://ping.weblogalot.com/rpc.php  
http://rpc.blogrolling.com/pinger/  
http://rpc.technorati.com/rpc/ping  
http://rpc.weblogs.com/RPC2  
http://www.azfeeds.com  
http://www.blogsearchengine.com  
http://www.blogtopsites.com  
http://www.feedbase.net  
http://www.feedsubmitter.com  
http://www.fybersearch.com  
http://www.plazoo.com  
http://www.readablog.com  
http://www.rssfeeds.com  
http://www.rssmad.com  
http://www.rss-spider.com  
http://blo.gs/ping.php  
http://www.pingerati.net  
http://www.pingmyblog.com  
http://geourl.org/ping  
http://ipings.com  
http://www.icerocket.com  
http://www.weblogalot.com/ping
4 条回应
  1. 爱知识 2014-2-12 · 22:44

    不是有个虚拟的文件吗,为什么还要插件生成?

    • Jager 2014-2-12 · 22:49

      虚拟的内容有限,达不到封堵的要求~

  2. 73花生博客 2014-2-22 · 13:14

    seo有太多奥秘,我还要遨游许久

    • Jager 2014-2-22 · 13:33

      在SEO方面我真的是非常小白。