为WordPress多站点网站添加robots.txt文件方法
一般WordPress搭建的多站点网站都会使用相同的根目录,但是为了SEO优化考虑,需要给不同的站点添加不同的robots协议,那么讲robots.txt文件放置在网站根目录是不行的,今天就分享为WordPress多站点网站添加robots.txt文件方法,需要通过robots_txt钩子生成虚似的robots.txt文件URL(类似于伪静态)实现。
新安装wordpress站点,没有禁止蜘蛛爬行,启用伪静态后,访问地址http://*****/robots.txt,会返回下面的结果:
User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php
这是WordPress默认的robots.txt内容。如果想添加更多的规则,可以在当前使用的主题中添加下面的代码:
如果想添加更多的规则,就在当前使用的主题中添加下面的代码:
function robots_mod( $output, $public ) {
$output .= “Disallow: /feedn”;
$output .= “Disallow: /trackbackn”;
return $output;
}
add_filter( ‘robots_txt’, ‘robots_mod’, 10, 2 );
上面代码返回的结果是:
User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php
Disallow:/feed
Disallow: /trackback
如果不想要默认的robots.txt内容,则可以这样写
function robots_mod( $output, $public ) {
$output = “User-agent: *n”;
$output .= “Disallow: /feedn”;
$output .= “Disallow: /trackbackn”;
return $output;
}
add_filter( ‘robots_txt’, ‘robots_mod’, 10, 2 );
2. 分享目的仅供大家学习和交流,请不要用于商业用途!
3. 如果你也有好源码或者教程,可以到用户中心发布投稿,分享有金币奖励和额外收入!
4. 本站提供的源码、模板、插件等等其他资源,都不包含技术服务 请大家谅解!
5. 如有链接无法下载、失效或广告,请联系站长,可领回失去的金币,并额外有奖!
6. 如遇到加密压缩包,默认解压密码为"www.zyfx8.cn",如遇到无法解压的请联系管理员!
本站部分文章、资源来自互联网,版权归原作者及网站所有,如果侵犯了您的权利,请及时联系我站删除。免责声明
资源分享吧 » 为WordPress多站点网站添加robots.txt文件方法
常见问题FAQ
- 免费下载或者VIP会员专享资源能否直接商用?
- 本站所有资源版权均属于原作者所有,这里所提供资源均只能用于参考学习用,请勿直接商用。若由于商用引起版权纠纷,一切责任均由使用者承担。更多说明请参考 VIP介绍。
- 织梦模板使用说明
- 你下载的织梦模板并不包括DedeCMS使用授权,根据DedeCMS授权协议,除个人非盈利站点外,均需购买DedeCMS商业使用授权。购买地址: http://www.desdev.cn/service-dedecms.html