使搜索引擎蜘蛛无法访问一个页面

时间:2015-08-11 作者:drake035

为了防止爬行器访问页面,只需在标记中添加即可。WordPress中有没有办法实现这一点,特别是对于一个页面,通过一些插件,甚至从本机仪表板?

3 个回复
最合适的回答,由SO网友:Kevin Fodness 整理而成

Yoast SEO 设置为每页为您执行此操作。如果您还没有使用Yoast,我强烈建议您使用它-有针对SEO、索引、重定向等的高级控件。

SO网友:5ervant - techintel.github.io

首先,在该位置创建一个“example.com/robots.txt”文件

User-agent: *
Disallow: /the-page/that-you-want-to-disallow.html
第三,就这样“/您想要禁止的页面.html”现在搜索引擎爬行器无法访问,恶意软件机器人除外。

有关更多信息,请访问The Web Robots Pages.

SO网友:Youleean

一个简单的解决方案是添加tagcategory, 并将其命名为“nofollow”。然后你可以使用conditional tag 在主题的功能中。php和add

<META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW">
到的输出wp_head 行动

例如:

if(is_tag(\'nofollow\')){
    add_action(\'wp_head\', \'wp_head_nofollow\');
}

function wp_head_nofollow(){
    echo \'<META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW">\' ;
}
代码没有经过测试,但我想你已经明白了要点。

更优雅的解决方案是在帖子/页面中添加一个元框,并带有一个复选框来打开和关闭“阻止爬行器”,并执行与条件标记相同的操作。

结束

相关推荐