怎样制止网页被搜寻引擎索引
当前依然有人仅运用robots.txt文件来阻止他们的网站在Google或Bing中创立索引。效果,他们的网站依然涌现在搜寻引擎中。你晓得为何会涌现这样的效果吗?由于robots.txt现实上不会施行后者,即便它的确阻止了对网页创立索引。让我在这篇文章中解释怎样制止网页被搜寻引擎索引?
索引
将网站或页面的内容下载到搜寻引擎的服务器,然后将其增加到其“索引”的历程。
排行/列表/显示
在搜寻效果页面(又称SERP)中显示网站。
因而,只管最常见的历程是从索引到搜寻引擎排行,一个网站没有被搜寻就不会有排行。要是链接指向页面、域铭或任何地方,则Google会跟踪该链接。要是该域上的robots.txt阻止了搜寻引擎对某一页面的索引,但要是它可以通过其他页面被搜寻引擎发明,甚至被索引,它仍有可能会涌现在搜寻引擎中。
要是您真的要完全制止搜寻引擎对网页创立索引,那么将请求增加到要阻止的特定页面上。有下列两种办法:
1. 增加meta robots标签来制止页面索引
制止您的页面被搜寻引擎索引最有效的方式是运用遨游器元标志。将下面的标志增加到您的页面中:
- <meta name="robots" content="noindex,nofollow">
2. 增加X-Robots-Tag HTTP标头
为了使将meta robots标志增加到网站的每个页面的历程变得更加容易,搜寻引擎提出了X-Robots-Tag HTTP标头。这样,您就可以指定一个HTTP标头,X-Robots-Tag并像meta robots标签值同样设置该值。要是您的站点在Apache上运转,并且启用了mod_headers(平常是启用),则可以将下列单行增加到.htaccess文件中:
- Header set X-Robots-Tag "noindex, nofollow"
这将制止您的页面被搜寻引擎索引,且永远不会显示在搜寻效果中。
怎样制止网页被搜寻引擎索引?本文供给的两种解决办法,您学会了吗?