如何防止搜索引擎搜索pdf?

问题描述 投票:0回答:3

我在WordPress中建立了一个网站,并设置了用户登录只对会员开放。所以任何人只要有该用户名和密码,登录后就可以查看该页面。其他人只需要继续浏览网站即可。所以我把这个工作做好了,所有的工作都做好了,但是客户输入了一些信息,比如PDF文件,让用户在该页面上查看,这个客户在网上搜索PDF文件所包含的名称,它不应该对公众开放,而应该只对那些已经登录的人开放。有没有什么办法,我可以设置在私人的PDF,是不被搜索引擎搜索。如果我可以把它设置为不只是没有人可以查看它的链接,只有那些谁是登录。

wordpress indexing search-engine
3个回答
2
投票

解决方案1:密码保护

用HTTP基本认证保护网站是阻止其他人访问网站的最好方法。但是,当你有演示观众测试时,这是不可能的所有时间。

解决办法2.谷歌提供的另一个解决办法是使用Robots.txt文件。Robots.txt

Google提供的另一个解决方案是使用Robots.txt文件来告诉Bots不要抓取或在结果中列出网页。但这并不总是一个解决方案。谷歌的Matt Cuts已经证实,如果谷歌认为相关,谷歌可能会包含来自这些网站的页面。

User-agent: *
Disallow: /

添加你的文件名来禁止

解决方法 3 : 使用.htaccess RewriteCond。

因此,解决方案是阻止谷歌和其他类似的机器人访问您的网站。为此,在你的htaccess中加入以下代码。

RewriteEngine on
RewriteCond %{HTTP_USER_AGENT} AltaVista [OR]
RewriteCond %{HTTP_USER_AGENT} Googlebot [OR]
RewriteCond %{HTTP_USER_AGENT} msnbot [OR]
RewriteCond %{HTTP_USER_AGENT} Slurp
RewriteRule ^.*$ "http\:\/\/htmlremix\.com" [R=301,L]

将最后一行的URL改为你的主站,这样如果有人链接到你的被屏蔽的网站,你的网站就能获得SEO排名。

解决方案4:请求谷歌删除

http:/support.google.comwebmastersbinanswer.py?hl=en&answer=164734&from=61062&rd=1。

解决方案5:其他一些工具,你可能喜欢通过

http:/www.debianhelp.co.ukhtaccessweb.htm


1
投票

使用robots.txt文件来告诉爬虫不要查看你的pdf文件,就像这样。

User Agent: *
Disallow: /*.pdf$

此处


0
投票

在robots.txt文件中加入

用户代理。 禁止: .pdf$

一段时间后,根据搜索引擎更新-索引您的网站的速度。请访问 https:/pdflookup.com。 输入您的PDF标题进行检查。您的PDF将不会显示在搜索结果中。

© www.soinside.com 2019 - 2024. All rights reserved.