个人信息泄露安全解决办法案例
个人信息泄露安全解决办法案例
个人信息泄露的主要途径就是通过网络,如果是在论坛、Blog以及静态网站发布的文章或者消息中包含个人隐私信息,用户将这些包含个人隐私的页面删除后,从表面上来看,似乎解决了个人隐私信息泄露问题,但是由于搜索引擎搜索网页过程中会将页面放入缓存,这个缓存也就是通常说的"网页快照",网页快照就是搜索引擎在收录网页时,都会做一个备份,大多是文本的,保存了这个网页的主要文字内容,这样当这个网页被删除或连接失效时,用户可以使用网页快照来查看这个网页的主要内容,由于这个快照以文本内容为主,所以会加快访问速度。
在个人信息信息泄露中,一个最大的安全隐患就是搜索引擎抓取的网页快照。一般情况下,搜索引擎都不会自动删除网页快照,只要其被搜索引擎收录,其信息就能访问。因此要解决网站信息泄露问题,其中一个关键的问题就是要删除网页快照。本案例就个人隐私信息泄露安全解决办法进行了探讨,下面是具体的解决办法。
删除网页快照,以删除百度搜索引擎为例。删除搜索引擎中的网页快照。有的搜索引擎提供了网页快照删除功能,例如Google,用户需要在网站管理工具中进行注册,然后将一个标识
插入到网站首页后,用户就可以管理网页快照。百度没有提供自动删除网页快照功能,只能通过发邮件或者电话联系的方式进行。可以直接给Webmaster@baidu发求助删除网页快照的邮件。
说明
直接跟百度联系是一种较好的办法,也可以通过百度自己提供的百度对话平台进行沟通,其访问地址为:utility.baidu/quality/quality_form.php?word=%2E
删除程序文件或者更改链接。通过研究帮助文件,发现最为快捷和方便的方法是更改网站泄露文件的名称或者直接删除信息泄露文件或者更改链接地址,不过该方法需要一个月左右才会生效。
删除Google搜索引擎中的网页快照。删除Google搜索引擎中的网页快照相对就容易多了,而且在Google的帮助文件中有关于如何删除网页快照的具体方法。具体进入方式为:Google首页->"Google大全"->"搜索帮助",其中有很多关于删除网页快照的解决方法,详细地址为:le/support/bin/answer.py?answer=61808&hl=zh_CN
说明
Google搜索引擎比较严密,它注意很多细节。
使用Google网站管理员工具。Google提供的网站管理员工具使用起来非常方便,不过使用它来管理需要两个前置条件:首先需要拥有Google账号或者Gmail账号,其次需要在需要删除网页快照的网站首页的HTML代码中的第一个head处添加Google帮好友助力 泄露个人信息吗的验证标识。验证成功后即可进行网站网页快照的管理,如图2-102所示,在该工具中网站管理员工具中还可以对rotbots文件、网站地图、网站链接等进行管理。
(点击查看大图)图2-102 Google网站管理员工具
说明
Google网站管理员工具可以有选择地从Google搜索结果中删除内容,删除在六个月内有效。可以删除以下内容:
单个网址、网页、图片或其他文件,删除过期或被拦截的网页、图片和其他文档,使其不再出现在 Google 搜索结果中。
网站上的目录及所有子目录,删除网站上指定目录内的所有文件和子目录,使其不再出现在Google 搜索结果中。
整个网站,从 Google 搜索结果中删除网站。
Google 搜索结果的缓存复本,对已经过期或你已添加无存档元标记的网页,删除其缓存复本和网页说明。
网站管理员工具地址:
le/accounts/ServiceLogin?service=sitemaps&continue=www.
google%2Fwebmasters%2Ftools%2Fsiteoverview%3Fhl%3Dzh_CN%3Fhl%3Dzh_CN&nui=1&hl=zh-CN
总之在Google管理员工具中最为方便的就是管理员可以自由选择删除网站内容,可以删除整个网站,可以是网站链接,也可以是文字,如图2-103所示,可以依据其相应的提示进行操作,非常方便。
(点击查看大图)图2-103 删除快照
编写自己的
是一个纯文本文件,在这个文件中网站管理者可以声明该网站中不想被robots访问的部分,或者指定搜索引擎只收录指定的内容。当一个搜索机器人(有的叫搜索蜘蛛)访问一个站点时,它会首先检查该站点根目录下是否存在,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,那么搜索机器人就沿着链接抓取。另外,必须放置在一个站点的根目录下,而且文件名必须全部小写。编写很简单,网上有很多关于这方面的资料,我就不赘述了。只列举几个常用的例子供大家使用。
1)禁止所有搜索引擎访问网站的任何部分。
User-agent: *
Disallow: /
2)只允许访问searchhistory目录
User-agent: *
Allow: /searchhistory/
Disallow: /
3)禁止所有搜索引擎访问网站的010203目录
User-agent: *
Disallow: /01/
Disallow: /02/
Disallow: /03/
4)禁止BadBot搜索引擎的访问
User-agent: BadBot
Disallow: /
5)只允Crawler搜索引擎的访问
User-agent: Crawler
Disallow:
User-agent: *
Disallow: /
加强程序安全。先前,很多程序员都没有考虑到搜索引擎会自动抓取网站中的网页,因此对于安全方面没有做访问限制;一个好的方法就是对网页进行授权访问,例如只有登录以后的用户可以访问某一些网络资源,而对于普通用户则禁止访问。以asp编程语言为例,可以新建一个checklogin.asp的网页文件,然后在其中输入:
<%
if Session("MySystem_LoginUser")="" then
direct  " Login.asp"
end if
%>
在网站需要进行限制访问的网页程序中包含该网页即可。

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。