简 介
随着网络安全防护技术及安全防护产品的应用越来越成熟,很多常规的入侵手段越来越难。在这种情况下,更多的攻击者将攻击手法转向了社会工程学攻击,同时利用社会工程学的攻击手段也日趋成熟,技术含量也越来越高。在实施社会工程学攻击之前必须掌握一定的心理学、人际关系、行为学等知识和技能,以便搜集和掌握实施社会工程学攻击行为所需要的资料和信息等。
信息收集就是攻击者常用的社会工程学攻击手段之一。信息收集是通过各种手段去获取攻击目标的一些相关信息。例如:攻击对象的身份职务、兴趣爱好等信息;目标机构的业务流程、机构内部常用的一些术语、行话等。
3.1搜索引擎高级搜索语法
社会工程学攻击者在实施攻击的过程中,会用到各种各样可以利用的工具和手段,比如:利用一个他们知道的电话号码打一通诱使你上当的电话;制作一个含攻击代码的崭新U盘扔在你必经的路上;制作一个以假乱真的页面建议你打开等等。下面介绍的就是社会工程学攻击者实施攻击中,常常会用到的一些辅助工具。
3.1.1搜索引擎
对于搜索引擎相信大家都不会陌生,每天日常生活中都会使用百度等大型搜索引擎站点对相关信息进行检索,搜索引擎的主要作用也正是将与用户搜索相匹配的信息反馈给用户。然而,搜索引擎在给网民提供便利的同时,也成为了攻击者最常利用的信息收集工具。
1.百度高级搜索语法
百度高级搜索语法是采用特定的关键词,把查询内容范围限定在更精确的范围内,使用户更方便找到需要的结果。
1)常用百度高级搜索语法
以下是比较常用的百度高级搜索语法介绍和举例。
+(加号)
功能:加号是搜索同时包含两个关键字的内容。相当于空格和and。
格式:关键词1+关键词2
例如:安全技术+渗透,是搜索同时包含“安全技术”和“渗透”两个关键词的页面。
-(减号)
功能:减号是让某一关键字不要出现在搜索结果里面。
格式:关键词1(空格)-关键词2
例如:安全技术 -渗透,是搜索“安全技术”这个关键词但不包含“渗透”的页面。
搜索结果,如图3.1所示。
图3.1 减号搜索举例
“”(双引号)
功能:把关键字打上双引号(中英文均可)后把引号内容作为整体来搜索。
格式:“关键词”
例如:“防火墙安全技术”
在百度中输入“防火墙安全技术”作为一个整体内容来搜索,当我们需要精确搜索“防火墙安全技术”的时候,此方法非常实用。如图3.2所示。
图3.2 双引号搜索举例
如果不加双引号,会将包含“防火墙”、“安全”等关键词的内容全部返回,这样就会增加很多无用信息,干扰我们的搜索结果。如图3.3所示。
图3.3 未加引号搜索举例
or(或)
功能:用或的方法搜索两个或更多关键字。
格式:“关键词1or关键词2”
例如:“防火墙or安全技术”
在百度中输入“防火墙or安全技术”,单独包含“防火墙”、“安全技术”的页面,以及这两个关键词都包含的页面,都会搜索出来。
Intitle
功能:将查询内容范围限定在网页标题中,搜索要找的页面。也常与其他关键词结合使用。
格式:关键词1(空格) intitle:关键词2
例如:字典 intitle:社会工程学
在百度中输入“字典 intitle:社会工程学”。搜索网页标题中包含“社会工程学”,正文中包含“字典”关键字的所有页面。
Intext
功能:将查询内容范围限定在正文中,搜索要找的页面。
格式:intext:关键词
例如:intext:社会工程学
在百度中输入“intext:社会工程学”。搜索网页正文中包含”社会工程学”关键字的所有页面。
filetype
功能:搜索包含关键词的特定格式文档页面,支持文档格式有pdf、doc,xls,ppt,rtf,all(所有上面的文档格式)。通常与其他关键词结合使用。
格式:filetype:文档格式(空格)关键词2
例如:在百度中输入“filetype:doc 社会工程学”,搜索“社会工程学”相关的doc文档页面。如图:3.4所示。
图3.4 filetype搜索举例
inurl
功能:在URL地址中搜索关键词。
格式:inurl:关键词
例如:inurl:admin.jsp
在百度中输入“inurl:admin.jsp”,将返回很多“admin.jsp”结尾的URL页面。
site
功能:搜索指定网站的页面内容,也常与其他关键词结合使用。
格式:site:网站域名(空格)关键词
例如:site:www.****.com 网络工程师
在百度中输入“site:www..com 网络工程师”,在www..com 网站相关页面,搜索包含“网络工程师”相关的页面。
以上是常用的百度高级搜索语法介绍,目前主流的搜索引擎都支持类似的高级搜索功能,这些功能的灵活应用,可以给我们搜索查找信息带来很大的便利。但如同“Google hacking”一样,如果应用在社会工程学攻击者手中,也可以成为他们进行信息收集的有利工具。
2)搜索引擎安全防范方法
从安全的角度来说,搜索引擎是个双刃剑,既能方便用户查找信息,帮助企业增加曝光度,也有被别有用心者利用进行信息收集的风险。对于防止搜索引擎过度信息采集方面,通常使用robots.txt文件来进行安全限制。
Robots协议(也称为爬虫协议、机器人协议等)的全称是“网络爬虫排除标准”(Robots Exclusion Protocol),它是是国际互联网界通行的道德规范,基于以下原则建立:
搜索技术应服务于人类,同时尊重信息提供者的意愿,并维护其隐私权;
网站有义务保护其使用者的个人信息和隐私不被侵犯。
网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。当一个搜索机器人访问一个网站时会先看该站是否存在robots.txt这个文件,如果存在这个文件,搜索机器人将不再对该文件中所限制的目录下的信息进行采集,这样可以防范网站上的一些敏感目录被搜索引擎抓取到,如图3.5所示。
图3.5 robots.txt文件内容示例
因此,保护网站安全,防范搜索引擎导致的信息泄露,网站的开发者需要通过robots.txt文件来限制搜索引擎信息抓取范围。同时还要确保robots.txt中不包含敏感信息,将不希望对外公布的目录或文件使用权限控制等方法,使得匿名用户无法访问这些信息,降低因搜索引擎导致信息泄露的风险。