您的位置:首页 >原创 >

微软、谷歌利用人工智能打击黑客

去年,微软公司的Azure安全团队在一家大型零售商的云计算使用中检测到可疑活动: 该公司的一位管理员通常是从纽约登录的,他试图从罗马尼亚获得入境。不,管理员不是在度假。一个黑客闯入了。

微软迅速通知了其客户,在入侵者走得太远之前,攻击就被挫败了。

将其与新一代人工智能软件相结合,以适应黑客不断发展的策略。微软,Alphabet Inc的Google,Amazon.com Inc和各种初创公司正在摆脱仅使用旨在应对特定类型入侵的较旧的 “基于规则” 技术,并部署机器学习算法,该算法处理有关登录,行为和先前攻击的大量数据,以找出并阻止黑客。

加州大学伯克利分校人工智能研究实验室教授Dawn Song说: “机器学习是一种非常强大的安全技术 -- 它是动态的,而基于规则的系统非常严格。”“改变它们是一个非常人工密集的过程,而机器学习是自动化的、动态的,你可以很容易地对其进行再培训。”

当然,黑客本身就是著名的适应性强,因此他们也可以利用机器学习来制造新的恶作剧并压倒新的防御措施。例如,他们可以弄清楚公司如何训练其系统并使用数据来逃避或破坏算法。大型云服务公司痛苦地意识到敌人是一个不断变化的目标,但认为新技术将有助于平衡向好人倾斜。

亚马逊首席信息安全官斯蒂芬·施密特 (Stephen Schmidt) 表示: “我们将看到在攻击周期早期识别威胁的能力得到提高,从而减少损害总量,并更快地将系统恢复到理想状态。”他承认,阻止所有入侵是不可能的,但他说,他的行业将 “在保护系统方面逐步变得更好,并使攻击者变得越来越困难。”

在机器学习之前,安全团队使用钝器工具。例如,如果总部的某人试图从不熟悉的语言环境登录,则他们将被禁止进入。或者阻止了带有 “伟哥” 一词各种拼写错误的垃圾邮件。这样的系统经常起作用。

但是他们也标记了许多合法用户-任何在度假期间被阻止使用信用卡的人都知道。Azure首席技术官Mark Russinovich表示,旨在保护客户免受虚假登录的Microsoft系统的误报率为2.8。这听起来可能不多,但被认为是不可接受的,因为微软的大客户可以产生数十亿次登录。

为了更好地弄清楚谁是合法的,谁不是,微软技术从使用它的每家公司的数据中学习,根据客户典型的在线行为和历史定制安全性。自推出这项服务以来,该公司已设法将假阳性率降至0.001%。这是罗马尼亚入侵者的系统。

培训这些安全算法属于像Ram Shankar Siva Kumar这样的人,他是微软经理,他的头衔是数据牛仔。西瓦·库马尔 (Siva Kumar) 六年前从卡内基·梅隆 (Carnegie Mellon) 加入微软,因为他的妹妹是西雅图医疗剧《灰色解剖学》的粉丝。他管理着一个由大约18名工程师组成的团队,他们开发机器学习算法,然后确保它们足够聪明和快速,能够阻止黑客,并与为微软云服务支付大笔费用的公司的软件系统无缝合作。

当算法检测到攻击时,Siva Kumar是接到电话的人之一。他在半夜被叫醒,却发现微软内部的黑客 “红队” 对此负有责任。(他们给他买了蛋糕来弥补失眠。

挑战令人生畏。仅每天就有数百万人登录Google的Gmail。“我们需要查看的数据量,以确保这是您还是冒名顶替者,其增长速度太大,以至于人类无法逐一编写规则,” 帮助防止攻击Google客户的产品管理总监Mark Risher说。

即使用户登录后,Google现在也会检查安全漏洞,这对于最初看起来像真正用户的黑客来说很有用。随着机器学习能够分析许多不同的数据,捕获未经授权的登录不再是一个是或否的问题。相反,谷歌在整个用户会话中监控行为的各个方面。最初看起来合法的人可能会在以后表现出他们不是他们所说的那样的迹象,让Google的软件在足够的时间内将其启动以防止进一步的损害。

除了使用机器学习来保护自己的网络和云服务之外,亚马逊和微软还向客户提供这项技术。亚马逊的Macie服务使用机器学习在来自Netflix等客户的公司信息中查找敏感数据,然后观察谁在访问它以及何时访问它,提醒公司注意可疑活动。亚马逊的GuardDuty监视客户的系统是否存在恶意或未经授权的活动。很多时候,该服务发现员工在做他们不应该做的事情 -- 比如在工作中挖掘比特币。

荷兰保险公司NN Group NV使用微软的高级威胁保护来管理其27,000工作人员和亲密合作伙伴的访问权限,同时将其他所有人拒之门外。今年早些时候,该公司工作场所服务经理Wilco Jansen向员工展示了Microsoft Office cloud软件中的一项新功能,该功能阻止了所谓的CxO垃圾邮件发送,即垃圾邮件发送者冒充高级管理人员,并指示接收者转移资金或共享个人信息。

演示后90分钟,安全运营中心打电话报告说,有人试图对NN集团的首席执行官进行精确攻击。“我们就像 '哦,这个功能可能已经阻止了这种情况的发生,'” 詹森说。“我们需要保持警惕,这些工具帮助我们看到我们无法手动遵循的事情。”

机器学习安全系统并非在所有情况下都能正常工作,尤其是当数据不足以训练它们时。研究人员和公司不断担心他们会被黑客利用。

例如,他们可以模仿用户的活动来挫败筛选典型行为的算法。否则,黑客可能会篡改用于训练算法的数据,并将其扭曲以达到自己的目的-所谓的中毒。意大利萨丁岛卡利亚里大学模式识别和应用实验室教授巴蒂斯塔·比吉奥 (Battista Biggio) 说,这就是为什么公司对算法标准保密并定期更改公式如此重要。

到目前为止,这些威胁在研究论文中比在现实生活中表现得更多。但是,正如Biggio去年在一篇论文中所写的那样,这种情况可能会改变: “安全是一场军备竞赛,机器学习和模式识别系统的安全也不例外。”

相关推荐

猜你喜欢

特别关注