高德人工智能安全:这个项目旨在在关键系统受到


高德注册登录【主管QQ554-258】微软和非营利研究机构MITRE携手加速网络安全的下一章:保护基于机器学习的、面临新的对抗性威胁的应用程序。

这两家机构与学术机构以及IBM和英伟达(Nvidia)等大型科技公司合作,发布了一款名为对抗性机器学习威胁矩阵(Adversarial Machine Learning Threat Matrix)的新开源工具。该框架旨在组织和目录已知技术的攻击机器学习系统,以通知安全分析师,并提供他们的战略,以检测,响应和补救对威胁。

该矩阵根据与威胁的各个方面相关的标准对攻击进行分类,如执行和排除,以及初始访问和影响。为了管理这个框架,微软和MITRE的团队分析了现实世界对现有应用程序的攻击,他们审查了这些攻击对AI系统的有效性。

“如果你只是试图想象潜在的挑战和弱点的宇宙,你将永远不会到达任何地方,”米克尔·罗德里格斯(Mikel Rodriguez)说,他负责监督米特雷的决策科学研究项目。“相反,有了这个威胁矩阵,安全分析人员将能够研究基于真实事件的威胁模型,通过机器学习模拟对手的行为。”

随着人工智能系统越来越多地支撑着我们的日常生活,这个工具似乎是适时的。从金融到医疗保健,再到国防和关键基础设施,机器学习的应用在过去几年里成倍增长。但MITRE的研究人员认为,在加速开发新算法的同时,各组织往往未能仔细检查其系统的安全性。

调查日益表明,高德注册登录行业内部缺乏对保护人工智能系统免受敌对威胁重要性的理解。事实上,谷歌、亚马逊(Amazon)、微软(Microsoft)和特斯拉(Tesla)等公司在过去三年里都曾看到自己的机器学习系统被这样或那样的方式欺骗过。

MITRE高级副总裁查尔斯·克兰西(Charles Clancy)说:“无论是仅仅是系统故障,还是因为恶意行为者导致系统以意想不到的方式运行,人工智能都可能造成重大破坏。”“一些人担心,我们所依赖的系统(比如关键基础设施)将受到攻击,由于人工智能的恶化,它们会毫无希望地陷入瘫痪。”

因此,算法容易出错,特别是当它们受到坏人恶意干预的影响时。在另一项研究中,一组研究人员最近对未来15年人工智能可能出现的犯罪应用进行了排名;其中一个高度令人担忧的前景是,当算法被用于公共安全或金融交易等关键应用时,人工智能系统构成的攻击机会。

正如MITRE和微软的研究人员指出的那样,攻击可以有许多不同的形式和形式。威胁的范围很广,从贴在标牌上的贴纸,让自动驾驶汽车上的自动系统做出错误的决定,到更复杂的网络安全方法,都有专门的名称,比如逃税、数据中毒、特洛伊宁(trojaning)或backdooring。

因此,将有效威胁机器学习应用程序的所有已知方法的各个方面集中在一个矩阵中,对帮助安全专家防止未来对其系统的攻击大有帮助。

罗德里格斯说:“通过为不同的漏洞提供一种通用语言或分类,高德开户威胁矩阵将促进组织间更好的沟通和协作。”

MITRE的研究人员希望从道德黑客那里收集到更多的信息,这要归功于一种行之有效的网络安全方法,即red team。其想法是让友善的安全专家团队在恶意参与者之前找到破解漏洞的方法,将其输入现有的攻击数据库,并扩展对可能威胁的全面了解。

微软和MITRE都有自己的红队,他们已经展示了一些攻击,这些攻击被用来输入母体。例如,它们包括对机器学习模型的规避攻击,这种攻击可以修改输入数据来诱导有针对性的误分类。


上一篇
高德CyberCX为Decipher Works和CloudTen支付了2500万澳元
上一篇
高德钓鱼团体正在通过伪造的选民登记表格收集
  • 版权声明:内容来自互联网不代表本站观点,2020-10-24发表于 高德注册栏目。
  • 转载请注明: 高德人工智能安全:这个项目旨在在关键系统受到| 高德注册 +复制链接