高德注册登录人权委员会出版《认识和防止人工


高德注册登录【主管QQ554-258】一篇新的技术论文展示了企业如何识别他们的人工智能(AI)技术是否存在偏见。该报告还对人工智能系统的开发商提出了建议,以确保其公平、准确并符合人权要求。

该论文解决了算法偏差的问题,由澳大利亚人权委员会、梯度研究所、消费者政策研究中心、Choice和联邦科学与工业研究组织(CSIRO)的Data61共同开发。

人权专员爱德华•桑托(Edward Santow)在前言中称,算法偏见是“一种与在决策中使用人工智能相关的错误,往往会导致不公平”。

他继续说,当这种情况发生时,可能会造成伤害,因此,高德平台开户当人工智能系统被开发和用于做出重要决定时,应该考虑到人权问题。

“人工智能有望做出更好、更聪明的决策,但它也可能造成真正的伤害。”除非我们完全解决算法偏见的风险,否则人工智能的巨大前景将是空洞的。

在论文的发展过程中,五个场景被用来突出算法偏差的潜在属性。例如,一种设想的历史数据已经过时,不再代表当前的世界设想,这表明存在偏见。

在另一种情况下,该论文发现,当标签的质量在不同群体之间存在差异时,标签偏差就会出现,这些群体被保护的属性,如年龄、残疾、种族、性别或性别。

本文提出了五种缓解算法偏差的一般方法。这些包括获取更多“适当”的数据,比如代表性不足的队列数据,以帮助减少当前数据与人工智能系统数据集之间的不平等;由于过度简化的人工智能模型而增加模型的复杂性会降低准确性;修改人工智能系统,以便考虑到社会不平等,以及其他可能导致算法偏见的不准确或问题等。

该报告还建议,高德开户找到一个更公平的措施作为目标,也有助于减轻算法的偏差。例如,它指出,利用某人的信用历史来预测他们的信用价值,可能对有过往记录的老年人有用,但对第一次申请贷款的年轻人来说,这可能是一个劣势。

同时,该文件强调了如果采取这些减轻措施可能造成的损失和考虑因素。该论文称,通过为人工智能系统获取更多数据,这可能是一项资源密集型的工作,在使用额外数据之前,很难预测它的好处,而且它可能需要额外的成本。

此外,对任何数据进行预处理都可能隐藏受保护的属性,降低人工智能系统的准确性。

Gradient Institute首席执行官比尔•辛普森-杨(Bill Simpson-Young)表示:“好消息是,人工智能系统中的算法偏差可以被识别出来,并采取措施解决问题。”

“负责任的使用人工智能必须在系统开发时开始,当然在它被用于真实场景之前。”我们希望这篇论文能为开发者和企业提供技术上的见解,帮助他们的算法更合乎道德地运行。”

这篇论文的发布继续了澳大利亚关于人工智能和伦理的讨论。今年早些时候,澳大利亚工业、科学、能源和资源部门委托发布了一份44页的报告,阐述了澳大利亚的人工智能标准应该是什么样的。

当时,桑托建议澳大利亚可以通过寻找一个合适的位置来加入全球对话。

“我们应该考虑我们的国家优势是什么,以及我们如何利用这些优势,”他说。

“我们确实没有像美国和中国那样有那么多的人在人工智能领域工作,所以我们需要思考我们的利基是什么,然后非常非常努力地前进。”我们的利基可以是以一种符合我们国家标准的负责任的方式开发人工智能。”

在此之前,CSIRO的Data61发表了一篇人工智能讨论论文,而联邦政府则宣布了其人工智能伦理原则。两者都旨在制定不仅对企业实用,而且帮助公民建立对人工智能系统的信任的指导方针。


上一篇
高德注册登录Nutanix超过第一季度预期,缩小亏损
上一篇
高德注册登录星空链接:来自天空的互联网的细节
  • 版权声明:内容来自互联网不代表本站观点,2020-11-24发表于 高德开户栏目。
  • 转载请注明: 高德注册登录人权委员会出版《认识和防止人工| 高德开户 +复制链接