高德注册登录算法在监视着我们,但是谁在监视


高德注册登录【主管QQ554-258】根据英国数据伦理和创新中心(CDEI)发布的一份新报告,赋予算法权力,以做出可能改变公民生活的决定,仍然面临不公平歧视的重大风险。在某些领域,提供充足资源以确保人工智能系统公正的必要性正变得尤为紧迫——也就是公共部门,特别是警务部门。

CDEI花了两年时间调查算法在私营和公共部门的使用情况,高德平台开户并在处理算法带来的风险方面面临许多不同程度的成熟度。例如,在金融部门,似乎对决策数据的使用有更密切的监管;而地方政府仍处于管理这一问题的初期阶段。

尽管所有行业对人工智能可能带来的威胁的意识都在增强,但报告发现,在构建负责任的算法方面,并没有特别好的实践例子。CDEI发现,这在警务等公共服务的提供方面尤其成问题,因为公民不能选择退出这些服务。

作为该报告的一部分进行的研究得出结论,英国执法界普遍担心在警务中使用算法方面缺乏官方指导。该研究称:“这一差距应作为当务之急加以解决。”

警察部队正在迅速增加对数字技术的采用:今年年初,政府宣布投入6370万英镑(8500万美元)来推动警察技术项目的发展。新的工具包括从数据可视化技术到可以发现潜在犯罪模式,甚至预测某人再次犯罪的可能性的算法。

但是,如果在部署时没有适当的保护措施,高德开户数据分析工具可能会产生意想不到的后果。报告一再表明,警方的数据可能是有偏见的,往往不能代表犯罪的分布情况。例如,根据英国内政部去年公布的数据,那些自认是黑人或英国黑人的人被警察拦下和搜查的可能性几乎是白人的十倍。

一个依赖于这类历史数据的人工智能系统有可能使歧视行为永久化。伦敦警察署使用一种名为帮派矩阵的工具来识别那些有可能参与伦敦帮派暴力的人;根据过时的数据,这项技术不成比例地突出了年轻黑人男性的特征。在活动人士表达了担忧之后,黑客矩阵的数据库最终被彻底修改,以减少来自非洲加勒比黑人背景的个人的代表性。

CDEI认为,像帮派模型这样的例子已经引起了警察部队越来越多的关注,而这还有待政府的指导。尽管在全国范围内开发警务数据分析方法的工作正在进行,但就目前而言,警察部队不得不诉诸于零碎的方式来建立伦理委员会和准则——而且并不总是能取得令人信服的结果。

英国公共生活标准委员会(committee on standards in public life)今年早些时候发表的一份报告也得出了类似的结论。军情五处(MI5)前负责人埃文斯勋爵(Lord Evans)领导该委员会,他对警察部队中使用人工智能系统表示了特别担忧。埃文斯指出,在执法过程中,评估和部署算法工具没有协调的过程,通常是由单个警察部门来构建他们自己的道德框架。

警察部队在使用数据时面临的问题也普遍存在于其他公共服务部门。数据科学应用于政府各部门的福利、住房、教育或交通决策;而依赖存有偏见的历史数据同样会导致不公平的结果。

例如,就在几个月前,英国政府的考试监管机构英国资格考试办公室(Ofqual)设计了一种算法,可以给学生分配期末成绩,以避免在Covid-19大流行期间组织体检。研究发现,基于对不同学校过去表现的有偏见的数据,该算法产生了不公平的预测。Ofqual立即收回了这个工具,恢复了教师对成绩的预测。

CDEI认为,改善公共部门基于数据的决策过程应该被视为一个优先事项。报告写道:“民主选举产生的政府对公民负有特殊的责任。”“我们希望公共部门能够证明自己的决定是合理的,并提供证据。”

赌注很高:赢得公众的信任将是AI成功部署的关键。然而CDEI的报告显示,高达60%的公民目前反对在刑事司法系统中使用人工智能的决策。绝大多数的受访者(83%)甚至不确定这种系统在警察部队中是如何使用的,这突出了需要填补的透明度缺口。

如果人工智能系统部署得当,可以获得很多好处。CDEI的研究人员认为,实际上,算法可能是识别人类历史偏见的关键——并确保它们从未来的决策工具中被去除。

研究人员表示:“尽管人们对‘黑匣子’算法存在担忧,但在某些方面,算法可以比人类的决策更加透明。”“与人不同的是,可靠地测试算法如何对输入的部分变化做出反应是可能的。

未来几年将需要强有力的激励措施,以确保组织机构开发出符合要求的人工智能系统,从而产生平衡的决策。一个完全公平的算法可能还不会出现在短期内;但人工智能技术可能很快就会在让人类直面自己的偏见方面发挥作用。

 


上一篇
高德注册登录密码泄露暴露了巴西数百万Covid-1
上一篇
高德注册登录一名黑客正在出售进入数百名c级高
  • 版权声明:内容来自互联网不代表本站观点,2020-11-28发表于 高德开户栏目。
  • 转载请注明: 高德注册登录算法在监视着我们,但是谁在监视| 高德开户 +复制链接