人工智能向“上”生长,可信AI渐行渐近
机器之心原创机器之心编辑部
一位刚刚上路的新手驾驶员,如何长大为「老司机」?显然,Ta必须经过足够时间和里程的驾驶练习,才能够熟练、从容地应对各种可能出现的路况和紧急事件。所以尽管自动驾驶系统也会在投入使用之前历经大量的真实道路测试,但就算是科学文明相当普及的今天,仍有很多人依旧做不到将开车这件事「放心地交给AI」,毕竟摆在人们眼前的却是道不尽的争议和说不明的驾驶事故,而事故的发生可能是技术,算法,道路,数据,传输,天气,驾驶员等多重主客观因素影响造成的,权责划分十分困难。
具体从算法层面看,由于驾驶场景天然对安全性有更高要求,这就需要自动驾驶算法具备可解释性;但目前自动驾驶系统的决策规划模块大多基于训练数据,由于现有数据集普遍缺少中间数据或状态数据,导致算法在极端情况下难以及时做出完全正确的决策。“算法还没有达到完全「可信」的程度,这在一定程度上为事故发生后的责任认定带来了难题。”中国信息通信研究院华东分院人工智能与大数据事业部主任陈俊琰分析称。
中国信息通信研究院华东分院人工智能与大数据事业部主任陈俊琰
由于无法通过算法对已发生事故中的权责边界进行解释,人类只能尝试从自动驾驶行为中得到合理化的解释,但深度学习模型的黑箱特性让这一过程又变得困难重重。京东探索研究院算法科学家何凤翔认为,目前阶段的很多AI算法依旧处于一种黑盒模型的基础上,如果不太了解算法背后的机制,就不太清楚风险从哪里来,也无法识别风险机制和风险尺度,更谈不上很好地管理风险。在这样的情况下,AI算法还不能应用在关键领域中,比如人们抱有很高期待的医疗诊断、自动驾驶等以及更多「人命关天」的行业。“下一步,我们需要深刻地理解算法的行为,然后才能够在这一基础上设计出可以被信赖的算法。”
京东探索研究院算法科学家何凤翔
此外令人忧心的是,无论是地址、路线这些基础的位置信息,还是音乐、聊天内容等个性化信息,一旦其中的重要数据被窃取、篡改或滥用,会产生严重的法律责任事件,损害数据主体的财产安全甚至生命安全。怎样对如此庞大的数据进行隐私保护、防止数据滥用?也是自动驾驶落地过程中必须要解决的问题。
可信AI,数字时代的安全卫士
今天,人工智能技术已经成为如水电一般的资源,融入到人们日常生活的方方面面,小到购物推荐、医疗教育,大到生物信息识别以及工业智能制造,机遇良多。然而,当我们沉浸在AI技术带来的生活便捷高效、行业迅猛发展的同时,因其“黑盒模式”引发的技术不可控、数据安全、隐私泄露等问题却时有发生。
AI值得信任吗?如何建立起人与系统的互信?衡量标尺又是什么?如何更好将AI技术为人所用……相关问题逐渐成为学界、产业界、政府界,甚至是普罗大众近年来十分关心的话题。
可信AI的概念最早出现在2017年11月的香山科学会议上,由中国科学家何积丰院士首次在国内提出,近年来伴随人工智能的飞速发展,人们对可信AI的认知越来越明晰甚至深入。
2019年10月,京东集团首次在乌镇世界互联网大会上提出京东践行「可信赖AI」的六大维度。2021年7月,中国信通院与京东探索研究院联合撰写的国内首本《可信人工智能白皮书》正式发布,首次系统提出了可信人工智能全景框架,全面阐述可信人工智能的特征要素。“我们和白皮书的思路一脉相承,从四个方面进行可信AI方面的研究,即稳定性、可解释性、隐私保护、公平性。”京东探索研究院算法科学家何凤翔表示。
纵观全球,可信AI技术的发展都有相似路径可循:从基础理论出发,从理论问题、理论结果深入,设计出可以被信赖的AI算法,最后尝试将这些AI算法应用到产品中去完成技术落地,目前可信AI作为京东探索研究院锁定的三大研究方向之一也是如此。“工作之中我们发现这四个方面彼此之间是有一些关联的,也是希望在长期的探索中能够提出一些统一的理论去一致描述可信AI,而不是简单机械分开去研究它的四个方面。”
相比于国内,国外企业在可信AI技术的具体布局上起步要早一些。以隐私保护为例,2006年,Dwork等人提出了差分隐私模型,一经出现便迅速取代了之前的隐私模型,成为隐私研究的核心。目前已有公司将差分隐私作为标准大规模部署,对于用户数据采取不收集的处理方式,对于一些不得不收集的内容则采用差分隐私算法将收集过后的数据进行匿名、扰乱,从而让数据无法定位到具体的用户。
毋庸置疑,可信AI涉及的方向是繁多的,每个方向都会延伸出很多具体任务,实现可信AI绝非「一日之功」。在京东探索研究院算法科学家何凤翔看来,能否通过研究AI背后的运行机制建立起理论基础,把不同方向的理论统一起来,这是一个比较困难的问题,当然这也是很核心的问题。这个问题如果解决了的话,后续的算法研究可能就会得到很大帮助。
「两条腿走路」,推动可信AI标准化
可信AI的标准化工作要走在落地实践的前头,这是业界的另一大共识。实现上述目标的关键在于,要学会「两条腿走路」,除了政策指导,也需要行业自律。
从国际上来看,一方面是用指南及法案的形式对AI的可信度进行规范,比如欧盟委员会人工智能高级专家组(AI HLEG)发布的《可信人工智能伦理指南草案》和《可信赖人工智能道德准则》。今年,《欧盟人工智能法案》也已正式发布。
另一方面是在标准研制上面进行发力。例如美国国家标准技术研究所(NIST)在今年6月发布了《关于识别和管理人工智能歧视的标准提案》,随后在7月又提出《人工智能风险管理框架》。
相比之下,国内的标准化制定遵循了同样的思路,包括信通院在内的标准化机构,以及像京东这样的企业界代表,都在努力推进行业倡议、标准研制。
2020年7月,五部委发布《国家新一代人工智能标准体系建设指南》;在今年的世界人工智能大会可信AI论坛上,《促进可信人工智能发展倡议》正式发布;同时,中国人工智能产业发展联盟人工智能治理与可信委员会也宣告成立。
“我们也希望可以从自身的研究成果出发,协助标准的制定;有了标准之后,一些研究成果也能更好地被量化。比如提供一些量化指标去度量算法的可信赖程度,去设定一些阈值作为技术标准。”在何凤翔看来,这相当于“先做出一把制定好的尺子,再去做测量。”
可信AI未来之路,将指向何方?
在可信AI技术实践过程中,企业必然扮演中坚力量的角色,能够让可信AI更好落地并走得更远。尤其在数据筛选、算法优化、模型设计这些环节中,要找到隐私泄露、算法偏见、内容审核等问题的最优解,都要依靠企业的不断摸索。
今年8月,华控清交承建的光大银行企业级多方安全计算平台上线就是一个企业助力可信AI落地的直观案例。这是金融行业首个正式投产的企业级数据流通基础设施平台,标志着多方安全计算真正打通了「产学研用」最后一环,向大规模应用迈上关键台阶。
据悉多方安全计算能够同时确保输入的隐私性和计算的正确性,实现数据的「可用不可见,可控可计量」。“在无可信第三方的前提下,多方安全计算通过数学理论不仅可以保证参与计算的各方成员输入信息不暴露,还能够获得准确的运算结果。在此基础上,可通过计算合约机制控制数据用途用量,结合区块链存证有效防止数据滥用。在实现数据隐私保护以及用途用量有效控制的前提下,AI在可解释性、公平性等层面的研究及落地将会有更多机会。”华控清交标准负责人、战略总监王云河表示。
华控清交标准负责人、战略总监王云河
“可信AI涉及面非常广,涉及到的任务更是非常繁杂。在技术在落地方面,我们认为可以建立一个开放的体系,由不同厂商合作制定出统一的标准,最终成为一个完整的生态体系。”何凤翔建议。据了解,目前京东探索研究院的隐私计算、多方计算、联邦学习等技术已经用在对外技术输出中,针对可解释性、稳定性的相关技术也进行了最前沿的探索,相关产品也会尽快落地。
自学术界首次提出到各界积极研究,再到产业界开始落地实践,可信AI内涵也在逐步地丰富和完善,然而可信AI的落地不单单需要先进技术的支撑,更需要达成理念上的共识。未来发展可信人工智能,还需各界携手才能共建安全、公平、可控的未来智能世界。
声明:以上内容来源于网络,如有侵权请联系我们(123@shiyan.com)删除! 转发了
页:
[1]