微信登录
注册忘记密码
查看: 1267|回复: 0

何宝宏:对“AI可解释性”的解释

[复制链接]

签到天数: 6 天

[LV.2]偶尔看看I

发表于 2022-6-16 17:50:18 | 显示全部楼层 |阅读模式
本文核心假设:用混沌理论,可以解释AI的不可解释性。
有广义的解释和狭义的解释两种。
广义地,指提升AI算法、产品和服务做出决策时的透明度和公平性,以防算法偏见和打开算法黑箱,助力用户的信任和监管的合规性。这种理解方式多见于社会、法律和政府层面的各类文件,比如联合国UNESCO的《人工智能伦理建议书》等。
狭义地,指一个端到端的AI深度学习算法,改变其算法模型中的任意一个权重、结点或层数,可能都会对整个模型的表现产生难以预测的影响。即使是模型的设计者和训练者,也无法预先知道。因此,深度学习也被戏称为“调参学”、“玄学”,被说科学就连工程学都算不上,因此AI算法工程师也被戏称为“炼丹师”。
如果说广义“可解释性”,面向的是大众和监管机构的,已经超出了AI本身,针对的是算法黑箱。那么,狭义的可解释性,则面向的是学界和产业界,仅针对深度学习的“算法幽灵”。
牛顿力学将人类带到了一个确定性的世界,但量子力学又将人类又带到了不确定的概率世界。对应地,计算机和传统算法将数字世界带到了一个确定性的时代,而大数据和深度学习算法又将数字世界带到了“不可解释”的“概率”新阶段。




这让我想起了近30年来才兴起的混沌理论。量子力学质疑微观世界的物理因果律,混沌理论否定了包括宏观世界拉普拉斯(Laplace)式的决定型因果律。
这个理论可以用来解释AI的不可解释性。
机器只能处理“关联关系”而无法理解因果关系,更无法判断学习结果正确与否,工程师调参基本靠直觉,是否已经学习到中“真经”也是靠人的判断,因此学习结果正确只是概率问题,“碰巧”正确而已,因此稍微换下参数环境就又不可预期了。
混沌理论认为,许多自然现象即使可以化为单纯的数学公式,但是其行径却无法加以预测。
用于解释AI的不可解释性,机器学习被化简为单纯的算法模型,但深度学习的行径却无法加以预测。
深度学习初始条件或权重十分微小的变化和调整,经过多层网络、多结点的不断反馈和放大,对其未来状态会造成极其巨大的差别。
混沌的发现,提醒我们对因果关系需要再认识。过去认为,简单的原因必定产生简单的结果,复杂的结果必然有复杂的原因。
但混沌理论告诉AI,在一个复杂的反馈系统中,简单的参数调整也可以产生复杂的结果,仅仅知道确定性的算法模型,不等于能够预测AI的行为。

声明:以上内容来源于网络,如有侵权请联系我们(123@shiyan.com)删除!

发表回复

您需要登录后才可以回帖 登录 | 立即注册 微信登录

本版积分规则