可信人工智能白皮书
下图给出了可信人工智能的总体框架。
人工智能作为新一轮科技革命和产业变革的重要驱动力量,正在对经济发展、社会进步、国际政治经济格局等诸方面产生重大而深远的影响。2020年人工智能产业保持平稳增长,根据IDC测算,全球人工智能产业规模为1565亿美元,同比增长12%;根据中国信息通信研究院测算,我国产业规模达到约434亿美元(3031亿人民币),同比增长15%。人工智能在带来巨大机遇的同时,也蕴含着风险和挑战。习近平总书记高度重视人工智能治理工作,强调要“确保人工智能安全、可靠、可控”,倡议推动落实二十国集团人工智能原则,引领全球人工智能健康发展。
(一)人工智能技术风险引发信任危机
当前,人工智能应用的广度和深度不断拓展,正在成为信息基础设施的重要组成。但在此过程中,人工智能也不断暴露出一些风险隐患,主要体现在以下几个方面:
算法安全导致的应用风险。以深度学习为核心的人工智能技术存在脆弱和易受攻击的缺陷,使得人工智能系统的可靠性难以得到足够的信任。如优步(Uber)自动驾驶汽车未能及时识别路上行人而致其死亡;据美国《财富》杂志报道,一家人工智能公司利用3D面具和合成照片实施欺骗攻击,成功破解多国的人脸识别系统。
黑箱模型导致算法不透明。深度学习具备高度复杂性和不确定性,从而容易引发不确定性风险。由于人们无法直观地理解决策背后的原因,人工智能与传统行业的进一步融合受到阻碍。如美国德州某学校使用人工智能系统判断老师教学水平,由于系统不能解释争议性决策的判断依据,遭到该校教师的强烈抗议,最终导致系统下线。
数据歧视导致智能决策偏见。人工智能算法产生的结果会受到训练数据的影响,因此,如果训练数据中存在偏见歧视,算法会受到歧视数据的影响,并进一步固化数据中存在的偏见歧视,导致依托人工智能算法生成的智能决策形成偏见。如美国芝加哥法院使用的犯罪风险评估系统(COMPAS)被证明对黑人存在歧视。
系统决策复杂导致责任事故主体难以界定。人工智能的系统的自动化决策受众多因素影响,使得责任主体难以界定。对于自动驾驶、机器人等应用安全事故频发,法学专家表示,从现行法律上看人工智能本身还难以成为新的侵权责任主体,但人工智能的具体行为受程序控制,发生侵权时,到底是由所有者还是软件研发者担责,仍需进一步探讨。
数据滥用导致隐私泄露风险。生物识别信息的频繁使用使得个人隐私数据泄露的可能性增大,数据一旦丢失会造成极大的安全风险。如ZAO通过用户协议条款违规收集人脸数据,加重了人们对隐私数据滥用可能造成刷脸支付和身份认证相关安全风险的担忧。
(二)全球各界高度重视可信人工智能
面对人工智能引发的全球信任焦虑,发展可信人工智能已经成为全球共识。2019年6月,二十国集团(G20)提出“G20人工智能原则”,在其五项政府建议中明确提出的“促进公共和私人对人工智能研发的投资力度,以促进可信赖的人工智能(Trustworthy Artificial Intelligence)的创新;需创建一个策略环境,为部署值得信赖的人工智能系统开辟道路。”已经成为国际社会普遍认同的人工智能发展原则。
学术界首先推开了可信人工智能的大门。中国科学家何积丰院士于2017年11月香山科学会议第S36次学术研讨会首次在国内提出了可信人工智能的概念,即人工智能技术本身具备可信的品质。从学术研究角度,可信人工智能研究范畴包含了安全性、可解释、公平性、隐私保护等多方面内容。2020年可信人工智能研究论文数量相比2017年增长近5倍;美国国防高级研究计划局发布学术报告《可解释人工智能》并开展相关资助活动,致力于推动可信人工智能发展;顶级会议AAAI连续2年组织可解释人工智能(ExplainableAI)专题研讨,并一直保持火热的研究态势。同时,围绕着机器学习公平性、可问责和透明性的研究已经形成“FAccTML”(Fairness,Accountability and Transparency in Machine Learning)社区,在此基础上,ACM从18年开始连续4年发起学术会议ACMFAccT(ACM Conference on Fairness,Accountability,and Transparency)。
政府把增强用户信任、发展可信人工智能,放在其人工智能伦理和治理的核心位置。2020年欧盟的《人工智能白皮书》提出了人工智能“可信生态系统”,旨在落实欧洲人工智能监管框架,提出对高风险人工智能系统的强制性监管要求。同年12月,美国白宫公布了一项名为《促进政府使用可信人工智能》的行政命令,该命令为联邦机构使用人工智能制定指导方针,旨在促进公众接受并信任政府在决策中使用人工智能技术。
标准化组织布局可信人工智能标准。ISO/IECJTC1SC42专门设置了WG3可信人工智能工作组,目前已发布《信息技术人工智能人工智能的可信度概述》,正在推进《信息技术人工智能评估神经网络的鲁棒性》系列研究工作。国内成立全国信息技术标准化技术委员会人工智能分技术委员会(SAC/TC28/SC42),同步推进相关研究。2020年11月,全国信息安全标准化技术委员会TC260工作组发布了《网络安全标准实践指南—人工智能伦理道德规范指引》意见征求稿,针对可能产生的人工智能伦理道德问题,提出了安全开展人工智能相关活动的规范指引。
企业积极探索实践可信人工智能。IBMResearchAI于2018年开发多个人工智能可信工具,以评估测试人工智能产品在研发过程中的公平性、鲁棒性、可解释性、可问责性、价值一致性。这些工具已捐献给Linux Foundation并成为了开源项目。微软、谷歌、京东、腾讯、旷视等国内外企业也在积极开展相关实践工作,图2梳理了部分企业在可信人工智能方面的探索情况。
白皮书全文下载
来源:中国信息通信研究院和京东探索研究院
版权声明:本站原创和会员推荐转载文章,仅供学习交流使用,不会用于任何商业用途,转载本站文章请注明来源、原文链接和作者,否则产生的任何版权纠纷与本站无关,如果有文章侵犯到原作者的权益,请您与我们联系删除或者进行授权,联系邮箱:service@datagold.com.cn。