普华永道:“负责任”和“可解释”的人工智能,助力企业应对技术变革风险| 观点与方案

佚名 来自: 普华永道 2021-06-03

普华永道:“负责任”和“可解释”的人工智能,助力企业应对技术变革风险

今天所使用的人工智能系统多种多样,如数字助理、聊天机器人、机器学习、专家系统等等。人工智能技术应用概括分为四种型态:自动型、辅助型、增强型和自主型。

2016年3月,由谷歌DeepMind开发的智能化围棋软件AlphaGo1以四胜一败的成绩击败韩国职业九段棋士李世乭,同时获韩国棋院授予“名誉九段”的称誉。这一场人类与人工智能的对弈举世瞩目,开创了新一代人工智能的崛起和应用。

人工智能并不是一个新的技术概念,英国作家塞缪尔·巴特勒在1863年发布的文章《Darwin among the Machines》提出了机器具备不断进化的可能;美国科幻小说的三大代表人物之一艾萨克·艾西莫夫在1942年的作品中更提出了“机器人学三大法则”,对人工智能伦理学的发展影响深远。

过去20年里,信息科技实现了跨越式发展。无线网络、智能设备、社交媒体、云计算、大数据等,为人工智能的研发提供了关键的要素:数据。在数字化转型和大数据推动下,人工智能已成为当下时代的决定性技术:许多行业的应用,使得人工智能技术融入到人们的日常生活中,如扫脸支付、网络游戏、金融服务、以及网上购物等。在众多领域,包括生产制造、医疗健康、科研发展、网络安全、媒体娱乐等,人工智能正在优化和彻底改变传统的商业运作模式。

作为“新基建”其中的一项核心技术,人工智能是一个庞大和多元化的技术领域,可以简单分为六个主要方面,包括机器学习(Machine Learning)、深度学习(Deep Learning)、自然语言处理(Natural Language Processing)、机器人(Robotics)、专家系统(Expert Systems)、模糊逻辑(Fuzzy Logic)。这些技术领域不仅可以单独应用,也可以组合其他技术以实现强大的功能。随着人类和机器更紧密地合作,以及创新从实验室走进主流,人工智能为消费者、企业和整个社会提供了变革的可能性。

智能化系统能够感知其环境、思考、学习,并根据其所感知的内容和设定的目标而采取行动。

今天所使用的人工智能系统多种多样,如数字助理、聊天机器人、机器学习、专家系统等等。人工智能技术应用概括分为四种型态:自动型、辅助型、增强型和自主型。

640 (2).jpg

人工智能的应用影响深远,尤其是其数据分析能力,已经超越人类所能处理的水平。人工智能更具备根据每一组新信息“采取相应行动”的能力,赋予用户前所未有的速度和精确度,用以实现个性化体验、定制产品和服务、确定增长机会等战略性举措。当下,人工智能已经被许多企业所用,例如利用计算模型对数据进行深度分析,及采用机器学习算法提供建议和驱动决策等,获得了传统技术无法实现的战略性优势。未来,人工智能的使用将会更加普遍,对数据的需求也会相应增长,但随之而来的风险也不容忽视。

人工智能的风险呈现在两个层面:

第一是应用层面,简单而言,即能否信任和依赖人工智能算法所给出的结果。目前,当员工处理数据造成错误时,可以相对快速地被发现和改正。但如果一个智能化模型错误地纳入了新数据,并将错误的规律作为人工智能决策分析的一部分,那么由此产生的结果可能会产生重大而广泛的影响,且由于是系统性偏差,这些影响可能不会马上被注意到,因此这些偏差的影响不断叠加,可能发现时或已无法弥补。英国由于新冠疫情,曾决定取消2020年的公开考试,并采用一套“智能化程序“给学生进行评价,可由于数据分析的算法存在偏差,导致对来自较差背景的学生造成歧视,最终该程序被弃用,改为由学校的老师进行评价2。

第二个层面,是人工智能技术的开发和使用导致的道德和伦理风险。四年前,一项新的人工智能应用面世,结合了深度学习(Deep Learning)和伪造(Fake),成为如今众人熟知的“深伪技术”(Deepfake)。这项应用是人工智能赋能的图像合成技术,可以将已有的图像或影片叠加至目标图像或影片上,只需要获取仿造对象的人物影音素材,就能制造出可以假乱真的影片。此项技术如果应用在媒体娱乐领域,可让制作人拥有更大的创新能力,但同样的技术也能帮助传播虚假信息,对社会稳定造成极大隐患34。人脸识别也是一个具争议性的人工智能应用,在全球多个国家和地区,大众担忧人脸识别技术的应用可能侵犯隐私,造成偏见和歧视等,因此反对此项技术的使用,甚至立法禁止使用相关技术567。

联合国教科文组织在2019年3月21日发布《关于制定人工智能伦理标准机制可取性的相关技术和法律问题的初步研究报告》8,其中提到人工智能所带来的潜在问题:“就像许多信息技术一样,人工智能突出了表达自由、隐私和监视、数据所有权、偏见和歧视、信息和信任的操纵、权力关系以及与能源消耗相关的环境影响等问题。”

放眼全球,中国在人工智能领域的能力处于世界第一梯队的领先地位,因此也在一直关注人工智能治理方面的挑战。2019年2月,在新一代人工智能发展规划推进办公室的工作会议上,科技部王志刚部长宣布成立“新一代人工智能治理专业委员会”9,旨在进一步加强人工智能相关法律、伦理、标准和社会问题研究,并深入参与人工智能相关治理的国际交流合作。2019年6月,新一代人工智能治理专业委员会发布我国首套有关人工智能治理的框架和行动指南:《新一代人工智能治理原则——发展负责任的人工智能》10。

尽管众多企业已采用人工智能技术,但只有小部分企业开始思考人工智能对其业务可能带来的挑战。因此,许多人工智能项目很可能并未建立适当的治理机制,用以减轻潜在风险,解决内部和外部利益相关方的安全问题等。传统的信息系统治理是一个好的基础,但并不足够,加上人工智能可在运行中实现自我提升,有别于一般的电脑软件。所以,一个能覆盖人工智能应用生命周期、实现持续监督以及保障合规的治理体系必不可少。

数字化转型的推动下,人工智能研发和应用的步伐将会进一步加快,因此有必要掌握保障人工智能利益实现的关键领域,包括获取和使用数据、模型和算法、输出和决策支持、机器学习的使用等多个方面。信息系统整体控制,人工智能治理架构的搭建,以及企业自身的变革管理等也是必要的配套元素。



 

咨询公司专栏

预约咨询 | 免费咨询

联系我们

电话

181-2111-8831

邮件

tzl@chnmc.com

其它

随访:电话预约

关注我们公众号

微信公众号 chnmc-com,微信扫码关注
管理咨询APP

点击安装管理咨询APP,可以了解最新管理咨询 >微信长按图标,选择识别图中二维码,即可下载安装!

相关服务

我们的客户