主办单位:长城新媒体集团 邮箱:ccxmtfzpd@163.com

自动驾驶的“电车难题”:“牺牲”乘客,还是冲向行人

来源: 法治日报·法治周末  
2022-04-24 10:51:00
分享:

  近年来,人工智能越来越多地应用在我们的生活和工作中,并不断渗透到社会的方方面面。

  人脸识别技术为公民的出行提供了方便;机器翻译大大减少了语言转换所需的时间成本和人工成本;人工智能助力医学影像处理,提高医学检验的准确度和精细度等。人工智能因其高效率、高精准度、低人工成本等优点使人们对人工智能技术的应用和发展充满期待。

  但事物总是具有两面性,人工智能技术在飞速发展的同时也因为伦理意识的缺失给人类社会带来了技术代价。比如,隐私泄露的风险、人类被代替的可能性、人们对技术的过度依赖感,等等。

  2018年8月,北京大学博士生陈龙撰写的论文《“数字控制”下的劳动秩序——外卖骑手的劳动控制研究》带领人们洞察外卖骑手和算法之间的博弈。人们在同情外卖骑手被算法操控、速度极限一次次突破的同时,有时候也会担忧自己所从事的职业未来是否也会被算法管控,未来的竞争是否还会进一步内卷成为非常低效率的竞争。

  面对人工智能伦理的太多难题,我们要问的到底是什么造成了现在这种局面。也许,了解人工智能的伦理原则可以更好地理解这些问题,并明白我们可以做什么。

  人工智能开发过程中遵循的六大原则

  2018年,微软公司组织撰写的《未来计算》(The Future Computed)一书中提出人工智能开发过程中遵循的六大原则:公平、可靠和安全、隐私和保障、包容、透明、责任。

  公平是指任何人,包括不同区域、不同等级的所有人在AI面前是平等的,不应该有人因为意识形态或种族等被歧视。可靠和安全性指人工智能不会作出对人类生存安全不利的决策。隐私和保障性是指人工智能因为涉及数据,所以要确保个人隐私和数据安全。包容性的意思是人工智能必须考虑到包容性的道德原则,要考虑到世界上各种功能障碍的人群。透明度是指人工智能算法的学习和决策所依赖的海量数据本身具有不确定性,这使得人工智能透明度的缺失。责任意指人工智能系统采取了某个行动,做了某个决策,就必须为自己带来的结果负责。

  当前我们面临的所有人工智能的伦理问题都或多或少地违背了上述六大原则。当一项技术违背了最初的原则,那么技术进一步发展所带来的后果很可能会与最初的目的大相径庭,甚至得不偿失。人工智能技术也不例外,如果人工智能技术的成果不能满足六大伦理原则,使用者的使用体验将会大打折扣,甚至会影响使用者的正常生活。

  智能推荐预测现实与无人驾驶汽车的“电车难题”

  如今,购物App已经完全融入了人们的生活,成为人们日常购物中一个重要的选择。每个用户首页的智能推荐都是根据用户的喜好和需要精准推送的,这是依托大数据及其强大的分析能力所达成的成就。但除此以外,这些购物App还有其他意想不到的功能。

  有大学生亲历过这样的事情:她们在寝室偶然提到的一件商品,在她们并未搜索或者购买的情形下,App居然进行了推荐。她们一度认为手机上App在进行监听。向软件开发人员打听此事后,得到的解释是,以如今的技术条件,通过手机的麦克风在一个背景噪声非常多的环境中准确提取到人们日常谈话中提到的一件产品,并且推送出去,这件事确实可以做到。只是做这件事需要高昂的资金投入,是非常不经济的,商品推荐更有可能是根据用户其他的购物习惯和行为特征,推导出用户可能需要的商品。

  既然App没有偷听,它是如何预测出未曾搜索的商品呢?这可以从谷歌的商业模式中得到启发。

  2002年之前,谷歌收集个人数据是用来改进搜索结果、添加新的服务,系统会根据搜索的结果推荐广告。但从2002年开始,谷歌开始使用新的商业模式。谷歌发现收集的个人数据可以直接和个人用户匹配,以描述用户的喜好、兴趣等信息,于是谷歌大量收集个人行为的特征信息,通过人工智能的强大算力,更好地推测用户需要什么。

  当科技公司有了提取数据和预测现实的能力后,也就有了更好地干预现实的机会。App可以通过一些细微的动作(比如在新闻推送中插入特定的词语)干预用户的情绪,甚至大规模改变用户的行为。App的智能推荐甚至是预测推荐都需要大量的个人信息,这需要企业时刻记录、分析用户的行为。在算法如此强大的商业语境中,用户自己都还没有发现的需求,企业就能够计算出来并将相关商品推荐给用户了。

  哲学上有一个著名的讨论叫做“电车难题”。其大致内容是一个疯子把5个无辜的人绑在电车轨道上,一辆失控的电车朝他们驶来,即将碾压到他们。幸运的是,你可以拉一个拉杆,让电车开到另一条轨道上,然而那个疯子在另一个电车轨道上也绑了一个人。考虑以上状况,你是否应拉这个拉杆?

  很多人认为,讨论电车难题没有意义,因为现实中压根就没有“牺牲一个人一定能拯救5个人”这种事情。但自动驾驶让这个问题有成为现实的可能。

  某公司负责自动驾驶开发的经理曾经接受采访,如果有一个特别紧急的情形,车内的乘客或者路上的行人之间需要选择一方,自动驾驶汽车要选择保护谁?该产品经理说:作为一家车企,肯定要优先保护车上的乘客,而不是路上的行人。

  这个回答引起了轩然大波。人们突然发现在自动驾驶这个技术语境中,路上的行人发生交通事故的可能性会增大,行人的生命安全得不到保障。这让上述汽车公司不得不进行声明,表示这只是产品经理个人的观点,而并非公司立场。但自动驾驶汽车的“电车难题”究竟应该怎么解决?直到现在,也没有确定的答案。

  如何加强人工智能伦理因素的导向作用

  智能推荐预测现实、无人驾驶汽车的“电车难题”、人类失业等众多人工智能伦理难题中,究竟什么是这些问题的本质?中国人民大学法学副教授郭锐认为,出现人工智能伦理问题是因为我们遭遇了创造秩序危机,也就是人被自己创造的技术所反噬的可能性。

  他还指出,创造秩序危机包含着两大难题,一是终极准则难题,二是因果联系难题。对于前者,比如说对于刚刚提到的自动驾驶问题,人类都难以很好地解决,那在人工智能技术语境下就更难解决了。对于后者,推荐算法的初心也许不是损害用户的隐私,但这一结果的出现确实是由算法引起的。

  人工智能一个如此强大的工具如何服务于人类而不伤害人类,这是我们遇到所有人工智能创造秩序危机的一个疑问。问题的关键是:“人工智能未能达到人类的智能,却被赋予了为人做决策的责任。”这是人工智能伦理问题出现共同的场景。

  在人工智能技术飞速发展、相关伦理问题逐渐受到高度关注的今天,加强人工智能伦理因素在技术应用的正确导向作用更加紧迫和重要。以下几个方面的工作是非常必要的。

  首先是完善法律法规和监管制度。近年来,社会上针对人工智能有许多伦理上的争议,对此,早在2017年,国务院印发的《新一代人工智能发展规划》即提出,要“制定促进人工智能发展的法律法规和伦理规范;开展人工智能行为科学和伦理等问题研究;制定人工智能产品研发设计人员的道德规范和行为守则”。2021年,国家新一代人工智能治理专业委员会成立,不断颁布人工智能伦理规范等。刚性的法律规定为人工智能伦理治理提供了顶层设计指导,柔性的规范指导则提出更细致地治理要求,刚柔并济两方并行确保相关治理措施能够实施落地。

  其次,应通过自查或监察对伦理风险进行评估。2020年1月20日,上海市颁布的《上海市推进科技创新中心建设条例》中第五十六条指出,上海将推动构建科技伦理治理体系,建立伦理风险评估和伦理审查机制。对于评估系统,政府应该注意算法的公平性、数据的隐私性,等等。在最理想化的伦理风险评估体系中,人工智能技术都会得出相应的风险程度。除了外界对技术进行监察,技术公司还可以进行风险自查。

  再次,应不断校准价值偏向的人工智能技术。当发现技术的伦理风险之后,所有与之相关的人,包括用户、技术人员、企业和政府都可以及时介入来校准价值有偏差的技术。由于用户可能缺少相关算法伦理知识,想要提升用户对人工智能系统的整体理解,企业应该让关于算法伦理的决策更加透明,使用户可以真正参与到人工智能伦理校准这一过程中来。人工智能的伦理治理绝不是靠政府、企业的力量就可以完美做到的,还需要所有人对人工智能技术风险有更深入的认识,确保各个群体都可以成为风险控制中的一环。

  AI技术的快速发展,我们在享受它所带来的便利的同时,也要及时发现可能的伦理风险,并对相关技术进行价值校准。面对种种伦理风险,我们应该更加明晰人工智能伦理界限、伦理风险,确保各方力量介入,及时矫正价值存在偏向的人工智能技术。(作者 王延川 尹仕晗)

关键词:自动驾驶,人工智能,无人驾驶汽车责任编辑:郑可欣