当人类与AI共生,谁来为意外负责?
武汉金融 2020-02-29 13:31:39

科技大佬马斯克曾口出“狂言”,表露他创建脑机接口(BCI)公司Neuralink的野心是“让人与AI共生,达到超级智能”。这看起来像是《攻壳机动队》和《黑客帝国》里才会出现的场景,但是BCI发展迅速,植入式设备现已能让瘫痪人士控制义肢,非植入式的意念鼠标、耳机也初具商业雏形。


智能手机的出现也不过短短二十几年,谁都不能保证现在的90后、00后就不会在有生之年,看到人与AI“喜结连理”。在这之前,通过BCI,让AI辅助人类生产生活,就好像结婚前的恋爱一样,是必经的磨合阶段。使用BCI与AI相连,你只需发出少量的指令,即可完成驾驶、工业操作等复杂任务,这可能是未来人的日常。


Illustration by Alex Castro / Th


但是,AI能否成为“贤内助”,还要先面临拷问:假如在人类使用BCI与AI合作中出现了事故,责任到底是该人类,还是AI(或其开发者)来负呢?


现有的人机交互界面中,人、机是物理上分离的,使用者和AI进行的指令操作可以通过空间、时间的间隔进行切割,因此区分人类、AI的失误,归责相对容易;但当引入了BCI这个第三者,贵圈就乱了。这一切还得从BCI的性质说起。


BCI是脑与外部设备的桥梁,大脑可以通过电极等装置与机器、计算机中的AI交流。外部设备除了接受大脑信号以外,也可以反向对大脑进行一定刺激。这可能会导致使用者模糊人机之间的界限,分不清通过BCI做出的行动究竟是源自自身意志,还是AI的影响。


在一项2016年的研究中,一名接受深度脑刺激(DBS)治疗抑郁症的患者就曾报告说他怀疑自己的行为方式受到了装置刺激的影响,而非完全出自个人意志。未来随着人机之间信号传输率上升、延迟性减少、控制和反馈的复杂性增加,这样的影响可能会加深。


在人类使用BCI与AI协同操作机器时,机器接收的指令可能来自于双方。当它执行了导致事故的错误行动时,不同于传统的人机交互,由于人机间的紧密联系,就可能难以区分导致该行动的指令来源。就算能追踪每一条信号的来源,问题仍然存在:使用BCI的方式本身就可能影响人类的大脑,不妨理解为在做决定的过程中,AI一直在给你吹枕边风。如果无法分离二者的主动性和行动,又该如何区分责任呢?这可能就需要借助哲学上的能动性(Agency)概念了。


主要/次要行动者理论


想象一下,你开着新款智能车过年回家,如果选择手动驾驶,掌握方向盘的你此时就是一名行动者(Agent)。你根据肉眼所见的道路状况,在脑中计划出接下来的行动,通过转动方向盘的方式使车辆朝目的地行驶,就是哲学上能动性的体现。


能动性是指某一实体对外界或内部刺激做出的反应。不同于简单做出行为,行动者的能动性表现出目的性和计划性。同理,假如你开车途中,突然很想跟家人在线视个频——道路千万条,安全第一条,此时就要选择无人驾驶模式,将对车辆的操控权交给AI。AI根据摄像头反馈的道路状况进行路线规划后,操纵车辆按目标路线行驶,也是其能动性的体现。


然而在使用BCI辅助驾驶时,能动性很难在二者之间界定。这是因为人和AI对车辆进行共同控制,无法通过直接观察车辆的动作,回溯二者发出的行动指令,并对其简单分离。假如在这种情况下出现交通事故,将很难进行责任界定。



为解决这一难题,慕尼黑大学医史研究所的研究员安德烈亚斯·沃肯斯坦(Andreas Wolkenstein)提出,不用由下至上追踪每一条指令的路径,而是由上至下,从“能做出的行动”入手,区分主要和次要行动者(primary and secondary agents)


两者均不要求具有自由意志,其区别仅在于具有不同程度的能力:(1)有能力起始、同意和终止行动;(2)在行动过程中,能够独立接管和调整复杂的行动步骤。主要行动者的行动自由度更大,有能力根据计划和感知到的环境因素做出判断,调整选择;而次要行动者只能在前者允许的范围内采取行动。


假设你驾驶着智能车去接女神下班,通过BCI授权车载AI按路线行驶。在你启动汽车后,由于AI只能按照你所想的路线,让汽车执行有限的转向、直行等动作,此时你是主要行动者,而AI是次要行动者。


现在你从后视镜发现情敌追上来了,怎么能让他超过你?于是你把车辆切换到手动驾驶,正想化身秋名山车神时,却被AI强行阻止了。原来它的系统里设置有安全限速程序,并且监测到了你想超速的危险想法。由于你只能做出AI允许的安全驾驶操作,任何超速的举动都会被AI禁止,此刻,AI升级为主要行动者,行动受限的你只能退居次要了。



考虑能动性可以帮助我们更好地分解行动。当一项最终的行动酿成事故时,就可以根据发生时刻的主要/次要行动者关系——包括这项行动的发起者是谁,谁又应当“考核”这个行动——来确定因果关系。这有助于将行动及其造成的后果与责任联系起来。


确定行动-行动后果后,就可以前进至后果-责任追究了。法律上要求追究责任的对象需要具有主体资格,同时还需要具有主观过错,包括故意和过失。虽然AI已经越来越多地展现出智能行为,但目前法律上仍未赋予其主体资格;同时其也还未达到具有自由意志的程度,故也不存在主观过错。


既然如此,当行动后果归于AI时,其最终产生的责任就只能由背后的自然人或法人来承担。那么,使用者从开发者处购买BCI装置,通过BCI与AI协作完成任务,使用中出现事故时,责任就将根据行动者-能动性-行动-直接后果-责任的对应,在消费者、BCI和AI的开发者中进行分配。


问题展望


但即使我们能够将行动与后果一一对应起来,事情的复杂程度仍在其之上。除了故意造成的外,责任还包括过失责任,即应当预见危害却没有预见,或是已预见但相信会避免。


那么,对于科技公司为代表的开发者来说,这种“应当预见”的危害包括哪些呢?同时还有使用者与AI之间的授权关系,例如使用者授权AI自动驾驶出了交通事故,使用者作为授权者,是否具有一定的监督责任?还是应当推定其对AI具有百分百的信任,从而可以减少责任?未来实际案例的复杂程度可能远超我们的想象。





即使上述问题都可以顺利解决,随着科技的发展,另一个问题不可避免:是否赋予强AI一定的主体资格,让它自身也能承担一部分责任?例如,2016年谷歌无人驾驶汽车与一辆大巴发生擦碰事故时,美国高速公路安全管理局(NHTSA)就认为控制汽车的AI可以被视为“司机”。现在进一步考虑何种智能程度的AI可以获得主体资格,又能获得什么程度的主体资格——唯可叹路漫漫其修远兮。


法律的发展固然有其滞后性,尤其是科技迅猛发展的今天。但尽可预见之力对科技风险提前做出的思量,大概就是人类向前方斩开荆棘之路时,那把达摩克里斯之剑的剑鞘吧。


本文由 武汉金融 发布,转载请注明。本文地址:http://www.wuhanews.cn/a/6296.html

我要评价0 个回复