第二系列
时间:2024-12-17 13:14:02
消息,德国政府最近一劳永逸地问了一个汽车道德问题:无人驾驶汽车应当优先考虑到维护人类生命,即使不会因此损害动物和造成财产损失。周三,德国的联邦交通运输和数字基础设施部门回应,它将实行一个由专家小组制订的提示,细心研究无人驾驶技术。早在6月份,该部门的道德委员会就对今后计算机控制的车辆如何编程和设计,明确提出了一份报告。14名科学家和法律专家明确提出了大约20条无人驾驶不应遵循的规则。
现在,德国运输监管机构则允诺,要以某种方式强制执行。再行来想到有哪些规则:维护人类生命一直是首要任务。如果道路情况好转,并且很有可能再次发生事故,车辆必需解救人类以免于丧生或伤势,即使这意味著毁坏财产或损害其他生物。
如果发生意外是不可避免的,无人驾驶车无法自由选择去救回谁,例如,无法壮烈牺牲老人救回孩子。不应当就年龄,性别,种族,残疾等作出要求,所有人类生命都是公平的。
应当加装有一个监视系统,比如黑盒子,以记录造成事故再次发生的过程,这样可告诉当时是谁正在驾驶员,谁应当负责管理:方向盘后面的人,还是计算机。司机的身份也应当记录在案。
几乎有可能做准确地按责任定罪可,这也是适当的。司机不应能几乎掌控车辆搜集的个人信息,这将制止科技巨头用定位等数据来自定义广告。
最后,如果无人驾驶车辆发生意外,司机依然有可能承担责任,除非几乎是由系统故障引发的。毫无疑问,在无人驾驶等系统普及的时候,人与机器之间的相互作用不会产生新的道德问题。
制订一些指导方针十分必要。今年早些时候,德国通过了一项法律,拒绝所有无人驾驶车辆的方向盘后都必需有人,以便需要在车祸将再次发生时接管掌控。
德国这种作法给了“在将再次发生不可避免的事故时,汽车应当如何处置”这样的问题一个解决问题方法,而且还具备法律约束力。除了责任分配,这一提示还规定了诸如数据保护(无人驾驶汽车不会分解和存储大量数据,还包括人驾驶员的驾驶员不道德)和保险理赔这样的问题。
简单的伦理困局但现实从不所谓白即白,如果情况变为,将要有车祸再次发生,在撞向行人和避免后不会造成车上乘车受到损害,这两种情况该如何自由选择呢?这个问题和知名悖论之一“电车难题”一脉相承。(公众号:)曾报导,MIT还上线一个取名为“道德机器”的网站,网站的功能很非常简单,就是以问卷的形式面向大众搜集情境自由选择的数据。例如,面临不可避免的事故,自由选择撞到向人还是动物?自由选择罪犯还是普通人?自由选择几位小孩还是多位成年人?这些数以万计的自由选择,将通过后台被MIT的研究团队收集,为未来机器智能平台(如自动驾驶汽车)面对的伦理问题获取参照。即使是损害人类或损害动物这种的自由选择,提示中规定的也与实际情况差距太远。
比如很多司机在面对前方忽然经常出现的动物时,往往不会自由选择急刹或变向,而这种忽然的操作者很有可能给自己带给危险性。让无人驾驶汽车作出自由选择,前提是它告诉各个自由选择的后果,但又如何保证它就一定告诉呢?确实的困境往往各不相同实际情况,不会不受不能预测的不道德的影响,也很难被具体地标准化,也无法被编程,无法做伦理上是不容置疑的。曾报导,Google X实验室曾在公开发表专访中对此过这个问题,当时负责管理自动驾驶项目的首席工程师Andrew Chatham回应,“最少目前Google的所有路测活动中,还没遇上一个场景让我们自由选择是解救一个老人还是婴儿,但如果这一刻知道来临,那一般来说只是意味著几秒前你早已犯有一个更大的错误。”所以,他们的目标是通过优化汽车的刹车决策时间,最大限度制止这种情境的再次发生。
没任何技术是极致的,事故和辩论还将之后再次发生。对待有可能再次发生的问题,我们要维持对外开放和对话。因为无人驾驶是一件最重要的教化大众的事业,只有在确认有可能不存在的问题之后才能为之确认有可能的解决方案。
原创文章,予以许可禁令刊登。下文闻刊登须知。
本文来源:博鱼(boyu·中国)官方网站-www.jzfysn.com