010-84476011
环球医学>> 医学新闻>> 政策法规>>正文内容
政策法规

机器人下“病危通知书” 简直心若三九寒

来源:环球医学编写    时间:2019年03月14日    点击数:    5星

人工智能(AI)高速发展,用机器人替代医护人员已经不是科幻电影中的情节。沃森机器人、达芬奇机器人、机器人护士、智能物流机器人、配药机器人等,都已经投入到全球各大医院进行工作。不过,近日美国加州一家医院的机器人却引发了患者家属的愤怒。这个机器人到底做了什么?

本月初,一位长期受慢性肺病折磨的78岁病人住进了加利福尼亚州弗里蒙特一家医院急诊科。经过初步诊断后,一名机器人在重症监护室对病人进行了随访。机器人告诉病人,他将无法返回家中接受临终关怀,但是他可以在医院使用吗啡来减轻痛苦。这次诊断意味着,机器人给病人下了“病危通知书”。入院4天后,病人死亡。

对此,病人的家属不敢相信也无法接受。愤怒的他们在媒体上公开了此事。

医院承认,这件事的发生是偶然且“极其不正常”的。在此案例中,家属质疑的并不是机器人的能力——事实上机器人对病情的判断是准确的。那么,问题究竟出在哪里呢?

大家还记得科幻电影《我,机器人》的开头吗?两辆车落水遇险,机器人需要做一个选择,是先救警察还是孩子?最终机器人救了警察,因为它计算出警察有45%的生还机会,而孩子只有11%的生还机会。获救的警察从此对机器人有了偏见。在这个场景中,机器人的能力或者判断似乎也并没有错,但是当遇到同样的问题时,人类已经在千百年的发展中形成了自己的价值观:应该先救老弱妇幼。

反观上述案例,病人家属认为,类似“病人不行了”这样的话应该是由一个活生生的人来告诉他们,而非冰冷的机器。家属并未质疑机器人的诊断能力,而是从价值观上,他们不能接受“冰冷”的机器人给病人判了“死刑”。

医学一直紧跟科学的发展脚步,AI在医疗领域的应用还有很长的路要走。随着机器人不断智能化,当机器人替我们完成了各项工作,有没有一些活儿是机器人不应该去做的呢?

许多人并不喜欢机器人渗透到人类社会中,但又不能否认这将成为一种趋势。机器人给病人下病危通知书,引发人类担心的根源在于机器人没有伦理道德。我们担心的是机器人可能引发一系列伦理风险问题。

AI的发展是“双刃剑”,虽出自人类之手,但人类未必能时刻控制。因此,出台相关的法律或形成一些规则是极为必要的。

机器人给病人下病危通知,有没有法律效力?在我们的法律社会,一个人犯了错会承担后果,民事案中承担民事责任,刑事案中承担刑事责任。机器人呢?机器人能够成为承担责任的主体吗?既然机器人不能够成为承担责任的主体,是不是可以理解为,机器人其实无权给病人做出诊断?或者我们需要在机器人不能承担责任的情况下,设计出追究相关人员的法律责任制度?

每个与AI和机器人有关的人,应该如何采取负责任和道德的行为,尽量减少AI和机器人对我们的社会,我们每一个人以及我们的星球带来的不必要的道德后果和危害?

归根结底,人是智能行为的总开关。重要的是,我们需要在探索过程中树立相关意识,未雨绸缪才能有备无患,才更有助于让机器人和AI技术更好地为人类服务。

 

 

未经授权,不得转载!
 

评价此内容
 我要打分

现在注册

联系我们

最新会议

    [err:标签'新首页会议列表标签'查询数据库时出现异常。有关错误的完整说明,请到后台日志管理中查看“异常记录”]

Copyright g-medon.com All Rights Reserved 环球医学资讯      未经授权请勿转载!
网络实名:环球医学:京ICP备08004413号-2   
关于我们| 我们的服务|版权及责任声明|联系我们
互联网药品信息服务资格证书(京)-经营性-2017-0027 互联网医疗保健信息服务复核同意书 京卫计网审[2015]第0344号

京公网安备 11010102002489号