警惕人工智能 劫持我们的思想 -...
TRANSCRIPT
-
遇见大咖
2019年10月15日 / 星期二责任编辑:李羽 视觉设计:贾庆华 校对:常虹
城市经济导报CITY ECONOMIC HERALD 3
数字健康提出的问题
随着人工智能、机器人、虚拟现实/增强现实、远程医疗、3D打印、便携式诊断、健康传感器、可穿戴设备等数字技术的兴起,医疗保健的整体结构以及患者和医生的角色将出现根本性改变。
传统医疗保健的转变导致了一些严肃的伦理考虑,并以前所未有的方式向决策者提出了挑战。谁应该能够获得健康数据?如果雇主或保险公司想从其雇员直接对消费者的基因检测结果中收集数据,这是合法的吗?如何防范有人侵入了医疗设备呢?我们将如何处理医疗机器人?如果它在手术中犯了一个错误,那又是谁的责任呢?
无论有多困难,医疗专业人员和决策者都应该比技术领先一步。他们必须承担起引导病人使用无数数字卫生技术的角色,只有当他们自身的医疗理念是最新的和开放的,用技术缔造的数字健康模式才有可能成为现实。一方面,他们必须确保病人不会求助于未经证实的服务或技术解决方案,另一方面,他们必须让病人作为合作伙伴参与设计护理和决策。
由于颠覆性技术具有从医生那里夺走重复性和单调任务的潜力,他们将能够将他们的注意力集中在病人身上,医生能更好地成为数字健康的指南。此外,医疗专业人员还能够回到最基本的医疗保健。
数字人文精神与医疗保健
不仅要把病人放在保健中心,而且要把病人放在卫生技术的中心,以一种更普遍的方式,这就是数字人文主义的意义所在。人类不应通过利用人的弱点和将控制从他们手中夺走,所有这些数据不能只是单纯为大科技公司的利益服务,从而导致人们的利益被损坏,而应加紧行动,停止在技术上贬低人类,在社会中制造或扩大差距,或无视多样性。以下是一些关于数字人文主义如何在医疗保健中展现的想法和原则。
技术与人类:谁有控制权?谷歌、Facebook、Twitter、亚马逊、YouTube 和其他公司:多年来,我们一直听说它们如何重塑世界,但“注意力经济”带来的有害影响仍未得到足够重视,尽管有大量迹象表明,它们对社会的危害有多大。
据悉,在线公司正在开发一种令人上瘾的技术,并试图不惜任何代价吸引用户的注意,甚至利用人类的弱点和利用我们最糟糕的心理缺陷。据统计,平均每个人每天会看手机 150次,每次我们接到消息通知,大脑就会释放出大量的多巴胺,就像赌徒得到的奖励信号一样令人上瘾。当他们把老虎机手柄往上拉的时候,他们是喜欢的吗?你是否倾向于长时间阅读符合你兴趣的新闻?他们创造了你自己的过滤气泡,你
再也不用面对相互矛盾的意见了。他们把最疯狂的想法摆在你面前。
人工智能、智能算法和算力。你可能会说,这只是技术发展的一个小裂痕,我们有先进的机器人,虚拟现实,增强现实,人工智能,而社交媒体的形成方式没有这样的影响。然而,如果你把智能算法看作是机器人的控制机制,或者VR/AR体现了一个沉浸式或交互式的智能软件程序,你会发现我们必须担心的终极技术是智能算法和人工智能。
有一种观点认为,这种人工世界中的制度,加上来自最大科技公司的压倒性人工智能和采掘激励,正导致人类弱点的被利用和人类思维方式的降级。当我们正在更新我们的技术,我们的机器,我们正在劫持我们的思想,制造沉溺于屏幕的“僵尸”。
医疗保健的六大挑战
现在已经有很多关于人工智能在
医疗保健重新设计中的应用:它帮助医疗专业人员设计治疗计划,并为每个病人找到最合适的治疗方法,它能帮医生在几秒钟内找到某种疾病最新和最相关的科学研究……然而,不能否认,我们也面临着一个问题,那就是我们如何将人工智能的巨大潜力转化为日常生活。在我们了解了医疗保健方面的人工智能之后,我们应该对障碍有更清晰的认识。
AI 的技术局限性。在许多情况下,“人工智能”一词可能具有误导性,因为它意味着一种比目前先进得多的技术。现在,计算机在理解图像和视频以及自然语言处理框架中的文本的能力有了不可思议的增长。前者现在被广泛应用于医疗保健领域,例如在医学成像领域,不仅仅是物理方面的成像,包括感性上的情感分析。但这也只是人工智能的第一阶段,现在完全可以做到从文本块中识别模式并收集主题,或者从语句中推导整个文本的含义,但让
一台机器从有限的经验中抽象出概念,并在各领域之间融会贯通时,我们还没有接近这样的人工智能水平。
医疗限制。为了避免过分夸大这项技术,目前AI在医学中的局限性也必须得到承认。比如在放射学的图像识别中,就可能会存在潜在的偏差。图像研究的框架往往起源于美国,或者将算法本身概念化的框架包含了工作组的主观假设。此外,相关算法的预测和预测能力是固定在以前的案例中的,也就是说,在药物副作用或治疗耐药性的新案例中,它们可能是无用的。
另一方面,将病案精简和标准化,更容易使算法具有一定的意义,但这同样又是医院将AI引入医院管理工作的又一大缺陷。在许多医院里,医生仍然在病人的病历本上书写“狂草”。如果连写这些笔记的人都不能在两周后认出自己当时写了什么,计算机又该如何理解这些笔记呢?
道德挑战。人工智能和AI医疗和技术限制仍然比伦理和法律问题更容易克服。如果一个聪明的算法犯了一个错误,没有在肺部X光片上发现癌变结节,谁应该来为这个错误负责呢?如果要建立相应的安全规章制度,又该怎么制定?如果我们想安全可靠地进入更高一层的人工智能阶段,这些复杂的伦理和法律问题就应该得到解答。此外,从人工智能的第一阶段到第二阶段的发展过程中应该谨慎和逐步地实施,以便为规划潜在风险和不利因素提供时间和空间。独立的生物伦理研究小组以及医疗监督机构应密切监测这一过程。
更好的监管。FDA批准了第一个用于心脏成像的基于云的深度学习算法,然而,有关人工智能的规定通常落后于或根本不存在。随着技术的进步,也许在未来 5年至 10年内才会出台相关的规则。但事实是,这些规则应该走在技术浪潮的前面,按照他们与其他行业利益相关者制定的原则和道德标准,指导在医疗保健领域实施人工智能的过程。此外,他们应该推动公司把负担得起的人工智能解决方案摆在桌面上,并始终把注意力放在病人身上。政府和决策者也应该帮助建立人工智能的使用标准,从最小的单位(医疗专业人员)开始,直到最复杂的单位(国家一级的医疗系统)。
误解和夸大。过度夸大人工智能的能力,通过营销策略和过于简化的媒体表述,无助于破坏人工智能如何为医疗保健做出贡献的健康形象。这也增加了困惑和误解的迷雾,当我们想要成功地将这项技术应用到我们的医疗系统中时,这些误解需要被消除。机器学习、深度学习、智能算法或其他有关人工智能的术语和概念的定义需要仔细处理。它在医疗保健方面的影响也是如此。
人类排斥。对人工智能根除人类的恐惧与有关人工智能为医疗专业人员工作而来的夸张言论同时存在。连史蒂芬·霍金都说全面人工智能的发展可能意味着人类的终结。据说人工智能取代了放射科医生的工作, 机器人正在超越外科医生的技能,也正在制药业从事多项工作。人工智能带来的恐惧是可以理解的,因为我们中很少有人真正理解这项技术是如何工作的。当我们不明白的时候,我们倾向于拒绝。更重要的是,如果思想领袖或媒体也倾向于夸张和极端地对待这个问题。
据网易研究局
斯坦福教授:警惕人工智能劫持我们的思想
迈克尔·斯奈德:斯坦福大学基因学系主任,基因与个人医疗中心负责人。
他的实验室是全球首个将大规模功能基因组学应用到任何有机体的实验室。
作者简介
人工智能在改善医疗保健方面的潜力是无可争议的,问题是如何成功地将其集成到我们的医疗保健系统中。要做到这一点,我们必须克服技术、医疗方面的限制,监管上的障碍,缓解群众在思想上的一些担忧,并时刻防范过度推销技术的倾向。
IC photo供图