BALI 【奇闻趣事网】399718.com05.16 , 12:50
AI还没有准备好成为医疗助手
@于隐私问题和技术错误,医学界对即将发生的事情并没有“非常好的线索”。
如果一个人编造事情、不能保守秘密、并不真正了解任何事情,而且在说话时只是根据之前的内容填补下一个词,那么他们对于医疗保健有什么用处?一些大型公司正在推动最新的“生成式人工智能”技术,如Google和微软,他们想要将这种技术引入医疗保健领域。此外,电子病历巨头Epic和Oracle Cerner等大型公司以及一些初创公司也在这个领域展开竞争。
这些公司希望他们的人工智能可以为医生记录笔记并给出第二意见,前提是他们能够避免“产生幻觉”或泄露患者的私人信息。这些问题的威胁激发了超过1000名技术领袖签署了一封公开信,敦促公司暂停开发先进的人工智能系统,直到“我们有信心它们的影响将是积极的,风险将是可控的。”即使如此,一些人仍在将更多资金投入到人工智能风险中。
这种人工智能的基础技术依赖于合成大量的文本或其他数据,例如一些医疗模型依赖于波士顿贝斯以色列医学中心2百万份的重症监护病房记录,以预测给定查询后的文本。这种想法已经存在多年,但近来的黄金热和市场及媒体狂热推动了人工智能技术的发展。2022年12月,@微软支持的OpenAI和其旗舰产品ChatGPT引发了这股热潮。OpenAI是@硅谷精英如Sam Altman、Elon Musk和Reid Hoffman等人创办的研究企业,已经获得了投资者的资金支持。OpenAI拥有一个复杂的混合营利和非营利结构。然而,据《华尔街日报》报道,微软最新的100亿美元融资使OpenAI的估值达到了290亿美元。目前,该公司正在向微软等公司许可其技术,并向消费者销售订阅服务。其他初创公司正在考虑向医院系统或直接向患者出售人工智能转录或其他产品。
尽管一些公司正在争先恐后地开发人工智能技术,但是医疗保健行业的很多人并不认为这种最新形式的人工智能会取代他们的工作(尽管一些公司正在争议中尝试使用聊天机器人作为治疗师或护理指南)。尽管如此,那些对技术持乐观态度的人认为它将使他们工作的某些部分变得更加容易。例如,如果你对诊断感到困惑,将患者数据输入到这些程序中“无疑可以提供第二意见”,Scripps研究转化研究所的主任Eric Topol说道。但是,这种技术目前还存在一些限制。一些研究发现,这种人工智能技术也容易“产生幻觉”,即编造具有说服力的信息。例如,斯坦福大学的研究人员研究了64个临床情况的人工智能响应质量,发现有6%的情况是虚构或幻觉的引用。另一项初步研究发现,在复杂的心脏病例中,ChatGPT和专家意见的一致性只有50%。此外,隐私问题也是一个令人担忧的问题。目前尚不清楚输入到这种基于人工智能的系统中的信息是否会被保密。虽然这种技术在某些方面可能会让医生的工作更加轻松,但需要更多的时间和研究来确定其可行性和风险。
本文译自 Popular Science,@ BALI 翻译。
本文版权归原作者,本站只做分享普及使用。若侵犯了你的权益,请提供版权有效证明,核实后下架删除。 (4)
未经允许不得转载:399718奇闻趣事网 » AI还没有准备好成为医疗助手