尽管OpenAI的聊天机器人ChatGPT风靡全球,一项新的研究揭示了其在特定领域尚难取代人类专家。美国哈佛医学院附属的布里格姆妇女医院的研究人员最近发现,ChatGPT所生成的癌症治疗方案中充斥着不准确信息。
在一篇发表于《美国医学会肿瘤学杂志》上的研究中,专家们向ChatGPT提出了多个癌症病例,然后揭示其中三分之一的回答中都含有错误信息。值得注意的是,ChatGPT常常将正确和错误信息混杂,使得真正的准确信息难以辨识。
研究的共同作者丹妮尔·比特曼博士表示,他们对“正确与错误信息交织的程度感到震惊,这使得即便是专业人士也难以辨别错误。”她进一步指出,“大型语言模型虽然可以提供令人信服的回答,但其并非旨在提供精准的医疗建议。错误率和不稳定的回答成为医疗领域亟需解决的关键安全问题。”
ChatGPT在2022年11月推出后风靡一时,仅两个月内就吸引了1亿用户。然而,尽管取得了巨大成功,生成式人工智能模型仍容易陷入“幻觉”,即过于自信地提供引导性不足或完全错误的信息。
有关人工智能在医疗领域的运用,近期已经展开重要尝试,主要旨在简化管理工作。本月早些时候,一项重要研究指出,利用人工智能筛查乳腺癌的安全性得到验证,可能使放射科医师的工作负担减少一半。哈佛大学的一位计算机科学家最近发现,最新版本的模型GPT-4在美国医学执照考试方面表现出色,甚至暗示其在临床判断方面可能超越一些医生。
尽管如此,考虑到ChatGPT等生成式模型存在的准确性问题,它们短期内难以取代医生。上述发表于《美国医学会肿瘤学杂志》的研究指出,ChatGPT的回答中有12.5%存在“幻觉”,在针对晚期疾病的局部治疗或免疫疗法问题时,其提供错误信息的可能性最高。
OpenAI已经承认ChatGPT的不可靠性,其使用条款明确警示其模型并非用于提供医疗信息,也不应被用于“为严重医疗情况提供诊断或治疗服务”。