当前位置:首页>文章>人工智能>探究揭示:ChatGPT 癌症治疗方案中存误信息

探究揭示:ChatGPT 癌症治疗方案中存误信息

尽管OpenAI的聊天机器人ChatGPT风靡全球,一项新的研究揭示了其在特定领域尚难取代人类专家。美国哈佛医学院附属的布里格姆妇女医院的研究人员最近发现,ChatGPT所生成的癌症治疗方案中充斥着不准确信息。

在一篇发表于《美国医学会肿瘤学杂志》上的研究中,专家们向ChatGPT提出了多个癌症病例,然后揭示其中三分之一的回答中都含有错误信息。值得注意的是,ChatGPT常常将正确和错误信息混杂,使得真正的准确信息难以辨识。

探究揭示:ChatGPT 癌症治疗方案中存误信息

研究的共同作者丹妮尔·比特曼博士表示,他们对“正确与错误信息交织的程度感到震惊,这使得即便是专业人士也难以辨别错误。”她进一步指出,“大型语言模型虽然可以提供令人信服的回答,但其并非旨在提供精准的医疗建议。错误率和不稳定的回答成为医疗领域亟需解决的关键安全问题。”

ChatGPT在2022年11月推出后风靡一时,仅两个月内就吸引了1亿用户。然而,尽管取得了巨大成功,生成式人工智能模型仍容易陷入“幻觉”,即过于自信地提供引导性不足或完全错误的信息。

有关人工智能在医疗领域的运用,近期已经展开重要尝试,主要旨在简化管理工作。本月早些时候,一项重要研究指出,利用人工智能筛查乳腺癌的安全性得到验证,可能使放射科医师的工作负担减少一半。哈佛大学的一位计算机科学家最近发现,最新版本的模型GPT-4在美国医学执照考试方面表现出色,甚至暗示其在临床判断方面可能超越一些医生。

尽管如此,考虑到ChatGPT等生成式模型存在的准确性问题,它们短期内难以取代医生。上述发表于《美国医学会肿瘤学杂志》的研究指出,ChatGPT的回答中有12.5%存在“幻觉”,在针对晚期疾病的局部治疗或免疫疗法问题时,其提供错误信息的可能性最高。

OpenAI已经承认ChatGPT的不可靠性,其使用条款明确警示其模型并非用于提供医疗信息,也不应被用于“为严重医疗情况提供诊断或治疗服务”。

声明:学AI网所有文章,如无特殊说明或标注,均为本站作者原创发布。任何个人或组织,在未征得作者同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若此作者内容侵犯了原著者的合法权益,可联系客服或提交工单进行处理。学AI网内用户所发表的所有内容及言论仅代表其本人,并不反映任何学AI网之意见及观点。

给TA充电
共{{data.count}}人
人已充电
人工智能

OpenAI 与 Scale AI 合作,为企业量身定制增强型 GPT 模型微调功能

2023-8-26 12:16:56

人工智能

AI绘图利器Midjourney推出“Inpainting”功能:局部重绘妙用无穷

2023-8-27 15:49:22

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索