当前位置:首页>文章>人工智能>一场潜在的文化危机?AI 内容难以辨别,语言学家束手无策

一场潜在的文化危机?AI 内容难以辨别,语言学家束手无策

2023年是人工智能的一年,各种应用如聊天机器人ChatGPT、AI创作的歌曲参加格莱美奖等无处不在。最近,美国南佛罗里达大学的一项研究显示,AI生成的文字内容可能已经无法与人类写的区分开来。研究人员邀请了几位语言学专家参与项目,但即使是这些专业人士也发现很难识别出AI写的内容。总共仅有39%的情况可以被正确区分。

在这项研究中,南佛罗里达大学的世界语言系学者马修·凯斯勒与孟菲斯大学应用语言学助理教授J.埃利奥特·卡萨尔合作邀请了72名语言学专家审阅一系列研究摘要,并判断哪些是由人类写的,哪些是由AI生成的。然而,没有一个专家能够正确识别所有四个样本,有13%的专家全部答错了。

基于这些结果,研究者得出结论:大多数现代教授都无法区分学生自己写的内容和AI生成的内容。研究者推测,在不久的将来可能需要开发软件来帮助教授识别AI写的内容。

虽然语言学专家们试图使用一些理由来判断写作样本,比如识别某些语言和风格特征,但这些方法基本上都失败了,导致整体正确识别率只有38.9%。

总的来说,像ChatGPT这样的聊天机器人确实可以写出短篇文章,甚至在某些情况下比大多数人类更好。然而,在长篇写作方面,人类仍然占据优势。研究作者指出,在长文本中,AI已经被证明会产生幻觉和虚构内容,使得更容易识别出它是由AI生成的。

这项研究发表在《应用语言学研究方法》杂志上。马修·凯斯勒希望这项工作能引起人们的关注,并呼吁在研究和教育领域使用AI时建立明确的道德和指导原则。

声明:学AI网所有文章,如无特殊说明或标注,均为本站作者原创发布。任何个人或组织,在未征得作者同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若此作者内容侵犯了原著者的合法权益,可联系客服或提交工单进行处理。学AI网内用户所发表的所有内容及言论仅代表其本人,并不反映任何学AI网之意见及观点。

给TA充电
共{{data.count}}人
人已充电
人工智能

俄罗斯科技巨头 Yandex 开发的 GPT 大模型:“与 ChatGPT 抗衡只是时间问题”

2023-9-11 12:53:58

人工智能

高效开会新“办”法:腾讯会议接入混元大模型,AI助力信息提取分析

2023-9-12 14:32:35

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索