审稿人或难识别AI撰写的论文摘要
下面就医网小编就给大家来详细介绍一下审稿人或难识别AI撰写的论文摘要这一块的相关内容,希望下面的内容能帮助到大家
应警惕人工智能论文对科研完整性和准确性的破坏
审稿人或难识别AI撰写的论文摘要
科技日报北京1月16日电(记者张梦然)据近日发表在预印本服务器bioRxiv上的一项研究,人工智能(AI)聊天机器人ChatGPT已可写出令人信服的假研究论文摘要,甚至连审稿科学家也无法发现。
聊天机器人ChatGPT会根据用户提示创建逼真文本,它通过消化大量现有的人类生成文本来学习执行任务。美国的软件公司OpenAI于去年11月发布了该工具,并供用户 *** 。
自发布以来,研究人员一直在努力解决相关伦理道德问题,因为它大部分输出可能很难与人类撰写的文本区分开来。近日美国西北大学的一个研究小组使用ChatGPT生成人工研究论文摘要,以测试科学家是否可辨别它们。
研究人员要求机器人基于发表在《美国医学会杂志》《新英格兰医学杂志》《英国医学杂志》《柳叶刀》和《自然·医学》上的50篇研究编写摘要。然后,他们通过抄袭检测器和AI输出检测器将这些摘要与原始摘要进行比较,并要求一组医学研究人员找出编造的摘要。
结果,ChatGPT生成的摘要通过了抄袭检查器,原创性得分中位数为100%,表明没有检测到抄袭。人工智能输出检测器发现了66%的生成摘要,但人工审稿人只正确识别了68%的生成摘要和86%的真实摘要,他们错误地将生成摘要中的32%识别为真实,将14%的真实摘要识别为编造。
研究人员称,ChatGPT写出了能骗过人类的科学摘要,如果科学家无法确定研究是否属实,或会产生“可怕的后果”。
研究人员表示,在虚假信息会危及人们生命安全的医学等领域,期刊需要采取更严格的 *** 来验证信息的准确性。而这些问题的解决方案,不应集中在机器人本身,“而是导致这种行为的不正当激励措施,例如通过论文数量进行 *** 和晋升审查,而不考虑其质量或影响”。
【总编辑圈点】
大火的ChatGPT,不止是聊天工具,它在教育领域的渗透已经引起了广泛关注和讨论,当然,随之而来的还有忧虑。如果你使用过ChatGPT,也会惊讶于它撰写报告的能力。给它一个主题,它就能在几秒内生成大纲,也能在几秒内进行细化,而且看起来非常是那么回事。这次,科研人员发现它撰写的论文甚至能骗过审稿人。这又是一个人如何使用新技术的经典伦理问题。工具本身无罪,但应用边界应该清晰,使用者也要对自己的行为负起责任。
以上就是申屠兴为您整理的最新内容,更多相关内容请关注就医网。
本文地址:http://www.bx9y.com/zhuanti/2023-01-17/643197.html
友情提示:文章内容为作者个人观点,不代表本站立场且不构成任何建议,本站拥有对此声明的最终解释权。如果读者发现稿件侵权、失实、错误等问题,可联系我们处理
- 北京今日晴天继续控场 昼夜温差大注意防寒保暖2023-01-17 22:25:07
- 消毒用品能带上高铁和飞机吗?解答来了2023-01-17 22:25:07
- 星空有约 | 这个兔年有些长,年头年尾都有春2023-01-17 22:25:07
- 审稿人或难识别AI撰写的论文摘要2023-01-17 22:25:06
- 刑释人员卖惨博流量,这也能成“新赛道”?2023-01-17 22:25:06
-
15个信号暗示你怀孕了
2022-07-04
-
五险一金多少钱?五险一金缴费标准是多少?
2022-07-01
-
2022养老金最新计算公式一览 养老金怎么计算退休领取金额
2022-09-07 07:10:10
-
2022年社保缴费基数六个档次是什么?每个月扣多少钱
2022-06-30 15:21:11
-
2022年五险一金缴费标准最低是多少?五险一金一个月大概交多少钱?
2022-08-11 09:40:26
-
2022年延迟退休新消息 我国延迟退休年龄对照表
2022-06-23 14:22:08
-
境外人员回国隔离新规2022:具体需要隔离几天?回国隔离新规放松!
2022-07-01 15:01:46