新火种AI|垃圾论文泛滥成灾,专业领域的AI监管将何去何从?
作者:小岩
编辑:彩云
OpenAI研发的聊天机器人模型ChatGPT如今已经成为了全世界范围内无人不知,无人不晓的AI利器了。自2022年11月推出以来,历经多次的迭代和升级,如今的GPT4版本已经拥有了十分强大的文本生成能力。
它能够根据用户提示生成原创文章,故事,歌词等内容,并在一些测试中显示出惊人的表现,甚至可以通过高难度的专业考试,诸如法律考试,美国医学执照考试等。不过,随着ChatGPT的普及,它的滥用问题也不断出现,甚至还给学术圈带去了一系列问题和困扰。
ChatGPT攻陷学术圈,垃圾论文比比皆是。
“用AI写论文” 成为了当今学术圈的通病,我们先来看看用ChatGPT写出的论文是什么样子的。
这一篇题目为Comprehensive Review of the Book Study of Language by George Yule的社科类论文被发表在迪拜大学的Saudi Journal of Humanities and Social Sciences(沙特人文与社会科学杂志)上。作者是来自印度北方邦的研究人员,包括Muneer Alam教授,Munawwar Mushtaque教授和Mohd Rizwanullah教授。
这篇文章的表达十分有问题,可以看到,文中Limitations这部分,一上来就是“作为一个语言模型,我无法对书籍的质量发表个人看法”,让人一眼看出作者的真实身份其实是ChatGPT。
而这一篇名为Synergistic Effect of Phosphatic Fertilizer and Biofertilizers on Soil Enzyme Activity and Yield of Finger Millet (Eleusine coracana L.)的文章,发表在了Biological Forum – An International Journal(生物论坛 - 国际期刊)上。作者有四位,其中一位标明自己的职位是副院长,另一位的职位则是高级科学家。就是这样一篇诸多大牛“写”出来的文章,却早早暴露除了ChatGPT代笔的痕迹。
就连十分小众的神学领域也被ChatGPT染指了,来自山景学院神学院的Christian Joseph Pacoli,就借助ChatGPT探索了基督的本质。这篇名为Exploring the Nature of Christ: An Insightful Examination of Seventh-day Adventist的文章,充满了ChatGPT的痕迹。据了解,位于谷歌总部附近的山景学院,是美国为低收入学生提供优质教育的顶尖学校之一。
ChatGPT能在学术圈大行其道,足以说明这个领域的浮躁和良莠不齐。很多合著的教授,甚至是指导老师,都对ChatGPT在学术圈的肆意蔓延置之不理。这些人作为指导老师,似乎也只关心自己能不能尽快完成论文的“配额”,却不在意文章的质量和深度到底达不达标。
更离谱的是,直到文章最终见刊,整个流程里竟然没有任何人发现问题和端倪,这说明大概率是没有人认真阅读过这些利用ChatGPT生成的内容。由此可见,搞科研的用AI写论文,学生用AI写作业,老师也用AI批作业,整个过程都没有真人来参与了。
AI滥用导致学术诚信危机,ChatGPT会成为学术造假的帮凶吗?
不可否认,ChatGPT具有强大的自然语言处理能力和大规模预训练模型的知识库,使其能够自动生成文章和论文,回答学生的问题、帮助学生完成作业等。但与此同时,它也是一把双刃剑,ChatGPT会让学生过于依赖于技术,减少他们的独立思考能力和创造性,从而可能对学生的学术能力和研究能力产生负面影响,甚至影响学术诚信和教育质量。
从某种程度上说,用ChatGPT直接写论文的方式,和从维基百科上“复制粘贴”的行为并没有什么不同。此外,ChatGPT的大规模预训练模型的知识来源于互联网上的大量文本数据。互联网上的信息质量良莠不齐,经常存在不准确和不全面的信息,这些信息可能不符合学术标准和规范,从而可能导致学术研究存在误导性和偏见。
也正因此,许多高校开始重新定义作弊和剽窃,一些院校明令禁止学生在论文和作业中使用ChatGPT。譬如Bryn Mawr学院学生荣誉委员会主席Carlee Warfield表示,使用人工智能平台的行为一律被视为剽窃;香港大学向全体师生发出通告,称禁止在所有课堂,作业和评估中使用ChatGPT或其他AI工具,否则将被视为抄袭;法国顶尖学府之一的巴黎政治学院也宣布,该校将禁止使用ChatGPT。
当ChatGPT遇上学术圈:机遇与挑战并存的时刻到来了。
早在去年,一则医生利用ChatGPT写论文的新闻就刷屏了。
美国田纳西大学健康科学中心的一名放射科医生用ChatGPT狂写论文,在4个月时间里直接肝出16篇。更奇葩的是,其中的5篇文章已经发表了。很显然,这样的行为已经很大程度的影响到学术的专业度和严谨性了。
当然,学术类的文章并非不能使用AI。但是AI的作用应该只限于提高作品的可读性和语言性,而不应该取代关键的写作任务。AI不能够,也不应该在严肃的学术论文中给出科学结论,提供临床建议等。即便AI会通过计算产生科学,教学,医学见解,抑或得出某些科学结论或提供临床建议,这些内容也应该在人类的监督和控制下完成,所有的工作都应该被仔细审查和编辑。因为即便AI产生听起来权威的输出,但这些输出有可能是不正确的,不完整的或有偏见的。人类作者始终要对作品内容负有最终责任和义务。
我们不能否认以ChatGPT为代表的各类AI模型的功能和优势,这的确是一个非常实用的工具,但也只是工具而已,我们不能将 ChatGPT 视为万能的解决方案。
人会犯错,由人类主导研发的AI自然也会犯错。我们要明确“ChatGPT 的确会是存在一些限制和缺陷”这一事实,接受它可能会产生一些错误的回答或者无法理解某些复杂的问题的可能。更重要的是,所以它不应该作为知识的唯一来源,只能作为搜索引擎的辅助,对于要追求严谨和专业的学术圈而言,就更是如此了。
所以,如果你还是学生,或许有撰写学术论文的任务,请务必谨慎使用AI模型,学会正确使用和评估它们输出结果,不过度依赖其提供的结论和答案,从而确保学术研究的准确性和可靠性。
转载请在文章开头和结尾显眼处标注:作者、出处和链接。不按规范转载侵权必究。
未经授权严禁转载,授权事宜请联系作者本人,侵权必究。
本文禁止转载,侵权必究。
授权事宜请至数英微信公众号(ID: digitaling) 后台授权,侵权必究。
评论
评论
推荐评论
暂无评论哦,快来评论一下吧!
全部评论(0条)