在学术研究的道路上,你是否曾因使用AI辅助写作而感到惴惴不安?担心这样的行为会被视为学术不端?今天,我们就通过解析出版商与知名期刊的AI政策,带你了解论文发表中使用AI的边界和规范,让你的学术之路更加清晰明了。
爱思唯尔(Elsevier)作为全球最大的科技文献出版商之一,其旗下管理着2900余种期刊。用户可以在爱思唯尔官方网站的出版伦理中查阅AI的使用政策。爱思唯尔对作者使用生成式人工智能和人工智能辅助技术的要求具体分为两部分。
第一部分是关于科学写作。政策中明确提出,这些技术仅可用于提升作品的可读性、改善语言,而且要求作者要认真检查和编辑结果,并对作品内容负最终的责任。如果在写作过程中使用了AI,作者需要在提交的手稿和最终发表版本中对此进行单独的说明。以下两种情况除外,即使用了语法、拼写检查工具以及文献管理软件,或者在数据处理等研究设计与方法中使用了AI技术,则不需要特别阐述。采用AI技术的研究设计在论文(作品)的“方法部分”说明即可。此外,政策中还强调,作者不得将AI和AI辅助技术列为作者或同作者,也不可以引用AI著者的作品。
第二部分是关于图表、图像与插图。爱思唯尔不允许在提交的手稿中使用生成式AI和AI辅助工具创造或者改动图片(在生物医学成像等将AI辅助成像方法作为一种研究设计等特定领域内除外,在确保该方法可复现的情况下,可以在文章(作品)“方法部分”说明)。但是,只要不模糊或者消除原作呈现的任何信息,是可以利用AI调整亮度、对比度或者色彩平衡的。爱思唯尔不允许使用相关技术生成图解摘要等插图作品。但某些情况下,可以使用它们来制作封面插图。
SAGE和Taylor&Francis出版社,也出台了各自的人工智能使用规定。SAGE除了明确要求不能将AI列为同作者外,还规定在方法或者致谢部分要列出使用了哪种语言模型及使用目的,并提供生成内容和引文的来源列表,包括语言模型生成的引文。另外,SAGE也提醒作者应当在投稿时核实期刊更为具体的AI规定。Taylor&Francis在《在你的研究论文中明确作者身份》一文中也要求,所有该社出版的期刊都不可以将大语言模型和其它类似工具列为作者,作品中使用AI生成的内容必须要进行适当地确认和记录。
以上简述了以发表英文成果为主的爱思唯尔、SAGE、Taylor&Francis等出版商关于作者使用AI的政策,实际上,国内关于使用生成式AI的讨论早已有之,我国在2023年7月就颁布了《生成式人工智能服务管理暂行办法》,该办法已于同年8月15日正式施行。我国也由此成为全球第一个制定生成式人工智能官方法规的国家。在学术出版领域,国内已有多家出版发行机构出台AI政策,本文以中华医学会杂志社为例,带您了解下中文期刊的相关规定与立场。
中华医学会杂志社是我国医学领域最具影响力的出版机构之一,该社于今年1月9日通过官方平台发布了《关于在论文写作和评审过程中使用生成式人工智能技术的有关规定》,详述了作者可以使用及不允许使用生成式AI的场景,以及对违反规定的处罚。《规定》要求生成式AI不可用于研究方法、结果和对结果的解释分析等论文重要部分的撰写。并罗列了五种写作中可以使用生成式AI的情况。
1.生成式AI可用于研究过程所需要的文献检索、选题思路、关键词推荐等启发式探索用途,但作者应对生成式AI提供的信息进行核查,确认其所参考文献的真实性和可靠性,不得直接使用未经核实的由生成式AI生成的参考文献。
2.生成式AI可用于研究过程的统计分析,所分析的数据必须是作者在科研活动中产生或收集的真实数据,作者对所选择的建模和检验方法负责,并且作者应对生成式AI统计分析结果进行其他途径的测试验证,确保统计结果的可靠性和准确性。
3.生成式AI可用于论文的语言润色,不同语种的翻译,提升论文的可读性,作者可参考但不能直接照搬生成式AI提供的写作风格,应保证论文具有个人或共同署名作者的写作特点。
4.生成式AI可用于推荐合适的统计图表类型,辅助制图,但不能用于创建、改变或操纵原始研究数据、研究过程及结果等,包括但不限于数据图、病理图、电泳图、影像图、照片图、基因分析图谱、实验结果描记图、森林图、手术音视频等资料。
5.生成式AI可用于参考文献格式的规范化检查、参考文献与正文对应的自动化排序、自动引用生成等方面。但对其他作者已标注为人工智能生成内容的不应作为原始文献引用,确需引用的应加以说明。
此外,2023年9月,中信所联合爱思唯尔、施普林格·自然、约翰威立国际出版集团发布了《学术出版中AIGC使用边界指南》(原文附后),其中对论文撰写、投稿和发表后可能遇到的与AIGC相关的各种问题进行了说明,希望以此引导学术出版领域对AIGC的使用达成共识。
需要特别说明的是,鉴于AI技术的迅猛发展,各机构的相关政策也会随时更新调整,您在查阅的时候,一定要参考官方信息源的最新要求。此外,作者除了要在写作和投稿过程中密切关注出版方的相关要求外,面对生成式人工智能应用的广泛普及,由它引发的数据隐私、安全、版权等伦理问题,可能更需要谨慎对待。
构建生成式AI模型所需的大量数据(如文本、声音、代码和图像)通常是从互联网上提取的,往往没有经过任何所有者的许可,因此使用AI生成的结果有可能会侵犯他人的知识产权。反之,如果将具有原创性的、包含个人信息的内容上传到AI应用中,这些数据就有可能被收集并用于训练,这不仅可能造成个人隐私泄露,一旦遇到具有类似需求的提问者,被上传的内容还有可能共享给他人,给原创者造成难以挽回的损失。此外,由于生成式AI应用往往只会从随机模式开始,通过反复训练发现语言模式,却并不理解语言的真正含义,因此常会生成看起来令人信服、实际却错误的信息,有时甚至是真假难辨的深度伪造品。