|
STM委员会探索出版商如何支持研究诚信
作者:ISE 来源: 时间:2025-09-10 访问量: 314 |
|
编者注: 当开始一个新的写作项目时,许多人会向我们最喜欢的虚拟助手寻求一些灵感和支持。我指的是ChatGPT,或者插入您选择的其他大型语言模型(LLM)人工智能(AI)工具。然而,他们也可能容易出现错误和偏见,产生几乎逐字重复的培训材料,这可能导致无意的剽窃,并造成数据隐私风险,以及其他问题。那么,期刊应该制定什么样的政策来确保合乎道德地使用人工智能? 在这篇博文中,我将介绍当前的行业建议和将人工智能信息披露到期刊表格中的技巧,这样作者和审稿人就不会错过它们。 在我们讨论期刊AI政策中应该包含什么内容之前,先概述一下当前业界对AI用例的共识。 对于作者: COPE、STM、ICMJE、WAME和EASE发布的行业指南不同意将人工智能工具列为作者,因为它们不能承担作者的全部责任,包括签署表格、断言是否存在利益冲突,以及证明作品的准确性和完整性(例如:该作品是作者原创的,没有以任何方式抄袭,并且所有引用的材料都经过验证和署名)。 COPE规定:“作者对其手稿的内容负有全部责任,即使是那些由人工智能工具制作的部分,因此对任何违反出版道德的行为都负有责任。”鉴于人工智能工具在学术界的迅速采用,COPE、STM、ICMJE、WAME和EASE的政策都规定,期刊应该要求作者披露他们是否使用了人工智能技术来准备他们的手稿,如果是,以什么身份,符合期刊的要求。目前,在文章中还没有一个关于人工智能披露的标准位置,所以这取决于你的编辑决定把它们放在哪里。 ICMJE和WAME建议指导作者在致谢部分说明人工智能用于写作支持(例如,起草或编辑文本),并在方法部分说明人工智能用于数据收集、分析、编码或图像生成。或者,期刊可以像EASE建议的那样,在文章主体中添加单独的AI声明部分。 无论您选择在何处放置AI声明,WAME建议在数据收集和分析中使用AI时要求以下详细信息。“为了进行科学审查,包括复制和识别伪造,应该提供用于生成研究结果的完整提示、查询的时间和日期以及所使用的人工智能工具及其版本。” 对于审稿人: 围绕在准备评审报告中使用人工智能工具的行业指导方针比作者的指导方针更不明确。在发布的建议中,人们一致认为审稿人在任何情况下都不应该将作者的手稿提供给人工智能工具(除非得到期刊出版商的批准),因为这将违反保密规定,因为公开可用的人工智能工具保留了数据输入,对其未来的使用没有控制。 然而,关于使用人工智能工具来支持评审写作的指导方针各不相同。WAME将参数设置留给了个别期刊,ICMJE建议期刊根据请求考虑审稿人使用人工智能工具的可能性,并指出“审稿人在使用人工智能技术促进审稿之前必须获得期刊的许可。” 审稿人应该意识到,人工智能可能会产生听起来很权威的输出,这些输出可能是不正确、不完整或有偏见的。” 虽然STM的最新指导方针指出“审稿人不应该使用公开可用的GenAI服务作为基本的作者工具(例如,精炼、纠正、编辑和格式化文本和文档)”,但这是出于保密考虑。所以,就目前而言,这取决于期刊自己划定自己的界限(尽管我认为还会有更多的建议)。 对于编辑: 目前的指导方针认为,期刊应该有明确的编辑政策,只使用安全的出版商批准的人工智能工具(例如,抄袭检测软件),而不是将手稿上传到公共人工智能工具。此外,EASE建议任何在编辑过程中使用人工智能工具的期刊在其网站上以及与作者和审稿人的沟通中披露这一点。 在期刊人工智能政策和披露中应该涵盖哪些内容?是否所有的AI用例都具有相同的风险级别? 不,绝对不是。使用人工智能工具检查句子语法与使用人工智能工具编写论文的大部分内容或为其生成图像之间存在很大差异。STM最近发布了关于手稿准备中人工智能使用分类的建议,并提供了一个情景图表,期刊编辑可以在为作者制定政策时寻求支持。 这些场景包括使用人工智能“改进、纠正、编辑或格式化手稿以提高语言的清晰度”(STM的指导方针认为这是广泛允许的,无需披露),以及“人工智能生成的任何类型的内容,就好像它是来自非机器来源的原始研究数据/结果”,这是STM的指导方针所禁止的。 一旦你确定了你的团队对可能的AI使用的立场,你就可以制定明确的策略了。 对于作者,一定要包括:
编辑如何避免恶意使用AI ? 在可预见的未来,随着编辑们竞相跟上快速发展的人工智能工具,这是一个价值百万美元的问题。防止研究不端行为的第一道防线是强有力的同行评议。EASE指出,期刊人工智能政策应包括“各方如何提出对可能的政策侵权的担忧,任何一方在侵权情况下可能面临的后果,以及对期刊有关这些政策的决定提出上诉的可能手段”等信息,以便作者和审稿人能够在涉嫌渎职的情况下发出警报。 这些细节也应该包括在你发表的文章的期刊更新政策中。期刊编辑和同行审稿人可能会发现明显的人工智能问题,比如语言重复、缺乏连贯性或恐怖谷图像的文本。这可能会以虚假引用、错误的数据分析、错误的信息或图像处理的形式出现。 帮助发现潜在抄袭或人工智能图像和文本生成的工具正在出现。例如,iThenticate的抄袭检测软件现在包括人工智能写作检测支持。正如STM在其新一代人工智能指南中所强调的那样,所有基于人工智能的研究完整性检查仍然需要人工监督。 正如牛津大学出版社2024年关于人工智能在学术出版中的应用的研究所表明的那样,研究人员已经在总体上试验人工智能,所以现在是时候考虑人工智能政策的制定了。 考虑到人工智能的潜在使用和相关学科的风险状况存在无数变量,没有放之四海而皆准的人工智能政策(可能永远也不会有),所以这取决于各个出版商和期刊自己分析参数。随着人工智能工具的飞速发展,他们将不得不频繁地重新评估他们的政策。 然而,像STM关于人工智能使用分类的建议这样的框架正在出现,以帮助出版商和期刊应对人工智能政策制定的细微差别。 |

English
日本語
电话:0512-67621565
邮箱:info@iseediting.com



写作技巧