ArXiv强化审核机制应对AI滥用风险
开源预印本平台ArXiv近日推出新规定,若发现论文存在明显未经人工核查的AI生成内容证据,作者将面临为期一年的投稿禁令。该举措由计算机科学领域主席托马斯·迪特里希公布,旨在遏制低质量生成式内容对科研生态的信任侵蚀。
违规行为界定与处罚机制
根据最新指南,一旦审核团队识别出作者未对大语言模型输出进行实质性审查的明确证据,论文将被直接拒稿,并触发一年内禁止在ArXiv发布任何新成果的限制。禁期结束后,作者需在经过同行评审的正规期刊上成功发表后续工作,方能恢复投稿权限。
迪特里希特别强调,判定依据包括虚构参考文献、无逻辑关联的引用堆砌,以及直接复制粘贴模型输出中出现的语义错误或事实偏差。该政策并非全面禁止使用AI工具,而是要求作者对所有内容承担最终责任,涵盖潜在的抄袭、偏见表达及数据失真等问题。
保障科学可信度的核心举措
作为全球领先的预印本平台,ArXiv长期服务于计算机科学、数学与物理等领域的快速知识共享。然而,随着生成式AI广泛应用,缺乏人工监督的投稿量急剧上升。近期一项同行评审分析指出,生物医学领域中伪造引用的情况呈上升趋势,这很可能与大模型辅助写作有关。
通过推行“首次违规即受罚”的原则,ArXiv力求捍卫其知识库的可靠性。同时设立申诉通道,允许作者对裁决提出异议。所有处罚决定前,必须由相关领域主席复核证据有效性,确保程序公正。
推动学术界共识形成
此项措施体现了当前学术界日益清晰的立场:AI应作为研究辅助工具,而非替代人类判断的核心环节。自康奈尔大学移交管理权以来,ArXiv已转型为独立非营利机构,具备更强的自主调控能力。平台此前已引入多项防伪机制,如要求首次投稿者提供学术机构背书。
对于研究人员而言,关键信号已十分明确——允许利用AI进行初稿撰写或语言润色,但不得在未完成事实核验与引文校对的情况下提交成果。这一要求与主流科学出版标准高度一致,凸显问责制在现代研究中的核心地位。
政策意义与未来展望
在人工智能深度嵌入科研流程的背景下,ArXiv的新规被视为维护预印本体系完整性的关键一步。通过对未审阅AI内容实施追责,平台重申了“研究者须对成果负责”的根本准则。随着技术演进,此类监管框架极有可能成为学术出版领域的通用规范。
常见问题解答
问题一:新政策是否禁止使用AI写作?答:否。允许使用AI辅助创作,但严禁提交含有明显未经核实内容(如虚假参考文献或逻辑断裂文本)的稿件。
问题二:如何认定AI滥用的铁证?答:包括编造引用来源、引用不存在的文献、以及直接复制大语言模型生成的错误段落等可追溯的痕迹。
问题三:能否对禁令提出申诉?答:可以。平台设有正式申诉流程,需经审核人员标记后由领域主席确认证据,作者有权对裁定结果发起异议。