spot_img
首页文本AI语言模型在科学研究上...

语言模型在科学研究上的应用遭抵制,ICML禁止由AI生成论文

文本AI在科学研究上的应用遭到抵制:机器学习国际会议(ICML)明确表示反对完全由人工智能生成的文本。虽然ICML 目前还无法自动检查可能的违规行为,但表示会对可疑情况进行调查。

ICML在 2023 年的论文征集说明中写道:“禁止包含从 ChatGPT 等大规模语言模型 (LLM) 生成的文本的论文,除非生成的文本作为论文实验分析的一部分呈现。”

大型语言模型的快速发展可能导致不可预见的后果,并引发许多问题,例如生成内容的版权和抄袭,这正是ICML所担心的。“有一个关于文本片段、图像或从这些生成模型中采样的任何媒体的所有权的问题:其中哪一个拥有它,生成模型的用户,训练模型的开发人员,还是制作训练示例的内容创建者?”项目主席写道。

ICML表示,虽然随着生成AI进入日常生活,这些问题会得到解决,但目前情况尚不明朗。而且,这些问题的答案将对同行评审过程产生直接影响,从而对研究界和职业产生直接影响。在这一点上,ICML打算“谨慎且有些保守”地行事。

该禁令适用于今年的会议。组织者预计,随着对大型语言模型及其潜在影响的更好理解,规则将随之变化。

不过,ICML仍然允许使用AI工具以及LLM进行拼写更正或翻译等操作,只要这些半自动AI工具仅用于改进作者撰写的文本。使用ChatGPT等文本AI 作为创意写作辅助工具来生成、编辑文本被排除在此定义之外。

“任何被标记为可能违反此LLM政策的提交都将经历与任何其他被标记为抄袭的提交相同的过程。” ICML论文征集项目的官员说。

OpenAI正在针对GPT生成的文本开发一种水印,并且有一些工具可以识别AI文本。然而,没有关于这些举措的可靠性的认真研究。

LLM的使用在科学背景下备受争议,其中输出虚假信息和错误引用以及剽窃问题特别严重,可能会从源头上损害人类知识。因此,不久前,Meta使用科学数据训练的大型语言模型Galactica一经推出便遭到了学术界的尖锐批评和严厉警告,被称为是一种会扭曲研究的危险的东西。

专栏
赞赏
lighting
lighting
新的开始
本文系反讽机器原创(编译)内容,未经授权,不得用于商业目的,非商业转载须注明来源并加回链。

欢迎订阅我们的内容