写博客,回答哲学问题,玩文字游戏……OpenAI的语言模型GPT-3的文本生成能力自发布以来被不断发掘。现在,美国乔治敦大学安全与新兴技术中心的研究人员又对这一AI模型制造虚假信息的潜力进行了测试,结果是:GPT-3在生成假新闻方面“相当有效,只需少量的人为干预”。
论文《真相、谎言和自动化:语言模型如何改变虚假信息》描述了这项研究。过程中,研究人员让GPT-3生成三种类型的文本:完整的文章、单独的段落和针对Twitter等社交媒体平台的简短陈述。
经测试,研究人员发现GPT-3特别适合生成简短而尖锐的陈述,例如Twitter上常见的陈述。另外,GPT-3似乎很擅长针对某项政策生成各种各样的反对意见。研究人员说,他们的研究得出了一个“初步但令人震惊的结论”:像GPT-3这样的语言AI可能很适合生成有微妙错误的信息。
人工智能的风险不在于单个功能本身,而在于其扩展性,GPT-3也不例外。研究人员指出,组织制造虚假信息的人在人机团队中能够更有效地工作。
为防止GPT-3被滥用,OpenAI已经采取了一些措施,比如,建立了一个监控系统以限制滥用API,并对可能的滥用及时做出反应。但这不应是社会应对GPT-3之类强大的语言AI仅有的举措。
[…] 研究发现 GPT-3 生成假新闻“相当有效,只需少量的人为干预” […]