撰写博客,自动生成代码,玩游戏……OpenAI 的语言模型GPT-3的能力几个月来被人们不断发掘。开发者穆拉特·艾弗(Murat Ayfer)甚至基于它创建了一个哲学家 AI(Philosopher AI),来探讨哲学问题。

哲学家 AI 对大部分哲学问题都能给出合适的答案,包括有关哲学术语的问题。实验表明,GPT-3 能提供带有断言参数的答案。答案的质量通常介于维基和部落哲学之间,也有些令人惊讶的结果:AI 不但解释了问题,还权衡了不同的立场,或者给出了概念发展的历史轮廓。

在实验中,哲学家 AI 解释了康德的绝对命令,那些知道命令的人会发现很多错误,但很明显 GPT-3 在正确的轨道上。

穆拉特·艾弗还使用 GPT-3 检查用户输入的有用性或敏感性。在实践中,这有时会阻止实际有意义的请求。如果一个问题被归类为“胡说八道”或“敏感”,有不同的解决办法。大多数情况下,重新生成答案就可以了。如果这没有帮助,那么应该将请求简单地重新表述为一个假设性或思想性的实验。

下一步,艾弗计划将 AI 哲学家变成一个哲学聊天机器人。【本文最初发表于数字叙事

2 评论

  1. […] 写博客,回答哲学问题,玩文字游戏……OpenAI的语言模型GPT-3的文本生成能力自发布以来被不断发掘。现在,美国乔治敦大学安全与新兴技术中心的研究人员又对这一AI模型制造虚假信息的潜力进行了测试,结果是:GPT-3在生成假新闻方面“相当有效,只需少量的人为干预”。 […]

    0