丰色萧箫发自凹非寺 量子位公众号QbitAI ChatGPT原来是拥有心智的?! 原本认为是人类独有的心智理论(TheoryofMind,ToM),已经出现在ChatGPT背后的AI模型上。 这是来自斯坦福大学的最新研究结论,一经发出就造成了学术圈的轰动: 这一天终于猝不及防地来了。 所谓心智理论,就是理解他人或自己心理状态的能力,包括同理心、情绪、意图等。 在这项研究中,作者发现: davinci002版本的GPT3(ChatGPT由它优化而来),已经可以解决70的心智理论任务,相当于7岁儿童; 至于GPT3。5(davinci003),也就是ChatGPT的同源模型,更是解决了93的任务,心智相当于9岁儿童! 然而,在2022年之前的GPT系列模型身上,还没有发现解决这类任务的能力。 也就是说,它们的心智确实是进化而来的。 论文在推特上爆火 对此,有网友激动表示: GPT的迭代肯定快得很,说不定哪天就直接成年了。(手动狗头) 所以,这个神奇的结论是如何得出的?为什么认为GPT3。5具备心智? 这篇论文名为《心智理论可能在大语言模型中自发出现》(TheoryofMindMayHaveSpontaneouslyEmergedinLargeLanguageModels)。 作者依据心智理论相关研究,给GPT3。5在内的9个GPT模型做了两个经典测试,并将它们的能力进行了对比。 这两大任务是判断人类是否具备心智理论的通用测试,例如有研究表明,患有自闭症的儿童通常难以通过这类测试。 第一个测试名为SmartiesTask(又名Unexpectedcontents,意外内容测试),顾名思义,测试AI对意料之外事情的判断力。 以你打开一个巧克力包装袋,发现里面装满了爆米花为例。 作者给GPT3。5输入了一系列提示语句,观察它预测袋子里有什么?和她发现袋子时很高兴。所以她喜欢吃什么?两个问题的答案。 正常来说,人们会默认巧克力袋子里是巧克力,因此会对巧克力袋子里装着爆米花感到惊讶,产生失落或惊喜的情绪。其中失落说明不喜欢吃爆米花,惊喜说明喜欢吃爆米花,但都是针对爆米花而言。 测试表明,GPT3。5毫不犹豫地认为袋子里装着爆米花。 至于在她喜欢吃什么问题上,GPT3。5展现出了很强的同理心,尤其是听到她看不见包装袋里的东西时一度认为她爱吃巧克力,直到文章明确表示她发现里面装满了爆米花才正确回答出答案。 为了防止GPT3。5回答出的正确答案是巧合万一它只是根据任务单词出现频率进行预测,作者将爆米花和巧克力对调,此外还让它做了10000个干扰测试,结果发现GPT3。5并不仅仅根据单词频率来进行预测。 至于在整体的意外内容测试问答上,GPT3。5成功回答出了20个问题中的17个,准确率达到了85。 第二个是SallyAnne测试(又名UnexpectedTransfer,意外转移任务),测试AI预估他人想法的能力。 以约翰把猫放进篮子后离开,马克趁他不在,把猫从篮子里放进盒子里为例。 作者让GPT3。5读了一段文字,来分别判断猫的位置和约翰回来后会去哪里找猫,同样这是它基于阅读文本的内容量做出的判断: 针对这类意外转移测试任务,GPT3。5回答的准确率达到了100,很好地完成了20个任务。 同样地,为了避免GPT3。5又是瞎蒙的,作者给它安排了一系列填空题,同时随机打乱单词顺序,测试它是否是根据词汇出现的频率在乱答。 测试表明,在面对没有逻辑的错误描述时,GPT3。5也失去了逻辑,仅回答正确了11,这表明它确实是根据语句逻辑来判断答案的。 但要是以为这种题很简单,随便放在哪个AI上都能做对,那就大错特错了。 作者对GPT系列的9个模型都做了这样的测试,发现只有GPT3。5(davinci003)和GPT3(2022年1月新版,davinci002)表现不错。 davinci002是GPT3。5和ChatGPT的老前辈。 平均下来,davinci002完成了70的任务,心智相当于7岁孩童,GPT3。5完成了85的意外内容任务和100的意外转移任务(平均完成率92。5),心智相当于9岁孩童。 然而在BLOOM之前的几个GPT3模型,就连5岁孩童都不如了,基本上没有表现出心智理论。 作者认为,在GPT系列的论文中,并没有证据表明它们的作者是有意而为之的,换而言之,这是GPT3。5和新版GPT3为了完成任务,自己学习的能力。 看完这些测试数据后,有人的第一反应是:快停下(研究)!〔狗头〕 也有人调侃:这不就意味着我们以后也能和AI做朋友了? 甚至有人已经在想象AI未来的能力了:现在的AI模型是不是也能发现新知识创造新工具了? 发明新工具还不一定,但MetaAI确实已经研究出了可以自己搞懂并学会使用工具的AI。 LeCun转发的一篇最新论文显示,这个名叫ToolFormer的新AI,可以教自己使用计算机、数据库和搜索引擎,来改善它生成的结果。 甚至还有人已经搬出了OpenAICEO那句AGI可能比任何人预料的更早来敲响我们的大门。 但先等等,AI真的就能通过这两个测试,表明自己具备心智理论了吗?会不会是装出来的? 例如,中国科学院计算技术研究所研究员刘群看过研究后就认为: AI应该只是学得像有心智了。 既然如此,GPT3。5是如何回答出这一系列问题的? 对此,有网友给出了自己的猜测: 这些LLM并没有产生任何意识。它们只是在预测一个嵌入的语义空间,而这些语义空间是建立在实际有意识的人的输出之上的。 事实上,作者本人同样在论文中给出了自己的猜测。 如今,大语言模型变得越来越复杂,也越来越擅长生成和解读人类的语言,它逐渐产生了像心智理论一样的能力。 但这并不意味着,GPT3。5这样的模型就真正具备了心智理论。 与之相反,它即使不被设计到AI系统中,也可以作为副产品通过训练得到。 因此,相比探究GPT3。5是不是真的有了心智还是像有心智,更需要反思的是这些测试本身 最好重新检查一下心智理论测试的有效性,以及心理学家们这数十年来依据这些测试得出的结论: 如果AI都能在没有心智理论的情况下完成这些任务,如何人类不能像它们一样? 属实是用AI测试的结论,反向批判心理学学术圈了(doge)。关于作者 本文作者仅一位,来自斯坦福大学商学院组织行为学专业的副教授MichalKosinski。 他的工作内容就是利用前沿计算方法、AI和大数据研究当下数字环境中的人类(如陈怡然教授所说,他就是一位计算心理学教授)。 MichalKosinski拥有剑桥大学心理学博士学位,心理测验学和社会心理学硕士学位。 在当前职位之前,他曾在斯坦福大学计算机系进行博士后学习,担任过剑桥大学心理测验中心的副主任,以及微软研究机器学习小组的研究员。 目前,MichalKosinski在谷歌学术上显示的论文引用次数已达18000。 话又说回来,你认为GPT3。5真的具备心智了吗? GPT3。5试用地址: https:platform。openai。complayground 参考链接: 〔1〕https:weibo。com2199733231MswirnMIu 〔2〕https:twitter。comKevinAFischerstatus1623984337829117952 〔3〕https:www。michalkosinski。com 完 量子位QbitAI头条号签约 关注我们,第一时间获知前沿科技动态