人工智能学会了探索其他计算机的思想

人工智能学会了探索其他计算机的思想
iStock.com/uzenzen
人工智能学会了探索其他计算机的思想

斯德哥尔摩 -任何与Siri或Alexa有过令人沮丧的互动的人都知道, 。 他们需要的是心理学家所谓的心理理论,即对他人信仰和欲望的认识。 现在,计算机科学家已经创建了一种人工智能(AI),可以探测其他计算机的“思想”并预测其行为,这是机器之间以及机器与人之间流畅协作的第一步。

“心理理论显然是一种至关重要的能力”,加利福尼亚大学伯克利分校的发展心理学家艾莉森·戈普尼克(Alison Gopnik)没有参与这项工作。 大约4岁时,人类儿童明白另一个人的信仰可能与现实不同,并且这些信念可用于预测人的未来行为。 今天的一些计算机可以标记面部表情,例如“快乐”或“愤怒” - 与心理理论相关的技能 - 但他们对人类情绪或激励我们的东西几乎没有理解。

新项目的开始是为了让人类了解计算机。 AI使用的许多算法并不完全由程序员编写,而是依赖于机器“学习”,因为它顺序解决问题。 由此产生的计算机生成的解决方案通常是黑盒子,算法太复杂,无法穿透人类洞察力。 因此,伦敦DeepMind的研究科学家Neil Rabinowitz及其同事创建了一种名为“ToMnet”的心理AI理论,并观察了其他AI,以了解它们可以了解它们的工作原理。

ToMnet包括三个神经网络,每个神经网络由小型计算元件和连接组成,这些元件和连接从经验中学习,与人类大脑非常相似。 第一个网络根据过去的行为来了解其他AI的倾向。 第二个形成对他们当前“信念”的理解。第三个接受来自其他两个网络的输出,并根据情况预测AI的下一步动作。

正在研究的AI是在虚拟房间移动的简单角色,收集点的彩色框。 ToMnet从上面看了房间。 在一次测试中,有三个“物种”的性格:一个看不到周围的房间,一个人不记得它最近的步骤,一个人都可以看到和记住。 盲人角色倾向于沿着墙壁,健忘者移动到最接近的任何物体,第三物种形成子目标,战略性地抓住特定顺序的物体以获得更多积分。 经过一些培训后,研究人员本月在国际机器学习大会上报告说,ToMnet不仅可以在几步之后识别出一个角色的物种,而且还可以 。

最后的测试显示,ToMnet甚至可以理解角色何时持有错误的信念,这是人类和其他动物心理理论发展的关键阶段。 在这个测试中,一种角色被编程为近视; 当计算机在游戏中途将景观改变超出其视野时,ToMnet准确地预测它会比那些更有可能适应的视力更好的角色更频繁地坚持原始路径。

Gopnik说这项研究 - 以及会议上的另一项研究表明AI可以来预测其他人工智能的行为 - 这是神经网络“ 学习技能”的“惊人”能力的例子。 但是,这仍然没有让它们与人类孩子处于同一水平,她说,即使他们以前从未遇到过,他们也可能以近乎完美的准确度通过这种错误信念任务。

剑桥麻省理工学院的心理学家和计算机科学家Josh Tenenbaum也致力于 。 他说ToMnet比他的团队系统更有效地推断信念,这个系统基于更抽象的概率推理形式而不是神经网络。 但他补充说,ToMnet的理解与其训练的环境更紧密地联系在一起,使得它无法预测全新环境中的行为,正如他的系统甚至幼儿所能做到的那样。 他说,在未来,结合方法可能会把这个领域带入“非常有趣的方向”。

Gopnik指出,计算机正在开发的那种社交能力不仅会改善与人类的合作,也可能会改善欺骗行为。 如果计算机理解错误的信念,它可能知道如何在人们中引导它们。 期待未来的扑克机器人掌握虚张声势的艺术。