让AI指点人类如何社交?新实验表明AI在合作妥协方面更出色


    经过研究人员的合作,Facebook、谷歌和推特的邮件评论机器人的表现比他们的人类同行更出色。
    本文来自于Brigham Young University,在那里研究人员们开发了一种算法,该算法不仅能教机器如何去赢得游戏,还能合作和妥协——有时还会互喷。
    众所周知,如今的人工智能会下象棋,并且在其他的零和游戏中也能时而击败人类中的佼佼者。
    但如果是在合作和妥协方面,而不是竞争方面,人工智能的表现又会如何?
    在由BYU计算机科学教授Jacob Crandall和Michael Goodrich创建的新算法的帮助下,麻省理工学院和其他国际大学的同事们实验表明,机器的妥协与合作不仅是可能的,而且有时甚至比人类更有效。
    Crandall说:“最终的目标是,我们要理解与人合作背后的数学原理,以及人工智能需要什么属性来发展社交技能。”
    “人工智能需要能够对我们做出回应,并清楚地说明它在做什么。它必须能够与他人互动。”
    在这项研究中,研究人员用一种名为“S#”的算法对机器进行编程,并通过各种各样的二人游戏来运行它们,看看它们在某些关系中能达到多好的合作程度。
    团队测试了双机模式、人机交互模式和双人模式。
    在大多数情况下,使用s#编程的人工智能机器在寻找对双方都有利的折衷方案时优于人类。
    Crandall说:“两个人,如果他们彼此坦诚相待,互相忠诚,就会像两台机器一样。”“但事实上,大约有一半的人都在某一时刻撒了谎。”
    “从本质上讲,这个特殊的算法在学习道德特征的方面干得很好。它的程序被设定为永不说谎,而且即使有人撒谎,它也学会了继续保持合作。”
    研究人员进一步加强了机器的合作能力,通过一系列“无用的话语”(cheap talk)来进行编程。
    在测试中,如果人类参与者与机器合作,机器可能会以多种鼓励语言来回应,如:“很好,我们有所进展了”、“我接受你最后的提议。”
    如果参与者试图背叛机器或打破约定,他们可能会被喷:“诅咒你!”、“你会为此付出代价的!”甚至是某些脏话。
    无论是在游戏还是配对中,这些“无用的话语”使合作的数量增加了一倍。
    当机器使用这些语言时,他们的人类对手常常无法分辨他们是在和人类还是机器交谈。
    Crandall希望这项研究结果能对人际关系造成长期的影响。
    他说:“在社会上,人际关系总是会破裂。多年的朋友可能突然变成了敌人。因为机器往往比我们更擅长达成这些妥协,它将能教会我们如何做得更好。”