大数据文摘授权转载自数据实战派本文基于谷歌大脑团队成员BeenKim于ICLR的主题演讲。目前我们还不了解人工智能所能做的一切。人工智能在许多场景得到应用,比如从序列中预测蛋白质的结构与功能(如AlphaFold和ProtENN),语义理解与语言生成(如GPT-3和PaLM)等等。人工智能也被人们用来辅助决策。举个例子,人工智能被用来帮助医生对患者进行分类,并在医生不在时提供辅助诊断。正如谷歌健康的自动视网膜疾病评估系统(ARDA)那样,使用人工智能帮助医护人员检测糖尿病引起的视网膜病变。很明显,在许多任务中我们都不得不与人工智能展开紧密合作。许多邻域内的人才正联手实现这一点,并取得了巨大的成功。然后,人工智能有时候会做一些我们无法理解的惊人的事情。例如,在年,AlphaGo以著名的“move37”击败了世界围棋冠军LeeSedol。围棋九段评论员称“这是非常奇怪的一步棋,并将以此改变比赛的进程”。许多围棋选手至今仍对此耿耿于怀,称之为“超出所有人理解范围的一步”。AlphaGo是如何走出这一看似奇怪但却决定了命运的一步?人工智能仍在继续变得更复杂,更强大,更智能。如果我们能通过提问的方式,来了解人工智能是如何做出预测的那不是很好吗?不幸的是,目前我们还没有合适的语言来和人工智能交流。
一种与人工智能交流的语言
人工智能将做出愈发复杂和重要的决策,但是他们可能会在违背我们价值观的不同的标准上做出这些决策。因此,我们需要一种与人工智能对话的语言,以实现人工智能能在符合社会准则的基础上做出决策。BrianChristian的书《Thealignmentproblem》对此进行了很有意义的讨论,书中指出,保持一致的问题的本质是意图(我们追求的目标)和结果(我们输入进人工智能的目标)之间的脱节。我很喜欢这本书,不仅仅是因为它引用了一些我的成果,还因为Briam一阵见血地指出:这门语言的最终目标是让人工智能和我们的价值观保持一直。就好比我们刚接触一个新同事的时候,为了能更好地与他合作,我们都会通过言语交流来了解他的工作方式,长处和短处。我们和人工智能的工作关系也应该如此。这种保持一致的问题来自于表征空间的差异。直观的说,人类所知道的事物的空间(即表征空间,对人类有意义的东西)和机器所了解的不一样,可能会有一些重叠,但很有可能大部分情况下,我们的了解和机器的了解相互独立。例如,每种语言中的每个句子都可以被视为空间中的一个点,我可以说“猫很大”,你就会明白我的意思,然而“Gomove37”可能只存在于那些机器才能懂的表征空间。理想情况下,这两种空间会有一一对应的关系,但是这过于理想了。这甚至在两个人之间都不会存在。表征空间的错位使得向机器表达和传达我们的价值观困难重重。这种人工智能语言的目的在于,通过于机器的对话和协作来扩展我们的认知,从而增加两种表征空间的重叠区域。了解更多关于机器的知识将使我们能够制造出更符合我们期待的机器。这种语言可能一点也不像人类的语言。它可能没有名词,动词或者句子,但它可能有一些能使我们与机器交互的元素或者媒介,比如图像,像素或者概念。由于我们改变了语言需要精确到的方面,我们需要开发多种语言,每种语言都需针对要实现的目标。比如,如果我们正在一同建造一座大桥,那么正确的安全标准就很重要。如果我们正在协作撰写一份外交文件,那么在国际语境中了解一个词的确切含义则至关重要。当然,语言的好坏取决于它协助达到目标的程度。人类已经为了不同的目标多次开发了不同的语言。比如我们发明数学语言来描述复杂且精确的理论,我们发明编程语言来传达指令以供计算机执行。
这种语言的两个关键之处
尽管我们还不清楚这种语言会是什么样子,但我们知道它应该满足如下两个条件:1.就像人类语言能传达人们的思想一样,这种语言要能反映机器的本质。2.这种语言要能扩展我们已知的知识,比如帮助我们理解AlphaGo的“move37”。1、反映机器的本质AlphaGo的“move37”是众多机器决策的例子之一,这些决策超出了我们的表征空间,这表明我们已经无法将机器分解为若干部分并完全理解每一个部分。这一点同样在机器行为学中得到了很好的阐释,且现已成为一个科研对象:我们必须同时在其独立和与人类交互的两种情况下同时研究它们的行为。我在ICLR的主题演讲中介绍了我在这方面的一些工作,包括:(1)孤立地研究机器-Gestalt知觉:研究机器与人类的知觉差异:机器的知觉是否会出现Gestalt现象?是的,但是只有当他们学会如何概括的时候[