×
工业控制 > 工业自动化 > 详情

人工智能的机器,计算机有可能拥有自己的意识吗?

发布时间:2020-06-04 发布时间:
|

人工智能的列车高速向前,模拟一个人脑、让计算机产生“意识”的可能性似乎比以前大了一点点。意识是什么、机器是否可能拥有意识,也就成了计算机科学家、神经科学家、数学家、哲学家越来越多探讨的课题,其中就包括1974年菲尔茨奖得大卫·芒福德(David Mumford)教授。

  

芒福德教授是早年哈佛的数学系担当,学术生涯起步于纯数学(代数曲线),随后将主要精力转向与计算机科学密切相关的应用数学。此外,他还熟悉物理、神经科学等领域,这篇文章就是他在综合学科背景下对于机器意识问题的思考。欢迎来稿讨论、交流与商榷。

  

人工智能的机器可能有意识吗?  

撰文 | 大卫·芒福德(David Mumford)

  

人工智能理论在我的人生里已经经历了六七个繁荣和萧条的轮回,有些时期人们信心满满地说计算机的智能很快就会达到人类水平,有些时期只有幻灭,似乎这是永远做不到的。在今天,我们正在最新的一轮繁荣之中,一些有远见的计算机科学家甚至更进一步,探问AI(这个缩写听起来就像新的生物形态)除了能达到人类的智能水平以外,是否还能拥有像我们这样的意识。还有些未来学家考虑的是一场更奇异疯狂、能改变生活的繁荣:我能不能将大脑和意识下载到硅片上,就此获得永生,也就是说人能不能变形为AI?

  

在上一次轮回的繁荣时期中,当时的疯狂预言是我们正在走向“奇点”,就是超级AI会创造一个全新世界的时间点,这会导致人类种族被取代而灭绝(预计会发生在2050年前后)。我承认在上半生曾经希望见证计算机第一次获得意识的那一刻,但现在我对此越发怀疑。也许这就是老人的消极看法,但可能也是因为我并不认为这个问题只跟计算机科学有关,而是同样关乎生物学、物理学、哲学,对了还有宗教。谁又有这样的专业知识来推算所有这些东西如何影响我们对意识的理解?

  

即使是谈论宗教对科学进步的任何影响,对于今天的知识分子来说都是要被逐出圈子的。但考虑一下这个问题:是否存在这样的信仰体系,其中人类很快就能永生的硅谷之梦与“灵魂不灭”的基督信条同时成立?对我来说,这两种信念似乎处于不同的宇宙,并不冲突。

  

顶级 AI 缺少了什么?

我先评述一下当前的AI热潮,还有为什么它即使目前大获成功,仍然终将走向破灭。在支撑新AI的代码中,最关键的角色是被称为“神经网络”的算法。然而,每个网络都有海量的被称为“权重”的参数需要先设定好,神经网络才能工作。要进行设定,我们就得用现实生活的数据集来“训练”这个网络,用的是另一个叫做“反向传播”的算法。由此得到的神经网络在得到一系列代表某种观察结果的数值作为输入之后,会输出给这串数据打上的一个标签。比如说,它可以将某个人面部图像的像素值表达作为输入,然后输出它对这个人性别的猜测。要训练这样的一个网络,需要向它灌输成千上万正确标注性别的人脸,然后逐步调整权重,使它作出的预测越来越准确。

  

神经网络是受大脑皮层真实回路的简化版启发而来的一种简单设计,它可以追溯到1934年麦卡洛克(McCulloch)和皮茨(Pitts)的一篇经典论文。而更重要的是在1974年,保罗·维博斯(Paul Werbos)在撰写博士论文时引入了反向传播,用以优化不计其数的权重,令它们能更好地处理一系列的输入,比如说人工标注过的数据集。

  

人们玩这个已经玩了40年,由杨立昆(Yan LeCun)等人推广,也取得了一些成效。但统计学家很怀疑它能否解决那些困难的问题,原因是所谓的偏差-方差权衡(bias-variance trade-off)。他们说,必须将算法训练用到的数据集大小与待学习的权重数量进行比较:如果权重数量不够,那么不可能对复杂的数据集进行精确建模;如果权重数量足够,那么就会对数据集独有的性质建模,而这些性质不会在新的数据上体现。那么现实中发生了什么?计算机速度极大提高,能训练拥有海量权重的神经网络,而数据集因为互联网的出现而变得越发庞大。

  

可谓天机玄妙,与统计学家的预测背道而驰的是,神经网络算法效果非常好,以某种方式神奇地回避了偏差-方差问题。我认为可以说没有人知道神经网络避免这个问题的方式或者原因。这是对理论统计学家的挑战。但人们用神经网络构建了各种具有实际意义的应用,比如说视觉、语音、语言的处理,医学诊断,还有游戏博弈,这些应用此前都被认为非常难以建模。最后是公关上的画龙点睛:神经网络的训练现在改称为“深度学习”。这样一来,谁又会怀疑AI的美丽新世界已经到来呢?

  

但是还有一座高峰需要攀登。在此前题为《语法并不只是语言的一部分》(Grammar isn‘t merely part of language)的文章中,我讨论了一种信念:所有形式的思考都需要语法。这意味着你的心灵会在世界中发现一些重复出现但不一定完全相同的模式。这些模式可以是物体外观的视觉排列,比如说处于同一直线上的点,或者人脸上眼睛的位置;也可以是言谈中的词语或者是简单的动作,比如说开车踩油门;甚至可以是抽象概念,比如说“忠诚”。不管带有模式的是哪一种观察结果或者思想,你会预计它重复出现,可以用来理解新的情景。作为成年人,我们思想中所有事物的构建都来自学到的可重复利用的模式,它们组成了一个层级结构,而情景、时间、计划或者思想,都可以用一棵由这些模式组成的“语法分析树”来表示。

  

但问题在于,最基本形式的神经网络并不能找到新的模式。它的运作就像黑箱,除了给输入贴标签以外什么都做不到,比如说不能告诉你“这个图像看上去有一张人脸”。在发现人脸的过程中,它也不会说:“我首先找到了眼睛,这样我就知道这张脸的其他部分应该在什么地方了。”它只会告诉你它得出的结论。我们需要能输出如下结果的算法:“我在绝大部分数据中找到了这样的模式,来给它起个名字吧。”这样它能输出的就不止是一个标签,还有对输入数据组成部分的分析。

  

跟这个愿景相关的是,我们可以闭上眼睛,想象一辆汽车的样子,上面有轮子、车门、引擎盖等等,利用这个我们就能将新数据组合起来。这就像是逆向运行一个神经网络,对每个输出标签都能产生对应的新输入数据。人们正在尝试改进神经网络来做到这一点,但现在效果仍未尽如人意。我们仍不知道这座高峰有多难攀登,但我觉得这个问题不解决,人工智能就无法靠近人类智能。

  

如果人工智能的目的是展示人类水平的智能,那么我们最好先定义人类智能到底是什么。心理学家当然在定义人类智能上花了大功夫。长久以来有个很流行的想法,也就是人类智能可以用一个度量——也就是智商——来完全确定。但是,智能的意思是不是说能解开电视节目《危险边缘》(Jeopardy!)中的谜题?还是能记住人生中更多事件的更多细节?或者是以高超技巧谱曲或者绘画?这些当然都是,但细想一下:什么是我们人类擅长并占据了我们大部分日常思考的事?应该是猜测另一位人类同胞有什么感受、目标和感情。更进一步的,什么才能影响这个人的感情和目标,使得我们可以与之协作、达成我们的目标?许多时候,这就是决定你人生是否成功的技能。

  

计算机科学家的确考虑过为其他客体的知识和计划建模的这项需要。一个有名的例子就是,想象有两位将军A和B,他们在两座面对面的山顶上,需要同时攻击山谷处的敌人,但他们之间的通讯只能穿过敌方阵线进行。A给B发了个信息:“明天出击?” B回答:“可以。”但B不知道自己的回复有没有到达,而A必须给B发送另外一道信息来确认已经收到了B之前的信息,为的是确保B会行动。为此需要发送更多的信息(实际上,要达到完全的共识,他们需要发送无穷无尽的信息)。

  

计算机科学家很清楚我们需要向AI赋予新的能力,使它能维护并构建各种模型,描述周遭其他客体的知识、目标与计划。这种能力必须包括知道自身知道什么不知道什么。但某种程度上来说,以目前的编程水平还是做得到这些的。

  

我们需要情绪#$@*&!

然而这个博弈论的世界缺少了人类思考的关键要素之一:情绪。没有情绪,就永远不可能和人类搞好关系。我觉得奇怪的是,就我所知,只有一位计算机科学家为情绪建模做过努力,那就是麻省理工学院媒体实验室的罗莎琳德·皮卡德(Rosalind Picard)。即使是对人类情绪总体的科学研究,似乎也陷于停滞,大体上被许多学科所忽视。比如弗兰斯·德瓦尔(Frans de Waal)在讨论动物情绪的新书《Mama的最后一次拥抱》(Mama‘s Last Hug)中对人类和动物的情绪就有这样的说法:

  

我们给不少情绪命了名,描述了它们的表达方式,记录了它们会出现的各种情况,但还缺少一个框架,用来定义这些情绪并探索它们带来的好处。

  

 


『本文转载自网络,版权归原作者所有,如有侵权请联系删除』

热门文章 更多
驱动器自动加锁保护数字内容存储安全