1.4.1 认知科学的基础假设:信息处理理论
最后更新于
最后更新于
认知科学的基础假设是将认知视为一个信息处理(information processing)的过程。简言之,认知就是一个计算过程,而这个计算过程的本质则是对信息的处理。关于我们如何进行信息处理,学术界存在多种不同的理论,其中最具代表性的是符号主义和连接主义两大流派。
符号操纵理论(symbol manipulation theory)认为,信息处理过程实际上是对符号的操控,其中符号是外界信息在大脑中的抽象表征,而操控则是基于一系列规则的操作。该理论的核心观点是,人类的思维可以通过对符号的规则化操作来完成复杂的认知活动。符号操纵理论广泛应用于语言理解、问题解决、专家系统及思维过程等多个领域。
的研究是符号操纵理论的经典应用之一。他认为,语言的生成和理解可以通过大脑对语法规则和符号的操作来实现。乔姆斯基的模型将语言视为符号操纵的过程,通过规则化地操作这些符号,大脑得以理解和生成复杂的语言结构。例如,句子“The girl saw the boy with the telescope.”就有多种理解方式(“The girl / saw / the boy with the telescope” vs “The girl / saw / the boy / with the telescope”),而每种理解在大脑中都对应着不同的符号操纵过程。
符号操纵理论还广泛应用于专家系统(expert systems)的开发。爱德华·费根鲍姆(Edward Feigenbaum)在20世纪60年代推动了专家系统的发展,认为人工智能可以通过模拟专家的推理和决策来解决专业领域的复杂问题。专家系统通过符号化表达知识,并对其进行规则化处理,帮助解决医学诊断、法律决策和技术支持等领域的复杂问题。例如,1995年获得“北大青鸟杯”一等奖的人格测评专家系统就是这一理论的实际应用。
人类问题解决模型也是符号操纵理论的一个典型例子。赫伯特·西蒙(Herbert Simon)和艾伦·纽厄尔(Allen Newell)于1958年提出了一个重要假设,即人类的问题解决过程可以通过计算机程序来模拟。他们开发的通用问题解决器(General Problem Solver, GPS)基于符号操纵和搜索算法,模拟人类在解决复杂问题时的思维过程。这一模型能够通过逐步搜索符号空间,解决各种认知任务。IBM开发的深蓝(Deep Blue)计算机就是这一思想的成功应用,它在1997年打败了国际象棋世界冠军,成为历史上第一个在标准国际象棋比赛中战胜卫冕冠军的计算机系统。
此外,艾伦·纽厄尔还提出了统一思维理论(Unified Theory of Thought),试图为推理、决策、记忆、学习和感知等认知活动提供一个统一的理论框架。他开发的SOAR(State, Operator, And Result)智能系统是这一理论的具体体现。SOAR通过将问题表示为状态(State)、解决方案为操作员(Operator)以及操作后的结果为新的状态或解决方案(Result),模拟人类在复杂任务中的问题解决方式。SOAR不仅成为认知建模的重要框架之一,还对人工智能的发展,尤其是在问题解决和智能代理的研究中产生了深远影响。
然而,符号主义也有其局限性。诸如SOAR等系统依赖规则集(如if-then语句)进行运作,这些规则决定了系统如何处理信息和做出决策。规则驱动的系统在解决结构良好的问题(well-defined problems)时表现最佳,这类问题通常具有明确的初始条件、清晰的规则和目标状态。国际象棋和数学定理证明就是结构良好的问题的典型例子。然而,面对“不良设定问题”(ill-posed problems)时,基于规则的系统则显得力不从心。这类问题往往缺乏明确的初始条件或规则,或者其解决方案不唯一,如语音识别、语言翻译和物体识别等任务。因此,模拟大脑的信息处理方式来应对复杂、多变和不确定的问题成为必要,这也是连接主义兴起的原因之一。
输入处理器检测信号,并将其转换为输出处理器的活动响应;
网络中的输入-输出关系由连接权重决定,这些权重不是通过固定编程规则设定的,而是通过学习规则进行调整;
PDP模型中的人工神经网络具备自学习能力,能够通过观察大量示例数据调整权重,从而学习如何执行特定任务。
其中, 代表第个输入信号的强度, 代表与输入信号 对应的权重,代表输入信号的总数。通过将每个输入信号 与其对应的权重 相乘并相加,可以得到总的加权输入。激活函数决定神经元的输出。当总加权和大于或等于某个阈值 时,输出为1(即神经元被激活);否则,输出为0(即神经元未被激活)。在MCP模型中,权重是不可调节的。
1950年代,弗兰克·罗斯伯拉特(Frank Rosenblatt)开发了感知机(Perceptron),这与MCP模型有着显著不同(见图2)。感知机不仅可以从示例中学习,还能够识别模式并进行分类,这标志着机器学习领域的一项重大进步。罗斯伯拉特的目标是创造一种能够“感知、识别、记忆并做出响应”的机器,模拟人类大脑的某些认知功能和学习过程。这是早期尝试建立智能机器的一个重要努力,感知机通过调节权重来进行学习,受到了Hebb原理的启发。
然而,连接主义的进一步发展遇到了瓶颈。一个关键的问题是,简单的单层感知机具有线性特性,无法解决XOR(异或)问题(图3)。XOR问题是一个经典的逻辑问题,涉及两位输入变量的异或运算。其模式为:输入(0, 0)→输出0,输入(0, 1)→输出1,输入(1, 0)→输出1,输入(1, 1)→输出0。该问题的特点是非线性可分的,即没有一条直线可以完全分开所有正负样本。在1961年,马文·明斯基(Marvin Minsky)和西摩尔·帕普特(Seymour Papert)在《感知机》(Perceptrons)一书中指出,单层感知机的决策边界是线性的,只能解决线性可分问题,无法通过简单的线性组合解决XOR问题。他们的著作揭示了简单神经网络在处理非线性问题上的局限性,但也为后来的多层神经网络发展奠定了基础。
1986年,David Rumelhart、Geoffrey Hinton 和 Ronald Williams 发表了关于反向传播算法(Backpropagation)的重要论文。反向传播算法是一种有效训练多层感知机的方法,通过计算误差梯度并将其反向传播来更新网络权重,使得网络能够学习并提升性能。多层感知机指的是具有一个或多个隐藏层的神经网络。与单层感知机不同,多层感知机通过增加隐藏层来处理非线性问题。每层的神经元通过激活函数引入非线性,使网络能够拟合更复杂的函数。反向传播算法的引入使得训练深层网络成为可能,大大推动了神经网络的发展。
1995年,Vladimir Vapnik 和 Alexey Chervonenkis 提出了支持向量机(Support Vector Machine, SVM),这是一种强大的监督学习模型,适用于分类和回归任务。SVM通过在高维空间中寻找最佳超平面来实现数据分类,具有良好的泛化能力和处理高维数据的优势。SVM的引入对机器学习领域产生了深远影响,并在众多实际应用中广泛使用。
2006年,Geoffrey Hinton 及其同事提出了一系列深度学习模型和技术,标志着深度学习时代的到来。深度学习利用深层神经网络(即多层网络)自动提取和学习特征,极大地提升了在图像识别、语音处理和自然语言处理等领域的性能。深度学习的飞速发展得益于大规模数据集的可获取性和计算能力(特别是GPU的广泛应用)的提高。
与此同时,连接主义也面临一些争议。例如,许多认知科学家认为连接主义是对行为主义的“复辟”。这一观点主要源于行为主义的代表人物约翰·华生(John B. Watson)的主张,他认为可以通过精心设计的环境来影响个体的行为和能力,甚至改变他们的职业道路。类似地,端到端学习(End-to-End Learning)反映了类似的理念,即通过一个统一的模型(如深度神经网络)来自动学习和提取特征,直接从输入到输出进行训练。在这种方法下,学习过程被统一处理,模型能够自我调整和优化,以完成特定任务。此外,Zenon Pylyshyn 指出,人工神经网络的学习规则往往需要强大的计算能力和大量数据。这意味着,要让神经网络有效学习并展现出所谓的“智能”,需要消耗大量的计算资源和数据资源。同时,人们对通过某种“神秘的、类似科学怪人的方式”(如巫毒般的神秘过程)获得智能的前景感到着迷,尽管这种方式背后缺乏清晰的、可解释的机制。然而,Pylyshyn 也承认,尽管神经网络似乎以一种“神秘的方式”来实现智能,它确实是少数在这一领域相对成功的方法之一。
总体而言,尽管人工神经网络在某些任务中取得了显著的成果,但这些成功往往依赖于巨大的计算和数据资源,并且其内部机制缺乏透明性和解释性。批评者的观点提醒我们,在追求人工智能的过程中,仍然需要保持科学的理性和批判性思考。