CompModCogPsy
  • 全书介绍和写作计划
  • 第一章 计算认知科学导论
    • 前言
    • 1.1 交叉学科三角
    • 1.2 认知科学的特点
    • 1.3 认知科学的发展历史
    • 1.4 我们为什么需要计算认知
      • 1.4.1 认知科学的基础假设:信息处理理论
      • 1.4.2 挑战与“诞生”
      • 1.4.3 计算认知的必要性
  • 第二章 计算模型基础
    • 2.1 什么是计算模型?
    • 2.2 模型选择
    • 2.3 模型拟合
    • 2.4 模型准确度
    • 2.5 模型可信度
  • 第三章 概率推断和贝叶斯理论
    • 3.1 概率基础
    • 3.2 概率推断
      • 3.2.1 似然函数
      • 3.2.2 最大似然估计
    • 3.3 贝叶斯理论
    • 3.4 拓展阅读:p值
    • 3.5 编程练习-最大似然估计
  • 第四章 心理物理学和信号检测论
    • 心理物理学基础
    • 心理物理曲线
      • 几种常见的心理物理曲线
      • 拟合心理物理曲线
    • 信号检测论
      • dprime
      • 决策标准
      • receiver operating curve (ROC)曲线和area under curve (AUC)
      • dprime和AUC的关系
      • 2AFC的应用
      • Page
    • 展望
  • 第五章 近似推断
    • 马尔科夫链蒙特卡洛采样
      • Metropolis-Hasting算法
    • 变分推断
    • 展望
  • 第六章 知觉决策
    • 模拟一个简单知觉决策
    • 模拟决策和反应时
    • 权衡反应时和正确率
    • 6.4 经典漂移扩散模型
    • 漂移扩散模型的应用
      • 基于价值的决策
      • 精神疾病的应用
      • 社会认知
    • 展望
  • 第七章 价值决策
    • 人类决策基础
    • 前景理论
    • 风险决策
    • 展望
  • 第八章 强化学习
    • 机器学习强化学习基础
      • 动态规划
      • 时间差分学习
      • 基于模型和无模型强化学习
    • 心理学的强化学习
    • 强化学习的交叉关系
    • 强化学习模型和参数估计
    • Rescorlar-wagner模型
    • 二阶段任务
    • 展望
  • 第九章 社会决策和社会学习
    • 社会决策
    • 社会学习
    • 展望
  • 第十章 神经网络
    • 神经网络和心理学引言
    • 神经网络基础
      • 多层感知机
      • 卷积神经网络
      • 循环神经网络
    • 神经网络和人脑加工的关系
      • 感知觉的编解码
      • 工作记忆
      • 长时记忆
      • 学习和决策
    • 展望
由 GitBook 提供支持
在本页
  • (一)符号主义
  • (二)连结主义
  • 连接主义的发展历史
  1. 第一章 计算认知科学导论
  2. 1.4 我们为什么需要计算认知

1.4.1 认知科学的基础假设:信息处理理论

最后更新于8个月前

认知科学的基础假设是将认知视为一个信息处理(information processing)的过程。简言之,认知就是一个计算过程,而这个计算过程的本质则是对信息的处理。关于我们如何进行信息处理,学术界存在多种不同的理论,其中最具代表性的是符号主义和连接主义两大流派。

(一)符号主义

符号操纵理论(symbol manipulation theory)认为,信息处理过程实际上是对符号的操控,其中符号是外界信息在大脑中的抽象表征,而操控则是基于一系列规则的操作。该理论的核心观点是,人类的思维可以通过对符号的规则化操作来完成复杂的认知活动。符号操纵理论广泛应用于语言理解、问题解决、专家系统及思维过程等多个领域。

的研究是符号操纵理论的经典应用之一。他认为,语言的生成和理解可以通过大脑对语法规则和符号的操作来实现。乔姆斯基的模型将语言视为符号操纵的过程,通过规则化地操作这些符号,大脑得以理解和生成复杂的语言结构。例如,句子“The girl saw the boy with the telescope.”就有多种理解方式(“The girl / saw / the boy with the telescope” vs “The girl / saw / the boy / with the telescope”),而每种理解在大脑中都对应着不同的符号操纵过程。

符号操纵理论还广泛应用于专家系统(expert systems)的开发。爱德华·费根鲍姆(Edward Feigenbaum)在20世纪60年代推动了专家系统的发展,认为人工智能可以通过模拟专家的推理和决策来解决专业领域的复杂问题。专家系统通过符号化表达知识,并对其进行规则化处理,帮助解决医学诊断、法律决策和技术支持等领域的复杂问题。例如,1995年获得“北大青鸟杯”一等奖的人格测评专家系统就是这一理论的实际应用。

人类问题解决模型也是符号操纵理论的一个典型例子。赫伯特·西蒙(Herbert Simon)和艾伦·纽厄尔(Allen Newell)于1958年提出了一个重要假设,即人类的问题解决过程可以通过计算机程序来模拟。他们开发的通用问题解决器(General Problem Solver, GPS)基于符号操纵和搜索算法,模拟人类在解决复杂问题时的思维过程。这一模型能够通过逐步搜索符号空间,解决各种认知任务。IBM开发的深蓝(Deep Blue)计算机就是这一思想的成功应用,它在1997年打败了国际象棋世界冠军,成为历史上第一个在标准国际象棋比赛中战胜卫冕冠军的计算机系统。

此外,艾伦·纽厄尔还提出了统一思维理论(Unified Theory of Thought),试图为推理、决策、记忆、学习和感知等认知活动提供一个统一的理论框架。他开发的SOAR(State, Operator, And Result)智能系统是这一理论的具体体现。SOAR通过将问题表示为状态(State)、解决方案为操作员(Operator)以及操作后的结果为新的状态或解决方案(Result),模拟人类在复杂任务中的问题解决方式。SOAR不仅成为认知建模的重要框架之一,还对人工智能的发展,尤其是在问题解决和智能代理的研究中产生了深远影响。

然而,符号主义也有其局限性。诸如SOAR等系统依赖规则集(如if-then语句)进行运作,这些规则决定了系统如何处理信息和做出决策。规则驱动的系统在解决结构良好的问题(well-defined problems)时表现最佳,这类问题通常具有明确的初始条件、清晰的规则和目标状态。国际象棋和数学定理证明就是结构良好的问题的典型例子。然而,面对“不良设定问题”(ill-posed problems)时,基于规则的系统则显得力不从心。这类问题往往缺乏明确的初始条件或规则,或者其解决方案不唯一,如语音识别、语言翻译和物体识别等任务。因此,模拟大脑的信息处理方式来应对复杂、多变和不确定的问题成为必要,这也是连接主义兴起的原因之一。

(二)连结主义

连接主义以神经网络模型为基础,旨在解释和模拟人类大脑的信息处理机制。通过模仿大脑的生物结构,连接主义认为人类的认知过程可以通过一个由大量简单计算单元(类似于神经元)组成的网络来实现。这些计算单元通过加权连接相互作用,并通过学习算法调整权重,从而使整个网络能够完成复杂的信息处理任务。简而言之,认知是神经网络中并行分布式处理的结果。

Andy Clark 是具身认知(embodied cognition)和连接主义的代表性人物之一。他提出,认知不仅仅是大脑内部的计算过程,还与身体及环境的互动密切相关。Clark 认为,大脑的神经网络在与身体和环境的交互中发挥关键作用,因此,认知不能脱离具身环境来理解。连接主义的分布式模型很好地阐释了这种认知与具身交互的特征。Clark 的研究促使认知科学更加关注身体在认知中的作用,例如身体的运动和感觉如何影响学习和决策。

并行分布处理(Parallel Distributed Processing, PDP)模型由大卫·鲁梅尔哈特(David Rumelhart)和詹姆斯·麦克莱兰德(James McClelland)于1986年提出,其核心内容体现在《并行分布式处理》系列著作中。PDP模型强调,认知过程是通过多个简单计算单元(类似神经元)之间的并行处理来实现的。信息的表征和处理不是集中在某一处完成的,而是通过网络中多个神经元的同时活动得以实现。概括来说,PDP模型具有以下三个主要特点:

  • 输入处理器检测信号,并将其转换为输出处理器的活动响应;

  • 网络中的输入-输出关系由连接权重决定,这些权重不是通过固定编程规则设定的,而是通过学习规则进行调整;

  • PDP模型中的人工神经网络具备自学习能力,能够通过观察大量示例数据调整权重,从而学习如何执行特定任务。

PDP展示了神经网络的强大自适应性,能够不断优化其功能以应对复杂的信息处理需求。

由此可见,连接主义与符号主义存在显著差异。符号主义认为大脑像一个通过中心控制器管理的符号操作系统,而连接主义则视大脑为一个去中心化的并行分布式网络。在结构和过程上,符号主义依赖明确的规则来操作独立的符号,而连接主义的结构和过程密不可分,是通过分布式系统实现的。在信息处理上,符号主义基于逻辑推理,适合处理结构化信息;连接主义则基于动态的统计模式识别,更适合处理复杂、非结构化的信息。连接主义的分布式并行处理与大脑的实际工作方式更加接近。

连接主义的发展历史

连接主义认知科学的发展具有漫长的历史,其早期的两个里程碑事件分别是MCP模型(McCulloch and Pitts Model)的提出和感知机(Perceptron)的发明。两者之间的关键区别在于权重的可调性。1943年,麦卡洛克(McCulloch)和皮茨(Pitts)提出了早期的人工神经网络模型——麦卡洛克-皮茨神经元模型(MCP Model)。该模型是对人脑神经元信息处理机制的简化模拟,它基于还原论的核心思想,即“复杂性源于简单性”,对神经网络进行了去生物化、去非线性化和二值化处理。MCP模型的提出,为后来的神经网络研究奠定了坚实的基础。其经典公式如下:

Sum=∑i=1NIiWiSum=\sum_{i=1}^{N} I_iW_iSum=i=1∑N​Ii​Wi​
f(Sum)={1,if Sum≥T0,otherwise f(Sum) = \left\{ \begin{array}{ll} 1, & \text{if } Sum \geq T \\ 0, & \text{otherwise } \end{array} \right.f(Sum)={1,0,​if Sum≥Totherwise ​

其中, IiI_iIi​ 代表第iii个输入信号的强度,WiW_iWi​ 代表与输入信号IiI_iIi​ 对应的权重,N NN代表输入信号的总数。通过将每个输入信号 IiI_iIi​ 与其对应的权重 WiW_iWi​ 相乘并相加,可以得到总的加权输入SumSumSum。激活函数y(Sum)y(Sum)y(Sum)决定神经元的输出。当总加权和SumSumSum大于或等于某个阈值TTT 时,输出为1(即神经元被激活);否则,输出为0(即神经元未被激活)。在MCP模型中,权重是不可调节的。

1950年代,弗兰克·罗斯伯拉特(Frank Rosenblatt)开发了感知机(Perceptron),这与MCP模型有着显著不同(见图2)。感知机不仅可以从示例中学习,还能够识别模式并进行分类,这标志着机器学习领域的一项重大进步。罗斯伯拉特的目标是创造一种能够“感知、识别、记忆并做出响应”的机器,模拟人类大脑的某些认知功能和学习过程。这是早期尝试建立智能机器的一个重要努力,感知机通过调节权重来进行学习,受到了Hebb原理的启发。

然而,连接主义的进一步发展遇到了瓶颈。一个关键的问题是,简单的单层感知机具有线性特性,无法解决XOR(异或)问题(图3)。XOR问题是一个经典的逻辑问题,涉及两位输入变量的异或运算。其模式为:输入(0, 0)→输出0,输入(0, 1)→输出1,输入(1, 0)→输出1,输入(1, 1)→输出0。该问题的特点是非线性可分的,即没有一条直线可以完全分开所有正负样本。在1961年,马文·明斯基(Marvin Minsky)和西摩尔·帕普特(Seymour Papert)在《感知机》(Perceptrons)一书中指出,单层感知机的决策边界是线性的,只能解决线性可分问题,无法通过简单的线性组合解决XOR问题。他们的著作揭示了简单神经网络在处理非线性问题上的局限性,但也为后来的多层神经网络发展奠定了基础。

1986年,David Rumelhart、Geoffrey Hinton 和 Ronald Williams 发表了关于反向传播算法(Backpropagation)的重要论文。反向传播算法是一种有效训练多层感知机的方法,通过计算误差梯度并将其反向传播来更新网络权重,使得网络能够学习并提升性能。多层感知机指的是具有一个或多个隐藏层的神经网络。与单层感知机不同,多层感知机通过增加隐藏层来处理非线性问题。每层的神经元通过激活函数引入非线性,使网络能够拟合更复杂的函数。反向传播算法的引入使得训练深层网络成为可能,大大推动了神经网络的发展。

1995年,Vladimir Vapnik 和 Alexey Chervonenkis 提出了支持向量机(Support Vector Machine, SVM),这是一种强大的监督学习模型,适用于分类和回归任务。SVM通过在高维空间中寻找最佳超平面来实现数据分类,具有良好的泛化能力和处理高维数据的优势。SVM的引入对机器学习领域产生了深远影响,并在众多实际应用中广泛使用。

2006年,Geoffrey Hinton 及其同事提出了一系列深度学习模型和技术,标志着深度学习时代的到来。深度学习利用深层神经网络(即多层网络)自动提取和学习特征,极大地提升了在图像识别、语音处理和自然语言处理等领域的性能。深度学习的飞速发展得益于大规模数据集的可获取性和计算能力(特别是GPU的广泛应用)的提高。

与此同时,连接主义也面临一些争议。例如,许多认知科学家认为连接主义是对行为主义的“复辟”。这一观点主要源于行为主义的代表人物约翰·华生(John B. Watson)的主张,他认为可以通过精心设计的环境来影响个体的行为和能力,甚至改变他们的职业道路。类似地,端到端学习(End-to-End Learning)反映了类似的理念,即通过一个统一的模型(如深度神经网络)来自动学习和提取特征,直接从输入到输出进行训练。在这种方法下,学习过程被统一处理,模型能够自我调整和优化,以完成特定任务。此外,Zenon Pylyshyn 指出,人工神经网络的学习规则往往需要强大的计算能力和大量数据。这意味着,要让神经网络有效学习并展现出所谓的“智能”,需要消耗大量的计算资源和数据资源。同时,人们对通过某种“神秘的、类似科学怪人的方式”(如巫毒般的神秘过程)获得智能的前景感到着迷,尽管这种方式背后缺乏清晰的、可解释的机制。然而,Pylyshyn 也承认,尽管神经网络似乎以一种“神秘的方式”来实现智能,它确实是少数在这一领域相对成功的方法之一。

总体而言,尽管人工神经网络在某些任务中取得了显著的成果,但这些成功往往依赖于巨大的计算和数据资源,并且其内部机制缺乏透明性和解释性。批评者的观点提醒我们,在追求人工智能的过程中,仍然需要保持科学的理性和批判性思考。

图1 Noam Chomsky的语言理解模型示例。图中展示了人们看到“The girl saw the boy with the telescope.”时的两种可能的符号操纵过程。
图2 受生物大脑的组织启发的感知机。红色区域表示对字母X有反应的活跃细胞。
图3 简单人工神经网络的限制。XOR问题是非线型可分的,单层感知机(即只有一层权重的神经网络)无法解决。