CompModCogPsy
  • 全书介绍和写作计划
  • 第一章 计算认知科学导论
    • 前言
    • 1.1 交叉学科三角
    • 1.2 认知科学的特点
    • 1.3 认知科学的发展历史
    • 1.4 我们为什么需要计算认知
      • 1.4.1 认知科学的基础假设:信息处理理论
      • 1.4.2 挑战与“诞生”
      • 1.4.3 计算认知的必要性
  • 第二章 计算模型基础
    • 2.1 什么是计算模型?
    • 2.2 模型选择
    • 2.3 模型拟合
    • 2.4 模型准确度
    • 2.5 模型可信度
  • 第三章 概率推断和贝叶斯理论
    • 3.1 概率基础
    • 3.2 概率推断
      • 3.2.1 似然函数
      • 3.2.2 最大似然估计
    • 3.3 贝叶斯理论
    • 3.4 拓展阅读:p值
    • 3.5 编程练习-最大似然估计
  • 第四章 心理物理学和信号检测论
    • 心理物理学基础
    • 心理物理曲线
      • 几种常见的心理物理曲线
      • 拟合心理物理曲线
    • 信号检测论
      • dprime
      • 决策标准
      • receiver operating curve (ROC)曲线和area under curve (AUC)
      • dprime和AUC的关系
      • 2AFC的应用
      • Page
    • 展望
  • 第五章 近似推断
    • 马尔科夫链蒙特卡洛采样
      • Metropolis-Hasting算法
    • 变分推断
    • 展望
  • 第六章 知觉决策
    • 模拟一个简单知觉决策
    • 模拟决策和反应时
    • 权衡反应时和正确率
    • 6.4 经典漂移扩散模型
    • 漂移扩散模型的应用
      • 基于价值的决策
      • 精神疾病的应用
      • 社会认知
    • 展望
  • 第七章 价值决策
    • 人类决策基础
    • 前景理论
    • 风险决策
    • 展望
  • 第八章 强化学习
    • 机器学习强化学习基础
      • 动态规划
      • 时间差分学习
      • 基于模型和无模型强化学习
    • 心理学的强化学习
    • 强化学习的交叉关系
    • 强化学习模型和参数估计
    • Rescorlar-wagner模型
    • 二阶段任务
    • 展望
  • 第九章 社会决策和社会学习
    • 社会决策
    • 社会学习
    • 展望
  • 第十章 神经网络
    • 神经网络和心理学引言
    • 神经网络基础
      • 多层感知机
      • 卷积神经网络
      • 循环神经网络
    • 神经网络和人脑加工的关系
      • 感知觉的编解码
      • 工作记忆
      • 长时记忆
      • 学习和决策
    • 展望
由 GitBook 提供支持
在本页
  1. 第三章 概率推断和贝叶斯理论

3.4 拓展阅读:p值

思考题

为了比较华东师大学生2023年和2022年的饭量差异,我们分别测量了一些学生各自在2023年与2022年的饭量平均值,并将此数据集记为 data \text datadata.

H0H_0H0​: 2022年和2023年的饭量没有显著差异

H1H_1H1​: 2022年和2023年的饭量有显著差异

然后你做了一个简单t检验

请问这个ppp值的意义?

  1. H0H_0H0​为真的概率, 即p(H0=True)p(H_0=\text True)p(H0​=True)

  2. H1H_1H1​为真的概率, 即p(H1=True)p(H_1=\text True)p(H1​=True)

  3. 基于当前数据,H0H_0H0​为真的概率,即p(H0=True∣data)p(H_0=\text True | \text data)p(H0​=True∣data)

  4. 基于当前数据,H1H_1H1​为真的概率,即p(H1=True∣data)p(H_1=\text True |\text data)p(H1​=True∣data)

  5. 如果H0H_0H0​为真,观察到data\text datadata当前数据的概率,即p(data∣H0=True)p(\text data | H_0=\text True)p(data∣H0​=True)

  6. 如果H1H_1H1​为真,观察到当前数据的概率,即p(data∣H1=True)p(\text data | H_1=\text True)p(data∣H1​=True)

  7. 如果H0H_0H0​为真,观察到当前数据甚至更极端的数据的概率,即p(data或者更极端∣H0=True)p(\text data或者更极端 | H_0=\text True)p(data或者更极端∣H0​=True)

  8. 如果H1H_1H1​为真,观察到data甚至更极端的数据的概率,即p(data或者更极端∣H1=True)p(\text data或者更极端 | H_1=\text True)p(data或者更极端∣H1​=True)

在假设检验中,我们认为数据可能是在两种原因下产生的,一是H0H_0H0​,二是H1H_1H1​。在ttt检验中,我们假设H0H_0H0​为真,ppp值代表的含义是观察到当前数据以及更极端数据的可能性。因此,如果我们使用条件概率的方式来看待熟悉的假设检验,正确的表示为:p=p(data或者更极端∣H0=True)p = p(\text data或者更极端 | H_0=\text True)p=p(data或者更极端∣H0​=True)

进一步思考

  1. p(data或者更极端∣H0=True)+p(data或者更极端∣H1=True)=1p(\text data或者更极端| H_0=\text True) + p(\text data或者更极端| H_1=\text True) = 1p(data或者更极端∣H0​=True)+p(data或者更极端∣H1​=True)=1 一定成立吗?

  2. 有没有可能 p(data或者更极端∣H1=True)<p(data或者更极端∣H0=True)p(\text data或者更极端 | H_1=\text True) < p(\text data或者更极端 | H_0=\text True)p(data或者更极端∣H1​=True)<p(data或者更极端∣H0​=True)?


一方面,如果我们使用本章所学的似然函数的角度看待这个问题,我们可以将此问题中出现的概率填入洒水问题相似的表格。

首先,将data或者更极端记做 data^\hat {data}data^,比data更常见记做 data {data}data,可以得到表格如下:

对于问题1,由似然函数的性质可知,p(data或者更极端∣H0=True)+p(data或者更极端∣H1=True)=p+qp(\text data或者更极端| H_0=\text True) + p(\text data或者更极端| H_1=\text True) = p+qp(data或者更极端∣H0​=True)+p(data或者更极端∣H1​=True)=p+q 不一定等于 1

但对于问题2, p(data或者更极端∣H1=True)<p(data或者更极端∣H0=True)  ⟺  q<pp(\text data或者更极端 | H_1=\text True) < p(\text data或者更极端 | H_0=\text True) \iff q<p p(data或者更极端∣H1​=True)<p(data或者更极端∣H0​=True)⟺q<pp+qp+ qp+q 的取值似乎并没有限制。

另一方面,我们可以使用直观作图的方法来探究这两个问题。

首先,我们需要明确 data或者更极端\text data或者更极端data或者更极端 的定义。由于我们使用的是双尾检验,那么如下图3.1所示, data或者更极端\text data或者更极端data或者更极端 应该被定义为data以及远离 H0H_0H0​ 分布中心。

接着,我们对H0H_0H0​和H1H_1H1​代表的两个分布进行可视化 (注意:H0H_0H0​和H1H_1H1​代表的两个分布方差一致)

在图3.2中,条件概率被表示为曲线下面积,如蓝色部分面积表示了p(data或者更极端∣H0=True)p(\text data或者更极端| H_0=\text True) p(data或者更极端∣H0​=True),红色部分面积表示了p(data或者更极端∣H1=True) p(\text data或者更极端 | H_1=\text True)p(data或者更极端∣H1​=True),橙色部分面积则表示了p(data∣H1=True)p(\text data| H_1=\text True) p(data∣H1​=True)。我们知道红色部分和橙色部分面积之和一定等于1。那么明显的(例如图中的极端情况蓝色部分面积远远小于橙色部分,并且很幸运的是,对于问题一我们只需举出一个反例就可以完全推翻),蓝色部分面积并不恒等于橙色部分面积,因此蓝色部分与红色部分面积综合并不一定为1。

对于问题2:

  1. 当H1H_1H1​在H0H_0H0​的右边,如图3.2所示,红色部分面积一定覆盖蓝色部分面积,代表p(data或者更极端∣H1=True)>p(data或者更极端∣H0=True)p(\text data或者更极端| H_1=\text True) > p(\text data或者更极端| H_0=\text True)p(data或者更极端∣H1​=True)>p(data或者更极端∣H0​=True)。

  2. 当H1H_1H1​在H0H_0H0​的左边,由图3.1可知,可以得出和3.2完全对称的结果,因此也有p(data或者更极端∣H1=True)>p(data或者更极端∣H0=True)p(\text data或者更极端| H_1=\text True) > p(\text data或者更极端| H_0=\text True)p(data或者更极端∣H1​=True)>p(data或者更极端∣H0​=True)。

  3. 当H1H_1H1​与H0H_0H0​两个分布完全一致时,两个分布完全重合,此时理论上有p(data或者更极端∣H1=True)=p(data或者更极端∣H0=True)p(\text data或者更极端| H_1=\text True) = p(\text data或者更极端| H_0=\text True)p(data或者更极端∣H1​=True)=p(data或者更极端∣H0​=True)。但这种情况意味着 H1H_1H1​与 H0H_0H0​在当前数据空间中完全是同一件事(例如测量了学生各自在2023年与2022年的饭量平均值,然后进行假设检验,H0H_0H0​: 明天会下雨,H1H_1H1​: 明天不会下雨),这与假设检验的原理(也和我们实际给出的例子不同)不符合,因此实际上并不会出现这种情况。

最后更新于10个月前

图3.2