笔记汇总
前言
通常,我们对事物的判断是 主观化的,只根据 片面的信息 就给出结论。
而这种判断,就是所谓的 非理性判断,
同样的,我们也可以给出 理性 的定义,即 认识到所有相关因素。
而所谓 贝叶斯定理 的根本结论就是,
一个新的因素 不能凭空决定 你当前的观点,而是更新 你的观点。
以上的结论,都是非常简单就能得出的,贝卡斯定理就是如此,
既能让小学生听懂,也能为几位研究的它的科学家带来了诺奖的荣誉。
那么,该如何表示呢?
贝叶斯定理
这是贝叶斯定理最基本的一个式子,
P(a|b)
即在 当前结论 a 中 增加因素 b 时 结论 a 成立的可能性。
注意,这里先假设 a 一定成立,且用的不是 P(a),P(b)
而这个公式的英译,就是 可能性,其值通常为一个 小于 1 的分数。
而 a,b 代表的则是一个集合,所以,也支持集合论中的计算。
而这个定理的计算公式就是
P(a|b)=P(a)P(b|a)P(a)P(b|a)+P(¬a)P(b|¬a)
在分母中左边的一个式子代表 假设成立的可能性。
而右边的式子代表 假设不成立的可能性。
综合起来,就是 所有可能性 中 成立可能性 占比多少。
然后理解一下,为什么这些式子能够表示这种可能性,
首先让我们来 证伪 一个简单诱人的式子:
P(a)P(b|a)=P(a)P(b)
显然,右边的形式要简洁优美许多,在 抛硬币、扔筛子 一类操作的计算中,甚至是正确的。
但其实,它是错的,因为它并没有考虑到 集合的相关性。
而这个 相关性,就是用之前所说的公式计算(和 可能性 无关)
由生物学的知识,我们知道,兄弟之间患有同一种遗传病的概率较大。
如果是用 P(a)P(b) 来表示兄弟二人患有同一种遗传病的话,是 不符合相关性的。
所以 P(b) 要写成 P(b|a),即如果兄弟患了遗传病的患病可能性。
你发现兄弟患不患病,会影响你患不患病的概率,这就是相关性。
现在,来抽象理解一下,我们先创立一个 正方形的概率空间,
以可能性 P(a) 作为其空间内符合 条件约束 的状态的宽。
其否命题(也可以写作集合论的取反) P(¬a) 为 概率空间宽 减去 上面状态的宽。
以可能性 P(b) 作为其空间内符合 条件约束 的状态的长。
因为 a,b 之间有相关性,又则对于 a 正集和反集 的限制可能不同。
又因为 b 假设中是算的它成立的概率,但 a 不一定。
但我们真正要求的是 b 成立时,a 成立的概率。
这意味着,a 无论成不成立,概率都要被统计。
所以我们同时计算,
a 成立时 b 成立的概率 和 a 成立和不成立时 b 成立的概率 的比值即可。
因为 b 恒定成立,a 不然,故可以得出 上面的公式。
用图形抽象理解为,正集 与 反集 在 被限制后 之比。
同时可见其长 b,在不相关时相等,相关时不等。
而乘以长后的面积之比,就是其概率。
随感
为什么说上面的内容很好理解,
因为它们是 连续性 的,并没有进行过多的变换,
而只是 简简单单的将常识表达出来 而已,
但是,你很有可能依旧没懂,这恐怕得归罪于你大脑的直觉吧。
稍稍拓展一下
你可能已经发现了,贝叶斯定理实则是一个 关于比例的表述。
例如,人群的比例,面积的比例等等。
正如此,这个定理也可以推广到计算机中程序的执行等。
同时,贝叶斯定理也符合一个公式
P(b)P(a|b)=P(aandb)=P(a)P(b|a)
以上是指两个图形重叠的概率。
即,P(b) 所代表的图形中 b 满足时 a 满足的概率 与
P(a) 所代表的图形中 a 满足时 b 满足的概率 相等,
为什么不能写成
P(b)P(a|b)=P(a)P(a|b) 呢?
因为前面的 P(a) 是已经假定 a 满足了的概率。
但后面有假定 b 满足,但实则 b 满足的概率压根没算。
即 只有宽,没有长,故而非正方形时是错误的。
用数值理解,就是 a!=b 时错误。
交换一下,就可以写成:
P(a|b)=P(a)P(b|a)P(b)
所以可以得出
P(b)=P(a)P(b|a)+P(¬a)P(b|¬a)
即 b 成立的概率 等于 a 成立和不成立时 b 成立的概率。
因为 集合 加上 其反集 为 全集,很好理解。
结语
好了,下一篇概率的文章,我们会讲一下香农的信息论,并引入 Wordle,
然后,就是期待已久的 NOIWC 的 T3 压轴了。