如果我有 2^(-n) 概率获得 2^n 元,那获得钱的数学期望值应该是无穷,但实际不是这样,为什么?

被浏览
523,763

创建时间:2022-12-04  10:12:05

最后编辑:2022-12-07  16:14:35

77 个回答

虚调子、GreatPie 等 1704 人赞同了该回答

题主您好。在 A Probability Path by Sidney I. Resnick 中,我曾读到过这个例子,著名的St. Petersburg paradox,很开心能够分享给你。

命题1:若随机变量 XX 服从离散分布 P(X=2k)=12k,k{1,2,}P(X=2^k)=\frac{1}{2^k},\; k\in\{1,2,\dots\} ,则 EX=+EX=+\infty

这个命题是正确的。按照概率论对数学期望的定义,他的确是正无穷。

命题2:如果我们玩 nn 次这个游戏,并假设每次获得的钱是独立同分布的随机变量序列 {X1,X2,,Xn}\{X_1,X_2,\dots,X_n\} ,再由大数定律,我们猜测:样本均值 X¯n=X1++Xnn\bar{X}_n=\frac{X_1+\cdots+X_n}{n} 可以逼近总体均值 EX=EX=\infty 。即:我们平均每把游戏能够赢得 \infty 元。

很可惜,这个命题是错误的。大数定理陈述的内容的确是:样本均值可以逼近总体均值。但作为严格的数学定理,它是有条件的。为方便各位理解,我留下一个简易版本的弱大数定律:Khinchines' Weak Law of Large Numbers。

Kinchine's Weak Law of Large Numbers: 对于一个独立同分布的随机变量序列 {X1,X2,}\{X_1,X_2,\dots\} ,如果 E|Xi|<E|X_i|<\infty ,则 X¯n=X1++XnnpEXi\bar{X}_n=\frac{X_1+\cdots+X_n}{n} \mathrel{\overset{p}{\longrightarrow}}EX_i

这条定理告诉我们:想要样本均值趋向于总体均值,我们的条件是总体分布 E|X|<E|X|<\infty 。很可惜,在这个游戏里,我们达不到这个条件。所以命题2是错误的

大数定律 / 概率论拿这个问题一点办法都没有吗?

并不是。接下来我会陈述 General Weak Law of Large Numbers,并使用这个定理去证明这个游戏中存在的“逼近性质”,但这个逼近比较抽象,证明也比较复杂。如果对证明没有兴趣,我们可以跳过证明,直接看最终结论:方程(5)。

General Weak Law of Large Numbers: 一个独立的随机变量序列 {X1,X2,}\{X_1,X_2,\dots\} 和一个非负、单调上升的实数序列 0<bn0<b_n\uparrow\infty ,并记 Sn=i=1nXiS_n=\sum_{i=1}^n X_i ,若满足条件:

  1. i=1nP(|Xi|>bn)0\sum_{i=1}^n P(|X_i|>b_n)\to 0 ,
  2. 1bn2i=1nE[Xi2I{|Xi|bn}]0\frac{1}{b_n^2}\sum_{i=1}^n E\Big[X_i^2I_{\{|X_i|\le b_n\}}\Big]\to 0 ,

Snanbnp0\frac{S_n-a_n}{b_n} \mathrel{\overset{p}{\longrightarrow}}0 ,其中的 an=i=1nE[XiI{|Xi|bn}]a_n=\sum_{i=1}^nE\Big[X_iI_{\{|X_i|\le b_n\}}\Big]

我们现在来运用这个定理。假设 X1,X2,X_1,X_2,\dots 独立并都服从分布 P(X=2k)=12k,k=1,2,3,P(X=2^k)=\frac{1}{2^k},\; k=1,2,3,\dots 。我们将这些随机变量的前 nn 项有限和记作 Sn=X1++XnS_n=X_1+\dots+X_n,即表示玩 nn 次游戏总赢得的钱。令 m(n)=log2(n)+log2(log2(n))m(n)=\lfloor \log_2(n)+\log_2\Big(\log_2(n)\Big)\rfloor ,其中 x\lfloor x \rfloor表示不超过 xx 的最大整数。再令 bn=2m(n)b_n=2^{m(n)} 。我们现在对随机变量序列 {Xn}\{X_n\} 和实数序列 {bn}\{b_n\} 验证 General Weak Law of Large Numbers

1.i=1nP(|Xi|>bn)=nP(X>bn)=ni=m(n)12i=n2m(n)+1n2(log2n+log2(log2n))+2=41log2n0\begin{align*} 1.\quad\sum_{i=1}^n P(|X_i|>b_n)& =nP(X>b_n)\\ &=n\cdot\sum_{i=m(n)}^\infty \frac{1}{2^i}\\ &=n2^{-m(n)+1}\\ &\le n2^{-\big(\log_2n+\log_2(\log_2 n)\big)+2}\\ &=4\frac{1}{\log_2n}\to0 \end{align*}

2.1bn2i=1nE[Xi2I{|Xi|bn}]=1bn2nE[X2I{|X|bn}]=1bn2ni=1m(n)22i2i=22m(n)n(2m(n)+12)n2m(n)+10\begin{align*} 2.\quad\frac{1}{b_n^2}\sum_{i=1}^n E\Big[X_i^2I_{\{|X_i|\le b_n\}}\Big]&=\frac{1}{b_n^2}\cdot n\cdot E\Big[X^2I_{\{|X|\le b_n\}}\Big]\\ &= \frac{1}{b_n^2}\cdot n\cdot \sum_{i=1}^{m(n)}2^{2i}2^{-i}\\ &=2^{-2m(n)}\cdot n\cdot (2^{m(n)+1}-2)\\ &\le n\cdot 2^{-m(n)+1}\to 0 \end{align*}

因此,General Weak Law of Large Numbers 可以使用。我们只需要把定理中的 ana_n 算出来就可以得到一条收敛性质了。 an=i=1nE[XiI{|Xi|bn}]=nE[XI{|X|bn}]=nk=1m(n)2k12k=nm(n)\begin{align*} a_n=\sum_{i=1}^nE\Big[X_iI_{\{|X_i|\le b_n\}}\Big]=nE\Big[XI_{\{|X|\le b_n\}}\Big]=n\sum_{k=1}^{m(n)}2^k\cdot \frac{1}{2^k}=n\cdot m(n) \end{align*} \\ 所以,General Weak Law of Large Numbers 告诉我们的事情是:

(1)Snnm(n)2m(n)p0.\begin{equation*} \frac{S_n-nm(n)}{2^{m(n)}} \mathrel{\overset{p}{\longrightarrow}}0.\tag{1} \end{equation*}

由于 m(n)m(n) 实在是不好理解,我们将它用其他形式逼近一下。注意到:

(2)2m(n)2log2n+log2(log2n)nlog2(log2n),(3)0nm(n)nlog2nnlog2(log2n),\begin{align} 2^{m(n)}\le 2^{\log_2n+\log_2(\log_2 n)}\le n\log_2(\log_2n),\tag{2}\\ 0\le nm(n)-n\log_2n\le n\log_2(\log_2n),\tag{3} \end{align} 并且

(4)Snnlog2nnlog2n=Snnm(n)nlog2n+nm(n)nlog2nnlog2n.\begin{align*} \frac{S_n-n\log_2n}{n\log_2n}=\frac{S_n-nm(n)}{n\log_2n}+\frac{nm(n)-n\log_2n}{n\log_2n}\tag{4}. \end{align*}由(2), (3), (4),我们得到 |Snnlog2nnlog2n||Snnm(n)2m(n)|+log2(log2n)log2n,\begin{align*} \left|\frac{S_n-n\log_2n}{n\log_2n}\right|\le \left|\frac{S_n-nm(n)}{2^{m(n)}}\right|+\frac{\log_2(\log_2n)}{\log_2n}, \end{align*}\\ 其中右侧的第一项,由(1)保证收敛到0;右侧的第二项,由基本的数学知识,也可以收敛到0。所以左侧被右侧控制住,也会收敛到0,即:

|Snnlog2nnlog2n|p0,\begin{align*} \left|\frac{S_n-n\log_2n}{n\log_2n}\right|\mathrel{\overset{p}{\longrightarrow}}0, \end{align*}\\ 即: (5)Snnlog2np1.\begin{align*} \frac{S_n}{n\log_2n}\mathrel{\overset{p}{\longrightarrow}}1.\tag{5} \end{align*}\\

怎么理解这条结论呢?当我们玩的次数 nn 足够大的时候,这 nn 次游戏总共赢得的钱与 nlog2nn\log_2n 的比值,非常非常接近于1。这意味着,我们可以用 nlog2nn\log_2n 去近似玩 nn 次游戏总共赢得的钱。这条逼近性质是否能够回答题主你的疑惑呢?

University of Michigan 的 Professor Tailen Hsing 在班上向我证明这条逼近的时候,我非常震惊,惊讶于概率论能够用抽象的方法,解决如此有趣的问题。我尝试用最通俗易懂的语言分享给大家,希望大家也能get到其中的乐趣。(如有typo或者错误请批评指正!)

编辑于 2022-12-07 02:45・IP 属地美国
361 人赞同了该回答
目录
收起
一、问题背景
二、概率论里的收敛模式
三、弱大数律
四、是否有强大数律?
参考资料

个人很喜欢下面的这个回答,但是觉得有点不易懂,而且可以再补充一点。

于是趁着复习摸鱼的时候写一写这个问题,争取让只学过初等概率论(也许?)的人也能明白。

一、问题背景

现在随机变量 XX ,服从的分布如题目所述,也即, P(X=2n)=12nP(X=2^n)=\dfrac{1}{2^n},其中 n1n\geq 1 。首先,应用一点高中生熟知的等比数列求和(再取个极限),可以验证

P(X=2n)=n=112n=1,P(X=2^n)=\displaystyle\sum_{n=1}^{\infty}\dfrac{1}{2^n}=1,

所以上面的分布是一个“合法”的分布。接下来,我们对这个随机变量的期望感兴趣,但是由于 2k12k=12^k\cdot\dfrac{1}{2^k}=1 ,可以发现

E(X)=n=12n12n=.E(X)=\displaystyle\sum_{n=1}^{\infty}2^n\cdot\dfrac{1}{2^n}=\infty.

所以,通过这个游戏获得的钱数的期望是无穷大。正如其他回答所说的一样,这种情况下,传统的“大数定律”是失效的。但是事实上,因为 12n\dfrac{1}{2^n} 是一个迅速降低的概率,直觉告诉我们,当 nn 很大的时候,并不会真的有人拿到 2n2^n 及以上的钱,也即“尾概率很小”。因此,我们下面会应用到“截断”的技巧,也即只保留 XX 的前面部分,不会考虑概率很小的事件。

假设,现在共有 kk 个人独立地参加这个游戏,每个人最后赢的钱数是 XkX_k ,并且 XkX_k 均服从与上面的 XX 一样的分布。我们现在可以考虑建立 XkX_k 的“大数定律”,也即令

Sn=X1++Xn=k=1nXk,S_n=X_1+\cdots+X_n=\displaystyle\sum_{k=1}^{n}X_k,

并研究当 nn 充分大时的 Snn\dfrac{S_n}{n} ,它表示 X1,,XnX_1,\cdots,X_n 的均值。直觉上(或者传统的“大数定律”)告诉我们,样本量 nn 越大,均值就会越来越接近期望。

二、概率论里的收敛模式

下面设 ZnZ_n 是某个随机变量序列,我们简单介绍一下如何定义 ZnZ_n 的收敛。

最容易定义(但是并不是最容易研究的)的收敛模式是几乎必然收敛。如果存在某个有限的 ZZ ,使得

P(limnZn=Z)=1,P(limnZnZ)=0,P\left(\displaystyle\lim_{n\to\infty}Z_n=Z\right)=1,\quad P\left(\displaystyle\lim_{n\to\infty}Z_n\ne Z\right)=0,

也即 {limnZn=Z}\left\{\displaystyle\lim_{n\to\infty}Z_n=Z\right\} 的概率是 11 ,则称 ZnZ_n 几乎必然收敛于 ZZ ,简记为 ZnZ,a.s.Z_n\to Z,\mathrm{a.s.}

除此之外,稍微弱一点的收敛模式是依概率收敛。同样对于某个有限的 ZZ ,如果对于任意的 ε>0\varepsilon>0 ,都有

limnP(|ZnZ|ε)=0,limnP(|ZnZ|<ε)=1,\displaystyle\lim_{n\to\infty}P\left(|Z_n-Z|\geq\varepsilon\right)=0,\quad\lim_{n\to\infty}P\left(|Z_n-Z|<\varepsilon\right)=1,

则称 ZnZ_n 依概率收敛于 ZZ ,简记为 ZnpZZ_n\xrightarrow{p} Z

三、弱大数律

在这里直接叙述Durrett书中对于三角序列的弱大数律的相关定理,至于为什么选用三角序列,完全是因为好用。所谓的三角序列,指的是形如

X1,1,X2,1,X2,2,X3,1,X3,2,X3,3,,X_{1,1}, \\ X_{2,1}, \quad X_{2, 2}, \\ X_{3,1}, \quad X_{3, 2}, \quad X_{3, 3}, \\ \cdots,

的一系列随机变量,并且可以简记为 {Xn,k:1kn}\{X_{n, k}: 1\le k\le n\} 。下面的定理中,对第 nn 行的三角序列,还做了一个统一的关于 bnb_n 的截断。


弱大数律 假设 {Xn,k:1kn}\{X_{n, k}: 1\le k\le n\} 独立, bn>0b_n>0bnb_n\to\infty ,令 X¯n,k=Xn,k1(|Xn,k|bn)\bar{X}_{n, k}=X_{n, k}1_{(|X_{n, k}|\le b_n)} ,记 Sn=k=1nXn,kS_n=\displaystyle\sum_{k=1}^{n}X_{n, k}an=k=1nEX¯n,ka_n=\displaystyle\sum_{k=1}^{n}E\bar{X}_{n, k} ,如果

  • k=1nP(X¯n,kXn,k)=k=1nP(|Xn,k|>bn)0\displaystyle\sum_{k=1}^{n}P(\bar{X}_{n, k}\ne X_{n,k})=\displaystyle\displaystyle\sum_{k=1}^{n}P(|X_{n,k}|>b_n)\to 0
  • 1bn2k=1nEX¯n,k20\displaystyle\dfrac{1}{b_n^2}\sum_{k=1}^{n}E\bar{X}_{n,k}^2\to 0

则有 Snanbnp0\dfrac{S_n-a_n}{b_n}\xrightarrow{p}0


上面的第一个条件,意味着截断之后的 X¯n,k\bar{X}_{n, k} 和原来的 Xn,kX_{n, k} “差不多”;而第二个条件,是因为在证明的时候需要用到Chebyshev不等式来说明依概率收敛。感兴趣的读者可以参考Durrett的定理2.2.11的证明。

现在,我们设 Xn,k=XkX_{n, k}=X_k ,也即上述三角序列的第 nn 行就是 X1,X2,,XnX_1, X_2, \cdots, X_n

定理说起来容易,但是如何选取 bnb_n 是令人头疼的。一般来说,取 bn=nb_n=n 就够了,而对于上面的 XnX_n 来说, nn 还是差了一些。为了选取合适的截断,我们考虑先计算 XnX_n 的“尾概率”,也即

P(Xn>2m)=l=m+112l=12m.P(X_n>2^m)=\displaystyle\sum_{l=m+1}^{\infty}\dfrac{1}{2^l}=\dfrac{1}{2^m}.

我们希望选取的 bnb_n 满足上面的两个条件,并且方便起见,希望形如 bn=2m(n)b_n=2^{m(n)} ,首先第一个条件为

k=1nP(|Xk|>bn)=n2m(n)0,\displaystyle\displaystyle\sum_{k=1}^{n}P(|X_{k}|>b_n)=\dfrac{n}{2^{m(n)}}\to 0,

接下来,再考虑第二个条件

1bn2k=1nEX¯n,k2=n22m(n)l=1m(n)22l12l=2n(2m(n)1)22m(n)2n2m(n)0.\displaystyle\dfrac{1}{b_n^2}\sum_{k=1}^{n}E\bar{X}_{n,k}^2=\dfrac{n}{2^{2m(n)}}\sum_{l=1}^{m(n)}2^{2l}\cdot\dfrac{1}{2^l}=\dfrac{2n(2^{m(n)}-1)}{2^{2m(n)}}\le\dfrac{2n}{2^{m(n)}}\to 0.

最后,我们只剩下 ana_n 的计算,容易得到

an=k=1nEX¯n,k=nk=1m(n)2l12l=nm(n).a_n=\displaystyle\sum_{k=1}^{n}E\bar{X}_{n, k}=n\cdot\sum_{k=1}^{m(n)}2^l\cdot\dfrac{1}{2^l}=nm(n).

我们现在可以根据弱大数律,得到 Snanbnp0\dfrac{S_n-a_n}{b_n}\xrightarrow{p}0 。我们上面所选取的参数为

bn=2m(n),an=nm(n),b_n=2^{m(n)}, \quad a_n=nm(n),

其中 m(n)m(n) 满足 n2m(n)0\dfrac{n}{2^{m(n)}}\to 0 ,且为了结果好看,我们希望 anbn=nm(n)2m(n)1\dfrac{a_n}{b_n}=\dfrac{n\cdot m(n)}{2^{m(n)}}\to 1

一顿尝试后, m(n)=[log2n+log2log2n]m(n)=[\log_2 n+\log_2\log_2n] 恰到好处,此时 bn=2m(n)nlog2nb_n=2^{m(n)}\sim n\log_2 n


结论XnX_n 独立同分布, P(Xn=2k)=12kP(X_n=2^k)=\dfrac{1}{2^k} ,令 Sn=k=1nXnS_n=\displaystyle\sum_{k=1}^{n}X_n ,则

Snnlog2np1.\dfrac{S_n}{n\log_2 n}\xrightarrow{p}1.


上面的结论告诉我们,如果独立重复地玩 nn 次,预期的收入应该大概是 nlog2nn\log_2 n ,均值大概是 log2n\log_2 n ,似乎在这里就可以结束这个问题了。

但是,在这里还有一个更“诡异”的结果。

四、是否有强大数律?

我们期待改进上面的结果,把这个收敛模式变成几乎必然意义下的收敛。而一旦涉及到几乎必然收敛,一个重要的工具是Borel-Cantelli引理。


Borel-Cantelli引理 如果 n=1P(An)<\displaystyle\sum_{n=1}^{\infty}P(A_n)<\infty ,则 P(An,i.o.)=0P(A_n,\mathrm{i.o.})=0 ,也即事件 AnA_n 发生无穷多次的概率是 11

如果事件 AnA_n 独立, n=1P(An)=\displaystyle\sum_{n=1}^{\infty}P(A_n)=\infty ,则 P(An,i.o.)=1P(A_n,\mathrm{i.o.})=1 ,也即事件 AnA_n 发生无穷多次的概率是 11


上面引理的理解是,如果一些事件的和很小,那么这些事件是“可以忽略的”;如果一些事件的概率之和是无穷大,那么这些事件就是“不可忽略的”。

我们现在来证明下面的结论:对于上面的 XnX_nSnS_n ,有 lim supnSnnlog2n=\displaystyle\limsup_{n\to\infty}\dfrac{S_n}{n\log_2 n}=\infty ,从而上面的收敛只在依概率意义下成立。

第一步,先考虑 XnX_n 。我们还是希望估计 XnX_n 的尾概率,同样有

P(Xn>2m)=l=m+112l=12m.P(X_n>2^m)=\displaystyle\sum_{l=m+1}^{\infty}\dfrac{1}{2^l}=\dfrac{1}{2^m}.

根据上面的结果,我们断言,如果 xx 是正实数,一定有 P(Xn>x)cxP(X_n>x)\geq\dfrac{c}{x} 对某个常数 cc 成立。这是因为,每个实数 xx 都会落在某个 (2m,2m+1](2^m, 2^{m+1}] 中,这使得

P(Xn>x)P(Xn>2m)=12m>22m+12x,P(X_n>x)\geq P(X_n>2^m)=\dfrac{1}{2^m}>\dfrac{2}{2^{m+1}}\geq\dfrac{2}{x},

而为了让我们的计算更有分析味道,即使我已经算出了常数 cc 最多是 22 ,我也坚持使用常数 cc 。现在我们可以继续我们的计算了。对取定的 M>0M>0 ,计算得

P(Xnnlog2n>M)=P(Xn>Mnlog2n)cMnlog2n,P\left(\dfrac{X_n}{n\log_2n}>M\right)=P\left(X_n>Mn\log_2n\right)\geq\dfrac{c}{Mn\log _2n},

其中 n=11nlog2n=\displaystyle\sum_{n=1}^{\infty}\dfrac{1}{n\log_2 n}=\infty ,因此 Xnnlog2n>M\dfrac{X_n}{n\log_2n}>M 发生无穷多次的概率是 11 ,这推出了

lim supnXnnlog2n>M,a.s..\displaystyle\limsup_{n\to\infty}\dfrac{X_n}{n\log_2 n}>M, \mathrm{a.s.}.

MM 的任意性,立即得到

lim supnXnnlog2n=,a.s..\displaystyle\limsup_{n\to\infty}\dfrac{X_n}{n\log_2 n}=\infty, \mathrm{a.s.}.

考虑到每个 XnX_n 都是非负的,我们有 XnSnX_n\le S_n ,上面的结果自然可以推广到 SnS_n 上,因此我们得到了如下结论。


结论 XnX_n 独立同分布, P(Xn=2k)=12kP(X_n=2^k)=\dfrac{1}{2^k} ,令 Sn=k=1nXnS_n=\displaystyle\sum_{k=1}^{n}X_n ,则

lim supnSnnlog2n=,a.s..\displaystyle\limsup_{n\to\infty}\dfrac{S_n}{n\log_2 n}=\infty, \mathrm{a.s.}.


参考资料

感兴趣的读者可以参考Rick Durrett的《Probability Theory and Examples》。

上面的内容可以在第五版的例2.2.16和习题2.3.20找到。

755 人赞同了该回答

这个问题叫做圣彼得堡悖论,是数学史上大名鼎鼎的伯努利家族里的尼古拉斯·伯努利在1713年提出的,他的堂弟丹尼尔·伯努利对其进行了最早的解释,这一问题也就因此以丹尼尔的居住地——圣彼得堡命名。

很久之前我在微软工作时同组的一个俄罗斯数学博士很喜欢拿这个问题作为面试题,因为没有标准答案,可以考验面试者的发散思维并考察解决问题的思路,所以后来变成相对还算常见的一道面试题,我自己也用过几次。

一个现代的等价问法如下:

假设有一个游戏,不断投掷一枚硬币直到出现反面为止,在游戏结束时如果总共掷了 nn 次,你就会获得 2n2^n 元,问你愿意花多少钱玩这个游戏。

因为期望收益值 n=1N2n12n=n=1N1=N\sum_{n=1}^N 2^n\frac{1}{2^n}=\sum_{n=1}^N 1=NNN\rightarrow \infty 时会超过任何实数,可以得到不管你付多少钱玩这个游戏你的预期收益都是正的这一和现实相悖的结论。实际上,有教授在课堂里询问学生时很少有人愿意出20元以上的价格来购买一次游戏权。所以到底是哪里出错了?

值得注意的是,这个问题尽管有300年历史,而且非常简单易懂,但是因为它涉及了统计学、心理学、经济学的不同领域,至今没有完全确定的解答。直到今天,还是经常有很多新的思路出现。也有一些受其启发的类似悖论。


1 - 边际效用

丹尼尔·伯努利最早在研究这一问题时指出了“人们关心的是金钱的效用,而不是金钱的数值”。例如,同样的1000元对于一个百万富翁和一个乞丐来说效用显然是不同的。

在这一基础上,丹尼尔假设效用并不是随金钱的数值线性增长,你拥有的钱越多,下一元钱对你提供的额外效用就越少。这是历史上第一次系统地用数学方法来解释“边际效益”这个经济现象。

丹尼尔提出简单地把效用定义为 ln(w)\ln(w) ,其中 ww 是个人的总资产。这里使用对数函数只是为了让计算简单选择了一个边际收益降低的函数,事实上你可以选择使用各种递增凹函数(如 w\sqrt w 等等)。

这么一来假设你玩游戏之前的个人资产为 ww ,假设你愿意付 cc 元来玩这个游戏,因为你所关心的并不是金钱收益的预期值,而是效用增加的预期值,后者为

i=012n[ln(w+2nc)ln(w)]\sum_{i=0}^\infty \frac{1}{2^n}[\ln(w+2^n-c)-\ln(w)]

这是 w,cw,c 的函数,对于给定的 ww ,你可以算出让上升大于等于0的最大 cc 值。由此可以算出一个百万富翁( w=1000000w=1000000 )最多愿意付约21元,一个只有1000元的学生最多愿意付11元,而一个总共只有2元的人应该想办法借1.35元来玩这个游戏。

虽然这个想法对于后世经济学来说是一个非常重要的想法,但这作为圣彼得堡悖论的解决方案是有缺陷的。事实上,不管你写出什么效用函数,我都可以修改游戏支付更高的奖金,从而让期望值再次趋于无穷,于是再次带出同样的悖论。

2 - 忽略小概率

蒲丰(蒲丰投针问题)在1777年提出人们在做决策时会忽略概率很小的情况。这一提议争议性极大,例如多小才算是很小,一万分之一?十万分之一?

显然,除了能解决圣彼得堡悖论以外,并没有足够的理由相信为什么以上观点为真。如果人们真的忽略小概率,那么就没有人赌博或买彩票了。

2013年美国哲学家布查克提出了相对于一刀切忽略小概率,我们可以给不同的概率加上不同的加权。换句话说,不但奖金的效用递减,决策者在概率缩小时也会递减相应的效用。这么做确实可以解决圣彼得堡悖论,但是在引入明确的数学函数之后,之前的问题再次出现:即不管你给出什么加权函数,我们可以修正奖金让期望值再次趋于无穷。

3 - 游戏可行性

显然,这个游戏的可行性依赖于庄家拥有无限的金钱这一显然错误的假设。数学家杰弗里曾说过任何提出圣彼得堡游戏的庄家都是一个骗子,因为他自称拥有无限资产可以支持这一游戏。

假设庄家最多只能支付 W 元,之后就会破产,再结合1假设金钱效用为 \ln(W) 。那么,这个游戏的预期收益其实是 \ln(W) 而不是无穷。这么一来如果庄家为百万富翁,你最多应该支付13.8元,如果庄家为马一龙有约1900亿可以和你对赌,那么你最多应该支付26元,以此类推。

这也许是圣彼得堡悖论作为经济学问题的最佳解释,但是这并没有探讨圣彼得堡悖论作为纯数学问题的答案,所以现代讨论圣彼得堡悖论时一般不会考虑游戏的可行性。


圣彼得堡悖论会衍生很多其它有趣的问题:

彼得格勒游戏:和圣彼得堡游戏完全一样,只是任何情况下都多付1元,那么似乎这是一个严格更佳的游戏,但是无穷加1并没有改变,所以从期望值角度来看两个游戏收益是一样的?

帕萨迪纳游戏:如果掷了n次 ,那么当 n 为奇数时获得 2^n/n 元奖金,但是如果 n 为偶数时游戏参加者必须要交付 2^n/n元罚金。

这种情况下预期收益为 \sum_{n=1}^\infty (-1)^{n-1}\frac{1}{2^n}\frac{2^n}{n}=\sum_{n=1}^\infty (-1)^{n-1}\frac{1}{n} ,熟悉无穷级数的同学立刻发现这个式子根据求和的顺序不同收敛于不同的极限。而在这个问题的背景下很难看出哪种排序是“最正确”的。

最后,这个问题也让一部分经济学者质疑预期平均值的有用程度,并因此衍生出遍历性经济学等分支。

17 人赞同了该回答

这个问题不好理解,换成下面的问题就很好理解了

你有万分之9999的概率损失十万元人民币(足以让一个普通家庭遭受重大的打击),万分之1的概率获得马云甚至比尔盖茨马斯克的一切财产,这个游戏你会玩吗?

如果只能玩一次,一般人都不会玩。

但是如果可以瞬间玩任意多次,且允许无限负债,且时间足够短以至于几乎不会产生负债利息呢?这才是“期望”的适用范围。

重点是,次数无限多。

182 人赞同了该回答

一个老掉牙的冷笑话:

“一亿元对你意味着什么?”一个人问上帝。
“一分钱。”上帝回答。
“那么一亿年对你又意味着什么呢?”这个人又问道。
“一秒钟。”上帝答,
“噢,上帝,请你给我一分钱吧! ”这个人哀求上帝。
“请等一秒钟吧。”上帝说。