学过实变函数的朋友,总会知道有个叫勒贝格积分的东西,号称是黎曼积分的改进版。虽然“实变函数学十遍,泛函分析心泛寒”,在学习实变函数的时候,我们通常都是云里雾里的,不过到最后,在老师的“灌溉”之下,也就耳濡目染了知道了一些结论,比如“黎曼可积的函数(在有限区间),也是勒贝格可积的”,说白了,就是“勒贝格积分比黎曼积分强”。那么,问题来了,究竟强在哪儿?为什么会强?

黎曼.jpg 勒贝格.jpg

这个问题,笔者在学习实变函数的时候并没有弄懂,后来也一直搁着,直到最近认真看了《重温微积分》之后,才有了些感觉。顺便说,齐民友老师的《重温微积分》真的很赞,值得一看。

本是同根生,相煎何太急?

学过实变函数的读者都知道,作为两个描述积分的不同理论,勒贝格积分跟黎曼积分最明显的一个区别是:黎曼积分是对定义域进行划分的,勒贝格积分是对值域进行划分的。咋看上去,好像勒贝格要跟黎曼对着干那样——你说要划分定义域,我偏不,我爱划分值域。

那么,事实是怎样呢?难道真的只是“相煎何太急”?并非如此,对值域进行划分确实有助于改进黎曼积分的不足。为什么会通过划分值域能够比划分定义域要强?流行的说法是这样的:黎曼积分划分定义域,然而对于振荡很厉害的函数,哪怕划分得很细,在很细的区间内振荡依然很厉害(典型的例子是狄利克雷函数),这时候黎曼积分是无法定义的,也就是说,黎曼积分适用于局部平缓的函数;而勒贝格积分是通过划分值域的,这样在值域的一个小区间内,就不会有大振荡,因为都把值域限死了,直接不给它振荡的机会了,因此就可以对一些振荡很厉害的函数进行积分。

别人笑我太疯癫,我笑他人看不穿

勒贝格发言了:“你们说的有些靠谱了,但还没有说到我的本意。先声明,我可不是要跟黎曼大神对着干的...”。(纯粹个人杜撰~^_^)

事实上,黎曼积分的缺点,可以追溯到两千年前古希腊的“穷竭法”,比如求圆的面积,它们是通过圆外切正$n$边形和内接正$n$边形,来得到圆面积的上下界,然后取极限发现上下界都相等,因此圆面积就是那样了。也就是说,要求一个不规则图形的面积,就把它进行分割,每一块近似为是我们熟悉的图形(长方形、三角形),然后得出近似面积,最后取分割的极限。整个过程是:有限分割——近似求和——取极限。

问题就出在“有限分割”上!为了得到图形的面积的上界,我们需要用有限个简单图形覆盖它,而为了得到下界,我们则需要有限个被该图形覆盖的简单图形。总而言之,都是“有限”。这个有限,对于连续区间是靠谱的,但对于一般的点集却不可行。比如说,$[0,1]$间的有理数集,读者可以想象一下数轴上$[0,1]$区间的全体有理数点的集合,并考虑它的长度。学过集合论的读者都知道,$[0,1]$区间的实数的势是不可数的,而有理数则是可数的,也就是实数比有理数多得多。因此如果我们认为$[0,1]$区间的全体实数点构成的集合的长度是1,那么很自然,$[0,1]$区间的全体有理数点的集合长度应该是0。然而,黎曼积分所采用的有限分割得不到这个结论。

如果要用有限个区间来覆盖$[0,1]$区间的全体有理数(覆盖来得到上界),因为有理数是稠密的,因此可以想像,这有限个区间的总长度不会小于1,也就是说,$[0,1]$区间的全体有理数的总长度上界不会于1;然而,又因为任意区间都有无理数,因此,有理数无法覆盖任意一个(长度任意小的)区间,从这个角度来看,有理数的总长度下界不会大于0。这说明结果是不收敛的!这就是有限分割带来的问题了。

于是,勒贝格很聪明,他从一开始就抛弃了有限分割,一上来就采用可数分割来定义测度。当然,这里不打算说书本上的严格语言,只是说出大概的意思:以一维为例,一个实数集的子集,如果它能被可数个区间覆盖,那么这些区间的总长度就是它的测度上界,如果它能覆盖可数个区间,那么这些区间的总长度就是它的测度下界,如果上界和下界的极限都相等,那么这就是一个可测集。

大智若愚,大巧似拙

其实,有了可数分割之后,我们就可以尝试对黎曼积分进行改进了。因为有了可数分割,我们就可以把一个函数分成若干部分来处理的,比如分成正常的点、不正常的点,而不正常的部分又可以细分为第一类不正常、第二类不正常,等等,逐一处理,而可数分割就是它们的基础。比如我们要挑出所有有理数点来,并且要保持区间总长度任意小,就必须要通过可数个区间,有限个区间是做不到的。

问题又来了,怎么区分点是正常还是不正常的呢?对于黎曼积分来说,不正常的点就是振荡很厉害的点。换言之,要考虑值域!这时候勒贝格的另外一个聪明点体现出来了:不逐一区分黎曼积分中的不正常点了,直接划分值域就好。

咋看之下,划分值域是一种很不直观、很笨拙的方法,因为它把定义域的区间变得复杂了,事实上这正是“大智若愚”的一招,因为前面已经定义了可数分割了,再复杂的定义域都可以应对。于是,结合着“可数分割”和“值域划分”,一个叫勒贝格积分的理论就成形了,剩下的就是理论细节了。顺便说,因为用了可数分割,勒贝格积分天生具有可数可加性,而相应的,黎曼积分只具有有限可加性。

从这部分的讨论可以看出,勒贝格测度以及勒贝格积分,可以应付那些可数个不正常点(间断点)的情形,因此很显然,如果当不正常点的数目为不可数时,勒贝格测度、勒贝格积分都失效了。所以,要构造一个勒贝格不可测的例子,就得把不正常点的数目增加到不可数,勒贝格不可测的“维塔利集合”就是这样构造出来的,它从实数不可数、有理数可数出发,以有理数为基准,把$[0,1]$的实数分为可数份,每一份都是不可数的,但问题是每一份的测度是多少?如果是0,可数个正数加起来怎么会是1?如果不是0,那么可数个正数加起来更不可能是1了。因此不管怎样,都不满足可数可加性。

刚不可久,柔不可守,物极必反

由此看来,勒贝格积分确实要比黎曼积分强了,因为勒贝格积分本来就是针对黎曼积分的“死穴”而设计的。

生活中我们往往遇到一些例子,如果目的性太强,往往弄巧成拙。勒贝格积分如此针锋相对地“克制”黎曼积分,会不会反而存在一些黎曼积分所没有的缺点呢?

首先,很明显的一点是,勒贝格积分的线性性质变得不明显了,勒贝格积分中花了很大篇幅才证明了
$$\int_a^b f(x)dx + \int_a^b g(x)dx=\int_a^b [f(x)+g(x)]dx$$
而这在黎曼积分中几乎是显然成立的。这也许就是刚开始学微积分时都用黎曼积分定义的原因之一了,因为直观嘛。

此外,还有一些无法克服的缺点。有了狄利克雷函数的启发,我们就很容易构造一些黎曼不可积而勒贝格可积的例子。有没有反过来的?答案是有!

我们从前面提到过的勒贝格积分的“可数分割”中就可以发现问题了,勒贝格积分一上来就允许可数个区间去逼近,然后去计算函数在这可数个区间的和。因为直接可数划分然后求和,没有先后顺序,因此这个求和过程是不考虑顺序的。我们知道,可以不考虑求和顺序的级数,就是我们说的绝对收敛级数。这样子我们能感觉到了,勒贝格积分一定是(在黎曼积分意义下)绝对收敛的

然而,很多实用的积分并不是绝对收敛的,比如积分
$$\int_{-\infty}^{+\infty} \frac{\sin x}{x}dx$$
就只是条件收敛而非绝对收敛的,因此对于勒贝格积分来说,它是不可积的!而对于黎曼积分来说,将它理解为
$$\lim_{N\to\infty}\int_{-N}^{+N} \frac{\sin x}{x}dx$$
则可以得到有意义的结果。这就有点啼笑皆非的感觉了,“可数分割”本来是为了改进黎曼积分的弱点而引入了,但到了这里,却变成了自己的弱点。看来,“物极必反”,并没有什么万全之策了。再请看下面的例子。

返璞归真,不忘初衷

我们来谈谈概率论,考虑下面的问题:

如果从自然数中随机选一个数,那么选到1的概率是多少?

显然是0?按照我们的感觉是0,但如果按照现代的公理化定义,这个概率不存在!!不能定义这个概率!!

我们来看概率的公理化定义:

对于每一个事件A,若函数P(A)满足下列条件,则P(A)为A的概率:
1、非负性,即P(A)非负;
2、规范性,即必然事件S的P(S)=1;
3、可数可加性,即互不相容事件的并集的概率为各事件概率之和。

前两点不重要,关键是第三点,可数可加性!如果我们认为选到1的概率是0,那么选到2的概率也是0,选到任意给定自然数的概率都是0,而可数个0加起来还是0,因此在自然数中选到一个自然数的概率是0而不是1!也就是说不满足可数可加性。

这样看来,原来不能在可数集谈概率,于是数论分支之一“概率数论”的那些数学家纯粹在胡扯了...真的是这样吗?

概率的公理化定义、尤其是可数可加性怎么来的呢?大家可以拿它来对比一下勒贝格测度的公理化定义,可以发现除了用词不同外,几乎是一模一样的,可数可加性也是测度的要求!事实上,这样定义的概率就是某种勒贝格测度而已,或者说,概率的定义基本上是照搬了测度的定义。而上面的例子表明,可数可加性还真是个让人又爱又恨的东西。

然而我们还是觉得有必要在自然数集中讨论概率,那该怎么办呢?概率数论是这样说的,我们先在不超过$N$的自然数范围内讨论,然后在让$N$趋于正无穷。好吧,这不就回归到黎曼积分的有限分割然后才取极限那一套了吗...

看来,要“打倒黎曼”,还真做不到...


如果您觉得本文还不错,欢迎点击下面的按钮对博主进行打赏。打赏并非要从中获得收益,而是希望知道有多少人曾在科学空间驻足。当然,如果你无视它,也不会影响你的阅读。再次表示欢迎和感谢!