尚武精神分享 http://blog.sciencenet.cn/u/wangyong77 资源、经验和想法共享,批评、探讨与交流共纳,学文、科研与习武并包。

博文

概率论的局限性分析

已有 5191 次阅读 2011-2-12 22:17 |个人分类:相对信息论|系统分类:论文交流| 概率论, 局限性

概率论的局限性分析

  0        

概率论是一门研究随机现象的数量规律学科。概率论在发展的过程中有许多的流派,对于概率本身也有许多不同的解释,各有自身的缺陷,造成了学术界的争论。概率论的公理化方面也存在一定的争议,目前的概率论是以柯尔莫哥洛夫(kolmogorov)公理系统为基础的[1]。该公理系统具有一定的局限性,比如菲纳特和熊大国等学者指出了该公理系统的一些缺点和不足[2]。目前的概率理论要解决许多问题都是有前提条件的,并非可以解决所有的概率问题,比如对事件的概率,可能不同的条件,或者不同的人会给出不同的概率,那么应当如何来综合和折衷,概率论并没有解决。而笔者在研究中发现,概率论本身在许多时候也是有前提的,并不能解决所有的概率问题,而其中有一个根源在于概率值完全可能是随机变量,而不是一个固定的值,而这种随机不确定性如果在概率论模型中推演下去,其中的许多参数、变量和方法都可能是不确定的,这就意味着一种自由的、不受限的概率表达方式可能需要更多的参数,乃至于无限参数。这一问题可以说明现有概率论的局限性,乃至于类似的问题可能存在于数学的其他领域,而这也将对其他的学科产生影响。

1 概率定义反映出的问题

关于概率的定义,重要存在古典概型、几何概型和统计概率三种定义,它们在解决实际问题中起着十分重要的作用,但是一直存在争议,各种定义各有自己的优势和缺陷。古典概率定义要求试验的可能总是有限的、互不相容及等可能性的,几何概率虽然克服了试验结果的有限性,但同样要求某种等可能性,而许多实际问题是不具备这些条件的,所以这两种定义都带有局限性。统计概率虽然没有前面两种定义那种局限性,但却建立在大量重复试验的基础上,况且,试验次数n应大到什么程度,频率究竟在什么意义下趋近于概率,没有确切的说明。因此,它在数学上是不严密的[3,4]。所以,这三种定义都不能作为概率的一般定义,这就促使人们考虑,作为数学的一个分支,也应像代数、几何一样,通过建立公理化系统给出概率的定义,使其具有一般性。苏联数学家柯尔莫哥洛夫于1933年提出了概率的公理化结构,抽取了概率的统计定义、古典定义及几何定义中所共有的性质作为概率的公理,给出概率的公理化定义。概率的公理化定义本身是非常严密的,它只是规定了概率这个概念所必须满足的基本性质,它没有也不可能解决在特定场合下如何定出概率的问题.这一定义的意义在于它为一种普遍而严格的概率理论奠定了基础。

本世纪初,从20年代到30年代,出现了许多杰出的学者,他们对概率的概念作出了另一种解释。首先是凯恩斯,他认为概率是对一个命题用其他方面的知识作出判断后获得的一种合理的信任程度,对于每一个这种信任程度,不能赋以一个数值,只能和其他的信任程度进行比较,给出一个程度上的秩序,有的强,有的弱。他的说法和看法,把概率和人的主观的信念发生了联系,引出了后来的"主观学派"

从以上的定义可以看出,那些可以用于计算概率的往往是那些不太严格的定义,而利用这些得到的值可能是不可靠的,比如通过统计(频率)定义得到的统计得到的概率值本身都是随机的,而比较一个的公理化的定义却无法得到概率赋值,而主观概率则更不能确定概率值,相反,这里概率可能是不确定的。

我们认为,概率本身就可能是随机变量,即概率是不确定的,这样就可以对这些争论有一个合理的解释,统计概率本身不可靠,在不知道真正概率的情况下,我们只能认为真实概率是一个随机变量,这个随机变量集中分布在统计概率附近,而由于概率本身无法确定,所以主观概率的解释也可以看成一定程度上是合理的。

 

2  概率的多重不确定性

概率值是来表示一种随机不确定性的参数,但是它本身也可能具有不确定性,但是,显然我们的概率论没有考虑这个问题,否则概率论的许多公式将是无法计算的,或许有人要认定只要将概率的平均值代入公式就可以了,但是我们可以通过例子来发现仅仅知道概率平均值是不够的。举一个例子来说明概率的不确定性:假定产品合格概率是固定值,工厂各个性能、参数指标等均稳定不变,某工厂测试产品A的合格概率,测试了10件,合格5件,其合格率可以认为是50%,同样,另外一件产品B,测试了100000件,合格率也是50%(为什么取百分之五十是有原因的),在没有更多的信息的情况下,我们当然可以权宜地认为产品合格概率的平均值为0.5,但是,显然我们会觉得产品B的合格概率0.5更加可靠,更加接近于真实值,其分量更重,而这里可以看出一种表征其分量的参数是欠缺的。我们在无法确定其真实概率的时候,不得不采用权宜的、不可靠、不完全的可以计算的、可获取的或者是可以一定程度上代替的概率。实际上在许多时候我们无法获得概率,即使我们有一些公式来计算概率,但是这些概率公式的计算又依赖于其他的概率,而真实概率值的获取在许多时候是不可能的。

现实中大量的信息是不可靠的,依靠这些信息获得的概率自然也不可靠。这意味着真实的概率可能大于、小于或者等于这个值,是一个以这一值为中心分布的随机变量。当然其分布本身也可以是多样化的,这意味着这其中的参数是随机变量(或者更加复杂的变量)。当然绝对可靠,绝对正确只不过是不可靠概率的一种极端而已。显然我们希望得到可靠的概率,即使不可靠,当我们不得不权宜地采用不可靠的概率的时候,也希望知道到底是多么的可靠,多么大的程度上可以决定真实的概率。信息在传递、存储和处理的过程中都会可能出现错误,且有时候需要对信息重新表达,信息的转换表达中带来的不可靠,比如模糊化处理,把精确信息变成模糊的,或者添油加醋,这些当然也会对相应的概率产生影响[5]

现实中的数可能是无理数,因此很多时候我们都不得不进行四舍五入,这些会导致计算概率值的参数是不可靠的,或者概率值本身被四舍五入,那么,在我们仅仅知道四舍五入的结果的时候,真实的概率值依然是一个随机变量。

当然现实中还有各种因素会引入这种概率的随机性。现实中不可靠的信息要比绝对可靠的多,因此一种概率理论如果仅仅考虑绝对可靠的情形,就会存在局限性。

实际上条件概率许多时候是不可知的,而且可能是随机变量或者更加复杂的变量。目前的概率论中,没有考虑到条件是多种多样的,比如一般在指定一个条件B的情况下会给出事件A的条件概率值P(A|B),但是有时候条件概率值P(A|B)往往是未知的,而且可能还是随机变量,而不是我们想象中的确定的值。一旦条件概率是未知的时候,我们解决多个条件下的概率问题就无能为力了,比如已知P(B) ,但是P(A|B) 未知,则可能无法求解P(AB)

条件本身也是多样化的,它不一定是某个事件发生,我们可以理解为一种制约,一种约束或者前提。它可以是一个表达式,包括不等式、上限下限,还可以是实验结果、定理、规律、知识、常识、语言的翻译转换方法、语法、编码的方式、对问题的估计、信息的可靠性等,特别是当涉及到语义的时候,编码方式、语法、定义,这些往往是公认的、基础性的,隐含的条件,由于它们的公认性,所以具有隐蔽性,往往不以为是一种条件。

既然概率值本身可能具有随机不确定性,那么进一步表征这些概率值随机不确定的参数,比如概率值等,就依然可能是随机变量,如此递推下去,需要的参数可能是无限的,概率的随机不确定性也可能是无限重的。现实中不确定的事件往往比确定的多,随机变量比常数多。因此概率可能是多重随机不确定的,好比导数也有自己的导数,多阶导数等。但是我们这里说的随机不确定性可能只是其中的一种不确定性,可能还有更多类型的不确定性存在,这会使得问题更加复杂。

概率论是为了解决现实问题,但是现实中普遍存在的,一般化的问题都不能表达,只能说明其模型不是普适的,而是受限的,这种制约来源于数学问题的表达和数学模型本身。

3 集合的不确定性

在概率论的模型中,除了概率值的不确定性外,集合本身也可能具有不确定性,比如集合中的元素可能是不确定的,集合中元素的个数也可能不确定。比如我们考虑某国总统选举的概率分布,假如在候选人还不确定的情况下,问题就更加复杂,有时候可能根据规定,可能候选人的个数也是不确定的。固然我们可以认为针对的对象是一个无所不包的集合,这个集合的元素是无限制的,所有的可能都容纳,那些不可能的元素的概率当作0处理就可以了,但是一般情况下,我们面对的集合元素是有限的,抛弃那些不可能的元素,有限元素方便处理,所以要集合的不确定性也是值得考虑的。只是集合大多数情况是确定的,并没有引起人们的关注。集合的划分是根据现实需要的,从不同的角度划分问题可以得到不同的集合,比如学生可以根据专业、年级和性别来划分,现实中人们也会针对不同的情况进行不同划分,从而形成不同的集合。当然模糊集、粗糙集也是传统集合不确定的一种表现。

如果把问题延伸到模型之外,我们可以看出更多的不确定性,比如集合的模型中的元素可能指的是一些对象,这些对象照样可能是不确定的,比如一些代词、名词在有时候就是有不同指代,或者有歧义的,语义本身就有复杂性,比如有时候可能说反话。这意味着我们要用概率论解决现实问题,将会有更多的不确定性重重叠加起来。我们可以考虑对问题的简化,但是这种多重的不确定性并不是任何时候都可以完全简化为单一的不确定性问题。

 

4  概率的相对性

概率的存在总是依赖于一些条件的,即使是先验的概率,也是根据某些条件得出来的,否则概率值怎么知道,而且怎么知道可能有哪些结果(即集合中有哪些元素),如果我们对事物一无所知,可能连集合中元素的个数都不知道。

但是当前概率论中,把先验概率和后验概率绝然分开。实际上,这种先后都是相对的。比如先验概率也是在某种情况下才能得出的,有一定的已知条件,否则概率的来源就没有基础,当然已知先验概率的分布本身也可以看成是一种条件,这个条件可以表述为:已知各种可能值的先验概率分布分别是多少。此外,还存在多个条件的情况,这样的情况下,它们的先后关系是可以互换的。假如我们对一个事件一无所知,那么它有几种可能的取值都不知道,别说这些取值各自对应的概率了,可见,我们得出的先验概率也是基于已知的条件的,先验概率也是一种条件概率。认识到概率是相对于相应的各种形式的条件的性质有助于在分析中有意识地、仔细地去认定每一个存在的条件,将不同的条件区分开,而不是混为一谈,从而能够有效区分相应的各种概率。实际上有时候由于条件的隐蔽性,往往不能充分认识到许多条件的存在。

可能一个事件有许多的条件,概率是随着已知条件的增加而进化的,概率值是相对于我们的已知条件的,当然条件越完善,概率就越加完备,更加可靠。波普尔和达尔文都有进化的思想,概率也是根据条件来进化的。已知条件越多,概率就越可靠。另外,好比人对事件的了解往往是从未知到已知的,对某事发生的概率的了解大多数情况下也是不确定到确定的。比如抛硬币的概率,如果对于当时的情况不了解,根据硬币的基本对称性,我们可以认为正反概率都是0.5,但是如果知道了抛硬币中的所有决定因素,则其正反是确定的,在抛硬币的过程中,所有的作用力、初始的速度和位置、地板的情况等因素将可以决定硬币的正反,当然可能我们的已知的条件有限,尚不能知道所有的决定性因素,这样的条件下其概率可能也可以得出一个概率。大多数情况下,我们知道的条件都是不完备的,在这些条件下概率可能是随机变量(如上面实验的例子),也可能是固定的值。假如我们不能得到更加完备的条件,但是要去求完备条件下的概率,则此时不能不权宜地依靠条件不完备的情况下得出的概率,此时的概率至少会增加一重随机不确定性,则此时的概率可能是多重随机、双重随机、或者是随机变量。对事件的了解从不确定到最后确定,是因为已知的条件发生了改变,概率随着条件发生了改变。认识到这种逐步进化的相对性,有助于我们更加深入理解并且应用概率论,认识到从未知到已知,从不确定到确定的改变本身也是一种概率的演化。现实中,我们往往知道事件的片面的条件,所以得到的概率也是片面的,相对于我们的不完备的已知条件而言的。

为了更加明确地说明问题,我们考虑在某些条件共同发生的情况下,确定某一事件m的概率,这些条件可能与m的概率有关,也可能无关,我们可以选择所有的有关的条件,我们假设其概率可以由n个有关的条件c1c2cn来决定,概率可以表示为

P(m)fc1c2cn

当然实际的情况更加复杂,而且可能呈现多种表现形式,比如,有些条件并不能确定概率的值,而可以通过这些条件得出其概率呈现某一概率分布,即得到的概率不是固定的值,而是随机变量。比如,仅仅知道抽样检查实验得出的概率,我们以此为条件,则只可能得出理论上的概率是一个以实验得出的概率分布为中心的一个随机的分布,特别是在实验是不可靠的时候。为了方便,我们暂且用上面的这个很简单的函数式来表达,从而说明概率论中的某些问题。

当我们对某些条件c1c2cn中的某些不了解的时候,此时概率P(m)本身由于未知数的存在,而并不固定,所以可以认为是变量,我们知道的条件越多,P(m)的变动范围就越小,得出的概率就越是可靠。

我们也可以看看现实中的一些例子,学生选课希望选择好的老师,如果学生不知道教师的情况,可能他们会根据姓名来选课,如果他们知道职称等信息,会根据这些信息来综合判断,如果他们直接很清楚地了解这个老师,就不会根据前面的信息,而是根据这种最可靠、直接的信息来判断取舍。同样,假如不知道论文的内容或者无法对论文做出判断,可能我们就会根据论文发表的杂志,论文的作者等这些边缘的信息来判断论文质量,这些都是不得已的一种做法。同样,有时候有些事件本身是确定的,但是我们已知条件有限,不能确定其结果,只能权宜地根据已知的有限条件做出一个该条件下的概率判断。在先验概率和后验概率同时存在的情况下,我们会选择后验概率,因为它面对更加细致、完备的条件,假如知道了更多的条件,我们又会转而选择条件更多的那个后验概率。昨天某地是否下雨,是确定事件,但是,假如我们不知道更多的信息,只是知道每年这一天历史下雨的概率,那么我们可能只有采用这个概率,但是,如果知道了昨天是否下雨(而且这个信息真实),我们就会选择这个确定的结果(注意到确定的结果可以被不确定的结果包容)。在不能得到最正确的结果的时候,我们总是尽量得到相对而言最完备、最可信的结果,实际上这些结果并不是我们所需要的真正结果,但是,相对之下,我们采用这个结果最接近我们需要的结果。

实际上,我们往往是介于完全的已知和完全的未知之间,只是对问题有相对的了解,当然其概率也是相对的,但是到底什么是完全未知?从来没有考虑过完全未知的情况,那种完全不知道会出现什么结果(即集合也是未知的)的情形,这种问题是无法描述的。只有比较了现实概率论与这种完全未知的差别,就可以看出其中蕴含一定的前提。

5  概率的复杂性

我们总是习惯于将概率归结为某种简单的模型,比如高斯分布,泊松分布之类的,以为概率分布存在某种必然的规律性(比如概率分布必然是中间密度大,两边小),或者是把概率当做是一个简单的值,而实际上概率值可能是一个比随机变量更加复杂的变量。现实中,我们完全可以制造一些“变态”规则来使得事件的概率发生不正常的变化,比如让工人在前期的产品做的合格率高的时候,更加认真地做,而当产品的合格率低的时候,更加不负责任,从而产品的整体的合格概率会有一种变态的分布。现实中,也有一种经济现象称为买贵现象,就是价格越高,人们购买的概率却越高。这些也反应大千世界无奇不有,这种奇怪也是体现了一种现实现象的自由度和无拘束性,这当然也是对于概率分布不确定性的一种说明。这说明,我们要用最少的自以为是的约束条件,这样将会让概率论的世界更加多样化,更加不确定。要表达这种多样性,避免只表达大多数的常规现象,而不能表达少数意外、离奇的现象,那么就需要更多的参数,这样才能表征更多的状态。

我们也可以通过股市的例子来看待概率的复杂性:关于股市涨跌的概率具有多方面的复杂性。第一,假如有人根据股市的现在状况,包括股民的心态,总结出了股市的动态概率的规律,一旦有人了解到此规律,并且充分利用此规律来炒股的时候,股市的规律将会变化,比如如果大家只是简单从众,可能股市涨的时候就更涨,跌的时候更跌,一旦到跌的时候,就很惨,但是如果通过研究发现股市物极必反的规律,大家就会规避,在涨到一定程度就收手,这样股市的规律就会改变了,从而相应的概率就会改变。第二,还是从股市来说,如果大家都是不了解其他股民的决策,特别是以后的决策,可能就会分析股市的涨跌,如此可以得出股市的一个涨跌概率,但是如果了解其他股民未来的决策,就会根据相应的决策来决定自己的最优决策,从而此时的股市涨跌概率将会改变。第三,由于股市的变化是取决于众多不确定性因素,包括股民和上市公司的运作情况,而且这些情况互相影响和作用,股市的涨跌概率也是一个多重不确定的量。

除了我们通常提到的随机变量,可能会存在更加复杂的变量,这种变量受到的约束更少,像上面提到的多重随机变量就是。这种可能作为概率值,或者是表达不确定性的一种参量,这也会增加问题的复杂性。

 

6

概率是用来描述随机现象的,但是概率本身也可能是随机变量,概率论中蕴含着许多的前提条件,有些虽然没有明确写出来,但是不知不觉会提醒在其理论中,而且人们也很难发现其存在,这是概率论容易陷入局限的一个原因。一种模型的建立往往需要对问题进行有意无意的简化,特别需要注意的是有些简化是人们无法察觉到的,这些简化往往限制了对问题的自由表达。要解除这些局限,就是要把现实中的事物的特性更加自由地用一种数学模型来表达,以上我们提到,概率值本身可能具有随机不确定性,甚至多重不确定性,乃至无穷重的不确定性,而且集合本身也有不确定性,这些问题叠加起来,将会异常复杂,甚至于对这个问题都无法有限的模型来表达。本文只是抛砖引玉,指出了概率蕴含着的多重不确定性。当然要发展概率论,不能依靠一种完全自由的模型,我们需要同时考虑对问题的简化和理论对于现实的忠实程度,对问题进行简化,这样才方便建模、建立理论和简化公式,对问题保留其真实存在的自由度,则可以更加普适于现实问题,满足不同的需求,更加准确和完备。对于基于可靠度的研究,笔者建议考虑其双重不确定性,可能是一种兼顾方便性和忠实度的好选择。对于这一问题的研究将有助于人工智能、信息融合和可靠性理论的发展。本文的研究也启示我们,当我们用很简单、规范、形式化的数学方法来表示、描述和解决问题的时候,可能会“砍去”问题的许多自由度,或者对问题进行“五花大绑”,限制了它的适用范围,从而使得活生生、复杂的现实问题成为刻板、简化的问题,而且有时候往往很难被发现,不仅仅是变量和概率值,还包括模型、理论、采用的运算等其他更加复杂的对象,都可能有多重的不确定性。可见我们既要看到简化问题带来的便利,但是绝对不能忽视和忘记它带来的局限性。

 

[参考文献]

[1] Kolmogorov A N, Grundbegriffe der Wahrscheinlichkeitsrechnung[M], Berlin: SpringerVerlag, 1933

[2] Xiong Daguo, The natural axiom system of probability theory- Mathematical model of the random universe[M]SingaporeWorld Scientific Publishing Co, 2003

[3] T. Bayes, "An Essay towards solving a Problem in the Doctrine of Chances[J]", Philosophical Transactions of the Royal Society of London, 53. 1763

[4] Laplace P. S. Théorie analytique des probabilités[M], 3rd ed. Paris, 1886

[5] Yong WANG,  Huadeng WANG, Xiliang TANG, On the Reliability of Information[C], 2009 Chinese Control and Decision Conference (CCDC 2009), IEEE Press, 17-19 June 2009:871-874

 


https://blog.sciencenet.cn/blog-3182-412375.html

上一篇:诚信产业与信息安全-新版
下一篇:抛出一个概率论问题征集解答
收藏 IP: 123.79.45.*| 热度|

2 洪昆辉 唐常杰

发表评论 评论 (1 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-4-25 04:07

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部