信息密度(information density)指一份信息所能提供的相关信息量的相对指标。仅仅考虑
系统的信息,是不够的,因为这仅仅考虑了系统的联系,忽略了系统的差异和相互作用。如果我们综合考虑联系、差异和相互作用,就不仅要考虑系统的信息,而且要考虑系统的惯性,由此就需要引出一个叫做信息密度的概念。
综述
在
系统动力学意义上,给出了惯性和存在量的概念,得到一个表征系统存在性的量:
E=KM/H⑴
其中E是系统存在量;K是比例系数;H:系统的结构信息量;M:系统的惯性。
并且指出,在一般系统中,系统存在量是单位信息的惯性;在物质系统中,系统存在量是物质的密度;在能量系统中,系统存在量是单位信息的信息能阻抗;在信息系统中,系统存在量是单位信息的信息阻抗。
我们再给出信息密度的概念:
S=K`H/M⑵
其中S是系统的信息密度;K`比例系数;H:系统的结构信息量;M:系统的惯性。
将公式⑴、⑵相乘,有:
ES=KK`
考虑适当的单位,使K=1,K`=1,有:
ES=1
意义
信息密度的意义是多方面的,在一般情况下,信息密度是单位惯性所具有的信息;在物质系统中,信息密度是单位质量具有的信息;在能量系统中,信息密度是单位信息能阻抗具有的信息;在信息系统中,信息密度是单位信息阻抗具有的信息。下面分别进行讨论。
单位惯性的信息
从信息密度关系可以看出,信息密度实际上是单位惯性的信息。
“单位惯性的信息”是对于惯性结构的刻画,反映的是惯性结构的简单和复杂。
单位惯性的信息提供了对各种体系的信息进行比较的基础。
在对各种体系的信息进行比较时,必须在同样的惯性条件下来进行,各种体系的惯性是不同的,因此必须在单位惯性的前提下来比较,即通过信息密度来比较。
单位质量所具有的信息
在物质系统中,惯性与质量成正比,此时,单位惯性的信息变成单位质量的信息。
“单位质量的信息”是对于质量结构的刻画,反映的是质量结构的简单和复杂。
单位质量的信息提供了对各种体系的信息进行比较的基础。
在对各种体系的信息进行比较时,必须在同样的质量条件下来进行,各种体系的质量是不同的,因此必须在单位质量的前提下来比较,即通过信息密度来比较。
单位质量所具有的信息反映物质结构的简单和复杂,这个问题涉及物质、能量、信息的关系,有很多值得深入讨论的东西。本文不打算对此作详细讨论,只介绍一下与之相关的张学文问题,供大家讨论。
张学文在“系统科学之窗。论文专区”的一篇文章“质量、能量、信息的统一与三角关系”中提出一个重要问题∶1克物质可荷载多少信息?并把可荷载的最大信息与爱因斯坦的质能公式相联系,从而得出质量、能量、信息的统一关系。张学文的原文摘抄如下∶
古代,为荷载一个
汉字大概要用1克物质(写到竹子上)。而最近的新闻报道说韩国制成了256兆位的计算机存信息的芯片(这是1994年的语言)。我折算了一下它大约是1克物质可以装上100万个汉字。而随着科学进步1克物质可以装载的信息量还会提高。但是即便将来真的能以单个原子或电子的有无表示信息,1克物质可装载的信息量可以更大,但它仍是个有限值。这个信息与质量的极限比值就初步具有信息与质量的绝对意义下的联系关系了(而这个比值是有待我们去测算的)。
爱因斯坦的质能公式,还含有质量减少M,则能量就增加MC2的意义。因而更深层次的信息与质量的关系应当分析例如某种原子核反应中质量的减少过程信息量是否有增加?这些脱离了质量(注意,我没有讲脱离物质)的信息是以能量为载体吗?如果是,那么单位能量最多荷载多少信息(无线电波就是荷载信息的一种能量)?信息论中关于信道宽度与每分钟发送的信息量的关系是否可以回答这个问题?笔者无力断言。
张学文问题用信息密度来表示就是:在物质无限细分的情况下,是否存在一个极限,使信息密度趋于最大值。或者说:在ΔM趋于0的情况下,是否存在limS=maxS。这个问题涉及我们这个世界构成的基础,当然是很重要的。
单位信息能阻抗具有的信息
系统从状态A变化到状态C需要一定能量,这个能量不是一般能量,而是信息能。对系统而言,这个信息能的需要形成一个信息能壁垒,阻止系统从状态A变化到状态B,称为信息能阻抗。
但是,如果有一个信息子集合H,它能克服信息能阻抗,而使系统从状态A变化到状态B,则说该信息子集合H拥有克服阻抗的信息能。
从信息能阻抗亦可对惯性进行定义。
如果按照最小信息能阻抗来定义惯性,则信息密度是单位信息能阻抗具有的信息。
“单位信息能阻抗具有的信息”是对于信息能阻抗结构的刻画,反映的是信息能阻抗结构的简单和复杂。
在《发现信息能,利用信息能》一文中,我们已经对信息能阻抗的意义进行了讨论,从信息能阻抗的意义可以直观地来理解信息密度的意义,信息密度是形成单位信息能阻抗所需要的信息。
在对各种体系的信息进行比较时,必须在同样的信息能阻抗条件下来进行,各种体系的信息能阻抗是不同的,因此必须在单位信息能阻抗的前提下来比较,即通过信息密度来比较。
单位信息阻抗具有的信息
系统惯性是根据信息来定义的,系统惯性定义为系统从某状态转移到另一状态所需的最小信息量。与信息能阻抗类似,对系统而言,这个最小信息量的需要形成一个信息壁垒,阻止系统从状态A变化到状态C,称为信息阻抗。
以信息阻抗来表征系统惯性,信息密度就是单位信息阻抗所具有的信息。
信息阻抗与普里戈金讲的熵垒不一样,熵与系统的结构信息量相联系,而信息阻抗与系统相互作用的特征信息量相联系,信息密度则将系统的结构信息量和相互作用的特征信息量联系起来。
在孤立系统中,由于相互作用的特征信息量是定值,信息密度仅决定于系统的结构信息量,此时用信息密度来判断系统运动方向,与用熵增原理判断系统运动方向,是完全一致的。也就是说,在孤立系统中,信息密度与熵实际上是等价的(具有正比关系);在开放系统中,信息阻抗的作用增大,用信息密度判断开放系统运动方向,实质是用单位信息阻抗所具有的信息来判断开放系统运动方向。
怎样用信息密度来判断系统运动方向呢?这要将信息密度与存在振荡原理相联系来考虑才能办到。
信息密度表述
存在振荡原理的信息密度表述是说,形成信息密度振荡的系统可能是稳定的。
或者在更强的条件下,存在振荡原理表述为:信息密度保持恒定的系统可能是稳定的。
信息密度保持恒定,意味着信息密度的变化为0,即dS=0,或△S=0。
为什么形成信息密度振荡的系统可能是稳定的?前面说过,系统的同一性振荡使得存在各方在一定的范围内共存,从而使回复运动得以实现,系统达于某种稳定状态。而系统的同一性振荡从定量角度表现为信息密度振荡,故形成信息密度振荡的系统可能是稳定的。
直接地说,当形成信息密度振荡时,系统的运行状态大幅度压缩,从而使系统达于稳定。
既然形成信息密度振荡的系统可能是稳定的,那么,信息密度保持恒定的系统也可能是稳定的。
来做一些具体分析。为简便,假定惯性为常数,并以人们熟悉的信息熵公式为例。
信息变换平衡与系统稳定
信息熵公式是∶
S=-∑Si=-∑PilnPi⑴;
其中∑Pi=1,(i=1,2,…,n)
在信息变换平衡时,信息熵计算中的n不变,而只是概率Pi(i=1,2,…,n)的值发生变化,即Si发生变化。若S保持恒定,则信息熵公式中的Si项保持共轭变化,即当某些Si项变大时,另一些Si项将变小,使S总体上保持不变。因此,所有Si项可分为三部分:
⑴Si(i=1,2,…,k)保持恒定。
⑵Si(i=k+1,k+2,…,j)变大。
⑶Si(i=j+1,j+2,…,n)变小。
对于第一种情况,系统将运行于Si(i=1,2,…,k)保持恒定所决定的状态中,而排除Si(i=1,2,…,k)不保持恒定的那些状态。
对于第二和第三种情况,系统状态受到一种共轭约束,即当某些Si项变大时,另一些Si项必须变小,系统只能运行于由共轭约束所决定的状态中,而排除共轭约束以外的那些状态。
因此,系统将运行于Si保持恒定的状态和共轭约束所决定的状态,系统将稳定于这些状态,而排除其他状态。
共轭约束在保持系统运行于特定状态时的作用究竟有多大?可以举例说明。
例如,两个足球队比赛,甲方取胜的可能性是4/5,乙方取胜的可能性是1/5,S=S(4/5,1/5)。假定在以后的比赛中,两个足球队构成的系统保持熵不变,这只有两种可能:
⑴仍然保持甲方取胜的可能性是4/5,乙方取胜的可能性是1/5。
⑵变化为甲方取胜的可能性是1/5,乙方取胜的可能性是4/5。
系统只能运行于这两种状态,而排除其他状态。
但是,系统要从第一种状态转移到第二种状态,需要克服很大的阻抗。因为甲方为了保持原来的优势,不断在加强自己的实力,乙方要取代甲方的位置,必然要付出巨大的努力例如:调整队伍、换教练、加强训练、增加经费等。同时,乙方取代甲方通常不可能一步到位,而两个足球队构成的系统又要保持熵不变,这决定了在一个较长时间内,两个足球队构成的系统运行于第一种状态的可能性很大,运行于第二种状态的可能性很小。即根据系统保持熵不变的情况,可以判断,系统将以很大概率稳定运行于第一种状态。
在复杂系统中,由于系统内存在复杂的共轭约束,使系统可运行状态大大减少,系统将以很大概率稳定运行于很少数的状态。
信息生灭平衡
在信息生灭平衡时,信息熵计算中的n要发生变化。
可以考虑概率Pi=1/n(i=1,2,…,n),则有:
S=-∑PilnPi=lnn⑵
即信息熵随着n的变化而变化。
n的变化意味着什么呢?n的变化意味着系统中独立要素的变化,也就意味着系统结构的变化。
为什么说n的变化意味着系统结构的变化呢?例如:n个要素按排列组合,其系统的可能结构数为n!,即n×(n-1)×(n-2)×…×1,若n变化为(n+1),则系统结构可能变化为(n+1)!,即(n+1)×n×(n-1)×(n-2)×…×1,系统的可能结构数增加(n+1)倍。
若信息熵保持不变,就意味着系统结构不变,如果系统结构变化,那也只意味着新陈代谢,系统结构从总体上看是稳定的。
熵增原理
熵增原理指出的是宏观过程的不可逆性。它指出,孤立系统中过程的进行指向熵增加方向,进行的限度由熵的最大值给出。故有:
dS≥0,或△S≥0⑶
其中,S表示熵。熵增定律适合于孤立系统。
熵振荡原理
熵增定律仅仅适合于孤立系统,这是一个太强的条件。虽然从处理方法上讲,假定自然界存在孤立过程是可以的。但是从本质上讲,把某一事物从自然界中孤立出来,就使理论带上了一定的主观色彩。实际上,绝对的联系和相对的孤立的综合,才是事物运动的本来面目。那么,当系统不再人为地被孤立的时候,它就不再是只有熵增,而是既有熵增,又有熵减了。
一个中心问题出现了,在系统的熵增和熵减过程中,是否存在一个不动点,使熵增和熵减达到平衡(△S=0)。
熵增为零的现象是存在的,在孤立系统中,平衡状态就是熵增为零。而在非孤立系统中,系统在特定状态时熵增可能为零。
一旦熵增(减)等于零,则熵为常数。就有:
dS=0,或△S=0⑷
公式⑷与公式⑶的区别首先在于公式⑶是不等号,而公式⑷是等号。这有什么不同呢?公式⑶的不等号表明系统只有一个运动方向,即指向熵增加方向,而公式⑷的等号则表明系统既可能指向熵增加方向,也可能指向熵减少方向,但是,系统总是围绕某个恒定的熵值做回复振荡运动。
公式⑶在孤立系统中成立,公式⑷则适合一般系统。
由此,就有熵振荡原理。熵振荡原理可以表述为,形成熵振荡的系统可能是稳定的。
或者在更强的条件下,熵振荡原理表述为:熵保持恒定的系统可能是稳定的。
在系统变化过程中,要在每时每刻都保持熵为恒量,是一个太强的条件。而许多过程可以表现为在某些时间位点上熵为恒量。这时,系统出现熵振荡过程,当熵振荡的时段极短时,它趋近于等熵过程。
存在振荡原理
熵振荡原理仅仅考虑了系统的信息,故而它仅仅考虑了系统的联系,忽略了系统的差异和相互作用。如果我们综合考虑联系、差异和相互作用,就不仅要考虑系统的信息,而且要考虑系统的惯性,由此就引出了信息密度的概念。由此就有存在振荡原理的信息密度表述。即形成信息密度振荡的系统可能是稳定的。
或者在更强的条件下,存在振荡原理表述为:信息密度保持恒定的系统可能是稳定的。
信息密度保持恒定,意味着信息密度的变化为0,即:
dS=0,或△S=0⑸
上式与公式⑷形式上完全一致。不过,公式⑷中的S是表示熵,公式⑸中的S是表示信息密度,当惯性=常数=1时,公式⑷与公式⑸完全一致。故在不产生混淆时,熵和信息密度都用S表示。
由此,就有如下关系:
在一般情况下,系统服从存在振荡原理:形成信息密度振荡的系统可能是稳定的。或者说:信息密度保持恒定的系统可能是稳定的。
当惯性=常数=1时,系统服从熵振荡原理:形成熵振荡的系统可能是稳定的。
或者说:熵保持恒定的系统可能是稳定的。
在孤立系统中,系统服从熵增原理:孤立系统中过程的进行指向熵增加方向。
系统稳定性
一个复杂系统通常总是处在不断的运动、发展和变化之中,怎样应用存在振荡原理来分析该复杂系统的稳定、运动、发展和变化呢?一般方法是建立一个系统参照系空间,系统参照系空间划分成许多区域;将系统置于系统参照系空间中,使系统的各可区辨部分对应于系统参照系空间各区域;确定系统参照系空间各区域的信息密度,然后应用存在振荡原理来分析该复杂系统的稳定、运动、发展和变化。
系统各区域稳定性分析
系统各区域的信息密度的变化情况不外三种,即dS=0,dS≥0,dS≤0。或者△S=0,△S≥0,△S≤0。这三种情况,对应着系统各区域的稳定、运动、发展和变化的情形,归纳说明如下:
dS≥0结构发展(如生长发育、细胞分裂、帝国兴起、文化复兴、天才成长、组织发展、业务扩展等等)
dS=0结构稳定(如新陈代谢、细胞生灭(平衡)、帝国存续、文化传承、天才成功、组织稳定、业务正常等等)
dS≤0结构消亡(如生命衰老、细胞衰亡、帝国衰落、文化毁灭、天才毁灭、兴亡相继、结构负增长、信息迟滞等等)
上面所例举的系统各区域的稳定、运动、发展和变化的情形,只是指出结构稳定、发展和消亡的客观现象,并不涉及这些现象的好坏,即不涉及目标。如细胞分裂不一定好,细胞衰亡不一定坏。
系统稳定的层次分析
系统稳定通常是有层次的,不同层次的稳定、运动、发展和变化的情形不一样。如原子不变,原子内部的电子运动变化多端;分子不变,分子内部的原子运动变化多端;人体组织不变,组织内部的运动变化多端;企业不变,企业内部的运作变化多端,等等。
分析系统各层次的稳定、运动、发展和变化的情形,也是建立一个系统参照系空间,系统参照系空间划分成许多层次;将系统置于系统参照系空间中,使系统的各可区辨层次对应于系统参照系空间各层次;确定系统参照系空间各层次的信息密度,然后应用存在振荡原理来分析该系统各层次的稳定、运动、发展和变化。
同样,系统各层次的信息密度的变化情况不外三种,即dS=0,dS≥0,dS≤0。或者△S=0,△S≥0,△S≤0。这三种情况,对应着系统各层次的稳定、运动、发展和变化的情形。其表现出的现象与系统各区域表现出的现象相似。