数据瓶颈是指由于
数据收集能力的不足、理论无偏性和数据随机性等条件的限制而导致数据失真、缺乏等数据缺陷。
现代经济学是以在特定的环境和历史背景下抽象出的基本
行为假设为基础构建的,而我国微观主体行为特征与
市场机制与这类环境相去甚远,无论是一般
商品市场、
资本市场,还是
人力资源(
劳动力)市场,都是如此。在经济研究中我们一方面提倡
实证分析,另一方面明显感受着不断增大的数据瓶颈制约。特别是当前
劳动就业市场供求矛盾突出,有关
就业率的数据既是反映经济总体特征的重要指标、
宏观调控的主要手段之一和重要依据,也直接影响到人民的生活水平和社会稳定。然而,我国反映
劳动市场的就业总水平、
质量、
结构和
效率等方面的数据还远远不能满足经济定量分析的
需要;微观活动主体的数据更是奇缺,未能建立反映
个体消费者、
企业和不同
利益群体行为特征的
指标体系和
数据库,难以从微观主体角度对潜在
风险进行科学分析和有效规避。若缺乏对这一基础环节的足够重视,就好像在沙滩上建大楼,给人一种岌岌之危的
感觉。
在
市场元素活跃、
运行机制相对健全完善的背景下产生的
经济数据,比较接近随机取样的要求;而在中国以
政府为主导的
市场化改革环境中产生的数据,与
随机抽样的要求和条件差距较大。因而,在较发达的
市场经济国家如理论无偏性和
数据的随机性等最基础层次的检验是默认通过的,具有一定道理,但像中国这样的
发展中国家,主体行为方式的差异、
经济结构的明显变动等,如果忽略平行性检验就埋下了许多潜在风险,所得结果对现实问题的解释力和
置信度必然是大大
折扣的。特别是在我国现实经济的运行中,由于某种特殊的需要和费经济因素的干预,数据失真、扭曲和缺失等数据缺陷形成了经济定量分析和
经济理论研究的“数据瓶颈”,尤其是市场微观层面的数据不齐备,
信息要素的市场作用发挥得不完善、
流通不畅,以至能拿到什么
品质的数据,才能做出什么档次的研究成果。而由此造成的
误差明显大于检验标准许可的误差范围,再先进的检验工具和方法也无济于事,或者导致因小失大、于事无补。若要更好地掌握现代
经济分析方法,更有效地与世界对话交流和实现国际接轨,就必须正视“数据瓶颈”问题,积极采取措施解决和消除瓶颈制约。
(1)重视对
数据品质的分析,加强数据属性等基础环节的检验,发展平行性数据等检验方法,健全
标准、拓广检验领域,要进行包括理论无偏性在内不同层次准则的检验,切实提高数据品质和有效利用率;
(2)借鉴
实验经济学中数据的收集和分析方法,拓宽数据来源
渠道和产生方式,多管齐下、多种方法并用,真正获取随机意义上的平行数据;
(3)一切社会
经济活动都是形形色色主体行为的结果,因此,有必要细化数据分类,增加数据种类和针对性,特别是基于主体的
行为数据,如各种类型主体(
利益群体)的信誉记录和在重大事项中的决策表现等。