早上七点多的时候,全球的媒体以及公众,都被一则突然出现的新闻给震惊到了,美国新冠肺炎确诊病例,在一个多小时的时间里面,暴增了十万例,全球累计病例,也因为这事随之突破了两百万大关,然而,这个让人感到不安的消息,很快就被证实是一场数据方面的乌龙事件。
数据突增的真相
一大早,在北京时间4月14日的时候,约翰斯·霍普金斯大学之中的疫情这一数据平台,出现了异常波动的状况。其展现的数据表明,美国之中累计确诊的病例,从五万多万例这样子突然之间上升到了六万多万例,而这一过程仅仅间隔才一个多小时而已。这样子一个突变的情况,马上就被美国国家广播公司、美国广播公司等这样多个主流媒体给捕捉到了,并且还进行了报道,进而引发了广泛的关注以及担忧。
接着的调查显示,数据出现异常是因对佛罗里达州确诊病例进行统计时发生错误,该州实际累计确诊数量大概是两万例,然而在数据录入或者处理的进程当中,被错误地记录成超过十二万例,大学方面不久后发表声明对这一失误予以承认,并且快速更正了数据,从而让美国总病例数回归至58万例左右的水平。
一家大学的数据为何成为全球标准
在有关全球疫情的报道里头,约翰斯·霍普金斯大学所拥有的数据地图,变成了被引用频率相当高的来源当中的一个。这引发了一个处于核心地位的问题:为什么承担这一角色的,不是各个国家的政府,也不是世界卫生组织,而是位于美国的一所大学呢?它的权威性究竟是从哪里得来的呢?
这背后存在特定的现实缘由,美国疾控中心于三月初宣称,停止公布全国性的检测人数等关键数据,原因在于各州数据已由地方进行统计,全国汇总已不再具备代表性那这一官方信息的缺失,致使需要实时数据的媒体转而寻觅其他可靠来源,霍普金斯大学的数据项目借此进入全球视野。
项目背后的开发团队
有着该校土木工程系副教授劳伦·加德纳博士参与,两位中方博士生也贡献力量的关键数据可视化项目被创建了。董恩盛,杜鸿儒是核心“操盘手”的项目,他们凭借自身专业背景,开发出了交互式全球疫情地图。
该团队的数据不是凭空自生的,它的来源具备多元化以及权威性特质。他们有系统地去采集诸如世界卫生组织、美国疾控中心、中国疾控中心以及欧洲疾控中心等官方机构所发布的信息,而后还会去参照可靠的地方媒体报道还有其他数据转台,进而展开交叉验证以及整合操作。
与世卫组织数据的差异之谜
留心观察之人会发觉,霍普金斯大学所发布的全球累计确诊病例数量,时常高于世界卫生组织官网公布的同一时期数据。比如在4月13日,霍普金斯大学的数据比世卫组织的数据高出十多万例。这般差异并非是偶然的,主要是源自两者数据收集机制的有着根本不同造成的。
世界卫生组织所依赖的数据,源自其规模巨大的官方网络,作为联合国特别机构,世卫组织设有日内瓦总部,还有六个区域办事处,其于150个国家设有地方办事处,疫情数据经由成员国官方渠道,层层向上汇报,流程严谨,然而相对耗费时间。
数据来源与更新频率的差异
霍普金斯大学项目的数据源头,于疫情开始的初期阶段,历经了变化发展。在早期的时候,他们主要是依靠各个国家官方的公共卫生机构对外公布的信息资料。然而随着疫情不断地向前发展,他们开始更为广泛地将州级、省级甚至市级的卫生部门所拥有的数据,以及具有权威性的媒体所进行的实时报道纳入其中。
这种,“自下而上”的,收集方式,意味着,他们,往往,能,更快地,捕捉到,地方层面的,最新,疫情动态。而,世卫组织,依赖,成员国,官方,汇总上报,在,时效性上,可能,略有,延迟。这种,源头的,不同,直接,导致了,最终,统计数字的,差异。
数据准确性的挑战与启示
在此次“数据乌龙”事件里,暴露出在全球公共卫生愈发快速变化的危机当中,实时数据监控所面临的极大挑战。哪怕是设计得极为精良的系统,也不可避免会遭受人工录入出现错误、数据接口产生故障或者信息源发生突变的影响。
公众和媒体因这一事件需要反思思考,该以怎样的方式理性看待各类疫情数据。数据是决策以及认知的重要参考依据,然而却并非绝对真理。依赖单一信源之时要保持审慎态度同时进行横向对比,并且理解其统计方法以及局限性,这是获取更全面认知的必要步骤。
对于此次数据乌龙这一事件你持有怎样的看法?处于信息呈现爆炸态势这样的时代里,你觉得我们应当怎样去辨别以及利用各种各样的统计数据?欢迎前往评论区把你的观点分享出来,要是感觉本文具备一定帮助作用,那就请点赞并且分享给更多的朋友。









