《真相——信息超载时代如何知道该相信什么》这本书的标题并不讨喜。类似这样的标题的文字实在是太多了,关注这个领域的人早已对此心知肚明,尤其在这个社交媒体信息泛滥的后稀缺时代,以这个标题作为书名,更有点心灵鸡汤的味道。

more

img

更「严重」的是,本书的介绍语里有这句话这样写道:

本书是资深记者写给普通公民的新闻消费指南。

倘若这本书的内容只在于此,也就没有了今天的这篇文字。《真相》这本书还提供了两位资深记者对于新闻业的新思考,这才是本书最大的价值。

新闻消费的「靠后」与「前倾」

这是一个非常恰当的比喻,过去新闻消费者的状态是「靠后」——比如你可能会靠在沙发上把《新闻联播》看完——这更像古典新闻的消费习惯,作为读者/观众/听众,你只需按照新闻机构「精心挑选(别有用心)」的新闻排序模式消费完这些内容即可。两位作者这样描述上世纪 60 年代《纽约时报》 编辑部的工作状态:

20 世纪 60 年代期间,当《纽约时报》高层管理人员每天早上花 1 个小时在编前会上决定哪些新闻稿件上头版的时候,只有一个问题最重要:在报社当天收到的数以万计字的信息里,哪些新闻(通常为七到八条稿件)对大多数人最重要?

在这样的语境下,很多新闻似乎是绝大多数人感兴趣的话题,但那些沉默的大多数又有谁去照顾呢?幸运的是,如今的新闻的消费进入「前倾」,所谓「前倾」,是越来越多的新闻消费者不满于被动地接受新闻,开始主动搜索、整合新闻。作者描述这些人为「新闻游牧者」:

他们以自我需求为中心,在多个平台(屏幕)之间切换,找到需要的新闻。

这也能部分解释目前新闻客户端成为流量大户的原因。

更有甚者,积极参与到新闻生产中,或是直接撰稿、或是评论。上述变化对于中国读者并不陌生,从几年前的网易新闻下的评论到如今各式各样的自媒体平台、直播平台,中国的读者越来越多地介入到信息(对不起,这真不是新闻)的生产之中。

大卫李普曼的担忧

这种铺面而来的信息冲击,几乎一夜之间让所谓的新闻业回到大卫李普曼的那个年代,李普曼在上世纪 20 年代所写的《自由与新闻》指出:

到达报社编辑部的当日新闻是事实、宣传、谣言、怀疑、线索、希望和恐惧的混合体,其杂乱无章令人难以置信……筛选与排列新闻是民主社会中真正神圣的和具有宗教性的工作。因为报纸是记录民主进程的圣经,是人民行为的依据。

但在互联网时代,新闻机构渐渐失去了筛选的能力和排列的权力。筛选,是新闻机构把关人的集中体现,但现在的新闻生产早已不再中心化,社交媒体上的海量信息已经构成了新闻的全新形式。其次,在排列的权力上,以今日头条、FB 为代表的流量分发渠道彻底改变了新闻分发的方式方法[1],并把这种权力从新闻工作者手里夺走,归入一个个所谓的「算法」里。

李普曼的另一个担忧则是「一旦所有新闻报道都来自二手信源,人们将失去对真理的感觉,只对观点作出反应。」这也是中国互联网自媒体的现状体现,似乎每个人都在发表观点,对事实背后的逻辑解读较多,而事实的真实与否则并非关注的重点。

再造新闻

资深媒体人仇勇在一篇文章这样写道[2]

img

这是新闻业固有的通病,而在《真相》一书里,两位作者也提出了一些解决思路。比如超越新闻把关人的角色,以「对话」的思维展开新闻。早几年,我曾在一家杂志社的时候,主编经常提出的一个概念就是「重建关系」,大致意思相通,但探索的并不成功,本书的作者提出了八种全新的关系:

  • 鉴定者
  • 释义者
  • 调查者
  • 见证者
  • 赋权者
  • 聪明的聚合者
  • 论坛组织者
  • 新闻榜样

鉴于篇幅不再展开,国内这几年澎湃、界面其实都在探索这个路径

作者提出个另一个思路倒是我比较关注的。作者引用了当时还在 Google 的梅耶尔的想法:

新闻也可以视为一种每天生长的生物

具体来说:

它不是要改变新闻讲故事的性质,而是认为除了每日新闻之外,还可以创造一种新的「原子单位」。与一条每日新闻相比,它到更接近于一个维基百科的页面。我们不妨称它为「知识页面」。这种知识页面是媒体对某个题材所掌握的所有信息的流水般的记录,其内容会不断增补,而不是被取代,相当或接近于一条不断更新的维基百科条目;但与维基百科条目相比,它更丰富和更富有活力;与今日最新报道相比,它更完整。它包括媒体已经积累的所有材料……

巧合的是,《纽约时报》的一个创新部门也在从事类似的实验。纽约时报研究与发展实验室(NYTLABS),是一个探索未来3–5年可能普及的科技以及媒体的未来的机构,来看看他们的想法

传统的新闻报道中,印刷媒体的限制是每天最多发行两次,而且每当一个新闻被报道,就不再能修改了。现在,媒体已经习惯了使用视频、音频、交互性阅读等,但是,即使是最创新的形式,依然遵循着传统的报道方式:一篇报道发布后就不会再修改,知识也不会累积起来。

NYTLABS的看法是,应该让信息自动积累,以往的报道应该能被以后的报道所用。当然,这不是要做成想维基百科那样的纯粹的资料整理,而是要增加新闻报道的深度和广度。

具体如何实现,NYTLABS的方法是,首先把文章编码化,这就意味着把可能会被重复使用的部分识别出来并加以注释,《纽约时报》旗下的科技博客Bits对此有个专门的称呼,“段章”(Particles),相对与传统的“文章”(Articles)。

这个方法并没有在全世界推行,因为媒体往往不愿意负担额外的人力成本。《纽约时报》的做法是引入机器学习,来给可能重复使用的部分加标签和注释,这样能极大减轻人力负担。

这种全新的新闻生产方式在新技术,比如机器学习的帮助下将有巨大潜力。毕竟,我们还生活在一个依赖传统媒体提供有价值新闻的大环境里,传统媒体的公信力和对公众认知的把握,远非机器能胜任的。




  1. 张一鸣的今日头条如何定义新闻的未来?  ↩

  2. 原文章已删除  ↩