
最近一份皮尤研究中心的调查显示,超过60%的成年人认为,他们经常遇到完全虚构的政治新闻。 而在另一项学术研究中,研究人员发现,虚假信息在社交媒体上的传播速度是真实信息的六倍,范围广达十倍。 我们仿佛陷入了一场全球性的“真相危机”——每个人都在发声,但事实的影子却越来越模糊。 这不仅仅是信息的泛滥,更像是一场高明的魔术,真相被悄悄调包,而我们大多数人,还坐在观众席上鼓掌。
让我们把时间拨回2016年。 那一年,一则关于“教皇方济各支持特朗普竞选美国总统”的新闻,在Facebook上被疯狂分享了近百万次。 事后证明,这完全是一条捏造的假消息,源头来自马其顿(现北马其顿)一个小镇上的几位年轻人。 他们后来接受采访时坦言,动机纯粹是为了赚钱:通过耸人听闻的假新闻吸引点击,再从页面广告中分成。 这个如今看来略显粗糙的案例,却像一声惊雷,预示着信息生态将发生根本性的改变。 它不再是简单的谣言,而是一门有着完整产业链的“生意”。
展开剩余70%平台算法在这个过程中扮演了至关重要的角色。 以Facebook的新闻推送算法为例,它的核心逻辑是优先展示能引发更多互动点赞、评论、分享的内容。 而人类心理学早有定论:带有情绪,特别是愤怒、惊奇或恐惧色彩的信息,最能激发人们的互动欲望。 虚假信息往往极度夸张、立场极端,完美契合了算法的偏好。 于是,一个自我强化的循环出现了:假新闻获得更多互动,算法将其推送给更多人,更多人互动后,它被传播得更广。 2018年,《科学》杂志发表的一篇论文通过大规模数据分析证实,虚假信息之所以跑得更快,不是因为机器人水军,根本原因在于真实的人类更倾向于分享新奇、令人情绪激动的内容,而假新闻恰恰擅长此道。
那么,我们自身就是无辜的吗? 心理学上的“确认偏误”为我们揭示了另一个层面。 我们天生倾向于寻找、相信和记忆那些能证实我们原有观念的信息,而对相反的证据视而不见。 社交媒体打造的“信息茧房”和“回音壁”效应,则完美地服务于这种偏误。 算法根据你的点击喜好,不断推送同类观点,你将越来越难听到不同的声音。 当你身处一个所有人都说“天空是绿色的”社群中,即便你抬头看到的是蓝色,也可能开始怀疑自己的眼睛。 这种环境不仅使假新闻易于存活,甚至让基于部分事实的扭曲叙事更具破坏力,因为它们被包裹在令人舒适的“共识”之中。
经济利益是驱动这一切的另一只巨型推手。 数字广告的计费模式无论是按点击(CPC)还是按展示(CPM)都直接与流量挂钩。 这意味着,注意力就是金钱。 制作一篇调查严谨的深度报道,可能需要一个团队耗时数周;而炮制一篇“吃这种食物能抗癌”或“某国政客秘密访台”的爆款假新闻,可能只需一小时。
后者带来的流量收益却可能远超前者。 这种扭曲的激励模式,催生了大量内容农场和造假账号。 它们没有编辑准则,只有流量KPI。 2020年新冠疫情初期,全球范围内关于病毒起源、预防措施的谣言呈爆炸式增长,世界卫生组织将其称为“信息疫情”。 这些谣言背后,不少是打着健康科普旗号,实则为销售伪劣产品或引导至恶意网站的商业操作。
面对这种局面,各国政府和平台方也采取了一些措施。 欧盟在2018年推出了《反虚假信息行为守则》,要求大型科技平台加强审核、透明政治广告来源。 一些社交媒体平台如X(原Twitter)和Facebook,开始给部分疑似虚假信息的内容打上“需要核实”的警示标签。 事实核查组织如美国的PolitiFact、法国的Les Décodeurs也在持续工作。 然而,这些努力似乎赶不上问题蔓延的速度。 标注警告有时反而会激起逆反心理,被部分人群视为“思想打压”的证据。 更棘手的是,深度伪造等AI技术的成熟,让伪造视频、音频的门槛大幅降低,使得“有图有真相”的时代彻底成为过去。
我们似乎站在一个十字路口。 一方面,技术赋予了每个人前所未有的表达权;另一方面,同样的技术也正在侵蚀我们共建事实基础的土壤。 当对同一事件的基本事实都无法达成共识时,公共讨论就变成了鸡同鸭讲,社会信任的基石也随之松动。 记者和传统媒体“守门人”的角色被极大削弱,但算法和流量逻辑并未建立起一套更优的真相筛选机制。 我们获得了信息的极大丰饶,却也陷入了真相的极度饥渴。 这场魔术秀的帷幕已经拉开,而我们每一个人,既是观众,也在不知不觉中,成为了表演的一部分。
优质好文激励计划开户配资网站
发布于:江西省启泰网配资提示:文章来自网络,不代表本站观点。