□辛晓磊(北京教育音像报刊总社)
核心阅读:在互联网时代,用户完全能够在海量信息中随意选择所关注的话题,根据自己的喜好定制一份个人日报。然而,若不主动跳出固化的信息圈层,则每天面对无穷无尽自己感兴趣的信息,个人生活将呈现出一种单一化、程序化、封闭化的媒介景观,失去了解不同事物的机会和能力,深陷“信息茧房”却浑然不知。
2017年,党的十九大报告中特别提到了要“推动互联网、大数据、人工智能和实体经济深度融合”。近年来,国家大力支持并推动人工智能、大数据、5G等技术与新闻业的深度融合,使得传统新闻业正发生翻天覆地的新变化。在新闻传播领域,人工智能作为一项媒介技术,在新闻生产和新闻分发等环节扮演着日益重要的角色,“算法新闻”成为一种新现象。但不可否认,其在带来便捷的同时,背后的弊端也应加以重视。
“算法新闻”的概念与发展
“算法新闻”从一诞生就伴随着争议,其概念的内涵和外延学术界仍有争论,较常见的有以下五种:一是“机器(人)新闻”,即人工智能机器人根据工程师事先编好的程序框架自主编写新闻;二是“自动化新闻”,指的是新闻生产过程的自动化,也就是机器可以将数据自动转换为新闻,强调的是新闻生产过程中,除了最初的编程,无需人工干预,自动转化为新闻叙事文本;三是“数据驱动新闻”,即依托高质量大数据资源,利用大数据分析技术,实现新闻生产的自动化;四是“计算新闻”,即综合利用数学、计算机科学等多学科交叉生产工具生产新闻;五是“算法新闻”,即利用算法技术进行新闻自动化生产或进行个性化新闻推荐,保证新闻在分发环节的精准性和可靠性,自动生产新闻的过程,突出了算法技术的个性化特征和核心地位。笔者认为,“算法新闻”是指算法技术运用于新闻业全流程,包括新闻线索搜集、消息制作、精准分发以及新闻消费的全过程。
“算法新闻”发展脉络梳理。人工智能算法技术加速新闻业发生新变化,主要表现为两点:一是机器人写作,即传统新闻时代创作主体是专业新闻记者,“算法新闻”条件下创作主体则变为机器人;二是新闻分发环节采用算法推荐机制,即由传统人工编辑进行新闻分发和推送,转向基于兴趣爱好的个性化算法智能推送。
机器人写作理论和技术最早可上溯至20世纪70年代,美国出现的自动化生产技术。1976年,耶鲁大学研究了第一套故事写作机器人算法程序,打开了自动化写作的大门。2006年,美国汤姆森金融公司开始使用电脑程序编写财经新闻。此后,自动化生产发展进入快车道,路透社、美联社等使用机器人写作,Cyborg、Bertie等新闻写作软件得到广泛应用。国内机器人写作起步较晚,2015年11月7日,新华社推出“快笔小新”,不久后,今日头条的“张小明”、第一财经的“DT稿王”等写作机器人陆续上岗,国内机器人写作呈现百花齐放景象。
21世纪初,谷歌开始通过基于用户点击历史的个性化新闻推荐方式将相似新闻分组,向用户推荐可能感兴趣的新闻,此后,个性化推荐算法便广泛应用于新闻领域。2014年11月,搜狐新闻客户端加入个性化推荐功能;次年10月,新浪新闻客户端进行系统功能更新,推出个性化推荐功能;2015年11月,网易新闻客户端更新;2016年天天快报成立,对用户个性化兴趣推荐。目前,推荐系统中基于协同过滤的推荐算法、基于内容的推荐算法、基于关联规则的推荐算法和基于社交网络关系的推荐算法,是应用最广的类型。
“算法新闻” 带来新闻伦理的新挑战
传统新闻观遭受挑战。“算法新闻”出现后,新闻人的主体性地位开始动摇,在注意力经济的刺激下,为了追求利益最大化,互联网媒体公司借助人工智能算法技术,抓取、识别、计算用户数据,形成“用户画像”再进行精准新闻推送。由此导致传统新闻媒体的关注度和权威性被不断弱化、消弭,非专业新闻记者同样可以借助算法编写新闻信息,甚至在新闻推送过程中,传统新闻把关人的地位被预设的算法程序替代,传统专业新闻机构的权威性逐渐被瓦解。
“算法新闻”加剧“信息茧房”现象。“信息茧房”源于哈佛大学桑斯坦的著作《信息乌托邦》,他认为,基于选择性心理,用户更愿意接触那些与既有观念、意见相一致的内容,回避相斥内容。长此以往,这种“信息偏食”便会将用户桎梏于像蚕茧一样的“茧房”之中。在互联网时代,用户完全能够在海量信息中随意选择所关注的话题,根据自己的喜好定制一份个人日报。然而,若不主动跳出固化的信息圈层,则每天面对无穷无尽自己感兴趣的信息,个人生活将呈现出一种单一化、程序化、封闭化的媒介景观,失去了解不同事物的机会和能力,深陷“信息茧房”却浑然不知。
“算法新闻”的生产操作流程大致分为数据输入、数据吞吐和新闻产品输出。在第二阶段,即数据吞吐阶段,由于算法过程“透明性”缺失,“算法黑箱”成为人类和数据之间无法洞悉的一个灰色空间。即便“算法黑箱”可以被观察,但计算机试图通过算法对人类进行说明和解释,这很大程度上对普通人来说也是不容易被理解的。因此,这些原因最终导致“算法黑箱”很难被彻底揭开。偏见、控制和“算法新闻”伦理的失范,与算法程序的最初设计息息相关。算法工程师有意识或无意识地将自己的价值观甚至是偏见融入其中,即使具备客观公正的职业素养,但个体的“刻板印象”也会被无意识地带入其中,如价值判断的标准、主观认知的预判等看不见的“偏见”。甚至有些设计者或机构基于某种目的有意对算法程序进行控制,同时如果原始数据的质量不佳将会加重偏见的程度,最终输出的必然是带有偏见或控制的“算法新闻”。
“算法新闻”时代 新闻伦理规范新路径
麦克卢汉认为,媒介是人的延伸,我们正迅速逼近人类延伸的最后一个阶段即从技术上模拟意识。“算法新闻”是新闻业在技术层面的一次伟大尝试,给人们带来了新闻生产自动化、新闻推荐个性化、新闻呈现精准化、新闻需求服务化等新变化,加剧“信息茧房”现象、形成“算法黑箱”等,不利于算法用户健康全面发展。“算法新闻”出现伦理失范现象的原因是多方面的,想要改善当前弊端,应从算法透明性、推荐机制、用户算法素养以及法律监管四方面着手,实现算法新闻的工具理性与价值理性和谐共生。
提升算法透明性。算法工程师有责任提高算法的透明度,新闻聚合平台或机构有责任向用户解释或公开算法的底层逻辑和基本运作原理,这种公开行为既能使用户对算法新闻有深度认知和判断能力,又能提高初始数据质量,为后续“算法新闻”的完善奠定基础。
个性化算法与多样化算法相结合。“算法新闻”的个性化推荐机制可能导致用户接受信息的路径窄化,最终增强“信息茧房”效应和“个性化拟态环境”的传播效果。麻省理工学院媒体实验室创立的应用程序Terra Incognita为解决此类问题提出用户进行反向个性化推送即“非相似性”推送,扩展新闻信息在用户面前的曝光面积以戳破由“过滤气泡”造成的信息接收不均的问题。
提升算法素养,实现算法驯化。算法用户面对复杂网络环境,不应盲目接受所有信息,而是有所选择地接触、理解、记忆。算法输入阶段的数据来自用户个人喜好和阅读习惯,而用户作为具有主观能动性的个体,应有意识地流露自己的阅读习惯和兴趣爱好,以达到净化原始数据的目的,从而实现对个性化算法推荐机制的驯化,扩展自身知识体系,培养多角度、多元化的思维方式。
完善新闻法规顶层设计,健全监督规范机制。我国目前仅有《中新闻工作者职业道德准则》《中国互联网行业自律公约》等规范新闻从业人员。然而,现阶段监管部门对“算法新闻”存在的诸多问题大多处于“放任自流”的状态,也没有构建完备的监督系统,亟待系统的新闻传播法律法规体系对其进行约束。