业内信息

人工智能营销传播算法偏见与元规制路径研究

2021-04-26 来源: 《中国出版》
  【作 者】张艳、程梦恒:河北大学新闻传播学院

  【摘 要】随着算法在智能营销传播领域的普及应用,被算法黑箱所遮蔽的算法偏见等负面效果也渐次浮现,算法正在左右人们的认知习惯和消费偏好,并遮蔽了“算法权力”背后的决策偏见与市场力量,算法服务对社会的“隐性规训”正在显现。同时算法决策机制的动态性、隐蔽性与结构性等特征,增加了偏见识别和判断的难度,给传统规制理论和实践体系带来适用困境。元规制理论强调政府监管部门通过正反面激励与合规指引,促使算法控制者针对偏见问题做出自我规制回应,为算法偏见的规制与管理提供了一种新的研究视角与思路。

  【关键词】人工智能;智能营销;算法偏见;算法黑箱;元规制

  算法属于人工智能的核心技术,伴随人工智能与机器学习技术的发展,算法已经深度介入人类社会生活,并俨然形成“算法社会(Algorithm Society) ”。 [1]智能算法推荐带来的信息定制化、服务精准化得到广泛应用,消费者的各种生活场景因算法变得更加智慧。但在算法满足用户个性化需求的同时,被算法黑箱所遮蔽的算法偏见等负面效果也渐次浮现,人们的认知习惯和消费偏好正在被悄然重塑,公众信息选择权与知情权受到不同程度损害。因而,如何有效规制智能营销传播中的算法偏见成为亟待深入研究的重要理论和现实问题。

  一、算法偏见类型与归因

  根据美国计算机教育领域的托马斯·科尔曼(Thomas H.Cormen)等学者在《算法导论》中给出的定义:“算法一般指解决某一特定问题而采取的有限且明确的操作步骤。”[2]因算法自身因素或突发性错误等瑕疵使算法运行过程中会出现偏差,即算法偏见(Algorithmic Bias),[3]主要指“算法开发者或所有者通过调控程序参数,从而得到想要看到的结果”。[4]美国普林斯顿大学数学与计算机科学领域的学者巴特亚·弗里德曼(Batya Friedman)和海伦·尼森鲍姆(Helen Nissenbaum)将计算机系统偏见依据来源不同分为先行存在偏见、技术性偏见和突发性偏差。[5]算法偏见与计算机系统偏见相似,也可相应地分为先行存在的算法偏见、技术性算法偏见和突发性算法偏见三种类型。其中先行存在的算法偏见主要指设计者可能将文化偏见、社会制度差异等嵌入算法之中,这种偏见既可能是有意识的,也可能是无意识的;技术性算法偏见指由程序本身或系统的某些限制造成的,通常是现有技术难以解决的技术瑕疵造成的;突发性算法偏见主要是在算法使用过程中意外出现的结果,可能是由于新的社会现象的出现或者是知识成果等变动而引起的。[6]

  在这三种算法偏见类型中,技术性偏见和突发性偏见一般情况下多是因技术因素或突发性错误等瑕疵造成,故学界目前探讨的主要是先行存在的算法偏见。有的学者从宏观视角分析数据库算法偏见成因与治理路径;[7]有的学者从智能新闻信息分发过程中引发的算法偏见角度,探讨算法偏见产生的技术逻辑与伦理原则;[8][9]还有学者从法学的视角研究机器学习对算法偏见形成过程的影响以及算法偏见的规制问题;[10]本文主要聚焦智能营销传播领域所产生的算法偏见,这种先行存在的算法偏见多带有一定的主观性,主要存在于商业自动化决策场景中,依照损害主体范围和利益范畴不同,又可以分为三种类型。

  1.损害消费者个体利益的算法偏见

  损害消费者个体利益的算法偏见主要损害的是特定消费主体的个人利益,表现为“算法杀熟”。这些被损害个人利益的消费者,即所谓的“熟客”,实际上是消费意愿更高的用户,一般是会员用户、多次搜索的用户或者是多次消费的用户。这也是大数据与算法结合的负面效应的体现,一些商家通过大数据技术挖掘,深度分析用户职业身份、消费习惯、浏览痕迹等个人隐私数据,然后进行用户数字画像分析,再根据其消费偏好精准推送营销内容,以影响个人消费决策,并最大限度地获取消费者剩余。这些商家将自己的偏见加入算法中,利用消费者的“消费路径依赖”和“信息不对称”而做出失信行为,已经侵害了消费者的知情权和公平交易权,在加剧数据鸿沟的同时,也损害了正常的商业运行秩序。

  2.损害公众基本权利的算法偏见

  这类算法偏见损害的是公众的基本权利,而不是特定主体的利益。这些利益享有人不确定,侵害程度未能准确判断,危害后果也难以遏制。[11]主要表现为两种情况,一是因算法偏见引发的关联歧视,二是由算法偏见带来的“黑箱”操作。算法偏见引发的关联歧视主要表现为性别歧视,如AI进行图像识别时总是把女性和厨房关联匹配,女性得到高薪职位信息推荐的机率远低于男性。[12]由算法偏见带来的“黑箱”操作主要体现在商业决策者有意识地制造偏见信息,实现商业获利最大化。如果消费者以前购买过的产品是相应品类中单价最低的,那么按照算法的“价格敏感程度”计算,当其搜索商品关键词时就只能搜索到低价产品的广告信息,逐渐地,消费者会被算法封锁在一个狭窄的空间里,这种算法带来的偏见非常隐蔽,常常使消费者无法察觉。算法正在左右人们的认知习惯和消费偏好,并遮蔽了“算法权力”背后的决策偏见与市场力量,算法服务对社会的“隐性规训”正在显现。

  3.损害市场公平竞争的算法偏见

  随着算法在智能营销传播领域的普及应用,那些具有技术和市场支配地位的经营者更容易通过算法设置贸易壁垒,影响市场公平竞争。今日头条就曾指控百度利用其在我国搜索引擎市场上的优势地位,人为干预算法及搜索结果,认为百度通过影响算法结果进行不正当竞争,造成今日头条平台点击量下降,并损害其商业声誉及品牌形象,要求赔偿经济损失。2020年11月30日,北京海淀法院责令百度立即停止该不正当竞争行为,并赔偿其经济损失50万元。在商业经营中,优势经营者利用算法对竞争行为进行人工干预,属于基于经济利益驱动的有意识的算法偏见,是对其他经营者正常经营行为的限制打压,在侵害各经营者合法权益的同时也损害了消费者基本权益。

  二、算法偏见规制难点

  算法偏见规制已成为数字化社会的显性议题,但是现有解决方案与传统规制模式却存在一定的适用困境,智能营销传播中算法偏见的有效规制面临一定困难与挑战。

  1.算法决策机制的动态性特征增加了偏见规制难度

  从算法决策机制看,算法决策具有的动态性特征无疑增加了算法偏见的识别难度。互联网媒体平台的算法系统并非静态、一成不变的,而是需要不断演进、调整以适应需求,谷歌平台算法每年会调整500-600次,算法的快速动态变化性以及高技术性特征,加大了政府规制的市场信息获取成本。由于缺乏专业技术知识,监管部门难以及时跟进不断变化的市场环境并快速调节,现行法律制度虽设置事后救济规制手段,但在实际操作过程中仍存在难以实施的困境。如上述的三种类型算法偏见难以用一个法律进行规制,涉及损害主体不同,适用的法律法规也不同,其中损害消费者个体权益的算法偏见,受消费者权益保护与价格管理等规定;损害市场公平竞争的算法偏见破坏了市场竞争秩序,受《反不正当竞争法》的规制;而损害公众基本权利的算法偏见违背的是公平原则,多在法律原则上有相关规定,这就可能发生多部法律、多头监管与交叉执法的实施困境。

  2.算法偏见的隐蔽性和结构性增加了辨识难度

  算法偏见具有高度隐蔽性,信息不对称使算法偏见潜伏在各个消费环节而不被发现,算法本身的复杂性使其决策过程难以被普通消费个体所理解和洞悉。同时算法偏见还具有典型的结构性特征,主要指大数据算法决策所产生的偏见中有一部分是由于历史数据中所隐藏的偏见,这些偏见经由机器学习而被植入算法模型中,从而使算法模型自动生成的决策延续了历史数据中的偏见。[13]算法偏见的隐蔽性和结构性特征无疑增加了偏见识别、判断和审查的难度,给传统规制理论和实践带来深刻挑战。消费个体即使发现算法偏见影响其个人权益,其也难以承担繁重的举证责任,并且如前文所述侵权主体可能存在不唯一的情况,维权利益则惠及所有主体,所以消费个体缺乏足够的动力开展算法偏见损害的维权,公众舆论监督在传统规制实践中的辅助作用也受到一定限制。

  3.算法透明度与“数据画像”解释权的局限性

  在算法规制中,解释权是指要求对算法输出进行解释的权利。[14]根据欧盟2018年5月出台的《一般数据保护条例》,其中第13条第2款规定,数据控制者应该向数据主体提供包括数据画像在内的自动化决策及相关逻辑,以及此类处理对于数据主体预期影响等有效信息。但是智能营销传播过程中广泛使用的推荐算法,可能在有意或无意中限制某些信息流向特定消费群体,从而引起“回声室效应”,[15]消费者接触到多样化消费信息的机会越来越少。消费者深受算法影响,却不具备专业知识,难以对算法决策进行有效质疑,并且算法系统的应用组织或决策者通常将基于数据画像的算法决策视为商业秘密,不愿公开披露。这就产生了社会公众对提升算法透明度的客观需求与“数据画像”解释权之间的冲突,使算法偏见的规制实践变得更加复杂和困难。

  三、算法偏见的元规制路径

  从认识论的“偏见—认识”框架看,作为错误的偏见行为,算法偏见是可以消除的。[16]尤其是在智能营销传播领域中,算法偏见的产生大多是人为因素驱动或嵌入的结果,对消费个体产生的损害也更为直接,规制需求更为迫切。有研究表明,在监管机构缺乏必要资源或专业技术信息时,适宜采用元规制模式。[17]

  元规制(meta-regulation)理论发端于英美,技术鸿沟是元规制理论兴起的重要原因,其基本形式是政府规制机构对行业自我规制体系进行观察,并根据观察结果进行调控或激励,令其制定更严格的规则或采用更有效的执行机制。[18]这样既能激发行业自我规制的活力,又能以政府规制的力量保证行业自我规制的执行效果,同时成本更低,技术专业性更高,企业接受度也更高。算法技术壁垒使算法偏见问题更适合采用元规制模式,即政府监管部门通过正反面激励与合规指引,促使算法控制者针对偏见问题做出自我规制回应。这种元规制模式已经切实反映在欧盟数据保护改革中。

  1.构建算法偏见全过程动态监管机制

  机器学习算法具有高度的自动性,在算法运行过程中可能延续历史数据中的偏见。针对这种算法技术特性,宜建立全过程动态审查机制,在算法设计、运行与输出等全过程进行动态审查监督。依据元规制理论,政府监管部门可以督促行业建立专门的算法审核机构,并要求独立的审核机构对算法模型进行全过程动态审查,正如《一般数据保护条例》中第36条和第41条规定,要求经过监管机构认证的、具有适当专业性的行业组织对数据处理过程进行监督,政府监管部门并不直接参与具体的执行过程,仅对监督报告进行审查。有学者认为欧盟数据保护立法正在向“管理不确定情境下科技创新的元规制模式”转变。[19]

  同时,行业主体还应进一步加强对算法审核的自我规制举措,今日头条的推荐算法自第一版运行至今已进行过四次大的调整,自主加强了对于算法偏见的动态审核,在用户精准画像匹配环节加强数据融合与算法优化的动态调整与更新,当AI辨别出用户喜欢的个性化内容时,也并不一味地只推荐其喜欢内容,而是按不同权重分发不同内容,避免用户陷入算法偏见的“信息牢笼”。[20]

  2.建立算法偏见影响事前评估制度

  欧盟2017年制定《数据保护影响评估指引》,由此可以看出,建立算法影响评估制度已成为算法偏见的重要规制举措。在元规制模式下,政府监管部门提供的评估指引可以督促行业进行算法合规性的展示,相对于法律规制的事后救济与追责,构建算法偏见的事前评估制度更强调预防的重要性,要求算法设计者及平台责任方在算法程序运行之前进行一定范围的预评估与测试,将算法偏见的影响降到最低。

  2019年,我国《电子商务法》首次针对网络平台增设了算法责任,体现出算法结果监管向事前监管的转化思路,并初步建立了算法事前监督机制。[21]算法偏见影响的事前评估还有赖于智能技术的快速研发,依照“技术缺陷的问题交给技术更新来解决”的逻辑,研究者正在积极开发各种能够减少算法偏见的智能技术工具,美国麻省理工学院开发了一种“去偏见”算法模型(DB-VAE),可以对测试数据集进行评估,用于减少算法偏见引发的关联歧视行为;IBM制造的沃森机器人搭载了算法偏见的检验与缓解功能,其开发的“公平360”工具,汇总了来自数十个团队的百余种算法偏见的开源检验程序,软件工程师可以在开发算法时直接搭载这些检验程序,并对算法偏见行为进行拦截,从而减少算法偏见的发生,进行事前预防。

  3.推进算法伦理道德和技术标准规范建设

  在强化算法控制者与责任平台义务的前提下,如何推动其积极履行责任与义务尤为重要。有学者将元规制称为“对自我规制的控制”,不同于完全的行业自我规制,元规制强调外部监管者有意促使规制对象自身针对问题做出自我规制。[22]在这种模式下,监管机构赋予行业自我规制主体一定的裁量空间,设定自身规范框架与技术标准,并激励行业主体形成更大的遵守意愿。依此,政府管理部门需出台有关算法偏见技术标准方面的规范指引,为算法开发者和应用平台展开内部合规管理提供规范引导,鼓励算法设计者开发出符合伦理道德以及用户友好原则的算法程序,并定期发布算法质量与检查报告。政府部门对这种标准与规范进行监督,保持着较低水平的、必要的规制干预,同时也保留着更严格的执法与引进更具干预性制度的可能性空间。

  在元规制的趋势下,当前一些互联网应用平台已经认识到算法偏见的重要性,开始加大资源投入研发算法偏见的自我规制路径。微软提出人工智能伦理的六项原则,其中强调人工智能必须防止偏见并承担算法责任;谷歌发布人工智能七项指导原则作为具体执行标准,称人工智能算法和数据应避免制造或强化不公平偏见,并正在通过改进机器学习系统来避免偏见。这种预先主动承担算法伦理道德责任的方式,可以有效平衡人与算法的关系,避免算法技术的滥用。另外,如何平衡平台商业隐私与公共利益之间的关系,也是算法技术标准规范的一个关键问题。

  注释:

  [1]Jack M.Balkin.2016 Sidley Austin Distinguished Lecture on Big Data Law and Policy: The Three Laws of Robotics in the Age of Big Data[J].Ohio State Law Journal,2017,78(5)

  [2]托马斯•科尔曼.算法导论(原书第3版)[M].殷建平,等,译.北京:机械工业出版社,2013:3

  [3]Anupam Chander.The Racist Algorithm[J].Michigan Law Review,2017,115(6)

  [4]仇筠茜,陈昌凤.基于人工智能与算法新闻透明度的“黑箱”打开方式选择[J].郑州大学学报(哲学社会科学版),2018,51(5)

  [5]Friedman,Batya,Nissenbaum,Helen.Bias in Computer Systems[J].ACM Transactions on Information Systems.1996,14 (3)

  [6][11]刘友华.算法偏见及其规制路径研究[J].法学杂志,2019(6)

  [7]李昭熠.智能传播数据库偏见成因与规制路径[J].当代传播,2020(1)

  [8]林爱珺,刘运红.智能新闻信息分发中的算法偏见与伦理规制[J].新闻大学,2020(1)

  [9]董天策,何旭.算法新闻的伦理审视[J].新闻界,2019(1)

  [10]梁志文.论算法排他权:破除算法偏见的路径选择[J].政治与法律,2020(8)

  [12]Caire C. Miller. When Algorithms Discriminate[N]. The New York Times,2015-07-10

  [13]史蒂夫•洛尔.大数据主义[M].胡小锐,等,译.北京: 中信出版社,2015:272-278

  [14]Lilian Edwards, Michael Veale.Slave to the Algorithm? Why a “Right to an Explanation” Is Probably Not the Remedy You Are Looking For[J].Duke Law & Technology Review,2017(16)

  [15]Michal S.Gal.Algorithmic Challenges to Autonomous Choice[J].Michigan Telecommunications and Technology Law Review,2018,25(1)

  [16]杨庆峰.数据偏见是否可以消除[J].自然辨证法研究,2019,35(8)

  [17]程莹.元规制模式下的数据保护与算法规制——以欧盟《通用数据保护条例》为研究样本[J].法律科学(西北政法大学学报),2019(4)

  [18]科林•斯科特.规制、治理与法律:前沿问题研究[M].安永康,译.北京:清华大学出版社,2018:5-6

  [19]Macenaite. M.The“Riskification”of European Data Protection Law through a two-fold Shift[J].European Journal of Risk Regulation,2017,8 (3)

  [20]喻国明,杜楠楠.智能型算法分发的价值迭代:“边界调适”与合法性的提升——以“今日头条”的四次升级迭代为例[J].新闻记者,2019(11)

  [21]张凌寒. 《电子商务法》中的算法责任及其完善[J].北京航空航天大学学报(社会科学版),2018(6)

  [22]罗伯特•鲍德温,马丁•凯夫,马丁•洛奇.牛津规制手册[M].宋华琳,等,译.上海:上海三联书店,2017:167

国家广播电视总局 | 湖北省人民政府 | 中国邮政集团公司 | 武汉市人民政府 | 中国期刊协会 | 中国图书进出口(集团)总公司 | 中国邮政集团公司报刊发行局 | 湖北省广播电视局 | 湖北日报传媒集团 | 长江广电传媒集团 | 长江日报报业集团 | 知音传媒集团 | | 湖北中图长江文化传媒有限公司 | 决策信息网 | 湖北新闻出版广电传媒周

copyright(c) 2013 湖北省新闻出版局 版权所有 技术支持

鄂ICP备19004605号-4  鄂公网安备 42010602004016号