智能算法推荐今年蚕茧价格的意识形态风险及其治理
本文刊载于《探索》2021年第1期。
引用格式:张林.智能算法推荐今年蚕茧价格的意识形态风险及其治理[J].探索2021(1):176-188.
摘要:作为一种信息资源的个性化配置范式今年蚕茧价格,智能算法推荐是大数据逻辑和人工智能逻辑在信息传播领域相结合的必然趋势。智能算法推荐的价值中立在理论和实践上都是一个伪命题。智能算法推荐带来的“把关转移”“信息成瘾”“私人定制”“过滤气泡”在一定程度上造成今年蚕茧价格了社会思想价值的失序、堕化、分化和区隔,使得作为统合性价值体系的主导意识形态面临着凝聚力弱化、权威失落、引导乏力和认同窄化的风险。防控这些风险,需要从技术规制、价值引领、法律规范、平台自律、用户素养等维度开展意识形态风险协同治理,形塑工具理性与价值理性的算法平衡,用主流价值驯化算法权力,进而争取实现推送效率与公共责任、商业价值与社会价值之间的良性互动。
作者:张林,博士,电子科技大学马克思主义学院讲师。
近年来,随着大数据技术和人工智能技术的跃迁式发展,以适配个性化需求为目的的智能算法推荐正在成为信息流通领域的新技术范式。以微博、微信、抖音、快手及今日头条等为代表的网络平台纷纷致力于算法转向和算法升级。正如克莱·舍基所说:“一项技术必须要变得普通,继而普遍,最后一直到无处不在而被人们视若不见时,真正的变革才得以产生。”从当前的传播实践来看,智能算法推荐带来的传播变革正在潜移默化地影响着社会生活的方方面面,自然潜藏着意识形态风险,成为维护国家安全与社会稳定发展中一个值得高度重视的问题。
1 文献梳理与问题提出
智能算法推荐改变着个体用户的信息体验和认知习惯,也改变着整个社会的信息结构和传播秩序。智能算法推荐在应对信息超载危机和调试信息供需匹配的同时也带来了工具理性与价值理性在不同程度上的失衡。如何辩证把握智能算法推荐带来的二重性影响,化解智能算法推荐的潜在性风险,引导智能算法推荐的有序健康发展成为学界研究的重要议题。
1.1 智能算法风险的技术逻辑分析
随着智能算法推荐的日趋普及,学者们开始尝试从技术特征、技术原理、技术类型及实践机制等维度出发探讨智能算法风险生成的技术逻辑。从计算机科学的技术路径出发,智能算法推荐可以分为三种算法实践:“基于内容的推荐容易导致信息茧房现象,基于协同过滤的推荐会引发受众对阅读内容的失控,基于时序流行度的推荐有诱发电子媒介‘黄色新闻潮’的风险”。从技术原理和技术机制的视角看主流推荐算法的类型、核心思路与优缺点,可以发现算法推荐的本质就是“用户价值主导下的场景化适配”。从技术现象学的角度分析算法传播带来的信息革命,发现其带来的信息个人化转变可能会导致“价值偏向、算法牢笼、消解隐私甚至破坏公共性等价值风险”。以信息与受众的视角分析算法推荐的可见性生产逻辑,探讨算法对用户注意力、想象力、自我身份、人际交流、舆论感知等方面的影响,可以发现算法媒体正在通过“知识生产、信息消费的模因和趋势,微妙地支配着公众意识”。
1.2 智能算法推荐在不同领域的风险研判
基于不同研究领域和理论视角,学者们探讨了智能算法推荐在政治、社会、传播、伦理、意识形态等领域的风险表征。从政治权力演化的角度出发,有学者认为智能算法作为一种新的权力形态,已经渗透到政治领域的各个层面,算法的内在缺陷及其不当使用在“政治正义、责任主体模糊、正当性原则、政治判断”等方面存在诸多风险。从国家治理的角度看,算法权力在“营造公共舆论、控制政策议程、主导政策执行和影响政策评估结果”等方面对治理能力与治理体系 构建带来了冲击。从政治传播的角度看,算***在演化为一种程序化政治,逐渐成为一种新的政治形态。算法营造的政治拟态环境可能带来“公共性流失和主体扭曲的风险”。从技术伦理视域看,算法技术在新闻传播中存在诸多两难选择,媒体算法存在“价值纠缠、利益纠缠和品 牌纠缠”的现象。也有学者从整体视角出发梳理了智能算法异化带来的“政治态度分化、治理出现盲区、公共话语去价值化、算法公正缺失、算法技术垄断、责任主体模糊”等社会风险。
1.3 智能算法推荐的风险治理探讨
就如何应对智能算法风险,学者们从各自的研究领域出发进行了诸多治理策略探索与建 议。基于公共性应用风险视角,应当从“技术规制和权力规制”两个维度出发防范算法在公共领域的系统性风险。要解构算法神话对有机世界的遮蔽,就必须建构公平、透明和负责任的算法系统,在“立法实践上规范算法技术、建立算法问责机制是对抗算法偏见、规避数字风险的有效治理路径”。同时,应该改变对算法监管的传统思路,将内容审查与算法审查并举,建立起平台责任与技术责任双轨并行的责任体系,并对“算法的生产性资源数据的收集和使用进行合理限制”。以“人权、社会公正、人类福祉、美德”为价值基础构建算***理,通过“优化算法、反思算法、用好算法”规制人工智能时代思想政治教育的算法风险。
综上所述,可以看出学界对智能算法推荐系统性风险相关议题的研究呈现出蓬勃发展的态势,正在从经验主义的全方位探索转向理论思辨的批判性诠释。学者们从不同的理论视角出发探讨了智能算法推荐在政治、社会、传播、伦理、法律、文化等领域的运行逻辑、实践机制、权力结构和风险表征,并从技术规制、政策完善、伦理规范、立法实践、制度监管等维度探讨了智能算法推荐的风险善治策略。也必须看到,学界关于智能算法推荐意识形态风险相关议题的探讨还比较薄弱,关于智能算法推荐意识形态风险及其治理的研究才刚刚起步,一些核心问题尚未得到完全凸显。由此,本文从意识形态视角出发来审视智能算法推荐的技术逻辑和价值属性,研判其蕴含的意识形态风险并探究风险治理的整体性方案,兼具理论和现实意义。
2 智能算法推荐的技术逻辑与意识形态属性
厘清智能算法推荐的技术逻辑和意识形态属性是探讨智能算法推荐意识形态风险及其治理的前提。作为一种信息资源配置范式,智能算法推荐的技术本质及其内嵌式规则决定了其不 可避免地会呈现出鲜明的意识形态属性。
2.1 个性化的信息配置:智能算法推荐的技术逻辑与运作机理
在当前的传播实践中,尽管不同信息平台采用的算法原理或模型可能不尽相同,算法推荐技术也正在快速迭代升级,但如果抛开一些细枝末节的算法细节和算法差异,还是能够在各式各样的智能算法推荐背后找到一个共通的技术逻辑和运作机理。
从技术发展的宏观视野来看,智能算法推荐的一般技术逻辑其实就是通过数据、算法和算力的复杂组合而动态建构起信息供给与用户需求之间的个性化适配关系。具体而言,就是要在对信息内容进行标签化处理和对信息用户进行大数据画像的基础上更好地实现信息与用户之间的个性化供需对接。一般而言,一个完整的智能算法推荐系统主要包含信息数据系统、用户分析系统和信息分发系统三个子集。信息数据系统主要用来收集和存储互联网世界中海量的数据信息。用户分析系统主要着力于分析和计算多元用户个性化的兴趣和诉求。信息分发系统则是致力通过多功能算法筛选、过滤和推送信息模块。在三个系统子集中,信息分发系统居于核心地位,对算法推荐的运行效果起着至关重要的作用。
从当前传播实践来看,常用的智能算法推荐主要包括基于内容推荐、协同过滤推荐、热点排行推荐和组合式推荐等四种类型。基于内容的算法推荐其实就是利用算法为用户画像,通过对用户的浏览历史和搜索记录等进行标签化处理,测算出用户的兴趣和偏好,进而持续为用户推荐同类型或高相似度内容。例如,在今日头条上搜索“美国疫情”这个关键词,那么在未来一段时间算法系统就会将与美国疫情相关的信息持续不断地向用户进行推送。协同过滤推荐则是对用户的社交圈层进行全景扫描,深度挖掘用户的职业、位置、性别、年龄等相关信息,划分兴趣相似度矩阵和社群,链接相似用户,然后向同类型用户进行信息推荐。假如在今日头条上长时间浏览美国疫情的相关新闻,那么算法系统就会假设用户的好友也可能会对这个问题有兴趣,进而向其推送相关信息。热点排行推荐就是算法系统根据信息热度和信息流行度等进行全场域推荐,浏览量、关注度、点击率、转发数等是其重要指标。平常所熟悉的微博热搜就是这种热点推荐的典型代表。组合式推荐即多种算法推荐模式的组合和并用。在现实的信息推荐中,单一的算法推荐模型往往很难满足多元多样的信息场景,于是组合式算法推荐应运而生。越来越多的信息平台通过多种算法模型之间的交叉和配合来实现对不同用户群体的个性化推送。
不可否认,作为一种信息资源的全新配置范式,智能算法推荐技术合理性的充分彰显对于人们应对海量数据扩容和爆炸式信息增长带来的信息困境具有积极的意义。一方面,智能算法推荐大幅度提高了信息的流通效率,降低了用户挑选信息的选择焦虑和时间成本;另一方面,智能算法推荐还大幅度优化了信息的配置效率,个性化的信息配置正在成为现实。
2.2 价值“非中立”:智能算法推荐的权力本质与意识形态属性
看到智能算法推荐技术合理性的同时,也要对智能算法推荐的权力本质和意识形态属性进行宏观把握。智能算法推荐不仅是一套特定的技术编码和运算程序,还是包含“算法、团队及其新闻价值观在内的一整套系统架构”。作为一种新兴的资源配置范式,智能算法推荐在对信息资源进行个性化适配的同时其实也是在行使社会权力,或者说,在一个媒体和代码无处不在的社会之中,“算法的社会本质就是一种权力”。这种权力与制度化、强制性的传统权力类型有所不同,智能算法推荐权力更多地表现出“商业逻辑、偏好原则、技术理性和隐性运行的特征”。
隐秘化、内显化和泛在化是智能算法推荐权力主要的运转底色。智能算法推荐的权力来源和权力指向与公共领域和公共事务紧密相关。商业逻辑和利益追求是算法权力的原初动能,依托平台资本的强势注入,智能算法在追求资本的最大化增值和最高额回报的同时不可避免地会对社会公共利益产生重要影响,进而对传统的社会权力结构带来冲击和重塑。政府、社会、企业和个人或多或少地都会在不同程度上受到算法权力的干预和控制。在看似客观的个性化信息推荐背后其实蕴含着复杂的权力运行关系。建立在用户黏性基础上的智能算法推荐可以在不知不觉中影响和改变人们的认知习惯和行为方式,形塑人们对外部世界的观点和看法。可以说,智能算法推荐的价值中立在现实实践中是不存在的,智能算法推荐无价值观也是一个伪命题。相反,透过这种价值伪中立表象,我们可以更加明显地感受到智能算法推荐鲜明的意识形态色彩。
一方面,技术的本质及其内嵌式规则决定了智能算法推荐从一开始就不可避免地会预设有某种意识形态立场。克里斯托弗认为技术其实内嵌着某些特殊规制,亦如互联网技术本身就在内嵌自由、平等、民主等价值特性的同时也内嵌着等级、纪律和社会控制。不管技术内嵌着什么样的价值内容,一个客观事实始终都不能否定,那就是“技术形式具有与生俱来的特性,而这些特性是人类无法干预的”。人类的实践活动总是离不开特定价值的支撑,智能算法推荐也不例外。不管是有意嵌入,还是无意附加,智能算法推荐自诞生起就不可避免地带有设计主体的某种价值立场或意识形态倾向。在弱人工智能阶段,智能算法推荐的人工痕迹依然十分明显。不管如何掩饰或回避,算法设计主体的价值立场和价值倾向都会不断通过复杂的推荐程序而对用户产生一定影响。在现实的传播实践当中,算法设计主体通常会由于希望达到某种预期结果而特意置顶某些价值诉求或凸显某些价值导向。技术理性与价值理性的冲突,资本利益与公共利益的博弈始终贯穿于算法推荐的全过程。虽然某些信息平台一再宣称要重视技术的公共性质和企业的社会责任,但现实信息系统中的算法偏见依然不可避免。人的价值观是存在偏见的,而智能算法推荐只不过是把这种价值观偏见通过特定的形式演绎了出来而已。特别值得注意的是,算法不仅会沿袭人的价值偏见,而且还有可能会随着数据体量的扩容和算法的更新迭代而不断强化和放大这种偏见。
另一方面,智能算法推荐对信息资源的社会性调配不可避免地会产生一定的意识形态后果。从实践来看,智能算法推荐是由多种社会性要素共同建构的后果,一旦运行就不可避免地会对个体用户的价值观念和整个社会的意识形态权力结构造成特定影响。为此,我们对智能算法推荐的理解需要超越工具论的范畴并上升到权力论的高度。从客观实践后果来看,智能算法推荐已经不只是一种信息配置技术,而是变成一种可以影响和改变社会秩序的软性权力。传统的政治社会学认为权力就是一种由特定资源所派生出的力量。暴力、资本、军事等物质性资源可以派生权力,脑力、知识、意识形态等非物质性资源也可以派生权力。只是从人类社会权力构成的历史演变来看,非物质性资源在权力构成中的作用越来越明显,权力正在呈现出一种软化趋势。信息虽然在一定程度上也具有物质的基本属性,但通常情况下还是被人们视为是一种非物质性资源。信息技术的发展提高了信息操纵外部事物和影响物质世界的能力,信息的物化趋势越来越明显,“一个新的权力来源正在出现,它不再是少数人手里的金钱,而是多数人手中的信息”。智能算法推荐通过对社会信息资源的个性化配置,不仅改变了传统信息传播的权力结构,而且也打破了传统意识形态建设的一体化信息环境。智能算法推荐为主导意识形态建设带来了双重性后果,我们既要看到机遇,更要意识到风险。只有在充分研判风险的基础才能让智能算法推荐更好地为国家安全和经济社会稳定发展所用。
3 智能算法推荐蕴含的意识形态风险
作为一种重塑世界的全新技术力量,智能算法推荐在大幅度提高信息流通效率和配置绩效的同时,也蕴含着特定的意识形态风险。
3.1 把关转移与价值失序:意识形态凝聚力弱化风险
把关人理论认为,信息流通过程中的把关不只是一个选择和过滤信息的过程,或一个简单规制信息“进”或“出”的问题,而是承担着媒介信息建构社会现实的重要功能。智能算法推荐在实现信息与人精准对接的同时也改变了传统把关人发挥作用的信息情景,改变了传统主导意识形态凝聚力形塑的一体化权力结构。
一方面,智能算法推荐带来的把关转移消解了主导意识形态议题设置实效。议程设置理论认为受众对社会重要问题的关注与媒体的报道频率和强调程度之间存在着一种对应关系,媒体可以通过设置议题来左右或影响人们到底关注哪些问题以及对这些问题发表意见的先后顺序。谁掌握了议题设置的主导权,谁就能在观念塑造和舆论引导过程中占据优势地位。在传统中心化、封闭化、层级化的信息权力结构中,主流媒体不仅可以把关流通领域的信息数量、信息内容和信息流向,还可以改变信息的排列组合、内在结构和呈现方式。主流媒体高效的议程设置实效使得主导意识形态在凝聚社会价值共识方面处于绝对的优势地位。而智能算法推荐技术赋权带来的传播资源泛社会化和传播权力个人化会在一定程度上消解或降低主导意识形态的议程设置实效。智能算法推荐的广泛运用让信息生产和流通的把关权力从传统媒体从业者转移到了智能机器和多元的个体化用户手中,传播主体与传播受众之间的界限正在日趋模糊,原来大众传播时代封闭的信息分发模式开始过渡为一种开放的市场模式。在流量至上的利益链条之下,智能算法推荐会更加注重用户的信息偏好,而不是信息本身的公共性价值。只要用户关注,不管信息品质如何,都是头条;只要用户不关注或无兴趣,不管信息内容再有品质,在智能算法眼中也将毫无价值,这种信息情景为主导意识形态议题设置带来了严峻挑战。
另一方面,智能算法推荐迎合式把关带来的价值失序挤压了主导意识形态话语空间。智能算法推荐的广泛应用极大地扩展了信息生产场域的边界,智能算法既可以是信息生产者也可以是信息分发者,把关主体与把关对象的关系正在从“训示”转向“迎合”。为了增加用户黏性,智能算法推荐的迎合式把关会始终根据用户的个人需求而生产和传播相对个性化的信息。正如卢克·多梅尔所言:“搜索算法无法提交不受意识形态影响的搜索结果,而且,这些搜索结果为了取悦我们的个人主义观念,往往会进一步加强我们对某些问题的‘既有看法’。”智能算法推荐强烈的用户本位导向不可避免地会减低公共性信息的覆盖范围。为了迎合受众,收获流量,一些信息平台不惜主动推送低俗、暴力、色情甚至是虚假的信息来博人眼球。例如,2020年高考结束以后,在某短视频平台火极一时的“女孩考上清华跪谢父亲”作品后来就被证明是摆拍,是某些账号为了吸引流量而打着传播正能量的幌子人为创造的段子。这些纯属虚构的作品因其强大的情感***功能往往能够在算法信息流通中获得更多用户的点击、浏览和关注,在一定程度上降低了严肃信息和品质信息的覆盖范围。长此以往,在算法和代码的助推之下,信息市场可能会陷入一种恶性循环,使得“眼球新闻”越来越大行其道,严肃新闻却变得门可罗雀。简言之,把关权力的变化带来了鱼龙混杂的信息生产和分发,并在一定程度上导致了社会思想 文化领域的价值失序,良莠不齐的价值喧嚣挤压了主导意识形态的话语空间,主导意识形态凝 聚力面临弱化风险。
3.2 信息成瘾与娱乐泛化:意识形态权威失落风险
作为一种关系范畴,权威既不是权力,也不是类似于强权的一种强制性力量。权威是一种使对象因信服而自愿服从的能力和影响力。与权力导致的强制性服从不同,权威导致的是对象在信服基础上而形成的认同性服从。主导意识形态权威是主导意识形态引领社会思潮和凝聚社会价值共识的重要保障。在传统的信息权力格局中,主流媒体几乎掌握了所有的传播权力和信息资源,主导意识形态对社会舆论的引导犹如黑夜中的探照灯,灯往哪里照,舆论就往哪里走,主导意识形态话语在某种程度上几乎成了权威的代名词。而智能算法推荐的技术赋权正在改变这种一体化的信息格局,智能算法推荐形塑的信息成瘾和泛娱乐化在某种程度上带来了主导意识形态权威的消解和失落。
一方面,智能算法推荐带来的信息成瘾消融了主导意识形态传播的价值理性。智能算法推荐的技术运作原理和用户本位导向潜在地包含了一套致瘾机制。智能算法在对用户兴趣图谱进行标签化处理的同时,可以最大限度地勾画出各类用户的信息偏好,进而可以根据用户的兴趣习惯和心理反馈持续不断地推送让用户喜欢的信息。投其所好的推送机制前所未有地强化了用户对信息平台的媒介依赖。越来越多的信息用户开始从现实世界转向虚拟世界,人们乐此不疲地沉浸在由算法编织的数字世界之中,大把的时间被数字生产和数字消费所消耗。随着时间的推移,智能算法推荐的这种致瘾机制会不断消解人的抵抗意识和自主意识,侵蚀人的主体认知和思维能力,碎微化、浅表化的思维习惯将大行其道。由此,人们可能会对现有的抽象性、理论性、规范性的符号系统和话语体系进行解构和重组,会对以总体性和普遍性为特征的主导意识形态报以冷漠、怀疑甚至是抗拒的态度。在这种碎微化、浅表化盛行的算法文化生态之中,个人话语与权威话语、生活话语与政治话语、感性话语与理性话语、碎片话语与系统话语之间的冲突和碰撞将会逐渐消解主导意识形态传播的价值理性和价值权威。
另一方面,智能算法推荐带来的娱乐泛化稀释了主导意识形态传播的价值意义。智能算法推荐的信息成瘾与娱乐泛化是一脉而生的,二者相互交织、互为因果。尼尔·波兹曼在电视时代提出“娱乐至死”以批判电视的娱乐化表达;尼古拉斯·卡尔在《浅薄:互联网如何毒化了我们的大脑》一书中直接提出了“信息娱乐化”,以图引起人们对互联网泛娱乐化趋势的警醒。就两者而言,我们可以在智能算法推荐时代找到更直观、更深切的现实体悟。在消费主义浪潮和智能算法推荐信息致瘾机制的强势推动下,娱乐泛化现象正在向公共领域蔓延。部分用户沉浸在数字消费与数字娱乐中不可自拔,人们解构主流、戏谑权威,渴求通过以娱乐的方式来感知自我 和释放自我。在这种喧嚣的娱乐氛围之中,资本逻辑正在侵蚀价值逻辑,理性世界正在让位于世俗世界,革命先烈被抹黑,民族英雄被污蔑,历史事实被歪曲,有意思的信息正在吞噬有意义的信息。娱乐化、浅显化、庸俗化的信息氛围稀释着主导意识形态传播的价值意义,使其面临权威失落的风险。
3.3 私人定制与价值分化:意识形态引领乏力风险
主导意识形态引领力是主导意识形态按照预期方向引导社会舆论和受众的能力。主导意 识形态引领力的强弱是判断主导意识形态安全与否的重要标准。在原来中心化和科层式的信息传播结构中,主导意识形态引领力的生成相对容易且高效。智能算法推荐的广泛应用改变了传统意识形态引领力生成的信息权力结构,智能算法推荐私人定制的裂变传播和千人千面的信息推送进一步加剧了不同利益群体和不同社会阶层之间的价值区隔与价值分化,主导意识形态面临引领乏力风险。
一方面,智能算法推荐私人定制的裂变传播削弱了主导意识形态的优势传播地位。在传统金字塔式的信息权力结构中,自上而下的层级信息扩散是信息流通的主导模式。主流媒体不仅掌握了所有的核心信息资源,而且还控制了整个信息传播的流通渠道。党报、党刊、党台在整个社会舆论中居于强势的传播地位。这种传播地位为主导意识形态强有力的引领实效提供了重要保障。但智能算法推荐私人定制的裂变传播正在改变这种自上而下的科层制信息流通模式,随之崛起的是一种去中心化和扁平化的信息流通模式。差异化信息传播是智能算法推荐的显著特征,人找信息向信息找人的颠覆性转变实现了对原来传者中心分发模式的更新和升级,原来作为整体的受众正在被一个个鲜活的个体用户所取代。智能算法推荐这种私人定制的裂变信息分发在某种程度上就是一种建构在数据画像和精准算法基础上的碎微化传播。碎微化传播是碎片化传播在智能算法推荐时代的最新表现。如果说碎片化传播是传统互联网时代信息流通的显著特征。那么,随着算法推荐时代的到来,信息与人的供需适配程度会变得越来越高,信息流通的碎片化特征会进一步加剧,进而呈现出一种碎微化状态。也就是说,智能算法推荐的碎微化传播在提升整个社会信息配置效率的同时也在一定程度上削弱了主导意识形态的优势传播地位,降低着主导意识形态的引领实效。
另一方面,智能算法推荐千人千面的个体叙事消解了主导意识形态的宏大叙事效果。作为一种制度化的价值理论体系,抽象性、理论性和规范性是马克思主义意识形态的基本特征,主题鲜明、结构完整、逻辑清晰的宏大叙事是其基本的叙事手段。无论是革命型意识形态话语体系,还是改革型意识形态话语体系,阶级、革命、国家富强、民族振兴、共同富裕等宏大主题都是主导意识形态的主要叙事议题。在传统的信息格局中,这种具有统一性和象征性的宏大叙事极具吸引力和动员力,是主导意识形态引领力生成的重要手段。随着智能算法推荐的日趋普及,千人千面的个性化信息推送和个体化的微型叙事正在逐渐消解主导意识形态的宏大叙事效果。智能算法推荐精准“喂食”的个性化信息推送不断提升着人们浏览信息的速度,人们随时随地都在关注着信息页面的更新,心里在意的却不一定是此刻究竟看见了什么,而是迫不及待地想要知道下一秒到底会看见什么。在这种速度至上的信息情境中,信息内容的意义开始演化为浮光掠影式的印象,人们越来越注重个人的主观感觉而不是社会的公共价值。人们对符合自己价值偏好的叙事信息会来者不拒,而对不符合自己价值偏好的异质性叙事信息又会一味拒绝。在智能算法推荐这种去语境化、去结构化的叙事情景中,整个社会的价值图谱会逐渐呈现出弥散化趋势,各种非马克思主义或反马克思主义的社会思潮趁机登堂入室,而多元多样的价值分化和价值博弈也带来了主流意识形态引领乏力的风险。
3.4 过滤气泡与价值偏见:意识形态认同窄化风险
帕里泽在《过滤气泡:互联网没有告诉你的事》一书中对互联网带来的“过滤气泡”现象进行了系统阐释,他发现两个人使用同一关键词在同一个搜索引擎上检索到的内容居然可能完全不同。搜索引擎可以根据用户的信息偏好为用户进行个性化的信息匹配,从而自动过滤掉用户可能不喜欢的异质性信息,进而让用户分别沉浸在一个个缺乏多元观点交流的网络气泡之中。相较于传统互联网技术,智能算法推荐精准化的信息推送更在一定程度上助推了这种过滤气泡的演化和蔓延。智能算法推荐带来的价值气泡及其催生的偏见茧房正在改变社会价值共识形成的信息场景,主流意识形态面临认同窄化风险。
一方面,智能算法推荐形塑的价值气泡为凝聚社会价值共识带来了情景困境。价值共识是“指人们在相互交往中,通过深层次的思想沟通和交流,在价值观念上形成某种协调、一致的意见”。凝聚社会价值共识就是在社会交往中通过差异化价值整合和价值冲突协调而形塑多元价值主体对社会主流价值观形成整体性认同的过程。简言之,凝聚社会价值共识的过程就是主流意识形态寻求最大限度被认同的过程,就是用社会主义核心价值观来凝心聚力的过程。从结构主义的理论视域看,社会价值共识的生成通常是社会意义系统、制度系统、经济与福利系统 和公共传播系统之间相互支撑、相互作用的综合结果。以适配个性化需求为目的算法推荐正在成为信息流通领域主流的技术范式,公共传播系统在社会价值共识生成中的地位正在逐渐突显。智能算法推荐基于协同过滤的算法分发模式容易让兴趣相投或观点一致的群体迅速拉近距离。算法推荐强大的过滤功能在提升信息配置效率的同时,也在潜移默化中为不同群体之间的观点交流和价值融通构筑起了一道道无形的隔离墙。智能算法精准化和公式化的信息推送加剧了同质化信息的链接与用户固有价值观的偏执,社会群体之间的价值分化和价值区隔日趋明显,这为凝聚社会价值共识带来了前所未有的挑战。
另一方面,智能算法推荐催生的偏见茧房削弱了主流意识形态的认同效度。桑斯坦分析过信息窄化对社会民主带来的负面性影响。他认为互联网技术的发展容易使大部分民众在信息选择时更倾向于接受那些志同道合的同质性观点,而会对那些竞争性的异质观点则采取忽略或排斥的态度,长此以往,“人们在事实上得到的就是一种‘窄化’了的信息”。网络群体成员之间原本的价值观念或价值偏见会被不断强化和放大,进而导致群体极化现象。之后,他还提出,互联网技术的信息过滤会导致网络成员之间的群体分化,不同网络群体都会更倾向于内部之间的观点交流而忽视与外部世界的沟通,这种不断演化的群内同质和群际异质现象会带来一种信息茧房,沉浸在这种信息茧房中的人们就好像是处在一个封闭的回音室里,每个人只能听到自己的回声。值得注意的是,智能算法推荐独特的技术原理正在加剧这种信息茧房效应的扩散和蔓延。意见的自由市场正在受到一个个偏见茧房的侵蚀。长期生活在这种信息区隔之中,“容易使人将自己的偏见当作真理,拒绝接受其他合理性观点和意见”。长此以往,这将不可避免地带来意识形态极化或意识形态漂浮现象,进而还会削弱主流意识形态的认同效度。尤其需要注意,一些西方国家凭借其强大的技术和资本优势,借助人工智能的算法黑箱,通过高效隐蔽和灵活多变的信息分发对我国进行意识形态渗透,企图规训受众价值,使之对社会主义意识形态产生偏见和误读,进而在潜移默化过程中稀释马克思主义意识形态的领导权和话语权。可以说,智能算法推荐个性化的信息配置改变了主流意识形态社会认同的权力场域,意识形态之间的争夺变得更加激烈,主流意识形态面临认同窄化的风险。
4 智能算法推荐的意识形态风险治理
面对智能算法推荐带来的信息权力变局和意识形态风险,我们需要采取积极地风险应对举措,从消极地被动防控转向积极地主动治理。既要应势而动,对智能算法推荐进行技术规制和价值引领,形塑工具理性与价值理性的算法平衡,用主流价值观驯化算法权力;又要顺势而为,以完善的法律法规化解算法风险,培育算法推荐平台的伦理自律和用户的算法素养。通过多维度多举措的协同风险治理,力争让智能算法推荐真正做到扬长避短并最终实现推送效率与公共责任、商业价值与社会价值之间的良性互动。
4.1 技术规制算法:形塑工具理性与价值理性的算法平衡
作为一种信息资源的全新配置范式,智能算法推荐的广泛应用在一定程度上是大数据逻辑和人工智能逻辑在信息传播领域相结合的一种必然趋势。虽然是一种必然趋势,但智能算法推荐的双刃剑效应依然明显。主流意识形态建设如何在这种趋势当中做到趋利避害无疑是一个重要命题。当然,面对新技术带来的现实问题和意识形态风险我们大可不必过分紧张和焦虑。在某种程度上,技术带来的很多问题其实都可以通过技术本身的进一步优化和完善而得以解决。智能算法推荐的意识形态风险治理首先就是要从技术维度规制算法,形塑工具理性与价值理性的算法平衡。
第一,进一步提升算法透明度,构建用户与算法平台之间的信息平衡。提升算法透明度就是要打开算法的黑盒子,让算法平台尽可能地向用户公开算法程序和算法运用的全过程,使得过滤气泡产生的过程透明化,进而减少用户与算法平台之间的权力不对等和信息不对称。比如,算法推荐平台应该及时向用户公开其大数据信息收集的范围和进行用户画像的要素,要使得用户对自己的数据隐私和身份标签有较为清晰的了解。其中,如何平衡算法推荐平台商业隐私与社会公共利益之间的关系,如何平衡算法推荐技术专业性与普通用户认知能力有限性之间的关系,是制定算法推荐透明度准则需要解决的核心难题。
第二,进一步扩大算法推荐的信息范围,构建个性化信息推送与多元化信息推送的动态平衡。要纠偏智能算法推荐带来的认知窄化,就必须要从技术源头上扩大算法模型的信息选择范围,扩容算法模型的信息挑选维度。在满足个性化信息需求的同时增加信息推送内容的多样性,提高优质内容的传播比重。比如,可以继续挖掘反向个性化推荐的实践与应用,在精准画像用户兴趣图谱的基础上尝试为用户推荐一些他们可能不喜欢、没兴趣、需要关注但没有关注的内容,进而实现算法推荐个性化信息与多元化信息的动态平衡。
第三,进一步完善人机协同的信息分发模式,构建推送效率与公共责任的动态平衡。推荐效率是算法工具理性的重要展现,但随着算法推荐的广泛应用,效率就不该再是算法研发和设计需要考虑的唯一指标。算法推荐的技术升级还需要更多考虑算***理和算法责任,要考虑算法推荐在社会整合和文化传播方面带来的系统性影响。如何以人的价值理性来规约机器的工具理性是下一步智能算法升级的重要命题。我们应该在算法设计和应用过程中更多注入人的主体性,特别是专业人士的专业价值和意见建议,不断完善人机协同的分发模式,进而实现推送效率与公共责任的动态平衡。
4.2 价值引领算法:用主流价值观驯化算法权力
作为形塑社会的一种软性权力,离开了主流价值观的引领,智能算法推荐就会犹如脱缰野马般,发展越快,对社会带来的风险就越大。要想规制智能算法推荐带来的意识形态负效应,纾解算法焦虑,就必须为智能算法推荐套上主流价值观的缰绳,用主流价值观驯化算法权力。
第一,要以主流价值为导向引领智能算法推荐技术创新。资本逻辑的原生动力决定了智能算法推荐的开发和设计不可避免地会具有追逐商业利润的强烈色彩。我们需要用主流价值观的强势介入来规制智能算法推荐的这种技术市场导向,要将主流价值观念融入智能算法推荐的整体技术研发之中,扩大主流价值观权值在算法优先级中的比重,让算法推荐始终不偏离主流价值观的正确指向。比如,平台等要做到智能算法的数据收集和用户画像不得侵犯用户隐私,智能算法的信息分发不得为了追求流量和热度而损害社会公共文化价值生态等。
第二,以主流价值观把关智能算法推荐的信息分发。再好的传播渠道都不能没有总编辑和把关人。在弱人工智能时代,算法推荐的智能化水平还较为有限,机器算法的信息分发一刻也不能离开主流价值观的约束和纠偏。我们必须要超越先分发、后删除的事后把关模式,加强对智能算法推荐的前置把关。要将人工审核和算法审核结合起来,既发挥机器智能的技术优势,又发挥人工编辑的价值纠偏,在实现人机协同和人机互补的基础上更好地净化算法推荐的内容生态。
第三,主流媒体要充分利用智能算法推荐实现传播升级。一方面,主流媒体要善于借助算法推荐平台更好地传播主流价值观。要想适应人工智能时代的信息传播大变局,传统主流媒体就必须积极拥抱智能算法推荐技术,要主动和互联网头部企业进行深度合作,争取将主流媒体的优质内容生产能力与互联网平台的算法推荐优势有机整合起来,提升主流价值观传播的精准性和实效性。另一方面,主流媒体在资源整合的基础上也可以尝试构建属于自己的党媒算法平台。人民日报客户端推出新媒体聚合平台“人民号”就是一个有益的积极尝试。与腾讯的“企鹅号”和今日头条的“头条号”一样,“人民号”着力于打造移动端内容的生产和分发全流程服务。不过与其他商业平台所不同的是,“人民号”的党媒算法更加注重主流价值观导向。以“人民号”为参照,未来我们可以尝试打造更多的党媒算法平台,在加快媒体融合的基础上,争取以更优质的平台和更丰富的内容占领舆论交锋的制高点。
4.3 法治规范算法:以完善的法律法规化解算法风险
从世界各国的发展实践来看,用法治规范人工智能无疑是一种时代趋势。与智能算法推荐日新月异的技术迭代相比,当前我国对智能算法推荐相关法律法规的建设则显得相对滞后。传统的法律法规在监管智能算法推荐上也表现出适应性不足等。正如尼葛洛庞帝所说:“为原子世界制定的法律一旦进入数字世界,就像鱼被扔在了甲板上一样,只能是拼命喘气、垂死挣扎。因为相对于原子世界,比特世界完全是个截然不同的地方。”同样,相对于传统互联网信息分发技术,智能算法推荐的运行机制也呈现出明显不同。目前,虽然我国已经出台了《互联网信息服务管理办法》《互联网跟帖评论服务管理规定》《互联网群组信息服务管理规定》《互联网视听节目服务管理规定》《即时通信工具公众信息服务发展管理暂行规定》《互联网用户账号名称管理规定》《互联网新闻信息服务单位约谈工作规定》以及《中华人民共和国网络安全法》等法律法规,初步形成了针对互联网信息安全和信息服务的法律规范体系。但是相较于现实技术的迅猛发展及其可能产生的风险和问题,算法推荐领域的法律法规建设依然任重道远。2017年,国务院《新一代人工智能发展规划》也明确强调人工智能发展的政策法规亟待完善。接下来,我们应该大力完善智能算法推荐领域的法律法规,力图“通过法律化解风险,通过法律吸纳风险,将风险社会置于法治社会的背景之中,即对智能革命时代的法律制度乃至整个社会规范进行新的建构”。
一方面,进一步增强智能算法监管的法治意识、树立起法治思维。增强智能算法监管的法治意识就是要增强在监管过程中的法治自律意识和法治敬畏意识。而法治思维则是推进智能算法监管法治化的思想基础,树立起法治思维的重点就是要树立起算法监管的程序思维、规则思维以及权利和义务思维。另一方面,进一步提高智能算法推荐领域的立法效率,增强立法的前瞻性和实效性。当前,我国人工智能领域的立法周期相对较长,一般都是问题出现以后才倒逼立法。为此,我们应该要进一步提高立法效率,调整应急式的事后立法机制,逐步强化以风险防范为主的前置立法,加强专门法与配套法的统一规划和制定,注重国家法律、行政法规、部门规章以及司法解释等不同法律形式的完善和协同,提高智能算法推荐领域法律法规的可操作性和实效性。
4.4 主体驾驭算法:培育平台伦理自律与用户算法素养
除技术规制、价值引领和法治规范以外,智能算法推荐的意识形态风险治理还离不开算法信息平台的伦理自律和用户算法素养的提升。
从伦理学的角度来看,算法信息平台的伦理自律主要是指平台在遵守算***理规范基础上自觉自愿实施自我约束的行为。这就要求算法信息平台必须要具备足够的道德想象力,要能“超越自我和情境的限制,拥有更加宽广的伦理视角和道德感受能力”。一般而言,自律的算法信息平台能够在整体上做到技术理性的扩张与企业社会责任之间的协调和平衡,能够从宏观上认识到智能算法推荐在商业利益、用户利益与社会公共利益之间的根本一致性。相较于他律的外在规制,信息平台的伦理自律更加强调地是自我的内在约束,自我把关、自己管理自己、自己对自己负责是平台伦理自律的显著特征。智能算法推荐的意识形态风险治理既要注重技术、法律等外在规制,也要注重伦理、道德等内在约束。最好是可以做到将外在的强制性约束潜移默化地转化为内在的自我性约束。当然,算法信息平台伦理自律的养成是一个漫长的复杂过程,是一个由多种因素共同影响而形成的综合结果。
一方面,可以培育和发展算法推荐平台的行业自律组织。虽然自2011年5月中国互联网协会成立以来,我们又相继成立了中国互联网金融协会、中国网络空间安全协会等几个具有全国影响力的互联网行业自律组织,但从整体上看,我国的互联网行业自律组织依然呈现出数量少、审批严、不活跃的特点。因此,可以通过鼓励和支持以引导算法平台运营商、算法技术供应商、算法内容服务商等平台企业建立各种类型的自律组织,推动算法推荐平台自律组织多样化。
另一方面,发挥互联网自律公约的道德引领作用。互联网自律公约是互联网道德规范在实践层面的具体化和操作化,对于伦理自律风气的形成具有重要的引领作用。我们要在《中国互联网行业自律公约》《***恶意软件自律公约》《反网络病毒自律公约》《互联网搜索引擎服务自律公约》《互联网终端安全服务自律公约》等自律规范的基础上,继续推动智能算法推荐领域自律公约的制定和推广,争取以丰富的自律规范体系带动算法推荐领域自我净化机制的形成。
必须指出的是,除了算法信息平台的伦理自律,也需要加强用户算法素养的培育,提升用户 群体的算法素养。一般而言,算法素养是指用户在面对算法推荐信息时所表现出来的态度、知识、技巧以及能力的总和。对此,可以充分利用各种渠道和平台大力推行算法素养教育,全面提升用户群体在智能算法时代的信息生产素养、信息选择素养、信息甄别素养以及信息整合素养。培养用户对算法推荐的理性认知和批判意识,使其能够知晓算法推荐的技术逻辑和运行机理,能够合理地运用算法而又不被算法所操纵,进而争取真正做到以人的价值理性驾驭算法推荐的工具理性,让智能算法推荐真正成为服务于人全面发展的助推之器。
《南方治理评论》稿约
《南方治理评论》始创于2013年,CNKI来源集刊。广州大学南方治理研究院主办、社会科学文献出版社出版的连续性学术辑刊。《南方治理评论》秉持“培育公共精神,直面转型中国,诠释社会热点,扩展学术深度,贴近重大需求,服务国家治理”,追求“本土化、专业化、个性化、国际化”,崇尚原创研究、微观研究和深度研究的学术精神,试图在中国繁杂的地方语境下运用本土话语体系着力解读地方性知识和日常性逻辑。主要设置有“学术一线”、“数字治理”、“健康治理”、“灾害治理”、“南国讲堂”、“伶仃书评”、“回归访谈”等栏目。
通讯地址:广州市大学城外环西路230号文逸楼512室
投稿邮箱:gdgzpar@163.com
投稿网站:http://iedol.ssap.cm.cn/(选择“社会政法”)
投稿体例:https://pan.wps.cn/l/srr2hdj
《南方治理评论》第8辑
《南方治理评论》第7辑
《广州公共管理评论》第6辑
《广州公共管理评论》第5辑
《广州公共管理评论》第4辑
《广州公共管理评论》第3辑
《广州公共管理评论》第2辑
《广州公共管理评论》第1辑
当前浏览器不支持播放音乐或语音,请在微信或其他浏览器中播放 无期 音乐: 光头华夏 - 无期
广州大学南方治理研究院