张杰 董津秀
人工智能时代,算法在带给人们极大便利的同时,也滋生出“信息茧房”的危机,即网络平台运用协同过滤推荐、内容推荐、关联规则推荐等技术,精准把握用户偏好,实现信息的精准推送和私人订制,进而提高信息消费效率。
“信息茧房”造成了对个人权利的新型侵犯。高度同质化的信息流构成了相对封闭的传播环境,限制了公民知情权的实现;消费者被算法运营方根据用户行为、用户画像和流量堆砌而定向推荐页面和商品,形成消费不当引导。公民长期处于算法筛选的信息环境中,获取信息的广度和多样性被严重压缩,被“禁锢”在固定信息笼罩的空间之中,被剥夺、损害了全面了解和获取其他各类信息的权利和机会。对由技术、资本与人性共同编织的“信息茧房”,传统分散的法律规制模式已暴露出不足,须超越对技术应用的片段式规制和事后性修补,转向一场以个人权利保障为核心、以制约信息权力滥用与修复数字平台生态规则为重点的系统性创新。
以权利范式升级确立认知主体的自主性。从个人权利保护的深层逻辑来看,现行法律框架仍固守于防御性救济的被动范式,未能真正确立用户在数字信息环境中的积极主体地位。《中华人民共和国个人信息保护法》赋予的知情、同意、拒绝、删除等权利,多是在损害发生或可能发生时启动的“盾牌”,在常态化的信息交互中,用户则处于被算法“饲喂”的客体位置。其根本困境在于,法律保护的是作为“数据客体”的个人信息,而非作为“认知主体”的人在信息接收过程中的自主性、发展性与反思性权利。这种错位导致用户即便在法律形式上获得赋权,仍难以摆脱被算法精心计算的兴趣流,认知视野在无形中被窄化,尤其对青少年群体心智的全面发展构成潜在威胁。要突破此困局,须在立法理念上增设认知自主权保障机制。对于青少年,法律必须将“促进信息多样性接触”和“防止认知窄化”作为算法设计的强制性伦理目标与法定义务;对于普通消费者,则应当在法律领域重塑消费安宁权的概念。《中华人民共和国消费者权益保护法》第29条第3款禁止经营者未经同意向消费者发送商业广告。最高人民法院通过指导性案例265号“罗某诉某科技有限公司隐私权、个人信息保护纠纷案”明确提炼裁判要旨,违法获取原告手机号并向其发送营销信息,构成对原告私人生活安宁权的侵扰,侵犯了原告的隐私权。可见,司法中应当加强消费安宁权的裁判应用。同时,还应当通过立法强制平台提供直观的交互界面,允许用户自主调整信息推荐中的推荐信息和自主信息参数比例,并将此功能的易用性与使用情况纳入平台合规性审计。
以过程可审核性重塑算法透明度。从算法透明与可问责性的实现路径来看,现有“告知—同意”原则已在高度复杂的算法黑箱面前趋于失灵,而替代性的透明度机制又面临技术可行性与商业秘密保护的双重挑战。当前要求平台公开的算法规则往往过于笼统或技术化,无法使用户真正理解,更无法为监管提供有效抓手。这一矛盾反映出法律追求的可解释性、可问责性与人工智能算法固有的复杂性、动态性之间存在鸿沟。为此,简单要求打开算法黑箱既不现实,也可能无济于事。法律治理思维应当从追求“技术全透明”转向构建“过程可审计”与“影响可评估”的体系。为此需要建立一套分层次、面向不同主体的算法信息披露制度,对因算法导致侵权的低风险、中风险和高风险三类不同风险类别进行分层次评估。此外,对普通用户,应推行“算法标签”制度,直观显示信息流的来源构成、观点分布、同质化程度等,帮助用户自我评估。对算法滥用的超级大平台应由法律规定设立具备技术能力的专业监管机构,赋予其对算法系统的主动调查权和标准制定权。
以价值嵌入推动算法向善设计。从法律价值对算法系统的嵌入式引导来看,现行规制大多停留于外部结果管控,缺乏将公平、公正、多元等法律价值内化为算法运行逻辑的有效路径。算法本质上应当体现价值承载而非仅仅实现商业利润追求,当其设计仅以“用户停留时长”“点击率”或“转化率”为单一优化目标时,便已在无形中排除了多样性、公平性等社会价值。法律若仅在外围划定“不得歧视”“不得传播违法信息”等负面清单,而无法深入算法建模、目标函数设定、数据选择等核心环节,则永远是在追逐和修补算法带来的外部性风险,无法突破法律的滞后性和局限性。因此,须推动“法律价值代码化”的进程。这并非要求法律条文直接转为代码,而是通过立法确立算法设计必须遵循价值排序原则和伦理约束框架。法律应当明确要求平台设置面向公众的信息推荐类算法,必须在其多目标优化函数中,为“内容多样性”“信源质量”“观点平衡性”等设定非零的强制性权重参数。特别是鼓励头部科技公司开发公共利益守护算法,形成合规技术生态,降低中小企业的合规成本,确保技术发展不偏离法律确立的基本价值与秩序。此外,还可借鉴欧盟等域外经验,对超大型在线平台施加特殊的“系统性风险评估”义务,要求其定期评估并报告自身推荐系统对公共讨论、公共健康、未成年人保护等方面的系统性影响,并将此评估作为法律监管介入的重要依据。
以监管科技赋能协同治理体系。从协同监管体系的效能提升来看,当前职能交叉与专业技术能力不足的问题,制约了法律对动态演化、跨平台联动的算法风险的识别与响应能力。网信、工信、市场监管、广电乃至教育、人社等部门均涉及算法治理,但缺乏权威的统筹协调机制与统一的数据标准和风险评估工具。监管行动往往呈现波动性特征,难以形成常态化、前瞻性的监督合力。面对平台企业高度集中化的技术能力和数据优势,监管方常处于信息与技术的双重劣势。破解之道在于进行深度的监管组织创新与技术赋能。为此,立法应当推动“信息茧房”治理,实现对算法滥用的监管标准、风险评估、执法司法的协同联动。
【作者分别为中南大学法学院教授、博士生导师,数字法治研究院院长;中南大学法学院硕士研究生。本文为2025年度国家社科基金重点项目“数字时代司法公共表达的范式转换与路径优化研究”(25AFX016)阶段性成果】