nav emailalert searchbtn searchbox tablepage yinyongbenwen piczone journalimg journalInfo searchdiv qikanlogo popupnotification paper paperNew
2025, 10, No.503 39-52
人工智能背景下算法歧视法治化路径研究——典型场景、规制困境及对策
基金项目(Foundation): 江苏省社会科学基金后期资助一般项目“中国特色自主创新道路研究”(22HQB32); 江苏省社会科学院基础研究项目“有限理性视角下生成式人工智能算法歧视对消费者决策的动态形塑研究”(JC202510)
邮箱(Email):
DOI: 10.19654/j.cnki.cjwtyj.2025.10.004
摘要:

人工智能驱动的算法技术在带来经济效益的同时,也暗含算法歧视风险,因而人工智能背景下实现算法歧视的法治化治理成为时代所需。从产生根源看,算法歧视源于个性化消费需求、个性化定价、对网络信息的依赖、人工智能算法的“黑箱”特性及机体哲学视角下人机关系的变化,存在于互联网平台的多种场景之中,对个体权益、公众权益和市场竞争利益造成了侵害。对此,本文分析了目前中国算法歧视的规制现状及现实困境,在总结并借鉴欧盟和美国人工智能算法歧视治理实践经验的基础上,提出中国应构建算法歧视法治化治理体系,以算法透明度指标破解算法“黑箱”困境、以主流价值观引导算法“向善”发展、以完整行为认定标准应对算法歧视规制场景、以分层审查体系丰富算法歧视规制资源、以算法纠纷解决机制弥补消费者权益损失,逐步构建中国互联网平台算法歧视法治化治理框架,形成推动互联网平台和人工智能算法应用高质量发展的良性格局。

Abstract:

With the rapid advancement of artificial intelligence(AI) technologies, algorithmic discrimination has become increasingly prominent, posing a significant challenge for the governance of digital society. Existing studies have largely focused either on technological ethics or fragmented legal rules, while relatively few studies have examined algorithmic discrimination systematically from the perspective of legal institutional construction.Drawing on interdisciplinary theoretical perspectives, the paper first unpacks the underlying causes of algorithmic discrimination. The drive toward personalized consumption and dynamic pricing mechanisms accelerates differential treatment of users; heavy reliance on online information environments amplifies pre-existing data biases; the “black box” nature of algorithms conceals crucial aspects of decision-making; and shifts in the philosophical understanding of human-machine relations complicate the attribution of responsibility. On this basis, three typical application scenarios are identified: First, discriminatory pricing and algorithmic collusion. Second, discriminatory information recommendation and filtering. Third, biased automated decision-making. Methodologically, the paper employs a combination of normative analysis and comparative legal research. It systematically reviews China's existing regulatory framework. While these instruments provide an initial basis for oversight, the paper identifies four major dilemmas that hinder their effectiveness in addressing algorithmic discrimination. To respond to these challenges, this paper compares two dominant international models: the EU's rights-centered and data-protection-oriented regulatory approach, and the US' industry-led framework emphasizing corporate responsibility and self-regulation. The contribution of this paper lies in its departure from narrow, technology-centric or sector-specific perspectives, and in its development of a systematic governance framework that integrates theoretical analysis, problem identification, institutional critique, and path design. This holistic approach provides a reference for regulatory authorities in developing targeted and practicable tools, enabling them to simultaneously encourage algorithmic innovation and effectively guard against risks of discrimination. Furthermore, the framework contributes to broader scholarly debates by supplying analytical foundations for research on algorithmic accountability, AI ethics, and digital justice, while facilitating interdisciplinary dialogue and advancing theoretical integration in these frontier domains.

参考文献

[1]冯子轩.生成式人工智能应用的伦理立场与治理之道:以ChatGPT为例[J].华东政法大学学报,2024,27(1):61-71.

[2]匡文波.算法治理:网络空间治理的新挑战[J].人民论坛,2023(19):64-68.

[3]张涛,韦晓霞.我国算法治理政策法规内容及框架分析[J].现代情报,2023,43(9):98-110.

[4]曾雄,梁正,张辉.欧美算法治理实践的新发展与我国算法综合治理框架的构建[J].电子政务,2022(7):67-75.

[5]黄璐.网络经济中的消费行为:发展、演化与企业对策[M].成都:四川大学出版社,2018:10-11.

[6]让·泰勒尔.产业组织理论[M].马捷,译.北京:中国人民大学出版社,1997:166.

[7]阿瑟·塞西尔·庇古.福利经济学[M].朱泱,张胜纪,吴良建,译.北京:商务印书馆,2020:293-294.

[8]刘勤学.“瘾”以为戒:网络成瘾背后的心理学[M].北京:中国纺织出版社,2022:165.

[9]汪怀君,汝绪华.人工智能算法歧视及其治理[J].科学技术哲学研究,2020,37(2):101-106.

[10]于雪.人机关系的机体哲学探析[D].大连:大连理工大学,2017:104.

[11]喻国明,滕文强,李钒.AIGC时代人机关系的再思考:本质认知、特征演化与协同路径——基于机体哲学与WSR方法论的分析[J].广州大学学报(社会科学版),2024,23(6):52-63.

[12]邹开亮,刘祖兵.ChatGPT的伦理风险与中国因应制度安排[J].海南大学学报(人文社会科学版),2023,41(4):74-84.

[13] CALVANO E, CALZOLARI G, DENICOLO V, et al. Artificial intelligence, algorithmic pricing, and collusion[J].The American economic review, 2020,110(10):267-297.

[14]肖梦黎.风险视角下对算法偏见的双轨治理——自动决策算法中偏见性因素的规制研究[J].理论月刊,2021(7):134-142.

[15]陈杰.宪法平等框架内的算法公平标准与价值权衡问题——兼论COMPAS算法公平争议的启示[J].浙江社会科学,2023(7):51-61+157-158.

[16]姜伟,龙卫球.数字法学原理[M].北京:人民法院出版社,2023:391.

[17]张海汝,李勇坚.数字平台的诱导、操纵风险与暗模式监管——流量劫持、算法俘获与界面设计陷阱[J].财经问题研究,2022(12):36-45.

[18]李丹.算法歧视消费者:行为机制、损益界定与协同规制[J].上海财经大学学报,2021,23(2):17-33.

[19]谢欣源,徐汉明.算法治理视域下推论信息的界定[J].理论月刊,2023(12):135-143.

[20]吴越,李发根.舆论极化研究综述[J].情报杂志,2022,41(4):98-103+110.

[21]凯斯·桑斯坦.网络共和国[M].黄维明,译.上海:上海人民出版社,2003:15-20.

[22]谢永江,杨永兴,刘涛.个性化推荐算法的法律风险规制[J].北京科技大学学报(社会科学版),2024,40(1):77-85.

[23]李军刚.中国算法权力治理的主体结构、异化风险及协同规制[J].理论导刊,2024(1):73-79+94.

[24]崔亚东.世界人工智能法治蓝皮书(2023)[M].上海:上海人民出版社,2023:87-88.

[25]孟令宇.从算法偏见到算法歧视:算法歧视的责任问题探究[J].东北大学学报(社会科学版),2022,24(1):1-9.

[26]袁文全.算法歧视的侵权责任治理[J].兰州大学学报(社会科学版),2023,51(2):89-99.

[27]刘泽刚.欧盟个人数据保护的“后隐私权”变革[J].华东政法大学学报,2018,2(4):54-64.

[28]张凌寒.权力之治:人工智能时代的算法规制[M].上海:上海人民出版社,2021:63.

[29]刘新宇.大数据时代数据权属分析及其体系构建[J].上海大学学报(社会科学版),2019,36(6):13-25.

[30]林洹民.《个人信息保护法》中的算法解释权:兼顾公私场景的区分规范策略[J].法治研究,2022(5):48-58.

[31]彭三益.大数据挖掘技术背景下隐私权的特殊保护[J].求索,2023(3):170-178.

[32]尚海涛.网络平台私权力的法律规制[M].北京:社会科学文献出版社,2021:162.

[33] European Parliament. Regulation(EU)2024/1689 of the European parliament and of the council[EB/OL].(2024-03-13)[2025-06-25]. https://www.europarl.europa.eu/doceo/document/TA-9-2024-03-13_EN.html#title2_2.

[34]张凌寒.网络平台监管的算法问责制构建[J].东方法学,2021(3):22-40.

[35]孙丽文,李少帅.风险情景下人工智能技术信任机制建构与解析[J].中国科技论坛,2022(1):150-160.

[36]岳平,苗越.社会治理:人工智能时代算法偏见的问题与规制[J].上海大学学报(社会科学版),2021,38(6):1-11.

[37]叶青,刘宗圣.人工智能场景下算法性别偏见的成因及治理对策[J].贵州师范大学学报(社会科学版),2023(5):54-63.

[38]吴小坤,邓可晴.算法偏见背后的数据选择、信息过滤与协同治理[J].中国出版,2024(6):10-15.

[39]杨帆.信用评分算法治理:算法规制与产品责任的融通[J].电子政务,2022(11):28-39.

[40]戚聿东,刘健.人工智能产业的包容审慎监管:理论内涵与实现路径[J].兰州大学学报(社会科学版),2024,52(4):154-165.

[41] SUN M,GERCHICK M. The scales of(algorithmic)justice:tradeoffs and remedies[J].AI matters,2019,5(2):30-40.

(1)“暗模式”是指互联网平台使用可见的设计但隐蔽的流程操纵用户,用户可能察觉到“决策不舒服”(如找不到取消按钮等),但未必真正意识到被操纵。

(1)公众舆论的“极化引导”又称“舆论极化”,是指团体成员经讨论后,观点持续朝向某一立场偏移,最终形成极端化观点的过程[20]。

(2)“回音室效应”(Echo Chamber Effect)由桑斯坦[21]提出,是指在算法驱动下,用户受个性化推荐、圈层传播及选择性接触心理等多重因素影响,被困于同质化信息的封闭空间中,相似观点不断重复强化,最终形成“自我印证”的认知闭环。其本质是技术逻辑(算法过滤)与人性逻辑(信息偏见)的共谋,导致用户接收的内容沦为自身偏见的“回声”。

(1)“全有或全无”的技术强制逻辑是指在算法推荐技术应用中,用户只有两种选择:要么完全接受平台基于算法的推荐服务,包括接受平台收集个人信息以实现个性化推荐;要么完全无法使用该平台的服务。

基本信息:

DOI:10.19654/j.cnki.cjwtyj.2025.10.004

中图分类号:D922.1;TP18

引用信息:

[1]凌秋实,马万利,张海汝.人工智能背景下算法歧视法治化路径研究——典型场景、规制困境及对策[J].财经问题研究,2025,No.503(10):39-52.DOI:10.19654/j.cnki.cjwtyj.2025.10.004.

基金信息:

江苏省社会科学基金后期资助一般项目“中国特色自主创新道路研究”(22HQB32); 江苏省社会科学院基础研究项目“有限理性视角下生成式人工智能算法歧视对消费者决策的动态形塑研究”(JC202510)

检 索 高级检索