查看原文
其他

社计文库|周旅军、吕鹏 人工智能时代的算法治理与社会科学的源头参与

周旅军、吕鹏 社计未来 2023-10-24


点击蓝字 关注我们


作者简介


周旅军,北京大学社会学博士,中国社会学会计算社会学专业委员会理事。研究领域为计算社会科学,主持国家社会科学基金项目《人工智能促进社会性别平等研究》等,曾任多家大数据与人工智能公司的首席数据科学家和首席技术官。

吕鹏,中国社会科学院社会学所经济与科技社会学研究室主任、研究员,中国社会科学院大学数字中国研究院执行院长。





人工智能作为算法中的一组技术,赋予计算机感知、学习、推理及协助决策的能力,使计算机能够以与人类相似的方式来解决问题。然而,并非所有群体都能享受到算法红利,算法也不总是产生积极后果,我们应当警惕、反思和干预。人工智能时代的算法本质上是在社会化生产中形成的权力体现,正影响甚至形塑着新的社会结构和社会心态,相应的算法治理(Algorithm Governance)对于推进社会治理体系和治理能力现代化是必然而紧迫的要求。


本研究讨论算法治理的现有进展和面临的实践困境,进而分析算法生态供给侧的社会化生产路径及其治理在人工智能时代的特殊性。通过在中国人工智能头部企业的行动研究案例说明,社会科学以源头参与、多方合作的方式推进算法治理有助于打造“向善”且“为善”的算法生态,降低人工智能作为基础社会设施可能带来的社会风险,创造出更多的社会价值。


随着社会环境的变化、技术内涵的发展和法律条文的完善,算法审计遭遇到多重挑战。算法透明性是进行代码审计的前提条件,但在现实中未必可行。即使算法的代码可得,也存在过于复杂、难以理解的问题。而且,像推荐系统这样强烈依赖数据的算法,即使在某个时刻表现正常,也不等于说在与其他数据配合时不出问题。特别地,在大数据时代,算法中公式体系所涵盖的变量可以是在成千上万的量级进行搜集整理。并且,它们不仅来自服务器的数据集,还受制于用户属性、行为历史数据等,数据类型也可以是结构化或非结构化的数据,根本无法只靠阅读静态的代码指令来判断其是否存在问题。


通过远程数据抓取的方式来获取平台服务的返回结果,比如得到搜索引擎对特定关键词的网页排名情况,是对平台企业进行算法审计的数据基础。但这就很有可能违背平台企业在用户协议中的规定,甚至是触犯国家在爬虫软件使用方面的法律条款。尤其是在研究与数据隐私相关的算法时,很可能会侵犯用户自身的数据隐私,造成学术伦理问题。研究者单靠一己之力进行外部审计会越来越遇到技术上、法律上和伦理上的困难。


算法治理不能简单理解为只是对算法本身的治理。为完整理解人工智能生态供给侧的社会化生产过程和社会风险后果,给社会科学介入人工智能根技术的生产和发展明确方向,需要从以下四个方面着手分析人工智能时代中算法治理的特殊性:(1)以开放平台为中心的开发者群体;(2)开源文化影响下的知识协作社区;(3)依附性质的数据标注从业者群体;(4)社会文化影响下的算法应用场景。


(一)开发者的社会来源因头部企业的人工智能开放平台的算法集中供给而更为多元,但在技术规范教育上存在缺失。平台在集中供给算法时也在依据企业自身的理解在定义社会秩序的维护,在缺乏守门人的情境中,对社会后果的影响可能是一损俱损;(二)开源算法具有代码上的透明性,有利于评估其中是否有损害社会利益的部分存在,但专门审计算法中各种社会问题的工具并未成为受人关注的部分。数据资源和知识图谱中存在的问题,由于其数量庞大、内容动态和缺乏问题意识,难以得到有效的发现和纠正。“知识”的形态并非总是明文可审查,它可以是从海量数据中提炼出的知识模式。如果不对“知识”加以后期的纠偏,而直接用于人工智能应用中,只会重现并加剧社会中的不平等。建设和运营知识的平台企业在为社会生产和共享知识提供方便的同时,也最终实现了对社会知识的使用垄断权,相应地建立起认知智能方面算法的技术垄断地位;(三)数据标注是保障深度学习模型质量的重要基础,但从业人员的社会来源与工作处境不利于实现算法治理。一方面,人工智能应用的场景丰富和技术发展对数据标注的质量要求不断提高,但更大的挑战是在面对抽象的社会概念如颜值、善恶时,数据标注员应如何操作的问题。也正是在这一环节中,对社会不平等秩序和规范的内化会反映在标注结果之中。另一方面,由于数据标注众包平台的涌现,作为“幽灵工人”(ghost-workers)的零工在平台算法的剥削下无谈判的砝码和地位,基本权益难以受到保障,为使人工智能整个产业链能够可持续健康发展,算法治理也需要对此情况加以重视和应对。(四)目前人工智能的应用场景多集中于经济价值高的产业,少有社会问题方面如发现性别不平等、促进性别平等的应对方案。


作为新型基础设施的人工智能,包括数据/知识、算法和算力,无不反映着社会秩序和价值观。要从根本上解决算法生态中存在的诸多问题,需要社会文化的转型,尤其是从统治关系走向一种伙伴关系的未来。对于统治关系与伙伴关系,艾斯勒从两性关系、暴力、社会结构、性特征、灵性、快乐与痛苦、力量与爱七个维度阐释二者之间互相消长又互相印证的基本差别。而当前社会中存在的算法盲视、滥用、偏见与歧视等社会风险与它们有着千丝万缕的关系,显然,这远不是依靠科技企业在技术架构中就能解决的问题。


计算社会科学既要在外部作为独立的社会力量评估算法的社会后果,揭示算法的社会风险,又要在内部成为算法生态的重要主体,凭借系统的专业知识,以提供咨询、合作开发、多方博弈等方式来引导算法厂商。这可以使缺乏可持续发展理念的厂商在意识上能够选择符合社会期待的发展战略,实现价值观的“向善”;使仅有“向善”价值观却不知如何在自身体系中落地的厂商有能力来主动评估和改进当前的算法生态。让价值观能够真正指导和融入企业的具体行为,实现摆脱空谈的“为善”,从而在规避社会风险的同时创造出更多社会价值。


对国内各家搜索引擎(百度、搜狗、360搜索等)的考察发现,充斥于网络话语中的性别偏见和女性权利并未受到人工智能平台服务商的充分关注,更无从谈起“为善”。具体而言,搜索引擎作为人工智能广泛而影响深远的应用,普遍存在三个方面与社会性别相关的问题:一是在搜索框中输入“女”、“女人”、“女性”等关键词时,查询到的文字和图片多为污名化女性、消费女性的结果,体现出显式歧视;二是在搜索“医生”、“护士”、“科学家”等词时,出现的图片结果只是在反映现实中的职业隔离,体现出隐性歧视;三是在查询“家暴”、“虐待妇女”等检索词或相关语句时,厂商未能充分运用人工智能的技术手段为可能的遭受家暴或者其他不公平对待的幸存者提供必要的帮助和支持资源。


为此致信百度公司反映相关的问题,在得到积极回应后与相关部门合作对搜索引擎的部分算法实施干预。在初步合作中实现对搜索结果中性别歧视相关内容的削弱、屏蔽和消除,同时优化和增强女性维权的支持功能。从长期效果来看,干预的作用明显。时隔两年,对比干预后的百度和未干预的其他搜索引擎,仍能发现差异显著。虽然百度早在2018年即已表示“AI的创新愿景是促进人类更平等地获取技术和能力”,但只有在社会科学的源头参与之后,以专家在社会性别领域的专业能力和创新思考,才能推动科技“向善”的意愿在特定社会问题领域中的实现,使人工智能的伦理倡议逐渐真正落地为科技“为善”的现实。


通过理论上的分析和行动研究中的观察,我们认为在人工智能时代的算法治理中,社会科学的源头参与必不可少:1.社会科学家有必要充分认识和揭示算法治理中的价值观,推动算法的服务目标和生产过程更为多元化;2.社会科学的源头参与需要更多地总结和介绍国内外已存在的算法问题和治理方案,督促相关方对社会不平等问题予以纠正和改善;3.社会科学家在分析社会问题的同时,为技术的落地提供知识基础;4.算法生态的复杂性决定社会科学的源头参与只能是以多方合作的方式进行。在行动研究中,尽管百度相关部门愿意把性别歧视问题的持续改善提上运维日程,却缺乏足够的力量去影响其他部门。因此,需要顶层设计和多方合作才能更深入地推进算法治理;5.社会科学家有必要加强对算法生态的理解,甚至参与到算法的社会化生产。不仅可以更彻底地进行算法审计,还能直接参与迭代,或者借助算法监测算法的社会后果,推动审计性质的组件成为产业应用的基础成分。社会科学家通过参与算法的生产过程可以有效地影响人工智能这一基础社会设施,从而更好地履行学科责任。


(参考文献列表略)


原文来源:

周旅军,吕鹏.“向善”且“为善”:人工智能时代的算法治理与社会科学的源头参与[J].求索,2022(01):135-142.

DOI:10.16059/j.cnki.cn43-1008/c.2022.01.015 .


往期推荐:

社计文库 | 算法向善选择背后的权衡与博弈

社计师学院|周旅军 人工智能中的算法治理:审计与干预

社计文库|吕鹏 数字社会建设与数字化时代的社会科学发展


社计未来

欢迎关注我们!


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存