人工智能伦理的公众话语:从专家规训到日常伦理实践 --知识铺
阅读准备
本期推荐的论文聚焦人工智能伦理的公众话语,从用户的人机认知与算法想象出发,探讨用户如何通过情感体验、交互行为与日常叙述参与到对人工智能伦理的意义建构之中。研究发现,情景化的人机认知使得用户在面对生成式人工智能时发展出“民间理论”“故事性理解”与“情境性信任”等伦理实践路径。同时,算法透明性、解释机制及推荐逻辑的伦理接受并非“一刀切”,而是高度依赖于用户背景、应用情境与交互方式。
研究认为,人工智能伦理已从单纯的技术规范问题转向公众认知结构与文化实践的一部分,用户话语则构成了人工智能伦理有效性的重要社会基础。人工智能治理与伦理设计应更多地整合用户视角,实现由“专家规训”向“公众参与”的伦理共建转型。
省流版干货提炼
● 人工智能伦理的专家话语以技术性、规范性与原则性为导向,体现自上而下的规训与制度建构逻辑。公众话语则以感知性、经验性与情境性为核心,呈现自下而上的算法想象与日常伦理实践。两种路径形成的互补与张力,推动着公共层面的伦理讨论。
● 公众话语的形成源于人工智能在日常生活中的广泛渗透,表现为认知装配、伦理展褶与双向驯化三个维度的动态过程。
● 无论是用户基于使用经验形成的“算法民间理论”,通过讲述人机互动故事而生成的“故事性理解”,还是在特定社会位置与需求下产生的“情境化信任”,都表明伦理原则的落实依赖于人与技术之间的动态关系与情境适配。
● 人机互动是认知捷径、拟人化心理与社会叙事交织作用的结果,这一过程不仅关乎技术接受,更反映出人与技术之间情感与伦理关系的生成机制。
● 用户话语对于“软影响”的关注有助于揭示人工智能的非中性特质,凸显其在特定社会价值、权力结构与行为期待中的运作逻辑。同时,公众对软影响的敏感性也激发了更多关于技术未来的想象与讨论,补充并拓展了专家视角下的技术治理框架。
更多内容看这里
专家话语与公众话语的分野:
从规训逻辑到算法想象
人工智能伦理的专家话语构成
人工智能伦理旨在让人工智能在研发、部署和使用过程中符合社会公认的规范与价值观,专家话语构建了人工智能伦理的制度化框架。当前学界普遍认为,可信赖人工智能应涵盖人类监督、安全性、隐私保护、透明性、公平性与问责制六大主题,这些构成了未来人工智能治理与法律框架的关键支柱。
专家话语的主要内容大体可被分为工程伦理话语、规范性话语和制度政策话语三类。总体来看具有普适性、技术理性与单向规训的特征,但也存在落地性不足、概念模糊与欠缺文化适应性等问题。例如相关文件在偏见与歧视等议题上常缺乏清晰界定。
人工智能伦理的公众话语
认知装配:公众话语的生成基础
公众对人工智能的伦理判断并非来自技术知识或孤立的理性思考,而是基于感知体验和认知反思,往往来自其对算法“是什么”“应当是什么”以及“如何运作”的主观建构,并在具体情境中被不断触发,因而公众话语的形成具有情感化、具身化与集体性的特征。
根据“认知装配”理论,用户对技术的理解是在人类、技术物与计算系统三者的互动网络中生成的。一方面,公众通过系统推荐、视频生成、数据处理等外显功能“感知到”算法的存在,并由此形成互动模式与理解框架,甚至产生“人工智能是否会取代人类”的焦虑。另一方面,用户在接触人工智能时若遭遇偏见、数据滥用或虚假合成等问题,便会感知到人工智能的伦理越界,从而触发情绪反应与伦理表达。
伦理展褶:公众话语的生成动力
借助德勒兹的“褶子”概念,公众对人工智能的理解可以被看做一种多维度的叠加展开:既包含对挤占工作岗位、不平等、失控等技术性风险的担忧,涉及存在性、功能性、社会性伦理议题,也涵盖对情感依赖、焦虑与虚拟陪伴欺骗性的体验。
随着人工智能应用的深入,公众的算法想象也在心理层面不断演变。例如在面对个人信息收集时,用户的感受已从“不被尊重”的不适转向“被窥探隐私”的认知判断;在算法歧视问题上,有人因识别到歧视行为而产生认知失调,进而重新启动价值评估。
“双向驯化”:公众话语的生成过程
公众对人工智能伦理的反馈不仅停留在感知与心理层面,还体现为在日常实践中不断“驯化”技术。例如通过重复提问、细化提问、精准提问等方式逐步优化人工智能的输出,从而减少误解与偏差。这种从感知到行动的转化过程表明,公众能够将伦理担忧转化为实际的互动策略,并在技术不可知的情况下通过行动表达对人工智能发展的想象与期许。
与此同时,人工智能展现出的“主体性”也在反向塑造公众的伦理话语。当人工智能以推荐算法、自动生成等形式表现出“具有意图”的特征时,公众被迫重新审视人机之间的权力关系。公众话语也在交互中动态生成,从而成为人工智能伦理建构的重要参与力量。
专家话语和公众话语的差异
**公众话语展现出感知化与情绪化的特征,并关注生成式人工智能的新兴风险。**公众话语多由普通用户在社交媒体中自发形成,常通过惊讶、戏谑、恐惧或警觉的方式呈现。他们的关注点已不再局限于公平、透明性、责任与隐私,而是延伸至原创性流失、内容同质化、文化偏见、错误信息与技术滥用等新兴风险。这些公众话语直接反映了人工智能落地后对个体生活与社会感知的冲击,构成理解技术社会影响的重要入口和人工智能治理中底层共识的重要生成机制。
专家话语主要来自学术界、政策制定者与法律机构,强调跨学科知识的支撑,使用规范化的伦理术语和制度化分析框架,关注数据合规性、公平性评估、透明度与问责机制等宏观治理问题。他们通常从系统设计、法律责任与长期公共利益的角度提出审计、监管与合规路径。专家话语的优势在于提供可操作的制度和标准,但在回应公众的情绪化关切与实际使用体验方面则相对不足。
作为人工智能伦理建构中不可忽视的力量,公众话语在一定程度上拓展了专家话语的议题边界,凸显出其所蕴含的“长尾价值”。尽管专家与公众在人工智能伦理话语中存在“认知落差”和“规范张力”,但公众话语作为社会发展的重要反思过程,打破了将人工智能伦理局限于规范框架的刻板印象,也为理解伦理实践的有效性提供了重要观察视角。
“日常伦理”的实践路径:
从抽象原则到公众经验
民间理论:用户对伦理原则的选择性接受
**“民间理论”**是非专业公众在生活实践中,通过观察而对技术的运行机理、功能边界以及潜在意图形成的推测与解释。民间理论具有明显的非正式性,通常围绕具体的交互场景构建,聚焦于文化价值、社会身份和情感体验。此外,民间理论还承担着解释与预测的功能,帮助用户理解技术行为模式、判断其可靠性、推测“意图”,并据此调整自身的使用策略,在技术透明度与信任感方面塑造了人们对人工智能的集体想象。
**公众与人工智能的交互受到自身社会身份的影响。**一方面,个体基于社会职业等既有身份与算法互动,往往会形成独特的行动策略。另一方面,算法也会激发公众新的社会身份并产生新的伦理问题。当个体的自我身份认知与算法系统的认知产生分歧时,常常会引发公众主体性的“伦理抗辩”。
**民间理论不仅是公众对技术的自发解读,更是后人类时代建立人工智能日常伦理的重要基础。**首先,民间理论揭示了公众在日常生活中真正关切的技术影响点。其次,它们为专家话语提供了补充和修正,使人工智能伦理治理能够纳入更多用户体验与社会文化因素。最后,理解这些理论有助于改进人工智能的可解释性设计和人机交互体验,并在治理过程中引入更具包容性的公众视角。
故事性理解:用户对人机关系的叙事调节
用户对人工智能算法的“想象”并非直接来自对算法内部逻辑的掌握,而是通过社会化、叙事化的过程生成的。这些叙事既可能来源于个人的观察与推测,也可能是来自朋友、新闻媒体或网络讨论的二手叙述,由此个体形成对算法的认知与想象,既构成了一种微观层面上的认知调节机制,将自身认知和行为整合进日常生活的意义体系中,也发展出集体性的算法理解。这种“公众故事”往往先于专家讨论,构成公众日常伦理意识的基础,并发展为一种带有反思性的认知调节过程。
“故事性理解”的意义在于用碎片化、非线性的故事积累起解释算法运行逻辑和技术伦理边界的经验性认知,不仅强化了公众伦理话语的交互性与传播性,还通过讲述、转发和改写人机互动的故事,成为人工智能伦理意义与边界的文化表达与社会实践。这种“故事性理解”会随着技术发展、经验迭代而改变,当公众意识到人工智能存在伦理问题时,常常会触发道德反思,并据此重新讲述人与人工智能的关系。
情境化信任:用户伦理实践的行为锚点
公众话语的兴起标志着人工智能伦理正在从专家主导的规范导向转向公众实践的经验导向,并推动了对“日常伦理”的进一步关注,强调了人类主体在技术实践中的感知、叙事与情境性判断,凸显个体在意义建构与互动调节中的作用。情境化信任则为人工智能伦理的“日常化”转型奠定了基础。
对人工智能的接受与信任是伦理实践重要的行为锚点,人工智能伦理问题的复杂性决定了信任必须结合具体情境,需要将具体背景、用户特征以及复杂的人机关系纳入考量,无法全部通过普适性的规范原则加以解决。这种“情境化信任”常取决于公众的社会位置、技术期待、使用经验等,不仅揭示了公众接受人工智能的真实逻辑,进一步说明了公众伦理判断的嵌入性特征,也为理解人工智能伦理实践和用户对技术的适应行为提供了重要视角。
公众的情境化信任还受到信息加工与文化解读的影响。在面对深度伪造内容时,公众可能在用户期望、幽默风格与免责声明共同作用下,形成独特的信息加工模式,推动了人工智能伦理认知的松动,并催生出“算法八卦”“平台套路”等公众话语。
“日常伦理”的公众话语生成:
从工具理性走向“用户中心”
机器启发式:用户认知的形成机制
机器启发式揭示了用户在复杂信息处理中的认知捷径,其核心思想是:为了节省认知资源,人们在面对信息或决策结果时常会依赖一种简化的心理规则——认为“机器比人类更精确、更客观、更可靠”。当信息来源被标注为“机器”或“算法”时,用户往往在缺乏充分验证的情况下更倾向于接受其结果,并在新闻推荐、个性化算法等场景中表现出更高的信任感。
机器社会化归因揭示了用户信任背后潜在的拟人化心理过程。当用户将人工智能视为具有“自主性”或“代理性”的智能主体时,他们的信任和态度会受这种启发式的强化作用影响。这种“无意识拟人化”反映了人们会套用社会交往脚本解读人工智能的行为。这种倾向也受到用户对机器本质的理解程度、技术素养以及代际差异的调节。
拟人化心理:用户情感的连接模式
人工智能伦理议题正从单纯的技术规范问题转向涉及公众心理认知与社会价值的综合问题。公众不仅是使用者,更在交互过程中赋予人工智能社会文化意义,使人机关系进入情感化与意义建构并行的新阶段。这种基于情感认知的互动关系首先表现为公众对人工智能赋予不同社会角色,由此产生多样化的情绪反应。如将其视为助手、朋友、伴侣、甚至对手,并伴随焦虑、愤怒、信任等情绪体验。情感维度正在成为公众伦理判断的重要基础——公众对人工智能的偏好与反感,不再仅取决于算法的准确性与客观性,更关注技术是否展现“善意”、是否值得信赖、是否易于使用。
差异化接受:用户对人工智能信任的生成
技术理性范式揭示了早期人工智能伦理治理仅关注技术源头的规则设定、设计约束与流程优化的局限性。过于强调逻辑可控性与可解释性的这种范式在公众与人工智能的互动中往往会引发理论与实践的冲突。
以用户对人工智能的信任为例。一方面,虽然提升透明性通常被视为增强信任的重要手段,但其效果因用户心理特征而异,由此揭示了信任生成的复杂性。另一方面。可解释性研究也表明公众信任并非由透明度单一决定,而是受到解释的触发时机、内容精准度与呈现方式契合度的影响。
**公众信任生成的多样化路径也与其经验性伦理解释相关。**在日常使用中,公众已发展出基于人机认知的“经验性伦理解释”,这种解释不依赖于专家话语的抽象原则,而是源于算法经验与算法意识。例如人工智能生成内容的免责声明在不同设计下可能产生相反效果,频繁或模糊地提示可能削弱系统权威性,甚至降低用户的使用意愿。
结语:
超越“一刀切”的人工智能伦理共建
与“专家话语”体系将人工智能伦理更多视为一种“问题治理”工具相比,公众越来越多地将算法体验和算法策略视为自我身份表达与社会协商反思的一部分,其伦理认知与实践行动也因此被进一步激活。
公众对技术软影响的关注拓展了伦理治理的边界。在理解技术的社会后果方面,公众话语强调人工智能的**“软影响”**,即难以量化、不可预测的社会副作用,如算法意识、人际关系、伦理责任、文化认知、数字身份等渐进式变化。
激发公众的道德期待
**公众话语是激发社会共同体道德期望的重要力量。**公众对人工智能的想象和讨论,不仅塑造了具有针对性的伦理机制,也折射出人类朴素的价值诉求与行动期待。公众话语在实践与情境中发展出对人工智能的伦理判断,并最终沉淀为集体伦理感知,推动技术向人类友好的方向演进。
**公众话语在动态演变中不断形成新的道德边界。**初期,公众对人工智能怀有情感期待,希望其更人性化、更可信;随着体验的深入,公众逐渐形成对道德边界的判断,开始提出质疑与批判;最终,这些态度与判断沉淀为与技术互动的生活惯习。由此,公众话语实践连接了技术发展的宏观结构与个体行动的微观实践,成为人工智能伦理生成与变迁的重要驱动力。
促进公众的伦理表达
公众话语不仅寄托了社会的共同期待,也通过表达与传播发挥着实际的伦理约束功能。在人机互动中,公众形成的态度偏好,例如对算法推荐或自动化信息的怀疑,是一种“不可见”的经验警觉,这本身便是一种潜在约束力。
**公众表达推动了个体伦理反思向集体规范的转化。**公众在社交媒体上围绕算法歧视、定制化宣传、数据隐私等议题展开持续讨论,能够在积累与扩散中对算法平台施加道德压力,逐渐形成具有社会约束力的集体共识,迫使开发者与监管机构回应这些伦理关切,并将其纳入系统优化与社会规范体系之中。
构建人工智能伦理的共建逻辑框架
**公众基于经验的视角对于化解抽象伦理原则与复杂社会实践之间的张力具有不可替代的价值。**公众话语为人工智能伦理治理提供了源自实践的道德感知基础与新的逻辑起点。
**以人为本、激发参与和情境嵌入是共建框架的核心策略。**首先,以人为本是伦理共建的核心价值。其次,激发参与是伦理共建的有效性保障,需要确保公众在应用与监督中的实质性参与,并通过教育、科普提升公众的数字素养与批判性理解能力。最后,情境嵌入是伦理共建的针对性策略。治理应转向情境化机制,将技术规范嵌入真实生活场景,通过动态对话与评估体系及时调整规则,使治理更贴近公众关切与现实需求。
作者介绍
杨洸:深圳大学传播学院教授、博士生导师;杜丽洁:深圳大学传播学院博士研究生
本文为原论文节选版,内容有删改和编辑,原载于《新闻与写作》2025年第9期,注释从略。
学术引用及文献参考请以纸质版为准,未经授权,严禁转载。
- 原文作者:知识铺
- 原文链接:https://index.zshipu.com/ai/post/20251007/%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD%E4%BC%A6%E7%90%86%E7%9A%84%E5%85%AC%E4%BC%97%E8%AF%9D%E8%AF%AD%E4%BB%8E%E4%B8%93%E5%AE%B6%E8%A7%84%E8%AE%AD%E5%88%B0%E6%97%A5%E5%B8%B8%E4%BC%A6%E7%90%86%E5%AE%9E%E8%B7%B5/
- 版权声明:本作品采用知识共享署名-非商业性使用-禁止演绎 4.0 国际许可协议进行许可,非商业转载请注明出处(作者,原文链接),商业转载请联系作者获得授权。
- 免责声明:本页面内容均来源于站内编辑发布,部分信息来源互联网,并不意味着本站赞同其观点或者证实其内容的真实性,如涉及版权等问题,请立即联系客服进行更改或删除,保证您的合法权益。转载请注明来源,欢迎对文章中的引用来源进行考证,欢迎指出任何有错误或不够清晰的表达。也可以邮件至 sblig@126.com