随着数字技术的进一步发展,社交机器人正在不断深入参与人类社会生活。社交机器人是一种网络物理系统,基于模拟人类思维过程的认知计算模型,使用数据挖掘、模式识别和自然语言处理模仿人脑工作方式,通过遵循与其相关的社会角色和行为规范与人类或其他具备自主性的物理代理进行交互沟通。近年来,社交机器人已广泛应用于服务、教育、医疗等行业,在许多新兴的交叉领域发挥了积极作用。但是,社交机器人逼真的计算机图形以及各类虚拟现实工具和触觉系统,也对社会伦理生态与治理规制造成了极具复杂性的风险挑战。对此,本文将评估社交机器人技术治理的风险隐忧,并提出相应治理路径。
风险隐忧
社交机器人在发展应用过程中日益介入人类社交领域,形成了算法设计下的“智能伴侣关系”。极速发展的人机关系要求对社交机器人进行伦理方面的审视,而且社交机器人所具有的虚拟对话、信息把关、舆论操纵等多重功能,对社会治理、国家安全与法律规制造成的风险隐患也日益凸显。
第一,深度介入社会关系,破坏现有伦理机制。社交机器人是一种人工智能实体,以“人际交往方式”实现其所服务的实际环境的预定义和特定领域目标,“社交”一词更多强调了智能系统通过社交方式而不是身体互动来实现功能。社交机器人作为一种拟人化机器人,带来了人与机器人之间的混淆问题。社交机器人日益深入参与社会关系,使得我们无法在“对象”和“代理”之间设置一个适应社交机器人的本体论实体,这将对回答社交机器人“自主权利”究竟几何这一问题造成巨大障碍。无论是从社会正义还是公共话语角度出发,社会关系的技术化倾向都是社交机器人深度介入社会关系带来的隐患。人与机器人的混淆问题也诱发了更深层次的情感依恋风险。社交机器人带来的人机互动,容易促使人类产生对机器人被动型的情感或认知依赖,造成人类主体情感能动性的退化。
第二,操纵社会话语走向,扰乱舆论安全秩序。社交机器人主要通过编程接口搜索特定的社交网络或讨论,作为虚拟对话参与者影响公众意见与话题走向。其可以在社交平台中模仿人类用户的言论习惯生产和传播信息,背后的利益方则利用这一特点不断复制传播特定关键词和主题标签,辅以社交网络算法控制性能将指定内容炒作为热点。社交机器人推动低可信度信息病毒式传播的风险隐患,正在扰乱现有的舆论生态,影响公众舆论,挑战言论自由,将社交网络变为虚假信息的土壤。
第三,挑战多重隐私领域,招致社会信任危机。由于其自主性和潜在的社交联系,社交机器人正在挑战用户的心理、身体、社会及信息四重隐私领域。人机交互的有关研究表明,人类倾向于将人类的能力赋予机器人,并将其拟人化,这对社会信息隐私也有潜在的风险隐患。社交机器人同样具有人工智能等技术的不透明性所导致的黑箱问题,其越来越依赖基于云端的数据处理和大量的传感器和执行器,使其成为高度复杂和不透明的系统,数据收集往往不为人知或被用户误解,这将影响用户对自动化的整体信任。
第四,引起监管架构混乱,催生法律规制盲区。随着社交机器人越来越多地进入人类的社会生活,也催生了新的法律规制盲区。比如,社交机器人是否只是单纯的工具,应如何对待机器人,机器人是否应该拥有权利。即使承认机器人具有法律地位,那么应如何将其置于价值等级中?价值等级是由法律规定的,当前的法律体系认为人的生命处于受保护价值的最重要位置,在有可能的情况下不拯救人类可能被视为犯罪。有关研究表明,人们会牺牲机器人来拯救人类,但鉴于社交机器人日益发展的拟人化特征,这样的行为是否会被定义为犯罪?而机器人与人类的相似性越来越高,是否会实施刑事或民事侵害行为?此类侵权行为由谁担责、如何裁定等问题,均是社交机器人发展过程中面临的法治困境。
治理路径
社交机器人进一步融入人类社会生活势在必行,其实践的价值在于拓展和突破以往的技术情境,建构新型人机交互模式和社会关系。对社交机器人进行治理评估的目标是,摆脱和超越工具的束缚,正视社交机器人角色的多样性,实现社交机器人与人类社会发展的有效融合。这要求推进对社交机器人的体系化治理。
第一,树立批判与发展并行的技术价值理念。社交机器人作为一种新兴技术形态,在治理方面被视为一项挑战,这就要求以特定的技术价值思想指导技术动荡风险治理。从治理的角度而言,我们很难从初期就追踪每一个小规模但可能产生巨大影响的技术发展实例。更具有实操性的是,制定足够广泛且适用的指导性价值概念。一方面,面对社交机器人未来风险的模糊性,需要以批判性思维对人与机器之间的界限、机器的能动性与责任等问题进行反思,避免社交机器人扰乱人类对于人格、同理心以及社会组织的理解。另一方面,要以发展的眼光看待社交机器人实践。社交机器人具有的技术潜力是不可否认的,我们要在摒弃技术决定论的基础上支持技术创新,推进符合自然发展规律、伦理秩序与人性要求的技术发展。
第二,推进规制协调同进的技术实践规范。推进社交机器人批判性发展需要技术规范创新与法律规则规制双重作用,确保社交机器人在技术层与社会层协调发展。一方面,要判断社交机器人对人机交互物理环境的理解度,以确定的规范规制技术发展保障社交机器人的可解释性,严格限制技术发展所导致的人类对社交机器人理解能力失控的现象。这一目标的实现,需要对社交机器人的数字模型、计算范式、建模方法确定明确的监测指标。另一方面,要确定规范化的法律规则,避免出现技术发展牵着社会规则走的困境。面对社交机器人技术的快速变化,技术侧立法需要具有一定的前瞻性与预见性,保证立法效率与社交机器人发展速度接轨,形成全面、明确、有力度的监管举措,建立明确的问题反馈机制。
第三,构建社会多主体参与的技术治理框架。社交机器人涉及人类社会关系及生活方式的突破性转型,技术治理需要政策制定者、社会伦理家、法律理论家、机器人工程师等主体广泛参与,从未来法律与社会本体角度,对机器人与人类社会生活的互动关系进行推测性探索。对于社交机器人的技术治理框架,需要多主体从技术标准、道德标准、宏观战略等维度进行协同作业。目前,社交机器人已实现商业化落地并逐步规模化应用,现有的技术治理需要从纯理论分析转换至理论与实践规范相结合,将“以人为本”的观念贯彻于治理框架始终。可以将技术人员的技术经验、研究人员的理论研究、市场人员的评估标准等专业化建议,与社会用户的使用型反馈相结合,扩大技术治理框架的考量范围。
第四,践行全球协同治理的技术安全逻辑。针对社交机器人的伦理价值观、决策分析、技术正义等问题,需要以全球化的方式解决,建立全球性的技术治理安全逻辑。一方面,需要提供一个民主和公平的实质性技术理论框架,建立具有明确性规范的边界条件,保障社交机器人所产生的利益以及安全风险负担分配是合理有效的。另一方面,要明确审视针对社交机器人相关技术的全球治理机构,定义相关技术治理的全球公共政策的领导角色,从顶层设计出发明确安全逻辑路线。
当前,社交机器人正在实现商业化落地及推广,其在社会关系、舆论安全、法律责任等层面的影响正在显化。虽然社交机器人在人类社会中的常规化应用还有很长的路要走,但社交机器人技术研究的快速发展正在帮助我们日益接近这一现实。因此,有必要在技术发展过程中制定前瞻性的方案策略,以便能够对技术进步带来的风险隐患作出有效、及时、合理的反应。
(本文系教育部哲学社会科学研究重大课题攻关项目“积极参与全球治理体系改革和建设研究”(20JZD057)阶段性成果)
(作者单位:华东政法大学政治学与公共管理学院)