人工智能应用的科技伦理与法治化建设
来源:人民论坛 更新时间:2024-11-11
    【摘要】人工智能在众多行业领域掀起颠覆性革新的同时,也在科技伦理方面引发了一些争议与忧虑。科技伦理治理既要把握科技发展规律,又要防止科技发展过程中可能出现的违反道德伦理的行为。应聚焦人工智能发展应用面临的数据隐私、算法偏见和责任规则等科技伦理挑战,在推动人工智能创新发展的同时,完善数据保护与隐私立法,优化算法设计与公平性审查,提高人工智能决策的透明度与可解释性,明确责任主体,提高监管水平,防范和规制人工智能技术的滥用。

    【关键词】人工智能 科技伦理 科技法治 【中图分类号】D923 【文献标识码】A

    “现代计算机、博弈论之父”约翰·冯·诺依曼(John von Neumann)曾说:“技术日新月异,人类生活方式正在快速转变,这一切给人类历史带来了一系列不可思议的奇点。我们曾经熟悉的一切,都开始变得陌生。”当前,人工智能(AI)的快速发展正在众多行业领域掀起一场颠覆性的行业革新。2024年政府工作报告提出,深化大数据、人工智能等研发应用,开展“人工智能+”行动,这是我国政府工作报告首次提出“人工智能+”。“人工智能+”的概念,旨在鼓励各行各业重视人工智能技术的应用和落地。

    自1956年约翰·麦卡锡(John McCarthy)首次提出“人工智能”概念以来,人工智能已经取得了重大发展。对于AI带来的发展机遇以及与之相伴的科技伦理治理挑战应给予辨证的理解。一方面,AI技术应用展现出巨大的商业价值,在降低成本、提升效率、加快创新等方面发挥了重要作用,许多企业将其视为寻求突破、改变竞争格局的新途径。另一方面,随着AI的发展和应用,人们面临的科技伦理挑战也日益增多,譬如,AI“复活”已故明星视频在互联网各大视频平台爆火, AI“复活”亲人业务的网络热度急速飙升。从动态图片到“可以对话的视频”,再到能提供情感交互的虚拟体验,这些围绕AI技术新应用的社会现象也引发了一些伦理忧虑。数字人作为AI技术率先落地的重要使用场景,仍存在法律与伦理上的争议,亟需重新思考科学技术的伦理底线与合法性边界。

    当前,我国科技伦理治理存在体制机制尚不健全、领域发展不均衡等问题,难以适应AI科技创新发展的现实需要。在从实验室技术研发走向商业化和社会化的过程中,AI发展应用“数字公地”(digital commons)属性逐步增强,设定科技伦理法律规则的必要性愈发凸显。AI科技伦理法治体系的构建需厘清科技开发应用、科技伦理设定、法律规则介入三者之间的关系,寻求科技发展、伦理引导及法律实现之间的平衡点,提升科技伦理法治能力,有效防范科技伦理风险,不断推动科技向善、造福人类。

    AI技术发展与科技伦理的关系

    人工智能是引领新一轮科技革命和产业变革的战略性技术。我国人工智能的应用场景丰富、用户群体规模和数据量庞大、产业需求与消费需求旺盛,政府高度重视AI产业创新发展,大力促进人工智能与实体经济深度融合。推动AI技术创新发展,对于培育新质生产力具有重要作用。科技伦理是科技活动必须遵循的价值理念和行为规范,不仅要把握科技发展规律,同时应约束科技发展可能出现的违反道德伦理的行为。当下,AI科技伦理是一项复杂的实践活动,贯穿于AI全生命周期的技术设计、产品行为、应用场景等一系列环节,涉及诸多实施行为主体、技术路线开发者、基础设施所有者以及社会公众等多方参与者的利益诉求和多种利益冲突。基于此,AI的技术设计与应用全周期应遵守科技伦理规范。科技发展与科技伦理之间并不是“二元对立”的关系,科技伦理通过防止科技发展的复杂性给社会带来的伦理冲击,更好地实现数字科技与人类、数字科技与自然、科技创新与科技伦理之间的和谐共生。

    2022年3月,中共中央办公厅、国务院办公厅印发《关于加强科技伦理治理的意见》,明确强调人工智能等是科技伦理治理的重点领域,充分表明国家对AI科技伦理治理的高度重视。不仅提出了“伦理先行、依法依规、敏捷治理、立足国情、开放合作”的治理要求,还提出了“增进人类福祉、尊重生命权利、坚持公平公正、合理控制风险、保持公开透明”的治理原则。2023年7月,国家网信办等七部门联合公布《生成式人工智能服务管理暂行办法》,为科技伦理治理指明了发展方向。2023年9月,科技部等十部门联合研究起草、经中央科技委员会同意并印发了《科技伦理审查办法(试行)》,将人工智能列入应设立科技伦理(审查)委员会的科技活动单位范围内,在7大类需要实行清单管理的重大风险新兴科技活动中,有4大类涉及人工智能伦理审查。这些规范性文件凸显了AI科技伦理治理的必要性、紧迫性和重要性。与快速迭代的技术相比,AI科技伦理治理落地实施的制度尚不完善,合规底线不够明确,伦理审查与监管存在空白,配套的惩戒措施缺乏力度。对此,一方面,要秉持科技向善的人文理念和伦理先行的价值观念,将伦理道德融入AI全生命周期,增强全社会的AI科技伦理意识与行为自觉。另一方面,要加强科技伦理治理,尤其需要加强法律监管,明确责任主体,强化伦理审查,推进依法治理,实现科技发展与伦理治理相互促进、动态调适。

    AI发展应用面临的主要科技伦理挑战

    一是数据隐私。AI的本质之一是数据驱动,数据往往包含用户个人信息,是隐私与AI之间的重要连接要素。随着AI技术的应用,数据隐私和个人信息安全成为重要课题,需要正视数据隐私风险,平衡技术发展与隐私保护之间的关系。

    第一,数据不正当收集与数据过度收集风险。在通过自动识别算法、网络爬虫等技术方式获取数据时,AI模型对于个人数据的收集边界是模糊的。在网上公开数据源和商务采购时,由于目前数据共享、交易和流通的市场化机制不健全,存在非法数据、违规买卖数据、暗网数据等不正当收集行为和一些未经授权的收集行为。这些数据的获取缺乏用户知情同意,实际并没有获得采集权限,存在侵害用户数据隐私的风险。

    第二,数据存储的隐私泄露风险。一方面,在对数据进行存储时,如果没有对数据采取充分的技术安全防护,且没有明确的隐私界定与标注,则可能会出现涉及隐私的数据被用于公开的AI训练的情况,或通过网络攻击等黑客行为窃取数据而导致个人隐私泄露。另一方面,在AI数据处理使用的过程中,涉及众多数据处理、存储等环节。对于种类多、数据量大的数据集,数据的频繁读取、传输、存储等环节难以真正实现全环节监控和管理,存在被非法使用者利用、拷贝等安全隐患。

    第三,数据流通的隐私泄露风险。由于大量AI企业会委托第三方公司或采用众包的方式实现海量数据的采集、标注、分析和算法优化,数据将会在供应链的各个主体之间形成复杂、实时的交互流通,可能会因为各主体数据安全能力的参差不齐,产生数据泄露或滥用的风险。此外,在全球数字经济发展不均衡的背景下,大型科技巨头将AI的数据资源供给、数据分析能力、算法研发优化、产品设计应用等环节分散在不同的国家,数据跨境流动的场景增多也会对国家安全和个人信息保护造成不可控的风险。

    二是算法偏见。算法模型是AI运算阶段的核心技术特征,但算法并不具有绝对中立性,它的客观性仅仅体现在算法运行中。算法不仅具有内在错误或无意识偏见,而且算法偏见产生的负面影响抑制着AI的创新发展与应用,存在损害多方主体权益、固化社会偏见的风险。

    算法偏见的本质是AI时代社会偏见的一种体现,这种偏见可能源自数据、模型或者算法设计人员。AI系统训练数据本身可能记录了社会中存在的偏见。基于模型的复杂性,它可以捕捉到微小的数据模式,甚至是噪音,在不断的优化迭代中强化学习效果,可能在学习中产生偏见。算法设计人员的主观意识总是有意或无意地融入整个运行过程,他们的知识背景和立场是否受过专业训练,是否有足够的背景知识及理念的构成,都会对算法的公正性、客观性造成挑战。

    算法偏见可能造成实质不平等。譬如,商家为吸引更多用户,通过给予新人优惠、回归补贴等差异化定价手段,造成“大数据杀熟”,侵害用户利益。算法偏见还可能造成就业招聘时排除特定地域、特定性别的人群,在金融信贷行业错误识别信用不良人士或给予特定人群优待,在公共服务领域给特定人士错误地打上危险标签。这些算法偏见容易导致人们对AI应用产生信任危机。

    “可信”是AI产业健康持续发展的内在要求,AI是否可信不仅会影响社会治理体系的运行,也关乎AI的创新发展。在医疗、金融、司法等应用领域,算法的不公平性甚至可能对生命、财产和自由产生威胁,使得人智协同发展难以实现。因此,应审慎对待算法偏见风险,充分尊重人的主体性,将人类社会价值体系、伦理道德、法律法规、生态环境等内在需求纳入AI生态全盘考量,确保AI生态系统的健康有序、和谐共生与可持续发展,避免出现与人类社会价值相悖的负面应用。

    三是责任划分。随着AI应用的规模化使用,实践中造成损害的事例屡见不鲜,包括但不限于创造性成果归属、刑事犯罪规制、人格权及知识产权侵权损害救济等,AI侵权争议的增多与责任主体的模糊之间形成了巨大的“责任鸿沟”,AI的法律责任承担问题尚不明确。在此背景下,亟待厘清AI责任主体及其责任分配,解决无人担责的困境。

    从理论层面出发,学界对于“AI法律主体地位”“AI是不是法律意义上的人”“AI能不能成为权利义务的最终归属”等问题的看法尚未统一。根据现有的法律体系设置及实践,AI尚没有法律意义上的权利与义务内容,难以成为民事法律主体。然而一些学者认为,部分AI已经具备类人化意识与行为能力的基本形态,在拟制主体对人类经济社会发展发挥巨大作用的前提下,可以考虑由AI自身承担部分责任,但由于其责任能力的限制以及以人为本的伦理基础,对该责任能力应当进行明确限定。

    从实践层面出发,AI侵权案件与传统侵权案件引发的损害和风险的形式不同,AI的不透明性、不可预测性对传统责任归因机制产生了冲击。以往构成责任的前提条件通常包括“控制条件”和“认知条件”两方面,然而,一方面,AI的不透明性和不可解释性导致结果的不确定性,在某种情况下会超出人类的控制范围;另一方面,囿于AI使用情境和使用者的不同产生的多重稳定性,使得对AI的认知以及相应责任的追究更为困难。譬如,根据《中华人民共和国侵权责任法》的规定,制造商和销售商是主要责任主体,但在AI情景下,还应当明确开发者的安全注意义务,建立新的AI侵权责任机制,促使发展“负责任的AI”成为符合人类共同利益的选择。

    构建与完善AI发展应用的科技伦理法治化进路

    AI发展日新月异,面临诸多变量,应对AI科技伦理挑战则应把握这些变化中的“不变”,把握好坚守技术创新前沿动态的科学观、充满人本主义情怀的伦理观、兼顾技术发展与制度进步的法治观以及预判评估技术并进行决策的治理观。

    一是明确AI规制目标与重点。AI技术的发展逻辑颠覆了传统的社会治理模式,全新的治理模式期待全新的规制和监管路径。当前的规制目标在于实现以规制促发展,坚持安全可信的法治之维、科技向善的伦理之维、创新发展的技术之维,围绕“社会—人类—机器”等要素,从“法律—伦理—技术”等维度展开规制,在法治轨道上鼓励技术创新。

    首先,从法治维度出发,应建立负责任的AI治理机制,建立AI安全可信的标准和评价体系,筑牢安全底线,促进AI健康发展。AI大模型训练及AI场景应用中的数据滥用、隐私泄露、算法偏见以及侵权责任等问题不时出现,筑牢安全底线刻不容缓。当前,针对AI应用立法仍存在不足和空白,应对AI应用的安全性、可信性、伦理合规性等方面进行量化评估,为AI技术的发展提供明确的方向和参考。在此背景下,为进一步推进AI治理法治化,应树立完善的技术发展与应用理念,保证AI应用在面对攻击和威胁时能够保持正常运行和数据安全,加快推动完善针对AI的法律地位、AI成果权利归属、AI损害后果的责任划分、AI风险的法律控制等重点问题的法律规范,着力平衡AI产业发展和社会安全,保证AI输出结果是可预测的、可解释的,并且符合人类的价值观和伦理准则,防止技术在利益的裹挟下无序应用,以法治保障AI健康发展。

    其次,从科技伦理维度出发,应建立一整套相对完整的制度规范体系,这一体系应基于增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当以及提升伦理素养这六项基本伦理要求,推动AI朝着通用、可信、负责任的方向发展。一方面,应为AI产品研发设计人员制定道德规范和行为守则;另一方面,应构建多层次的伦理道德判断结构以及人机协作的伦理框架。在AI等数字科技伦理治理过程中,应坚持以人民为中心的发展思想,践行科技向善的人文理念,并结合不同的数字化应用场景,确保AI应用的合理合规、公开透明。

    最后,从技术维度出发,应在确保AI安全可信、科技向善、符合伦理的前提下,积极鼓励AI技术的融合与创新,不断拓展其应用场景,并努力尝试跨学科交叉融合,以推动AI应用的可持续发展。具体而言,AI技术应进一步与物联网、云计算、大数据等深度融合,构建更加智能、高效、便捷的服务体系。同时,还应不断拓展AI在智能家居、自动驾驶、医疗诊断、金融分析等多个领域的应用,加强跨学科交叉融合。例如,在医疗诊断领域,AI技术可以辅助医生进行疾病诊断、制定治疗方案;在金融分析领域,AI技术可以实现风险评估、优化投资策略等功能。

    二是完善AI相关制度设计与实践进路。科技法治是鼓励与规范科技创新的基石,而科技伦理则致力于优化和改善科技创新。无论是科技伦理还是科技法治,都旨在推动科技创新的同时,遏制科技不端行为和科技滥用违法现象。为此,应完善相关法律制度的设计与实践路径,加强行业监管,明确行为底线,多方协作,对AI应用中的不法行为进行有效监管,确保AI技术的健康与可持续发展。

    首先,加强数据保护与隐私立法。应完善数据相关法律法规,明确数据收集、存储、处理和共享的规范,为AI技术开发与应用中的数据相关行为提供法律指引。《生成式人工智能服务管理暂行办法》对数据安全和隐私保护作出了具体规定,包括服务提供者需确保数据来源的合法性,以及关于训练数据的特性、个人信息与知识产权的保护规定。该办法还将相关监督检查和法律责任纳入我国网络安全和数据隐私保护的基础性法律框架内。在不断完善法律规范的同时,还应加大监管执法力度,严厉打击侵犯个人隐私的行为,确保法律的有效实施。此外,面对经济全球化背景下数据跨境流动带来的发展机遇与数据安全挑战,应加强在数据保护和隐私立法方面的国际合作,消除数据跨境传输过程中存在的数据泄露和隐私侵犯的隐患,共同维护全球数据安全和隐私权益。

    其次,优化算法设计与公平性审查。算法是AI发展的核心技术工具,只有合规、良善的算法才能更好地促进AI的安全、可信、负责任发展。第一,优化法律体系配置,重点关注算法偏见问题,并加强法律法规间的协同,构建全方位、多层次、立体化的算法偏见规制体系,涵盖法律、行政规章及地方性法规,为个人提供充分的数据权利保障,为抵御算法偏见侵害提供坚实法律支撑。第二,实施算法分类分级管理,细化《互联网信息服务算法推荐管理规定》中的分类标准,并制定相应的风险等级和监管举措,完善基于算法分类分级的算法备案、算法评估、算法安全风险监测和算法审计制度,提升制度的明确性和可操作性。第三,探索建立算法偏见公益诉讼制度,结合民事与行政公益诉讼,完善救济途径,保障公共利益,引导算法在法治框架内有序发展,推动数字化进程更加成熟完善。

    再次,提高AI决策的透明度与可解释性。透明度是AI确保其内部算法可见性的关键属性,包括公开数据、特征、模型、算法、训练方法和质量保证程序,以便外部监督和审查。可解释性的目标是增强理解,使目标受众更好地理解AI的行动与决策。因此,应建立公开透明、可解释的AI监管体系。第一,提升AI模型技术和数据源的透明度,公开AI在系统开发、数据收集、管理、结果可操作化等过程的信息,使用户了解AI模型决策的过程、依据和规则,打破黑箱壁垒,增强用户对模型的信任。第二,强化公众审查和监督,落实算法备案、算法审计等制度,协助用户追溯数据输入、输出、运行过程与自动化决策结果间的因果关系,全面审视数据收集方法、自我审核流程、价值承诺及利益相关者参与等过程。当利益相关者的权益可能因自动化决策受损时,可解释性能及时解答疑问,提供救济。第三,完善AI备案制度,优化互联网信息服务算法备案系统,拓展备案信息范围,要求备案主体公开更多技术要素,如运作原理、系统架构、数据集、训练模型及参数等,并阐述其价值观和要解决的技术问题。同时,也要将相关外国主体纳入备案范畴,确保其遵守我国相关规定。

    最后,明确责任主体与加大监管力度。虽然AI应用带来了传统“主体—行为—责任”理论下的“责任鸿沟”问题,但AI算法技术的应用,如算法的设计与部署,都蕴含了价值观和主观意图,这是法律追责的核心,也是判定法律责任的关键。因此,应尊重技术逻辑,构建机器/人—机联合体,并根据侵权场景的类型化,确立多方责任主体的识别路径,聚焦行为正当性的判断。以AI算法设计部署中的主观过错作为追责的基础,结合联合体内的责任与经济利益的关联,实现责任分配的公正性。此外,还需增强《中华人民共和国民法典》《中华人民共和国刑法》等法律在AI应用场景中对主体责任和产品质量缺陷等问题的适用性,强化对AI设计和应用监督的双重监管。在责任判定中,应综合考虑行为人和AI服务提供商在侵权行为及损害后果中的实际作用。如果发生损害,可参考《中华人民共和国民法典》中的产品生产者责任条款,即产品缺陷造成他人损害的,生产者应承担侵权责任,被侵权人有权向产品提供者索赔。这要求AI提供者,通常是平台主体,履行高度注意义务。赋予AI提供者相应责任义务,有助于规范生成内容的合法性。当然,若平台已履行其义务,鉴于其对创新发展的贡献,在责任承担上不宜过于严苛,以免阻碍AI技术发展和未来商业应用。

    随着AI技术发展和应用场景的纵深拓展,AI治理面临着道德伦理约束和法律规制的双重现实困境。我国AI的科技伦理规范和相关立法应秉持包容审慎的态度,既不能只建立回应型立法,也不能推行过于严苛的制度限制AI的发展应用。因此,应继续探索合理的AI科技伦理及合法性边界,坚持科技伦理与法律规范双管齐下,在有序的制度框架内完善数据算法的纠偏功能,推动AI技术与产业向安全、可信、负责任的方向发展。

    (作者为南开大学法学院副院长、教授、博导,南开大学竞争法研究中心主任)

    【注:本文系2023年度最高人民法院司法研究重大课题“数据权益知识产权司法保护问题研究”(项目编号:ZGFYZDKT202317-03)及教育部人文社会科学重点研究基地重大项目“全球数据竞争中人权基准的考量与促进研究”(项目编号:19JJD820009)阶段性成果】

    【参考文献】

    ①岳平、苗越:《社会治理:人工智能时代算法偏见的问题与规制》,《上海大学学报(社会科学版)》,2021年第6期。

    ②陈兵:《生成式人工智能可信发展的法治基础》,《上海政法学院学报(法治论丛)》,2023年第4期。

    ③陆小华、陆赛赛:《论生成式人工智能侵权的责任主体——以集体主义为视角》,《南昌大学学报(人文社会科学版)》,2024年第1期。