随着生成式人工智能的兴起与发展,将ChatGPT嵌入数字法治政府,促进依法行政,实现政府治理的法治化和信息化具有了诸多可能。ChatGPT能够以其先进的技术、理念与模式不断赋能数字法治政府建设,提高政府决策的科学性、推动政府治理降本增效、创新政府治理模式,但与此同时也产生了诸如国家主权安全风险、行政权力失信风险、数据合法合规风险等现实问题,虽然新生的技术应用能够解决政府数字化建设中的诸多“近忧”,但亦必须对新技术相伴而生的各种风险给予足够的“远虑”,所以,从部门立法到中央立法逐步构建起以风险防控和法律规制为导向的生成式人工智能应用机制,实现生成式人工智能的可知、可控、可用、可靠,是ChatGPT嵌入数字法治政府建设的当务之急。
引言
近年来,我国数字法治政府建设取得了令人瞩目的成就,一系列数字基础设施和政务网络平台不断涌现、数据共享和开发利用取得积极进展,一体化政务服务与监管效能大幅提升。作为一种以数字化信息技术为基础的全新的政府治理模式,如何紧跟网络技术潮流,利用新技术不断赋能政务服务智能化水平,如何提高行政履职科技化含量,是新时代构建服务型政府,实现国家治理体系和治理能力现代化的重要内容。同时,互联网新技术和数字法治政府建设相伴相生、相辅相成,政府部门具有服务用户多、覆盖领域广、场景多元、数据海量、稳定性强等特征,是构建和试验人工智能通用大模型的理想场域,更高效的公共行政模式探索和更高质量的公共服务需求也推动着政府部门拥抱新兴技术,毫无疑问,政府与技术的结合是时代的需要,也是历史的必然。
以ChatGPT为代表的生成式人工智能的横空出世,凭借其强大的数据处理能力、深入的人机交互能力、深刻的语言理解能力,给数字法治政府的建设带来了全新的契机和无限的可能,但新技术衍生到行政领域,在塑造新的政务服务模式的同时也必然带来了新的问题,尤其是ChatGPT在数字法治政府建设中,既有独特的自身优势,又兼具公共服务的基本属性,所以微小的问题也会造成政府公共产品、公共服务和公信力的缺失,造成社会的混乱和个人权利的侵害。因此,正确审视以ChatGPT为代表的生成式人工智能在数字法治政府建设应用中可能诱发的各种风险,研究风险的生成机理并探究其应对之策,是推动我国数字治理由被动走向主动的重要举措,也是开辟数字法治政府建设新领域的题中应有之义。
一、ChatGPT与数字法治政府的逻辑联系
(一)
ChatGPT与数字政府
首先,ChatGPT与数字政府技术基础相似。ChatGPT是一种以海量数据持续学习为基础,以算力算法深度挖掘为支撑,以神经网络广泛搭建为架构的具有强大语言理解和文本生成功能的新型人工智能,ChatGPT既继承了原始互联网的数字基因,又实现了新兴技术领域的更新迭代,是互联网数字技术的再突破、再发展;而数字政府则是以信息网络技术为基础、以政务数据为核心、以政务公共服务为重点的旨在利用数字技术创造公共价值,提升各个领域履职能力的新型政府管理形态,它是政府治理的再优化、再升级。两者都根植于互联网拥有相同的技术基因,都对信息数据需求量大,对算力算法要求高、两者的语言文字理解力和文本生成能力强,都是web3.0时代技术飞速发展的科技产物。
其次,ChatGPT与数字政府技术目的相同。ChatGPT将“手工作坊”式的信息数据处理模式发展为“机器大生产”式的流水线,真正实现了互联网生产力的大发展,而生产力的大发展也必然带来生产关系的变革,从而直接推动经济社会的发展。而数字政府建设同样是坚持运用大数据、人工智能等技术手段促进依法行政,实现政府治理信息化和法治化深度融合,优化革新政府治理流程和方式,最终借助数字技术通过政府的“良治”“善治”推动经济社会的发展。在推动社会发展这一问题上,ChatGPT与数字政府虽然路径不同,但是有着相同的价值理念和共通的社会目的。
(二)
ChatGPT与法治政府
首先,用ChatGPT推动法治政府建设。法治政府建设的一个重点和难点就是如何避免现代政府组织模式带来的治理掣肘和违法行政,而ChatGPT能够根据公众指令完成一系列的行政行为,最大限度地避免人的不正当干预和非理性决策,从而在公共事务中消除一切情绪化、人格化、不正当目的、非合理考虑的不良影响,实现了对政府运行全流程的“远程监督”,对构建全过程的人民民主和全方位的法治政府提供了强有力的技术工具。
其次,法治政府保障ChatGPT的有序发展。以往出现的诸多新技术和新理念由于被滥用而最终发展的不尽人意。比如利用区块链技术进行非法集资、传销甚至诈骗等违法犯罪活动;利用元宇宙概念进行虚假宣传、大肆炒作,从而引发了许多伦理道德风险、信息泄露事件以及个人资产流失事故等;又比如,巨头企业为了攫取不正当利益而利用大数据算法技术和行业支配能力进行“杀熟”,肆无忌惮地侵犯消费者的合法权益。法治政府一个重要的使命就是为新技术的发展保驾护航,毫不动摇地打击技术滥用者和不法服务提供者。同时在进行技术监管时也要把握好一个“度”,既要防止“不管就乱”,也要避免“一管就死”的现象发生,真正做到对新兴技术的“严管厚爱。”
二、ChatGPT赋能数字法治政府的实现路径
(一)
技术赋能,助力数字政府科学决策
传统型政府在进行决策时首先要广泛收集信息数据、资料图表,进行调查走访、咨询听证,其次对所收集的信息进行加工处理、分类整合,然后运用特定的方法和系统对信息进行分析研判,最终得出结论进行决策。在这个过程中,信息的收集不能完全保证充分详实,信息的加工处理也无法做到面面俱到,尤其是信息的分析主观性较强,加之此项工作需要大量的人力、物力、财力的支持,使得政府面对复杂多样的社会情况进行决策时难免存在诸多的不确定性和不合理性。而ChatGPT的应用能够很好地解决这个问题,因为ChatGPT海量文本数据的深度学习使得它在信息收集上拥有得天独厚的优势;它强大的算力算法使其对信息的加工处理更得心应手;它无主观意识和个体情感的特点使其在分析数据时能最大限度地避免非理性因素的干扰,为政府决策提供全面客观、真实有效的信息,助力数字政府科学决策。
(二)
理念赋能,推动数字政府降本增效
降低信息处理成本,增强数处理效率是ChatGPT的核心技术理念,传统政府治理过程中,普遍存在着治理成本高、效率低、群众满意度差等特点,而ChatGPT的应用或许能够给当前的现状带来改变。第一,对于公众而言,ChatGPT的人机交互和语言理解能力可以很好地实现人与机器的友好对话,引导群众完成诸如行政许可、行政登记、行政审批等一系列公共服务活动,既可以简化公众办事流程,又可以提高公众满意度。第二,对公务人员来说,ChatGPT的文字写作功能可以让公职人员从繁琐的文稿工作中解放出来,节省时间精力,提高质量效率。比如日本神奈川县政府就率先在行政工作中使用ChatGPT进行会议记录、公文撰写、政策制定。新加坡政府正在研发一套类似ChatGPT的系统,以协助公职人员完成除涉密敏感信息以外的诸如总结参考资料、搜索相关观点、提升写作能力等工作。第三、从政府本身而言,ChatGPT能够改变科层制政府组织模式的固有局限性,凭借其强大的资源整合能力精简行政程序、优化治理流程、改善治理解构、打破组织壁垒,实现跨部门、跨层级的协同治理,从而实现治理成本的降低和行政效率的提高。
(三)
模式赋能,创新数字政府治理模式
ChatGPT的运行模式表现为:运行前的预先训练和深度学习—运行中的深刻理解和人机互动—运行后的问题回应和文本生成。该模式具备自动感知、自动识别、自动回应的功能特点,尤其是在以大样本数据收集与分析来建设数字化政府中,这种自动化、智能化的运行模式将会有效归纳施政经验、研判公众需求频段、预测行为后果效力和法律效果格次,确保ChatGPT协助作出的行政行为裁量基准在输送上的客观性和参照结果上的预见性,进而打造一个以用户为中心、以问题为牵引、以数据为基础、以行动为导向的数字政府基本模式。与此同时,ChatGPT能够促使数字政府超越宪政主义和管理主义的政务供给范式,建构一种以智能技术为支撑,自动协作整合、自主业务集成,虚实共生、人机交互的新型治理模式,在进行政务服务革命的同时,消解政务服务中的指令性话语和官僚主义作风,实现从ChatGPT到GovGPT的治理跨越。
三、ChatGPT赋能数字法治政府的风险归纳
(一)
国家数据主权安全风险
在大数据时代,数据作为政府从事智能化管理的重要战略资源,不仅关乎数字政府的运行状态、发展潜力,同时还涉及国家数据主权安全问题。ChatGPT赋能数字法治政府建设中必须要坚定不移地贯彻总体国家安全观,始终绷紧数据安全这根弦,加快构建数字政府全方位保障体系,防范数据霸权主义滋生,化解政务数据侵害风险。
数据霸权主义滋生。ChatGPT是由美国OpenAI技术公司研发的,技术框架来自域外,语料库以英语为主。虽然我国的相关技术公司也相继推出了一系列类ChatGPT产品,但是在技术理念、运作模式、实用性、可靠性等方面与ChatGPT还存在着较大的差距,技术差距会加剧广大技术弱势国家对少数技术强势国家的依赖,个别国家还会利用技术优势的支配和掌控权进行技术剥削与压迫,进而造成技术垄断,形成技术霸权。政务数据侵害风险。政务数据既是社会大众个人数据的总和还包括政治安全数据、经济发展信息、军事武装情报、文化建设情况、社会运行资料等方面,可谓是包罗万象且隐私敏感。面对如此大规模且敏感的信息,ChatGPT可以“大展拳脚”的同时也带来了许多技术风险和隐患,比如数据污染、数据泄露、数据窃取、数据攻击、恶意篡改和过度采集。具体而言,首先,数据侵害变得更为频繁、隐蔽、容易。ChatGPT在使用过程中不仅可以对语料库中的信息进行学习训练,对于使用者输入的信息ChatGPT同样可以进行吸收消化,并纳入到自己的语料库中,如果其他用户采用诱导式发问,ChatGPT很有可能将敏感数据和盘托出,甚至后台技术工作人员可以绕过安全程序从语库中直接提取相关政务数据信息。其次,数据侵害的主体更加多元化。以往的数据窃取多以个人、黑客、不法团体为主,而ChatGPT应用于数字法治政府建设中,外国情报部门有了一个全新的、更加便捷的窃取他国数据的工具,数据安全面临以国家为支撑黑客的巨大挑战。最后,法律规制落后导致数据保护薄弱。ChatGPT应用于数字法治政府建设不同于个人信息的保护,目的限制和知情同意原则的适用有了较大变化,必须考虑到公共部门的独特之处加以法律规制,否则政府数据将时刻处于“裸奔”状态。
(二)
行政权力失信风险
政府公信力是政府权威和治理能力的体现,它存在的制度基础是民众对政府地位合法性的认同,对政府权力行使的认可,对政府所代表利益的认定。树立公信很难,但是毁坏却异常简单,所以ChatGPT在数字法治政府的应用中,稍有不慎就会引发行政权力的失信,具体而言包括两个方面:
技术不完备导致政府失信。虽然ChatGPT发展速度很快,但是仍然有很多的技术瓶颈和漏洞,尤其是在行政公共服务这种比较专业的领域,群众利用数字技术解决问题时可能会发生ChatGPT答非所问、文不对题的尴尬局面。政务服务中的ChatGPT根据公众指令做出的行政行为由于有智能加持和行政公权力的背书会深得公众信任,一旦所作出的行政行为不符合相关规定被撤销或者认定为无效,都会浪费群众时间、消耗群众精力,损害群众权益,引发信赖利益的损害,如果再爆出天价的技术购买费用和糟糕的使用体验,无疑会让公众质疑采购的合法合规性,技术可靠性问题从而演变为有无贪腐问题。同时信息时代的数字鸿沟让不会使用网络的中老年人在面对智能化数字系统时束手无策、寸步难行,上述的这些问题如果没有被及时介入和高效处理最终都会转化为群众情绪对立问题。
行政伦理崩塌导致政府失信。首先,当资本控制下的人工智能逐渐具有“自我”特征,人类自我、机器自我和公权力自我间就会出现认知紊乱、身份焦虑、角色错位和行政伦理的崩塌,加之技术、市场、资本的逐利本质,ChatGPT背后的技术资本很可能拥有比公权力机关更强大的影响力、控制力和支配力,政府大权旁落,公共利益被抛诸脑后,公众被迫浸淫在资本控制下的人工智能所营造的“信息茧房”里,将“政府—相对人”的行政法律关系和平演变为“ChatGPT—公民”的支配性法律关系。其次,如果ChatGPT在政务服务中出现了带有种族歧视、侮辱攻击、色情暴力、违法违规的信息将会让政府蒙羞。同时,价值衡量和利益取舍是复杂且敏感的,预设的程序无法完全做到对弱者的保护救济而极容易发生维权事件,这些政务丑闻会极大地冲击行政伦理。最后,一旦ChatGPT的应用造成政务丑闻出现,政府很可能会以ChatGPT运行有误为由推卸责任,导致追责链条的断裂。
(三)
数据合法合规风险
当前我国的数据合规是建立在以互联网安全法为代表的网络安全体系,以数据安全法为核心的数据安全体系,以个人信息保护法为基础的个人信息保护体系之上,三者共同构建了我国的数据合规法律体系。ChatGPT数据来源的合法性、知识产权的合规性尚不明确,其应用在数字法治政府建设中的法律后果也不得而知,将其应用在政府行政立法中所产生的法律漏洞如何处理也没有明确的方法。论证抑或是创制ChatGPT数据的合法合规性无疑是其适用于数字法治政府建设中的理论基础和前提。
首先,数据合法合规性存疑。以现在的理论基础和技术手段的发展来看,政务数据的利用和合规机制之间所存在的鸿沟暂时还无法消弭。ChatGPT的预先学习训练原理会使其接受亿万量级别的信息数据投喂,大量非公开、涉密涉私、受版权保护甚至非法的内容都有可能成为ChatGPT的学习对象,将他人的数据信息、视频图片、编程代码、通过所谓的“训练学习”复制粘贴到自己的语料库中,并在此基础上进行拼接、修改,其本质上是一种“高科技剽窃”,毫无疑问侵犯了他人的复制权、署名权、作品完整权。本应以依法行政为标杆的政府却借助了违法技术或违法信息作出相应的行政行为,必然使行政行为的合法性存在很大的疑问。
其次,ChatGPT在法律制定和法律适用过程中也极易引发法律漏洞风险。根据指令完成相应的文字编辑工作是ChatGPT的强项,所以ChatGPT在行政立法工作中大有可为,既可以输入特定信息用ChatGPT直接生成法律条文,又可以让其帮助进行资料数据搜集、效果分析研判、文字语句优化,但同时法律的制定也是一个严肃严谨的工作,如果根据ChatGPT制定的行政法规、部门规章、地方政府规章或者其他规范性法律文件有隐形的漏洞或者有隐藏的缺陷,那么将给社会的运转带来不可估量的巨大损失,一方面不法分子会利用法律漏洞“合法”地完成不法行为,另一方面频繁修法也必然“伤害”法的稳定性和安定性,影响法的权威。
四、法律规制
(一)
专门立法的必要性及立法层级选择
对以ChatGPT为代表的生成式人工智能进行法律规制是学界的共识,尤其是在政府治理过程中,它所具有的敏感性、风险性更是对法律规范和法律原则有着迫切的需求,但是提供何种层级的规范保障,保障约束力度如何,保障内容的广度和深度如何都是尚待讨论的问题。
有学者认为生成式人工智能可能导致的风险复杂多样,当前规范由于适用场景的局限或者相关规范散见于各种法律文件当中由此导致了对于生成式人工智能的治理目标、治理机制、治理尺度的难以统一,且欧盟制定了欧盟人工智能法案,美国制定了《人工智能权利法案蓝图》,为了不落后于世界潮流,所以对生成式人工智能进行风险源头治理并形成综合立法很有必要;而另一些学者认为,ChatGPT背后的诸多法律风险与当前社会现存的风险本质上并无差异,有些风险属于恶意利用,对现有的法律条款进行解释就能解决,而有些属于技术漏洞,通过技术修补以及加强监管就能避免,所以对于数字政府中ChatGPT法律风险的回应没有必要采用全国人大及其常委会进行专门立法的模式,否则规制不当很有可能会将新技术扼杀在摇篮之中。
笔者认为,在当下新技术发展路径不清、晦暗不明、尚处于萌芽状态的情形下,应该审慎立法。法律的级别更高、刚性更强、稳定性也更强,在新技术理念尚不成熟的背景之下,贸然立法,其一,很可能使立法者所认为的对人工智能的保障实际上是一种限制,造成阻碍技术进步的后果;其二,技术突飞猛进,变化日新月异,法律很有可能落后迟滞需要修改,频繁的修订不利于法的权威性、安定性和稳定性;其三,对现有规范进行法律解释或延伸适用完全可以解决当下所面临的问题,当前规制仍应以部门法规制为主。但不可否认的是加强各个法律部门的单独立法,待到技术成熟稳定后适时由全国人大及其常委会进行专项立法是生成式人工智能发展的必经之路。
(二)
行政法律规制
1.政府政策层面的风险防控
政府应该对ChatGPT在数字法治政府应用中所发生的各种风险采取有效措施、承担行政责任。首先,在ChatGPT引入数字法治政府的事前阶段,政府应该做到审慎审查的义务,对于所选择的合作企业的资质信誉进行考察,对其技术储备进行检查,对其管理服务进行摸底排查,不断进行风险评估、妥善签订技术协议、做好各种风险出现后的应急预案,并加强政府工作人员的技术教学和培训工作。其次,ChatGPT在数字法治政府运行的过程中,政府应该做好风险防控义务,做到风险的及时发现甄别、及时介入干预、及时化解处理。同时还要强化风险交流和协同机制,消除部门与部门之间的信息隔阂,做到一个部门发现风险,其他部门有效提前预防。甚至可以鼓励公众参与,对办理业务时发现ChatGPT技术风险并及时上报的群众给予奖励。最后,在应用ChatGPT作出行政行为后对其结果进行合法性和合理性的复核也是整个链条的重要一环,不同于半人工智能在交通违法领域的抓拍技术需要执法人员进行人工审核,利用ChatGPT作出的行政行为是否立即成立并生效、如何保证审核复核和办事效率之间的价值平衡相关部门也必须作出制度性的安排。
2.政府规章层面的风险规制
2022年3月实施的《互联网信息服务算法推荐管理规定》和2023年4月国家网信办发布的《生成式人工智能服务管理办法(征求意见稿)》规定:服务提供者违反本规定由网信部门和电信、公安、市场监管等有关部门依据职责给予警告、通报批评,责令限期改正,拒不改正或者情节严重的,责令暂停信息更新,责令暂停或者终止其利用生成式人工智能提供服务,并处一万元以上十万元以下罚款。构成违反治安管理行为的,依法给予治安管理处罚。2023年1月实施的《互联网信息服务深度合成管理规定》规定:深度合成服务提供者和技术支持者违反本规定造成严重后果的,依法从重处罚,构成违反治安管理行为的,由公安机关依法给予治安管理处罚。这些规范性法律文件构成了当前我国人工智能发展的基本法律架构,对相关主体的法律责任和处罚权的归属进行了明确的规定。但笔者认为网络数字行业盈利规模大,利润高,上限仅十万元的罚款无法真正起到威慑作用,难以发挥其应有的功能,有必要提高罚款的限额。其次,在处罚方式上有必要采取事前警告、梯次加重的规制方法,否则无法体现行政处罚法处罚和教育相结合的原则。
(三)
刑事法律规制
1.行为主体资格的区分
犯罪分子利用“半人工智能”进行违法犯罪活动,由于“半人工智能”仅提供辅助作用,其本质上是犯罪分子的作案工具。而现阶段的生成式人工智能虽然自主化、智能化程度大幅提高,但也不具备自我控制和辨别能力,仍然需要人给它下达指令,所以其既不具备刑事责任的主体资格,也不具备教唆犯、帮助犯的主体资格,我国的《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理办法(征求意见稿)》等诸多相关法律规范都在法律责任一章明确规定,相关主体构成犯罪的,依法追究刑事责任。但此处的刑事责任是针对服务提供者和技术滥用者的刑事责任,而不包括生成式人工智能本体的刑事责任,以现行的理论基础也无法对人工智能这一“虚拟人物”进行刑事审判和刑罚的执行。
2.刑法的约束力度
ChatGPT应用于数字法治政府建设中,刑法一方面对技术服务提供者应保持谦抑性,如果单纯因为技术漏洞、技术风险而对公司法人、法定代表人、技术人员苛以刑责,无疑会使技术人员和公司面临很大的压力。刑法一味强行介入与严格的苛责并不是对技术监管的唯一方式和最佳手段,浪费国家司法资源的同时又限制了技术的进步与发展。另一方面,对于故意利用技术进行诸如网络诈骗、敲诈勒索、侵犯公民个人信息和国家信息犯罪活动的技术服务提供者和第三人,此时刑法应表现出其刚毅性,给予这些不法分子以严厉打击,因为利用政务服务中的ChatGPT技术进行犯罪破坏力大、影响范围广,当行政处罚无法进行有效规制的时候,刑法必须及时且强有力地介入,打击犯罪的同时,有效保护萌芽状态技术的进一步发展。
(四)
民事责任
1.责任归属方式的界定
公民利用ChatGPT技术进行民事活动是公民—技术公司两方主体,民事责任清晰且易于划分。ChatGPT应用于数字法治政府中对公众产生的诸如:信息泄露、行政歧视、人格侮辱、行政行为违法而造成的损失、行政信息失真而导致的被骗,这些问题出现时的赔偿补偿问题是政府——技术公司——公民三方法律主体。这些损失要么由政府或技术企业独自承担,要么由政府先行承担再向技术服务提供公司进行追偿,抑或是公民可以要求公司或者政府先行赔偿补偿,至于最后的责任归属再由政府与企业进行协商。笔者认为,公民应该直接向政府进行索赔,政府也应该先行赔偿,至于是否向技术企业追偿应该看技术服务提供者有无故意或重大过失导致的技术缺陷存在,如果没有故意或重大过失,原则上不能追偿,即使追偿链条也不宜太长。第一,企业ChatGPT技术内化为行政服务的同时,技术则随之转化为政府的“触手”,即民事活动转化为行政行为,这种转化使其具有了更多的内涵但也无形之中转移了企业自身的责任,这种责任属于公共责任,实际上企业无力独自承担这种责任,唯有政府才可以、也必须肩负起这种责任。第二,政府承担起ChatGPT在政务服务中的风险是政府作为和担当的表现,毫无疑问会提高政府公信力,提升政府权威。
2.责任承担方式
基于侵权法一般原理,生成式人工智能服务提供者对生成的侵权内容承担过错责任,即对侵权内容生成的过错和对侵权内容移除的过错承担责任。但ChatGPT应用于数字法治政府,如果行政机关是以实现行政管理或者公共服务为目标,才与技术企业协商订立的具有行政法上权利义务为的内容协议,那么该协议具备行政协议的一般属性,不能简单地以民事合同的责任承担方式进行规制,此时行政机关可以凭借在行政合同中所享有的较相对人优先的权利即行政优益权,依法单方面变更和解除合同,依法履行对合同的指挥权、监督权和制裁权。如果双方签订的是平等主体之间的民事合同,对故意或者有重大过失的技术企业,在责任承担方式上,政府有权依照技术服务协议或委托开发合同让企业承担排除技术妨碍、消除技术危险、恢复技术原状的要求;有权要求技术企业赔偿公众损失、消除恶劣影响、向公众赔礼道歉的请求;政府也可以选择继续履行合同或者基于对方的重大过错而单方解除合同,以此达到保护公众权益、惩戒技术滥用的目的。
结语
数字化科技浪潮正以前所未有的广度、深度和高度席卷整个世界,政府治理领域毫无疑问也不可避免,ChatGPT应用于数字法治政府到底是潘多拉魔盒还是丰饶之角尚未可知,但如果仅因其应用可能会引发风险就进行立法限制不仅会遏制新技术带来的新发展,还会陷入出现一种新兴技术则对应一部法律规范的立法沼泽之中。我们必须充分发挥我国强大的科技实力、深厚的历史文化底蕴、统一的组织统筹保障能力,提前谋划、提前布局、提前预防,牢牢把握数字政府治理领域人工智能建设主动权。我们必须要在防范和化解政务数字化风险中坚持和加强党的全面领导,在促进和实现数据合法合规中推进全面依法治国,在创建和营造智能化生态政务服务系统中实现依法行政,在保证人的主体地位和社会发展的终极目的中构建和谐社会,努力打造一个符合中国实际、适应中国国情、具有中国特色的智能化政府治理体系、政务服务体系。(原创 上海市法学会)