警惕网络谣言智能化
来源:学习时报 更新时间:2023-05-10
   GPT(Generative Pre-trained Transformer)是指在神经网络、深度学习等人工智能技术的推动下,基于变压器的生成式预训练模型。生成式人工智能技术的火爆应用体现在聊天机器人ChatGPT的出现,其典型应用还体现在自动文本生成、语义搜索与判识、智能信息、智能图像生成等方面。人工智能技术的迅速演进,不断重塑着人们的思维与认知。传统的产业形态面临变革,网络传播时代的谣言得益于自媒体的发达,借助微博、微信公众平台、短视频APP等新媒体以快速度、多元化渠道迅速传播;智能传播时代,技术带来传播生态的变革。GPT类技术可以生成高质量文本内容、生成图画、进行文学创作、多模态数据处理以及信息交互展示,为人类带来了前所未有的超语言、跨媒介、多模态内容生成的体验。但是,GPT类技术如果被滥用,可以用来制造足以以假乱真的文字,以及对图片、声音、音视频等话语类型进行深度伪造与合成,那么真实信息将会被歪曲,网络谣言则满天飞。如果说ChatGPT出现之前网络谣言还有较高辨识度,那么ChatGPT出现之后网络谣言的迷惑性更强,真假难辨,谣言鉴别更加困难。
生成式人工智能下网络谣言生产和传播的智能化
从技术角度看,基于生成式人工智能技术的网络谣言从生产到传播都表现出前所未有的智能化,这主要表现在以下几方面。
网络谣言生产的智能化。生成式人工智能技术的优势之一在于,生成式AI可以利用各种机器学习方法从数据中学习对象的特征,形成全新、原创的新闻、文章、报告等文本,快速而高效。因此,人工智能通过训练和深度学习技术可以模仿新闻和社交媒体文本的风格制作虚假信息,不仅普通无法辨识,平台过滤机制也较难筛查。
深度伪造技术让网络谣言以假乱真。更具有挑战性的是,生成式人工智能技术深度伪造功能不仅可以结合自动化图像识别、机器深度学习与人工智能技术,还可以在生成虚拟图像的过程中借由合成图像生成器和判别合成图像的判别器之间的博弈,形成无限逼近真实的图片、音视频来配合谣言文本,从听觉、视觉、动作等多感官认知来表达谣言内容,逼真的画质为大众打造了一个身临其境的幻觉世界,并以幻为真。多模态化下网络谣言的逼真性、场景化在让受众体验沉浸式超感的同时,也会催化谣言的传播和裂变速度,严重污染网络信息环境。生成式人工智能技术多模态话语生产能力让网络谣言如虎添翼,实现从工业时代到数字时代的穿越,颠覆了公众对“有图就有真相”的常规认识,现实情况是有视频也未必有真相,智能化的网络谣言可以极为自信地、一本正经地传播网络谣言。
网络谣言传播的智能化。生成式人工智能技术对于网络谣言扩散起着推波助澜的作用。一方面,在线社交网络信息传播中,电子人型网络水军(社交机器人)被用来发布和传播特定的信息,成为谣言信息的超级传播者。社交机器人通过社交网站的深度学习技术,进行发帖、点赞、评论、转载、搜索等行为,实现信息的广泛传播。这些网络水军还可以实现“人机协同”,让谣言井喷式灌向网民。另一方面,生成式人工智能技术下网络谣言在传播过程中还可以植入不同群体的偏见和意图,不断修正以达到更好的传播效果。如此一来,面向特定个人、群体或机构的定制版谣言不仅更加“精准”与“精细”,而且在算法推荐的加持下,其可在多个平台自动推送,这无疑让不实信息感染链条的传播能力更强大,彻底打破时空限制,形成超级传播。
    多措并举防止网络谣言传播
以技术反制技术。利用人工智能技术识别谣言的传播模式和内容特征。智能化的网络谣言离不开生成式人工智能技术的驱动,故而破解网络谣言的困境应当从技术源头寻找突破口。面对高仿版的谣言文本,辨识难度越来越大,但是,识别谣言并非无计可施。一方面,挖掘网络谣言的传播模式。任何网络谣言的传播都会有其传播模式,都有发布信源、话题标签、推广策略、链接引流等,只要接收者和监管者从这几方面入手,利用人工智能技术进行行为数据的分析和挖掘就可以发现这些模式化特征。另一方面,通过谣言文本的内容特征和话语特征找到谣言的主题模型。任何网络谣言都可归入某一常见的主题模型,运用主题模型来快速定位相似的可疑内容,对谣言进行鉴别、认定。
借助算法加强对智能化网络谣言的事实核查。以ChatGPT为例,它虽然能写出以假乱真的不实信息,但其在事实核查方面并不严谨。技术高度依赖的语料库和数据本身就是鱼龙混杂的网络信息,即使人机交互的真实性模拟能力越来越强,但在内容真实性和准确性方面的偏差却无法有效解决。不仅如此,ChatGPT生产的内容还有事实性错误、知识盲区等诸多“硬伤”,因此,通过相似度对比,人们可以发现拼接而成的虚假信息。首先,在谣言的初步流通环节,我们可以通过谣言粉碎机等新型算法高智能化地扫描标题、导语、正文等信源,以大数据和仿人工神经的情绪模拟来推测该信源可能对公众带来的情绪反应,在谣言生产和初步流通环节对谣言进行拦截与阻断。其次,通过算法对谣言进行识别,比如对诱导类关键词的格外关注或者通过分析词汇和信息源特征来判定文本的可信度、真实性与客观性,有针对性地对疑似谣言进行预警、干预和治理。最后,由平台监测方把关,对人工智能拦截的谣言进行删帖等操作,可以大大减少网络传播过程中谣言的扩散。
全媒体合力打破智能化“信息茧房”。智能传播媒介下,网络谣言可以凭借大数据和算法推荐,深度挖掘用户习惯与偏好,对用户进行精准推送,看似涟漪式的谣言扩散实则让更多的人卷入“信息茧房”,人们的观点越来越趋同,产生出新的偏见。当受众在衡量谣言可信度时,会自然地参考该信息的评论量、转发量和讨论量,如果谣言议题的讨论上升到一定热度、达到一定流量时,从众心理驱动下受众很容易放弃对真相的查证,而自觉加入议题讨论。一是媒体合力,让热度与讨论的圈层不断缩小直至消失。当官方媒体和自媒体口径一致地传播、宣传正确信息,或者都不参与谣言信息的讨论时,谣言失去了传播的生态环境,就会不攻自破乃至销声匿迹。二是信息公开,重建信任环境。谣言从本质上说是对正式信息不足的补充,网络谣言不外如是。智能化的网络谣言并没有突破谣言的传播特点,因此抓住谣言的本质,官方媒体与权威媒体一致公开真实信息,营造透明的信息环境,不仅可以重建信任环境,还可以消除谣言滋生的温床。
坚守法律底线。智能传播时代的网络空间不是法外之地,任何个人与组织必须坚守法律底线,不传播虚假信息,不造谣不传谣。我国宪法中有关言论自由权利行使的限制是最高等级的法律规定;治安管理处罚法、民法典、刑法这三部法律关于网络谣言的规定是刚性法律规范;网络安全法等专门法律中也有关于网络谣言的准用性规范。可见,刚性法律制裁手段是网络谣言治理的重要防线。此外,科技创新只能有益于人类是科技伦理的底线,因此应加强对生成式人工智能技术法律规制的研究,保障生成式AI的健康发展。总之,无论是技术治理还是法律治理,智能时代治理网络谣言要走法治化道路,民众应该充分认识到,个人行使言论自由时不得滥用权利,不得散布谣言危及他人合法权益、社会公共秩序及国家安全。