法治号 手机版| 站内搜索

网上有害信息举报

类Sora生成式AI对舆论生态的挑战及潜在风险

2024-03-11 16:00:28 来源:法治网舆情中心 -标准+

2月16日凌晨,美国开放人工智能研究中心OpenAI发布首个视频生成模型“Sora”。只需简单文本指令,Sora便能够创造出长达60秒的视频,并且可以展示多视角的镜头切换和丰富的细节。目前,OpenAI已在官网发布了48个由Sora直接生成且未经修改的视频,逼真的场景、流畅的运镜、生动的人物表情,使人难以分辨这些视频是实际拍摄产生的还是由AI技术生成的。

Sora的问世引发全球震动,从之前的ChatGPT到现在的Sora,生成式AI向人们展现了巨大的潜力和创新,在信息检索、聊天对话、内容生成等方面显示出独特的功能,为内容创作领域带来了前所未有的变革,展现出信息传播领域中的广阔前景。不过随之而来的,该技术对舆论生态造成一系列挑战和隐患,也需要引起警惕和重视。

1. 隐形输出价值观增加意识形态冲突风险

生成式AI是基于海量数据和文本基础进行训练而来,这些公共语料库本身质量良莠不一,其数据来源本身可能存在偏见与不公,将直接影响到使用者对客观现实的认知。而且数据训练规则和训练内容、形式都是由算法开发者或数据写入者制定,不可避免携带上其原有的价值观念。比如算法歧视,其表现基于种族、性别、民族等特征的歧视更加隐蔽,OpenAI官网中发布的数个涉人物视频案例中,基本是清一色的白种人虚拟人物主角。可见,类Sora生成式内容可能携带特定的文化倾向和价值观,这些隐形的价值导向输出或进一步加深不同群体之间的矛盾。尤其是作为意识形态的媒介渠道,一旦错误的政治观念、价值偏好等有害导向被嵌入其中,就可被作为政治宣传和舆论操纵的工具,消解主流媒体宣传效果,增加意识形态风险。

2. 缩短传播链条加深舆论复杂程度

在新闻生产阶段,类Sora生成式AI可以利用技术优势对信息进行抓取和综合,按照技术化标准批量生产新闻报道,既可以根据比较简单的脚本,围绕新闻关键词生产新闻内容,归纳总结同类报道,也可以根据新闻单位的不同风格定向改变新闻,围绕既定主题持续不断进行信息内容产出,还能够根据语境对传统信息快速进行翻译、转写等,像Sora此类应用还能贴合目前直播、视频等舆论的视听偏好,即时根据报道关键信息生成短视频和动画,大幅提高新闻报道的生产效率,缩短其生产时间。在信息传播阶段,用户和生成式AI进行直接互动,通过问答、搜索等更简洁方式了解舆情事件的大致脉络,从而令网民有可能在更短时间内获悉事件最新态势,并第一时间获知舆情的进展情况,紧跟最新舆论焦点问题进行讨论,大大减弱了信息传播对平台的依赖程度,但同时也将大幅缩短舆情发酵链条的时间长度,令同一舆情事件中信息内容更加纷繁复杂。

3. 加大意见混同增加舆论极性“偏差”

生成式AI实际加深了用户对于舆情事件的参与程度,使其能够随时参与到对网络事件的意见建构之中,这些意见被生成式AI学习后形成新的“舆情事实”,进而继续扩大传播,导致客观性的事实被夹杂、糅合在主观性的网络表达中,舆论信息的主客观程度更加难以分辨,这可能产生一种“夹叙夹议”式的舆论叙事场景,对于某些分辨能力不强的网民来讲,在这种舆论场中更容易被暗含的舆论观点所左右。由于技术赋值的问题,某些带有鲜明观点和极端偏好的信息,更容易被生成式AI抓取识别和传播,同时,类Sora技术智能增强式工具还能够利用算法和与用户的“交流”实现精准化传播。换言之,极端性表达更容易通过生成式AI关注并得以放大,更容易令情感浓度大的信息获得共振,导致整个舆论场的意见偏差增大,造成不同意见群体的观点割裂,舆论极性增加。

4. 降低造谣成本虚假信息数量或将上升

类Sora生成式人工智能的内容生成,已经涵盖AI成像、AI仿声、图像生成等各种元素,网络虚假信息生成路径更加真假难辨。此类人工智能技术应用一旦大面积推广,其高度自主化特性使得制造虚假新闻、网络谣言等恶意信息的门槛变得更低,普通人只需要使用简单的文字描述就可以生产一段逼真短视频,进而产生大量的虚假“泡沫”舆情事件,甚至成为滋生电信诈骗等违法犯罪行为的“温床”。今年2月,香港警方发布一起数额巨大的AI诈骗案,涉案金额达2亿港元,诈骗分子伪造数个高管的面容声音进行视频会议,除了受害者一人为真人外,其余与会者全部由AI生成。此外,类Sora生成式人工智能也给机器人水军创造了极大空间。未来具备高度自动化和仿生形态的机器人水军,可以更加高效低成本地生产大量逼真视频内容,或成为干扰网络正常秩序的一大因素。而大量虚假信息被AI输出并大肆传播,在虚假信息被识别之前又被传播出去,造成不实信息泛滥的恶劣影响。

结语

面对类Sora生成式人工智能给人类社会带来的巨大挑战和机遇,在充分发挥生成式人工智能的技术优势的前提下,政府部门应对有效规避各类智能技术及风险有所警惕和作为,尤其是其可能带来的舆论生态改变,可能引发网络意识形态安全风险,相关治理的要求也应该更加超前和成熟。

首先,要形成多元共建多方共管的治理格局。一是建立与完善相应法律法规。类Sora生成式人工智能在呈现出更多智慧功能的同时,也不可避免地面临诸如隐私权保护、电信诈骗等违法行为的责任界定,由此带来法律层面的争议需要立法予以规制,立法部门应在兼顾科技发展和规范使用的界限的同时,及时出台行业性规范。二是监管机构应强化对类Sora生成式人工智能领域的监管,进一步规范人工智能内容生成技术的使用,尤其注意防止生成式人工智能成为虚假信息的发源地,要强化对提供人工智能技术的企业、传播平台等监管,形成严格的行业警告和处罚机制。三是强化技术平台的主体责任,要求相关AI企业加强内容审核力度,在生成式内容上必须打上明显的标识,要求其在杜绝虚假信息的产出、流传与扩散方面负有更明确、比重更大的责任。其次,还需加强对社会的人工智能素养教育,及时公布相关的最新技术案例,让公众对类Sora生成式人工智能的运作机制等有基本认知,增强对虚假信息的风险识别与抵制能力。

阅读全文可订阅

《政法舆情》电子产品

详情咨询:010-84772595

来源:法治网舆情中心

作者:王灿

编辑:王媛

新媒体编辑:李静


编辑:靳雪林