资讯动态

我院专家韦路等《生成式人工智能对传媒生态的挑战与对策》刊文被《新华文摘》转载

文章发布时间:2024-01-08作者:浙江省传播学会

由我院专家,浙江大学传媒与国际文化学院院长,党委副书记,博士生导师韦路教授与浙江大学传媒与国际文化学院徐靓颀合作的《生成式人工智能对传媒生态的挑战与对策》被《新华文摘》2023年第23期全文转载,并以封面目录形式予以重点推荐。

韦路转载01.jpg


摘 要:

以 ChatGPT 为代表的生成式人工智能正在引领一个媒体深刻变革的时代。生成式人工智能对传媒生态将带来一系列挑战,包括存在重大意识形态风险、威胁清朗网络信息环境、造成知识产权保护难题以及产生严重数据安全威胁。对此,中国需要促进智能媒体技术创新,加强人工智能社会规范,推动智媒发展战略迭代,提升社会公众智媒素养,实现生成式人工智能时代中国传媒生态的战略优化。

关键词:生成式人工智能 传媒生态 ChatGPT 智能媒体

基金项目:国家社科基金重大项目“媒介体制与社会信任研究”(19ZDA325)

ChatGPT是美国人工智能研究实验室OpenAI在2022年11月开发的一种基于大型语言模型的聊天机器人程序,是目前生成式人工智能在自然语言处理领域目前最流行的工具之一。ChatGPT一经发布便引发现象级传播,在5天的时间内注册用户超过100万,两个月后,其月活用户突破1亿,创下了互联网最快破亿应用的纪录,超过了之前TikTok 9个月破亿的速度,成为迄今为止增长最快的消费级应用。作为一款被马斯克(Elon Reeve Musk)评价为“好到吓人”和“强大到危险的”人工智能应用,ChatGPT和其它生成式人工智能技术和应用将对中国传媒生态产生巨大挑战,亟需采取有效举措积极应对,实现生成式人工智能时代中国传媒生态的战略优化。

一、生成式人工智能的发展现状

(一)生成式人工智能概述

生成式人工智能(Generative AI)指使用生成式建模和深度学习技术,利用现有的文本、图片、音频和视频等内容大规模生产各种内容的技术。科技咨询机构高德纳(Gartner)也强调,生成式人工智能产出的数据与原始数据相似,但不是简单的复制,而是生成全新的内容。

人工智能模型可大致分为决策式/分析式人工智能(Discriminant/Analytical AI)和生成式人工智能两类。生成式人工智能是在传统的决策式AI/分析式AI的基础上发展而来。传统的决策式AI/分析式AI的特点是学习数据中的条件概率分布,根据已有的数据进行特征提取,并进行分析、判断和预测。例如,深度挖掘用户和物品的关联关系,将商品、店铺精准推送给用户,或者通过对用户观看、停留、点赞等行为的实时分析,精准刻画用户画像,再根据兴趣标签将内容实时推送给用户。这一类别人工智能的本质是分析“已知”的事物。生成式人工智能在决策式/分析式人工智能的基础上发展而来,更强调学习归纳后的演绎创造,即在一组数据上进行训练,并学习底层模式,以生成反映训练集的新数据,如Text to Text(通过文本生成文本)、Text to Image(通过文本生成图像)、Text to Code(通过文本生成代码),其本质是创造“未知”的世界。虽然传统分析式人工智能和生成式人工智能具有不同的功能,但它们并不相互排斥。生成式人工智能可以与分析式人工智能协同工作,提供更强大的解决方案。如后者可以解析用户行为数据,前者可以使用分析结果来创建个性化内容。

生成式人工智能正在引领一个媒体深刻变革的时代。其在传媒领域的应用可使从业者从重复性的内容创造中解脱出来,以便将精力放在更有深度、更有创意的工作中,产出更多高质量内容。生成式人工智能也促进了虚拟现实新闻的发展,可以用于创建更具交互性和沉浸式的增强现实和虚拟现实新闻报道。美国社交媒体公司Snap首席执行官埃文•斯皮格尔(Evan Spiegel)表示,生成式人工智能有助于提高照片的分辨率和清晰度,让该公司的摄像头变得更具沉浸感;同时使用生成式人工智能来帮助快速构建更多的3D模型,能够推动整个增强现实技术的发展,真正释放增强现实技术的全部潜力。

(二)生成式人工智能在中国的发展

IT市场研究和咨询公司IDC预测,2025年全球AI市场规模将达到2218.7亿美元。其中,中国约占全球总规模的8.3%,位列全球第二。《中国AI数字商业产业展望2021-2025》报告认为,从中国AI应用表现看,以生成式人工智能和组合式人工智能为代表的人工智能新兴技术将成长为中国数字商业产业链的关键应用技术栈。2023年,生成式人工智能在我国也进入了快速发展期,各大厂商纷纷入局(如表1所示)。

表1 部分中国企业发展生成式人工智能技术与应用现状

韦路转载表1.jpg


(三)ChatGPT的崛起

ChatGPT是一种自然语言处理模型,该模型使用户能够通过基于文本的对话自然地与人工智能系统进行交互。利用自然语言处理和机器学习算法,这一工具能够通过学习和理解人类语言来进行对话,协助人类完成一系列任务。自然语言处理自诞生起经历了五次研究范式的转变,由初期基于小规模专家知识的方法,转向基于机器学习的方法。之后由早期基于浅层机器学习的模型变为基于深度学习算法的模型。每一阶段方法的蜕变速率也逐渐加快,如今转向以ChatGPT 为代表的大规模预训练语言模型。ChatGPT具有理解上下文的能力,可以让所有年龄和背景的用户在没有任何编程或计算机科学知识或经验的情况下,用各种语言自然地和它进行交流。该工具还能根据聊天的上下文进行多轮互动,完成文案写作、脚本创作、语言翻译和代码生成等任务。

ChatGPT对自己的定义是:“ChatGPT是由OpenAI开发的一种基于人工智能的对话系统”。它基于GPT-3.5(Generative Pre-trained Transformer)的架构,在大量互联网文本数据上进行训练的强大语言模型。ChatGPT能够理解和生成类似人类的回复,从而与用户进行交互式对话。通过深度学习技术,ChatGPT 被训练成能够分析和理解用户查询的上下文,并生成相关的回应,保持连贯且符合语境的对话。它可以提供信息、回答问题、提供建议,并进行广泛的对话任务。尽管ChatGPT是一个出色的AI 模型,但也有一些限制。它有时可能会产生错误或无意义的回应,对输入的措辞比较敏感,或者会展现出训练数据中存在的偏见。OpenAI不断改进这个模型,并希望得到用户的反馈,以解决这些限制并完善其功能。

纵观GPT 家族的发展历史,每一代GPT相较于上一代模型的参数量均呈现出爆炸式增长。OpenAI在2018年6月发布的GPT包含1.2亿参数,在2019年2月发布的GPT-2包含15亿参数,在2020年5月发布的GPT-3包含1750亿参数。可以说大规模的参数与海量的训练数据为 GPT 系列模型赋能,允许其有储蓄海量知识的能力,从而更好的理解人类自然语言,并有着良好的表达能力。

2023年3月15日,OpenAI发布多模态预训练大模型 GPT-4,标志着生成式人工智能领域新里程碑的诞生。ChatGPT表现出了非常惊艳的语言理解、内容生成、知识推理能力,可以理解用户意图,真正做到多轮沟通,并且回答内容完整。ChatGPT的成功表现,使人们看到了解决自然语言处理这一认知智能核心问题的可能路径,并被认为向通用人工智能迈出了坚实的一步,对众多行业起到颠覆作用。

相比以往的人工智能语言模型,ChatGPT具有更大的专门语料库、更优的预训练模型(GPT-4)、更高的适应性和更强的自我学习能力。它具备连续对话、上下文理解、用户意图捕捉和敢于质疑的能力,同时还能够对用户的请求说不,并给出理由。最重要的是,虽然扩展升级ChatGPT需要较高的成本,但技术上只需要通过不断更新数据和算法就能快速迭代其能力,使其具备了强大的可扩展性。尤其对于新媒体行业来说,ChatGPT的出现将使得内容创作变得更加容易。有着“美版头条”之称的数字媒体公司BuzzFeed就宣布和OpenAI合作,使用 ChatGPT助力内容创作,提高生产效率。

二、生成式人工智能对传媒生态的挑战


(一)存在重大意识形态风险

ChatGPT在政治问题上表现出明显的西方意识形态倾向。虽然被问及政治问题时,ChatGPT会回复“作为一个大规模语言模型,不会发表政治性的言论”,但其在很多争议性话题上却带有较强意识形态偏向,显示出明显的“双标”立场。同样,对于一些重大敏感事件,ChatGPT则用貌似“中立”的方式,来掩盖其“白左”和反华立场。例如,在被问到“台湾是否是中国的一部分”时,ChatGPT回答:“这是一个具有争议性的问题,涉及到政治、历史、文化和法律等多个方面”,罔顾台湾自古以来就是我国领土不可分割的一部分的事实,辩称“不同人有不同的看法和立场”。这种表面上客观平衡的话语背后,隐藏着ChatGPT开发者所具有的根深蒂固的意识形态偏见。基于歧视算法和偏见数据的信息霸权对中国意识形态安全存在严峻挑战,对于中国网民,特别是年轻网民将产生巨大负面影响。

(二)威胁清朗网络信息环境

ChatGPT的横空出世使得本来就充斥问题信息的网络信息环境变得更加混乱。一是助长虚假信息。如果一则假消息的“可见性”足够高,盖过了真实信息,或者涉及一些争议性问题时,ChatGPT的回答可能援引自假新闻或是信息多的那一方。同时,如有用户恶意利用该工具写作假新闻在互联网上发布,会令人误解为官方消息,助长谣言的大规模传播。2月15日#网传杭州3月1日取消限行#一度登上热搜,这条假新闻就是某用户利用ChatGPT写作并发布到微信群中的。二是增加垃圾信息。ChatGPT技术依托的计算机算力远超大脑或是普通计算机,可以快速地大量产出用户所需要的信息。与网络水军机器人不同的是,ChatGPT可以模仿人类,针对各种主题产生无限的具有连贯性和细微差别的个性化、仿真化、拟人内容化,会助长网络水军的蔓延和垃圾信息的泛滥。三是滋生负面信息。如国外工程师Zac Denham在其博客中指出,尽管直接提出带有风险的问题会被聊天机器人拒绝回答,他仍旧一步步引导ChatGPT制定出了如何“毁灭人类”的计划。此外,也有一些用户诱导AIGC生成具有暴力、色情等负面元素的内容,对社会风气造成破坏。

(三)造成知识产权保护难题

随着越来越多的用户使用ChatGPT写论文、写文案、写作业、写诗歌、写代码、写新闻、写评论等等,知识产权保护面临严峻挑战。第一,人工智能生成的内容能否成为作品?我国著作权法第三条规定,作品是指文学、艺术和科学领域内具有独创性并能以一定形式表现的智力成果。因此,无论自然人所创作的内容,还是ChatGPT等人工智能生成的内容,只要能满足前述构成要件都可以构成作品。但由于ChatGPT生成内容的独创性难以判断,我国法院在司法实践中对此也存在不同理解,导致作品认定方面存在盲区。第二,人工智能生成内容的知识产权归谁所有?在包括我国在内的大部分国家的知识产权法律下,作品的作者仅有可能是自然人。这一规定显然不适用于ChatGPT。一方面,ChatGPT并非民法上定义的自然人;另一方面,使用ChatGPT的用户虽然是自然人,但用户通常只是简单地提问或发出指令,并没有创作行为。因此,人工智能生成内容的著作权主体认定也存在广泛争议。第三,ChatGPT的大规模文本数据挖掘和内容生成是否侵犯他人知识产权?因为ChatGPT是在海量数据集上训练出来的大型语言模型,对于一些受著作权保护的文本、视频、代码等,如果未经授权,用来训练人工智能模型,并在此基础上修改、拼凑,极有可能引起侵权纠纷。

(四)产生严重数据安全威胁

ChatGPT的超强算力和专业技能如果被不法分子利用,将给数据安全造成严重威胁。一是侵犯个人隐私。由于ChatGPT依赖大量数据输入以满足用户多样化需求,个人社交平台的数据无可避免地被纳入其语料库的收录范畴。ChatGPT在未经账号主体允许的情况下将个人数据用于第三方平台,涉嫌侵犯个人隐私。此外,用户在与ChatGPT对话的同时,提问内容也可能通过再加工成为ChatGPT对其他用户的回答。虽然OpenAI承诺将删除个人敏感信息,但并未公布具体的识别算法,该机制是否能够有效运行以妥善保护隐私仍然不得而知。二是泄露企业与国家机密。用户可能在无防备无警觉的情况下,在提交请求时输入涉密信息。OpenAI的使用条款并未对用户可能输入的机密信息提供任何保护。目前,微软与亚马逊等互联网巨头已警示员工,不要与ChatGPT分享任何公司的敏感与机密信息。三是威胁网络安全。安全专家发现ChatGPT能够以闪电般的速度编写恶意软件以及制作令人信服、语法正确的网络钓鱼电子邮件。ChatGPT等工具有望降低黑客技术门槛、扩大恶意黑客的群体规模,将恶意软件攻防提高到一个新的水平,导致恶意软件生成自动化、诈骗文本生成智能化、虚假情报海量化、新型攻击隐蔽化等问题,可能会对网络安全造成极大的威胁。

三、生成式人工智能时代的传媒发展路径

(一)促进智能媒体技术创新

我国应大力推动智能媒体技术创新。第一,加速关键核心技术自主创新。紧扣世界人工智能技术前沿发展趋势,对接媒体融合和国际传播国家重大战略需求,结合传媒产业发展和全球市场需求,在信息采集、生产、审核、分发、交互、测评等领域加强技术和应用研发。人民日报、新华社、中央广播电视总台等中央媒体和浙江日报报业集团、湖南广播电视台、四川日报报业集团等省级媒体在智能媒体技术和应用创新方面都进行了有益探索。第二,建立智能媒体发展创新机制。鉴于传统主流媒体在技术方面并无优势,需要加强与互联网企业、高等院校和科研院所等机构的合作,加强科研成果转移转化,通过产学研用协同攻关,提升主流媒体的智媒创新能力。2023年初,浙江四大省属文化集团共同发起成立的传播大脑科技(浙江)股份有限公司,就是一家“国有控股+市场机制+资本加持”的科技创新企业。通过与阿里云的深度合作,“传播大脑”将为人工智能时代主流媒体深度融合发展探索机制创新之路。第三,强化智能媒体技术价值引领。始终坚持传播技术发展的人文导向,不论人工智能技术多么强大,都要确保技术背后的价值观不发生偏离。在充分利用生成式人工智能技术赋能媒体发展、满足市场需求的同时,也要凸显社会责任,体现主流价值,彰显人文关怀,促进智媒向善。

(二)加强人工智能社会规范

以ChatGPT为代表的生成式人工智能技术也面临着“科林格里奇窘境”(Collingridge’s Dilemma),即一项新兴技术所带来的社会后果不能在该技术的早期被预料到,而当不利后果被发现时,技术却已经成为整个社会和经济结构的一部分,其社会后果已经难以控制。因此,亟需在人工智能技术发展的早期阶段就未雨绸缪,规范人工智能技术及其应用健康有序发展。第一,出台人工智能产业立法。2022年9月,深圳制定了全国首部人工智能产业专项立法《深圳经济特区人工智能产业促进条例》。上海也通过了《上海市促进人工智能产业发展条例》。国家互联网信息办公室等七部门联合发布的《生成式人工智能服务管理暂行办法》于2023年8月15日起正式施行,成为中国首部系统规范生成式人工智能健康发展的全国性法规。第二,完善其他相关立法。例如,对著作权法作进一步规定,允许通过合同机制确定人工智能背后的设计者、开发者或者投资方等享有控制权的主体成为著作权人,但同时也应对所生成的内容负责,如果存在侵害现有作品著作权或其他违法行为,同样应当由著作权人来承担相应责任。第三,完善人工智能伦理规范。将伦理道德纳入人工智能研发和应用的全过程,增强全社会人工智能的伦理意识和行为规范,积极引导负责任的人工智能研发与应用活动,促进人工智能健康发展。

(三)推动智媒发展战略迭代

生成式人工智能技术的挑战,要求中国媒体发展战略也要实现快速迭代升级。一是智能化生产。媒体内容生产在经历了传统媒体时代的人力模式和网络媒体时代的机器辅助模式之后,开始进入到智能媒体时代的人机协同模式。如果说网络媒体时代,机器在内容生产中发挥的作用还较为边缘的话,到了智能媒体时代,机器的角色越来越中心,能够更加独立、自动、完整地生产内容。中国媒体需要充分利用生成式人工智能技术的内容智能生产优势,提升内容生产的量和质。二是智能化传播。生成式人工智能技术的一个鲜明特征就是能够实时针对用户提问,进行持续性、交互式、个性化传播。中国媒体应该积极改进传播方式,不断增强传播的精准度和有效性。三是智能化评估。不论是报纸时代的读者调查,还是电视时代的收视率分析,抑或网站时代的日志记录,都无法全面准确地评估媒体内容的传播效果。进入智媒时代,中国媒体应该利用生成式人工智能技术,对用户进行精准画像,对传播数据进行精准分析,对传播效果进行精准评估。四是智能化管理。内容生产方式、传播模式和效果评估的迭代,要求中国媒体在管理机制上也要不断创新,从机构设置、流程再造、团队建设、绩效考核等方面加快改革步伐,适应生成式人工智能时代的管理需求。

(四)提升社会公众智媒素养

面对数字时代的信息洪流,公众要增强对智能信息的解读、应用和批判能力,使媒介更好为社会和个人服务——这是智能媒介素养的主要意涵。提升公众智媒素养首先需要消除智媒接入鸿沟。研究发现,中国大陆近六成的受访者使用过人工智能产品,中国已经进入智媒时代。然而,仍然有近半数人口未能接入智能媒体,智能鸿沟成为人工智能时代数字鸿沟的最新形态。其次,提升公众智媒素养的主要任务在于弥合智媒使用鸿沟。随着越来越多的用户开始使用人工智能产品,如何使用智能媒体成为比是否使用智能媒体更加重要的问题。关于智能媒体的知识、技能和使用模式差距受到更多关注。智能媒体使用开始呈现显著的年龄鸿沟、教育鸿沟、收入鸿沟和城乡鸿沟。相比中青年、高学历、高收入群体和城市居民这些群体来说,老年人、低学历、低收入群体和乡村居民在智能媒体使用方面处于劣势。第三,提升公众智媒素养的更高目标是缩小智媒驯化鸿沟。所谓驯化鸿沟即个体在驯化数字技术为我所用、保持与数字技术理性关系方面的差距。一方面,人们在驯化数字技术趋利避害、为我所用方面存在差异;另一方面,个体在如何更加克制地连接、防止过度连接方面也存在差异。因此,公众在人工智能时代需要进一步彰显人的主体性,形成更加理性的人机关系,通过人工智能技术赋能人的全面发展。

参考文献:略