上海广电研究杂志官网  

征稿要求:

1.论文符合本刊宗旨与学术规范,具备较新的学术观点,使用较新的文献资料。评论性文章观点鲜明,语言生动,分析深刻,能够及时反映、探讨学界及业界的热点问题。 

2.所投稿件为作者本人 撰写并未曾在其他刊物公开发表过。    

3.稿件一律用电子邮件附件形式发送到电子邮箱:guangdianyanjiu@yeah.net    

4.附件请用Word文件,并注明文件名及作者名。   

5.稿件篇幅:论文原则上以6000字以内为宜;评论文章控制在1500字左右。    

6.稿件应注明作者的真实姓名、职称(职务或学位)及工作单位、详细通讯地址及邮编、联系电话(手机最佳)和电子邮箱。

 

来稿的处理流程是什么?

1.请勿一稿多投,也不要重复投稿。

2.收到稿件后,本刊编辑部认为符合要求或基本符合要求但仍需修改的,会主动与作者联系。投稿后30个工作日内未收到本编辑部处理意见的,可自行对稿件另作处理。

3.因经费有限,编辑部对特约稿件支付超标稿酬,一般稿件只能略付薄酬。  

 

文章格式有什么讲究?

1.标题。主题用1号黑体;副题用3号宋体。居中。    

2.作者姓名,用四号楷体,右对齐。

3.文本提要,小四号楷体,200字以内;关键词,小四号楷体,3-5个。    

4.正文,用5号宋体。1级小标题用小4号幼圆体,居中;2级小标题用5号黑体,左对齐并缩进两个汉字;3级小标题用5号楷体,左对齐并缩进两个汉字。

5.鉴于本刊区别于其他学刊图文特色 建议作者供稿时提供文章相关图片及作者照片,并确保图像精度。

6.文末标出作者单位及职称(或学位、职务),若有多个作者,用分号隔开;

7.注释一律采用尾注形式。注释二字,用小5号黑体。注释条目各项顺序依次为:作者姓名、冒号、《文章标题》、逗号、《刊名》某年第几期(《书名》第几页,某年版),用小5号楷体。

8.为节约篇幅,一般采用注释形式的文章,不再单独一页设立参考文献。

生成式人工智能对传媒新生态的影响 ——以ChatGPT的运用为例

 

引言

  习近平总书记指出:以信息技术、人工智能为代表的新兴科技快速发展,大大拓展了时间、空间和人们认知范围,人类正在进入一个人机物三元融合的万物智能互联时代。在数字化时代背景下,生成式人工智能技术正在以前所未有的速度重塑传媒生态环境,成为传媒行业创新发展的重要推动力量。国家互联网信息办公室、国家发展和改革委员会等多部门陆续出台了指导性及支持性政策文件,加速了生成式人工智能技术的发展和应用。与此同时,传媒业各个领域相继与生成式人工智能建立起链接,正式迈入“AI+传媒的战略转型阶段,引发了新闻报道、内容创作、媒体编辑、受众互动等多环节的创新升级。

  20247月推出的新模型GPT-4o在视觉和音频理解方面更是取得了重大突破,为传媒业带来更为强劲的变革动力。本文将以ChatGPT的应用为切入点,以此窥探生成式人工智能对传媒生态的影响与重构。

 

一、 ChatGPT如何赋能传媒生态

  (一)高效率内容生产:海量输入+逻辑输出

  信息服务是传媒业的主体业务,在信息资源生产与消费空前频繁的背景下,高效获取信息是用户的一大需求。ChatGPT通过自动化内容生产极大提高了传媒业的内容生产效率。

  一方面,基于深度学习等技术,ChatGPT能够处理海量数据并从中学习和吸收信息,提取出复杂的语言模式,然后根据需求自动生成逻辑连贯的多模态内容,满足传媒从业者在短时间内获取信息、完成内容生产的需求。[1]与传统内容生产方式相比,ChatGPT拥有强大的数据挖掘分析能力,其知识库包括国内外新闻报道、社交媒体帖子、博客文章等,信息来源广泛且视角多样。通过对这些海量数据的分析,ChatGPT能够快速识别出重要的传播趋势和热点话题,为内容创作者提供有效参考,进一步提升内容生产速度并确保具体内容的全面性和内容形式的多样性。另一方面,ChatGPT实现了从提供信息呈现答案的关键转变。ChatGPT内容生产不仅仅是对问题的简单答复,还能够基于对规模化数据的训练和学习,生成融合性知识内容,比如创建详尽的项目规划、编写复杂代码,甚至是撰写深度分析文章。在此基础上,更具深度和专业性的知识内容生产也成为可能。

  (二)持续性兴趣捕捉:类人化体验+个性化服务

  传媒业作为一种注意力产业,其市场价值就在于能否有效吸引受众的眼球。ChatGPT的一个重要演进趋势就是不断对人类的思维方式和情感特点进行经验学习和技术性模仿,不断向人类靠拢。ChatGPT能够越来越精准地把握用户需求和行为动向,其生成的内容也能够对用户持续产生吸引力。由此可见,ChatGPT能够通过类人化体验和个性化服务来实现对受众兴趣的持续捕捉。

  具体而言,在人机对话过程中,ChatGPT能够实现类人化交流。它不仅能够模拟人类语言模式进行自然流畅的对话,给予用户类似与真人交流的体验感,还能生成贴近人类语言习惯和价值偏好的内容,理解用户的情感状态并做出相应的回应,为用户持续提供情感反馈。这种沉浸式的情绪价值将驱使用户持续投入自己的注意力资源,从而产生更高的用户参与度。另一方面,ChatGPT通过利用历史对话和用户偏好信息精准识别用户需求、捕捉用户兴趣点,从而生成个性化的内容推荐,以此来提高用户黏性和关注度。此外,ChatGPT所具备的动态调整和实时反馈能力也能在互动过程中不断调整和优化内容的生成,紧抓用户眼球的同时不断刺激新鲜感的产生。

  (三)超时空人机互动:即时连接+信息整合

  网络信息技术的发展塑造了新的传播关系和时空观念。互联网时代下的传播模式是去中心化、去历史化的,其显著特点就是即时分散。传统媒介所建立起来的固定时空标尺逐渐被颠覆,定时定点的电视新闻、报刊杂志等逐渐被泛在式生产信息的网络社交媒体所取代。ChatGPT的广泛应用意味着数字化、智媒化在社会生活中持续深度介入,时间和空间界限不断被打破和重塑。其能够对特定场景或任务进行仿真模拟,通过持续一对一对话的形式与用户产生即时连接,实时分析用户的行为和互动数据,然后根据需求将不同时间节点、不同来源、不同模态的信息整合堆叠并呈现于当下时空,从而为用户提供连贯深入的知识内容。在这一内容生产过程中,它将给予用户超越传统媒介感知的超时空体验,[2]信息获取和内容生产方式也比传统搜索引擎更加灵活便利,进一步提升了传媒业的创作效率,同时简化了内容生产流程。

 

二、 生成式人工智能应用于传媒业的风险因素

  (一)算法缺陷导致信息失真

  生成式人工智能并不具备人类所拥有的主观能动性,其算法模型不可避免地存在机械化缺陷。在内容生成过程中,人工智能只是按照算法规则对原始语料进行排列组合,然而以ChatGPT为代表的对话式机器人并不具有独立的事实核查机制,无法甄别信息真伪,也不能对错误加以识别纠正,如果原始语料中存在错误、偏差或不准确之处,对话式机器人就极有可能将学习到的错误信息重现在问题回答过程中。

  根据生成式人工智能的运行原理,它是基于语言模型调用、处理过去的文本数据,其所生成的内容缺乏最新知识,无法即时与人类语料同步,加之算法和算力限制,将会导致人工智能大模型难以回答用户问题,仅依据已收录的信息进行编造并辅以专业化包装,向用户提供看似真实专业的虚构信息。这一问题在实时新闻、新兴技术等快速发展变化的领域中极为明显。此外,由于语言本身存在多重含义,人工智能难以准确理解,如果其根据错误的语义完成响应,则必然生成错误回答。而人们使用生成式人工智能的初衷就是节省时间、提高效率,因此往往选择将生成的内容直接投入使用,并不会对其真假进行一一甄别,这就导致了虚假信息的进一步广泛传播,[3]给传媒业发展带来潜在的信任危机。

  (二)模型训练和优化侵蚀数据安全

  生成式人工智能大模型大多采用语料体系+预训练+微调的底层逻辑运行,通常需要大量数据来进行训练和优化,随着人工智能大模型与各领域的融合发展,其中涉及的数据类型和来源越来越多样,很可能包含无授权数据、商业秘密、个人隐私等。

  在数据授权方面,大模型使用的训练数据通常来自互联网公开数据,传媒从业者在利用人工智能创作内容时可能会无意中产生抄袭、剽窃等行为,面临法律风险。此外,生成式人工智能通过数据学习生成新的内容,其生成的作品在一定程度上具有创新性,但是相关的版权归属却很难确认,一方面数据来源模糊,另一方面生成式人工智能也没有独立的身份可言[4],这都给版权保护带来了极大的挑战。

  在数据隐私方面,以ChatGPT来说,用户在对话框中与算法模型进行交互,相关问答数据将会传输到位于美国的OpenAI公司,或是通过ChatGPT应用程序编程接口(API)将相关数据集成至第三方应用程序和产品中,这些数据流动显然存在安全漏洞。用户在使用ChatGPT时,为了提高答案的准确性和针对性,会自愿贡献出自己的数据,这些数据不仅会被人工智能公司用于大模型的训练优化,而且会在大模型的运算中留痕,比如ChatGPT使用的基于人类反馈的强化学习(RLHF)算法就会将用户的反馈用于优化模型参数,使得商业秘密信息以及个人隐私等数据极易被泄露。

  (三)算法黑箱导致人机关系失衡

  以对话为主要形式的生成式人工智能正在潜移默化间影响着人类思维方式,从而滋生技术依赖、技术滥用等负面行为,人机关系逐渐走向失衡,这与生成式人工智能的回答方式密切相关。ChatGPT针对特定问题的回答过程被隐藏在复杂的算法黑箱中,用户既无法了解答案生成的来源和依据,也无法识别出答案中可能存在的潜在偏见和歧视,可能在不知不觉中对算法产生盲目信任和过度依赖,社会歧视和偏见也将在此过程中不断强化。再将传统搜索引擎与生成式人工智能进行比较,可以发现,传统搜索引擎是在接受指令后,将各种可能的答案加以罗列,供用户选择,其所提供的多样化信息源可以让用户接触到多元观点,有助于就特定问题形成全面认知;而ChatGPT则是直接呈现算法选择的最优答案,尽管这在很大程度上节省了用户的时间成本,但是这种唯一的最优答案会限制用户的自主性和批判性思维,失去独立思考和决策的机会,最终将可能形成机器对人类的操控,导致人机关系倒置。

 

三、生成式人工智能时代的应对之策

  (一)严把内容审核,提高信息真实性

  内容审核是确保信息真实性的关键环节。在与生成式人工智能的融合发展过程中,传媒机构应当加强对算法的监管与审核,制定明确的审核标准和规则,并及时对虚假信息予以处罚。[5]这需要媒体建立起专业的审核团队,对人工智能生成的在线内容进行严格筛选监控,防止虚假信息流入市场,造成数据污染。从理想状态来说,由专业的审核人员人工审核每条信息能够在更大程度上充分确保信息的真实性,但是这将极大增加人财物成本,从而抵消生成式人工智能的技术优势。[6]因此,除了专业的人员组成之外,媒体机构还可以引入人工智能审核系统。该系统有助于克服人工审核耗时耗力、主观认知不足等缺陷,能够对信息进行实时的语义分析、事实核查等,这将在很大程度上提高内容审核质量,阻断虚假信息的传播和扩散。但是另一方面,人工智能审核系统是一把双刃剑,尽管它在提升审核准确性、客观性等方面意义重大,但却始终无法超越人类思维的主观能动性,且存在算法歧视、技术滥用等负面效应。因此,把人工审核与人工智能审核结合起来将能产生更大的效用,有助于构建起更加安全和多样化的传媒生态。

  (二)强化数据监管,维护用户权益

  数据安全是生成式人工智能时代的重要课题,其核心要素是可控性,将数据的大规模流动、聚合与分析纳入监管过程十分必要。[7]数据作为训练生成式人工智能大模型的基础要素,具有非同寻常的价值和作用。为有效规避风险,必须从源头加以控制。一是要对高敏感数据进行有效监管,避免其被纳入生成式人工智能语料库。这不仅需要相关部门加强数据监管,也需要传媒机构共同努力。一方面,从管理角度需要建立起健全的数据使用管理制度;另一方面,作为数据直接使用者的一线工作者也需要具备敏感的风险感知能力,对数据交互过程保持警惕,谨慎决定使用哪些数据与人工智能进行交互。二是完善生成式人工智能的市场准入规则,将可能存在的非法数据获取行为阻挡在市场之外。这将有助于促使生成式人工智能开发机构主动自觉地披露其语料库数据来源和获取方式,并采取相应的数据清洗和去标识化技术,[8]从而能够有效保障数据使用的合法性并避免潜在的法律风险。

 (三)转变用户观念,建立人机合宜关系

  面对生成式人工智能的迅疾发展,人们的担忧不断加剧,诸如机器会抢走人类的工作吗”“人类会被机器异化吗等困惑层出不穷,而用户对技术的依赖也正在使自身成为生成式人工智能的被动接受者,这在一定程度上削弱了人类的学习、理解和质疑能力,人类思维的独立性不可避免地受到影响。

  为避免人机关系持续走向失衡,亟需建立起人机合宜关系。所谓人机合宜关系,就是指人与机器的和谐相处、优势互补,确保人类和机器各自的优势都能得到充分发挥。[9]这要求传媒从业者必须认识到生成式人工智能的工具属性,人类使用人工智能的最终目标是提高自身效率,而非使之取代人类。从业者首先需要克服对人工智能的恐惧和抗拒,主动拥抱新技术。其次,在人机互动过程中,传媒从业者应树立其人本位的思想观念,回归到对人类自我价值的审视。[10]充分利用人工智能技术在文本生成、内容勘误、个性化推荐等方面优势的同时,深入了解人工智能的局限性和潜在风险,克服思维惰性,保持主动思考,始终以批判性的眼光看待其所生成的内容,使技术服务于人类,而非用技术约束人类的自主生产。

 

结语

  以ChatGPT为代表的生成式人工智能技术在传媒业各个领域中蓬勃发展,不断催生新场景、新业态、新模式和新市场。毫无疑问,生成式人工智能极大地推动了传媒行业发展,是一把革命利器。但与此同时,传媒从业者也要审慎地看待其中潜在的风险和挑战并加以积极应对,将生成式人工智能打磨成人类的好帮手,不断创造并维持健康良好的传媒新生态。

 

(作者简介:上海广播电视台东方广播中心党委书记)

 

参考文献

1】杨琴.ChatGPT看生成式人工智能对传媒业的影响[J].卫星电视与宽带多媒体,2024,21(02):65-67.

2】张锐,刘靖晗.ChatGPT看生成式人工智能对传媒业的影响[J].声屏世界,2023,(10):5-8.

3】李婷,沈可心,樊思慕.浅析新一代人工智能对新闻传媒行业的影响——ChatGPT为例[J].中国传媒科技,2024,(06):63-67.

4】王美辰.生成式人工智能助推虚假信息泛滥的法律问题分析——“Deepfake”为例[C]//《法律研究》集刊2023年第3——推动战略性新兴产业融合集群发展的法治研究文集.上海海事大学法学院;,2024:8.

5】张学府.生成式人工智能服务信息内容安全的三类标准——基于《生成式人工智能服务管理暂行办法》的分析[J].中国行政管理,2024,(04):120-128.

6】钭晓东.论生成式人工智能的数据安全风险及回应型治理[J].东方法学,2023,(05):106-116.

7】【8】任剑涛.人机关系会倒置吗?——ChatGPT“逃逸引发的思考[J].人文杂志,2023,(05):39-51.

9】【10】谢俊,刘睿林.ChatGPT:生成式人工智能引发人的异化危机及其反思[J].重庆大学学报(社会科学版),2023,29(05):111-124.

 

 

 

上海广播电视台 版权所有 沪ICP备10019291号-3
通信地址: 上海威海路298号 邮政编码: 200041