征稿要求:
1.论文符合本刊宗旨与学术规范,具备较新的学术观点,使用较新的文献资料。评论性文章观点鲜明,语言生动,分析深刻,能够及时反映、探讨学界及业界的热点问题。
2.所投稿件为作者本人 撰写并未曾在其他刊物公开发表过。
3.稿件一律用电子邮件附件形式发送到电子邮箱:guangdianyanjiu@yeah.net
4.附件请用Word文件,并注明文件名及作者名。
5.稿件篇幅:论文原则上以6000字以内为宜;评论文章控制在1500字左右。
6.稿件应注明作者的真实姓名、职称(职务或学位)及工作单位、详细通讯地址及邮编、联系电话(手机最佳)和电子邮箱。
来稿的处理流程是什么?
1.请勿一稿多投,也不要重复投稿。
2.收到稿件后,本刊编辑部认为符合要求或基本符合要求但仍需修改的,会主动与作者联系。投稿后30个工作日内未收到本编辑部处理意见的,可自行对稿件另作处理。
3.因经费有限,编辑部对特约稿件支付超标稿酬,一般稿件只能略付薄酬。
文章格式有什么讲究?
1.标题。主题用1号黑体;副题用3号宋体。居中。
2.作者姓名,用四号楷体,右对齐。
3.文本提要,小四号楷体,200字以内;关键词,小四号楷体,3-5个。
4.正文,用5号宋体。1级小标题用小4号幼圆体,居中;2级小标题用5号黑体,左对齐并缩进两个汉字;3级小标题用5号楷体,左对齐并缩进两个汉字。
5.鉴于本刊区别于其他学刊图文特色 建议作者供稿时提供文章相关图片及作者照片,并确保图像精度。
6.文末标出作者单位及职称(或学位、职务),若有多个作者,用分号隔开;
7.注释一律采用尾注形式。注释二字,用小5号黑体。注释条目各项顺序依次为:作者姓名、冒号、《文章标题》、逗号、《刊名》某年第几期(《书名》第几页,某年版),用小5号楷体。
8.为节约篇幅,一般采用注释形式的文章,不再单独一页设立参考文献。
生成式人工智能内容可信度评估指标体系报告(演讲版)
2023-2024年间,生成式人工智能迅猛发展。从技术逻辑的角度来讲,大模型是中间件,前端是它的数据来源,后端是用户得到的内容。目前,研究的重点往往聚焦在大模型,也就是中间件上。但是,用中间件来代替前端内容可能出现的风险,对生成式人工智能未来的发展存在着一个巨大的隐患。
对生成式人工智能生成出来的内容从可信度的角度进行评估,是我们这个项目的初衷。Trust worthy AI,这是世界上的一个共识,从欧盟到经合组织,到美国相关的技术部门,统统都认同世界AI的未来一定是基于可信的,而不是可用的。
生成式人工智能面临的困境
一个可用的人工智能和一个可信的人工智能,是两个概念,所以我们是建立在可用的基础上迈向可信。首先,人类社会进入智能社会的理念被广泛接受;其次,人工智能本身存在原生数据风险。
基于生成式人工智能的技术逻辑,无论是open AI还是中国的大模型,它所有的数据都是来源于互联网在中国的数据。那么,作为主要来源的数据包括什么?是从哪里获得的呢?
第一个是知乎,第二个是百度文库,在代码上就是csdn,所以它本身的原生数据的来源就可能存在问题,在生成的过程中以及生成的结果上,它的信赖程度其实是要打问号的。
第三个,当前我们的生成式人工智能,它不告诉你这个是reinforcement learning(强化学习)还是machine learning(机器学习)还是怎么来的,他更多地告诉你你要被代替了,你要怎么样,这是一种营销的方式,而不是一种科学的方式。作为学界,从一个比较中性或者理性的角度来看生成式人工智能的治理,我们要回归的是科学的传播,而不是被它的营销所困惑。营销导致用户忘记了思考生成式人工智能的数据来源,忘记了使用生成式人工智能可能存在的问题,所以这就是我们今天面临的第三个困境。
第四个困境是一个案例,交通大学的一个教授的儿子,今年11岁上五年级,老师要求他写一个科学报告,他不会写,就拿着妈妈的手机生成了一个2000字的报告,然后拿给他妈妈看。他妈妈本身是这个领域的专家,首先感到非常震惊,孩子能够用生成式人工智能的方法把它生成出来;再仔细看下去之后,她发现他儿子的第一篇科学报告里面错误百出。这就是促使我们做这个事情的出发点。
为什么要做内容的可信度研究?
因为生成式人工智能并不是我们想象的那么美好,它的大模型也没有我们想象的那么强大,它的数据来源依然还有很多风险,所以我们要制定一个评估标准。评估不是阻碍技术发展,而是让它平稳的发展,让它在一个比较理性、稳定、科学的领域去发展。
“可信”这个词最早不是用来形容生成式人工智能的,而是在形容AI这个系统,或者说可信的AI系统。今天我们说的是AI生成出来的内容的可信,这是两个概念。可信的系统,指的是什么?用理工科的话语来说,它指的是稳定性。比如欧盟组织、美国的技术评估组织,还有IBM公司其实都对AI系统有了完整的可信度评估系统了。在内容的可信度评估方面,我们开始研究的时候,无论国内还是国外,关注的人都比较少,因为那时候的关注重点是在系统自身的稳定性上。
首先,人类社会交流的基础是信任。未来,AI技术人人都能用,但是它是否值得信赖,需要有一个指标来评估、来保证人类对它的使用是可信赖的。而不是说,它可以被使用,但是人对通过使用它产生的内容没有信心。其次,人类的信任一定会逐步扩展到人机的信任。所以我们需要考虑,怎么去建立人类跟人类之间交流的信任,以及人机之间的信任?再次,生成式人工智能的社会治理的基础也需要评估体系。最后,生成式人工智能的研究也需要文理交叉视野下的可信评估体系。
AIGC内容可信度评估来源和依据
我们是如何建立生成式人工智能的可信度评价体系的?一个是前文提到的可信人工智能评估体系,第二个是大众媒体可信度评估体系,第三是网络内容可信度评估体系,这是三个前人使用过的可信度的指标体系。我们把它们融合起来,通过德尔菲法+AHP两种方法来做。
在德尔菲层面上,我们分了三个阶段。第一阶段,建立可信度指标体系。我们选择了十位 AIGC领域专家进行评分。在第一轮意见收集后,我们针对意见分歧较大的指标对相应专家进行反馈和第二轮意见收集。在第一轮意见后,首先去除掉了17个专家大体一致认为不太重要的二级指标;其次,根据第二轮意见,修改了部分指标的专家意见。经过两轮意见反馈,最终第二轮专家意见的集中性有一定程度的提升,在协调可接受水平内。通过这样的方式,我们建立了德尔菲指标体系,分别是:准确性、完整性、时效性、无偏见、公平性、可信赖性、透明性、可问责性、安全性和隐私性十个指标。
也就是说,如果生成式人工智能给出的内容是可信的,必须要满足以上十个方面。但是这10个方面我们并不知道谁是优先的,所以我们要再到第二层面去做它的优先级的判断。基于AHP方法,我们开展了计算,测出了这十个指标的权重系数。从指标权重看,它们的重要性程度表现出了明显的差异。第一个是准确性,第二个是可信赖,第三个是安全性,第四个是隐私性,第五个是可问责性,第六个是无偏见,第七个是透明性,第八个是完整性,第九个是公平性,最后一个是时效性。这也是未来生成式人工智能治理的十个切入点。可能这与传统的新闻评价有一些差异,从新闻的角度,时效性很重要,但对于生成式人工智能的内容,很多用户认为宁可慢一点,也要准一点。
综合这两个过程,我们建立起生成式人工智能可信度评估的整个指标体系。由一级指标和二级指标构成,一级指标就是包括准确性、完整性、时效性、无偏见、公平性、可信赖性、透明性、可问责性、安全性和隐私性等在内的十个方面;二级指标是基于一级指标生成的一些细项,比如源数据是否经过审核、是否及时更新、是否提醒用户需要进行核查、是否能够纠正错误的答案、是否有长效的问责机制等等。
那么,我们可以怎么使用这个指标体系?我们国内很多大模型,它会告诉用户生成内容是通过哪些来源的内容来提供生成的内容,那么我们可以对它尾端使用的这些来源做采集,做评估做测定,也就是说从数据来源判断生成的内容是不是可靠。同时,对生成内容的质量做评估,既包括数据来源的可信度,也包括生成内容的可信度。我们国家目前在大模型上快速发展,我们希望在技术层面快速发展的同时,协助它更加稳健、更加健康。
(作者简介:上海交通大学媒体与传播学院教授)