上海广电研究杂志官网  

征稿要求:

1.论文符合本刊宗旨与学术规范,具备较新的学术观点,使用较新的文献资料。评论性文章观点鲜明,语言生动,分析深刻,能够及时反映、探讨学界及业界的热点问题。 

2.所投稿件为作者本人 撰写并未曾在其他刊物公开发表过。    

3.稿件一律用电子邮件附件形式发送到电子邮箱:guangdianyanjiu@yeah.net    

4.附件请用Word文件,并注明文件名及作者名。   

5.稿件篇幅:论文原则上以6000字以内为宜;评论文章控制在1500字左右。    

6.稿件应注明作者的真实姓名、职称(职务或学位)及工作单位、详细通讯地址及邮编、联系电话(手机最佳)和电子邮箱。

 

来稿的处理流程是什么?

1.请勿一稿多投,也不要重复投稿。

2.收到稿件后,本刊编辑部认为符合要求或基本符合要求但仍需修改的,会主动与作者联系。投稿后30个工作日内未收到本编辑部处理意见的,可自行对稿件另作处理。

3.因经费有限,编辑部对特约稿件支付超标稿酬,一般稿件只能略付薄酬。  

 

文章格式有什么讲究?

1.标题。主题用1号黑体;副题用3号宋体。居中。    

2.作者姓名,用四号楷体,右对齐。

3.文本提要,小四号楷体,200字以内;关键词,小四号楷体,3-5个。    

4.正文,用5号宋体。1级小标题用小4号幼圆体,居中;2级小标题用5号黑体,左对齐并缩进两个汉字;3级小标题用5号楷体,左对齐并缩进两个汉字。

5.鉴于本刊区别于其他学刊图文特色 建议作者供稿时提供文章相关图片及作者照片,并确保图像精度。

6.文末标出作者单位及职称(或学位、职务),若有多个作者,用分号隔开;

7.注释一律采用尾注形式。注释二字,用小5号黑体。注释条目各项顺序依次为:作者姓名、冒号、《文章标题》、逗号、《刊名》某年第几期(《书名》第几页,某年版),用小5号楷体。

8.为节约篇幅,一般采用注释形式的文章,不再单独一页设立参考文献。

情感人工智能的崛起:实现基础与主要挑战

 

  作为人类生活的核心,情感在人工智能发展进程中扮演着关键角色。情感具有重要的内在价值:它能够影响我们对于自我和他人的评判与理解。我们的生活中充斥着越来越多的情感感知技术,以情感测量为导向的系统越来越多地融入人类生活,标志着社会迈出了重要一步[1]。这些涉及可识别情感的人工智能技术正在挑战人类的固有思维方式,并促使我们认真思考其对当下社会带来的影响,以及我们期许的未来会是怎样一番光景。

 

一、情感人工智能的定义及应用

  情感人工智能(Emotion AIEmotional AI,以下简称情感AI)起源于1995年,由MIT媒体实验室罗莎琳德·皮(德(Rosalind W. Picad)教授首次提出情感计算概念,并于1997年正式出版《Affective Computing(情感计算)》一书,指出情感计算就是针对人类的外在表现,能够进行测量和分析并能对情感施加影响的计算,从而开辟了计算机科学的新领域——情感AI,其思想是使计算机拥有情感,能够像人一样识别和表达情感,从而使人机交互更自然。该定义从能力”“预测与人类互动等多个切面强调情感AI的特征。随着深度学习技术的发展,情感识别技术得到显著提升,包括语音、图像、文本等多模态情感识别。情感AI在理解和与人类情感互动方面变得越来越复杂,它们能够识别和分析文本中的主观信息,判断情感倾向,从而帮助人们更好地理解交流双方的感受和需求。

  学者巴布(Babu)与普拉萨德(Prasad)将情感AI定义为在AI帮助下学习和感知人类情感的一系列技术,使用计算机视觉来分析文本、视频(面部表情、手势等)和音频数据(语调),以解读人类信号并推断情感状态[2]。情感AI背后的理念是在AI系统中注入理解并更有同理心地对人类情感做出反应的能力。 阿胡嘉(Ahuja)则认为,当人工智能可以使用图像、视频、音频或文本作为输入,准确预测人类情绪时,它被称为情感AI[3]。也有不少学者进一步强调互动性。卡兰塔利安(Kalantarian)等学者指出,情感AI是一类试图自动推断人类情感并据此进行交互的技术,其应用了一系列情感计算(Affective computing)和人工智能技术来处理各种数据输入,如面部表情、声音、步态、文本、生物信号和在线行为,以感知、学习以及与人类情感生活互动”[4]

  近年来,全球科技巨头如微软、谷歌、百度以及科大讯飞等纷纷加大投入,致力于情感人工智能领域的研发,推出了一系列成熟的AI伴侣应用。这些应用通过先进的情感识别技术,能够辨识多达53种人类情绪,并通过共情式的语音交互,成为用户日常生活中的贴心朋友。例如,在美国,商业AI聊天陪伴型APP“Replika”在疫情期间的下载量激增至每月超过50万次,成为许多人孤独时刻的情感慰藉。而在中国,AI伴侣APP“星野以其独特的个性化定制功能脱颖而出,用户可以自由设定AI智能体的形象、声音、人设、技能,并拥有数百万款由用户创造的智能体,共同构建起一个智能体内容社区。星野为众多对AIGC感兴趣的用户提供了一个高度个性化和互动性强的情感交流平台,满足了人们对深度情感连接的需求。

  事实上,情感人工智能作为连接人类情感与机器智能的桥梁,应用范围越来越广泛,涵盖医疗、教育、娱乐和客户服务等多个方面。预计到2029年,情感人工智能的市场规模将达到约748亿美元[5]。在医疗领域,情感AI被用于患者的情绪监测和心理支持。通过分析患者的面部表情和语音语调,情感AI可以实时监测患者的情绪状态,从而提供个性化的心理干预和支持[6]。在教育领域,情感AI可以通过分析学生的面部表情和语音,判断学生在学习过程中的情感变化,从而帮助教师调整教学方法和策略,提高教学效果。在娱乐领域,情感AI可以通过识别玩家的情感状态、黏性和乐趣,动态调整游戏难度和内容,从而提高玩家的游戏体验和满意度。在客户服务领域,情感AI可以通过分析客户的语音和文本数据,识别客户的情感需求和问题,从而提供更加个性化和高效的客户服务,改善客户体验和提高服务质量[7]

  情感人工智能的崛起是一个多维度的现象,其背后是技术革新、社会需求和政策扶持的共同推动。自1985年诺贝尔奖得主赫伯特·西蒙在认知心理学领域强调情感在智能中的核心作用以来,情感计算的理念开始受到广泛关注。20世纪90年代末,文本情感分析技术应运而生,通过语义词典和算法分析来识别文本中的情感倾向。进入21世纪,深度学习和大数据技术的飞速发展为情感计算研究带来了革命性突破。这些技术进步不仅推动了情感识别的准确性和效率,也为情感人工智能的应用提供了更广阔的舞台,使其在理解人类情感、提供个性化服务和增强人机交互体验等方面展现出巨大潜力。政策支持方面,各国政府也在积极推动情感人工智能的发展,通过资金投入和政策引导,促进情感计算技术的研究和应用。一言以蔽之,情感人工智能的崛起得益于技术进步、社会需求和政策支持的共同作用,这些因素共同塑造了情感人工智能的快速发展和广泛应用。

 

二、情感AI的实现基础

情感AI实现的基础主要包括情感计算、情感增强和解剖设计。其中,情感计算是情感AI的基础,它涉及通过计算机技术识别、理解、模拟和响应人类情感的过程;情感增强是在情感计算的基础上,通过技术手段进一步提升机器的情感表达和处理能力,包括改进情感识别技术的精度,增强情感生成技术的自然性和真实性,优化情感交互技术的个性化程度等;解剖设计在情感计算和情感增强的背景下,涉及从生理和结构层面理解和设计情感表达,包括对人类情感的生理反应(如心率、皮肤电导等)的研究,以及如何将这些生理信号应用于机器的设计中,以实现更加真实和自然的情感表达

  (一)情感计算(Affective Computing

  皮卡德(Picard)于2000年首次将情感计算定义为一个旨在赋予计算机识别、表达能力,在某些情况下拥有情感的领域,并已成为一个用来描述大多数涉及情感和人工智能技术的雨伞术语(Umbrella term[8]。该定义并不强制人工智能体(Artificial agents)具有与人类能力同源的情感心理生理属性,同时指出情感计算的三个主要理论基础:情感识别、情感表达和人工情感。

  1.情感识别(Emotion recognition

  情感识别旨在识别单个用户或用户群体的状态,它主要基于情感心理模型,采用信号处理方法和维度方法。信号处理方法通过评估某种模态来识别内部状态在物理或社会表现中的模式,然后将这些模式定位到情感空间中,大多数应用使用4-7个分类标签,如快乐或悲伤。这些模态主要包括面部表情分析(Facial expression analysisFER),其目前研究占比最多[9][10]。其次是语音情感识别(Speech emotion recognitionSER[11],围绕情感细节分析情感影响的生理信号,如脑电图(ElectroencephalogramsEEG)。此外还有与情感表达相结合的运动分析[12],以及词汇或情境评估的措辞/符号等[13][14]。而维度方法则倾向于使用唤醒-效价分数。目前情感识别主要基于视觉和听觉模态,而其他模态被忽视,也很少用多模态方法。当需要进行时间序列分析时,卷积神经网络(CNN)常与循环单元结合用于情感识别。

  2.情感表达(Emotion expression

  因在电视节目上与人类对答如流而成为网红的美国超仿真机器人Sophia[15],以及由日本教授石黑浩设计的人形机器人孪生Geminoid[16],都使用了强大的情感表达系统。情感表达是指人工智能体(Artificial agents)生成与用户情感相似且易于理解的反应过程,其最终目标是推动人机关系建立,提高逻辑推理和接受的便利性,这在各种人机交互(Human-robot interactionHRI)和社交场景中非常重要。与情感识别一样,情感表达可以在多种模态中尝试,方法非常多样化,从技术上可以分为认知过程和实现情感表达的简单方法,后者涉及使用启发式或基于规则的交互,但几乎不存在多模态方法。由此产生的设计往往以用户为中心,如社交机器人,旨在适当响应交互或环境刺激。设计情感人机交互系统存在一个由三个情感框架组成的网络。首先是获取,人工智能体从用户和环境中收集情感信息;其次是理解深层意图,并对用户行为进行认知分析;最后是交互,指导人工智能体根据获得的知识进行适当行为。

  3.人工情感(Artificial emotion

  情感AI的争议在于情感发生的复杂性以及缺乏客观规范来定义其实现含义:一是情感AI的情感真实性存疑,二是意识的主体性缺失[17]。仅通过转换流畅度和上下文适应性来评估人工情感的合理性还不够,应该关注元认知等更复杂的问题[18],使AI系统能够认识到自己的情感智能并据此行动,或者是结合情感自动化和受控进行连续的反应-行动循环[19]。有学者曾尝试情感表现由自然产生而非完全内置的人工智能方法,如卡斯特罗·冈萨雷斯(Castro-González)等人设计了一个恐惧评估机制,以识别与机器人相关的危险,并刺激它避免导致不良经历的行动[20]Williams等人则将环境强化与行为修正联系起来,通过一个共同的情感子空间作为一个学习分类系统,学会情境理想行动[21],比如婴儿机器人利用多模态情感智能(Multimodal emotional intelligenceMEI),能够识别或表达未经训练的模态中的情感[22]。而Asada主张在机器人中实施人工神经系统和疼痛感应,从而发展与用户情感共情和情感传染的感觉[23]。在这些例子中,情感的引发和行为被认为是更真实的。

  (二)情感增强(Emotion as reinforcement

  如果一个机器人能够理解并表达情感,它可能会更有效地与人类互动,甚至在没有明确指令的情况下也能自主学习。研究人员正在尝试通过强化学习(Reinforcement learning, RL)方法来教机器人理解情感[24]。这好比在玩一个复杂游戏,机器人通过不断尝试和犯错来学习,情感就像游戏中的得分,帮助机器人判断自己做得好不好。Moerland等人研究了不同方法来整合情感到机器人的学习过程中[25]。他们发现情感可以通过不同方式激发,比如模仿人类的基本情绪反应,或者根据机器人内部状态的变化[26][27]。情感也可以不同的形式存在,比如分类(就像标签一样)或者维度(像温度计那样)[28]。在实际应用中,情感可以帮助机器人更好地理解人类的反应,或者在没有人类指导的情况下做出更好的决策。例如,当机器人感知到用户的情绪变化,它可能会调整自己的行为来适应用户需求[29]。情感强化学习是一个新兴领域,有望让机器人变得更智能、更自然。研究人员正在尝试各种不同的技术来探索情感如何帮助机器人更好地自主学习及与人类互动。

  (三)解剖设计(Anatomical design

  解剖设计是指通过模仿大脑中的情感处理机制来提升机器学习模型的性能和效率,使机器能够更快速、更准确地学习和响应。核心方法主要包括四类。一是大脑情感学习(Brain emotional learning, BEL[30][31],通过模仿大脑中的情感处理,如杏仁核和前额叶的互动,提高机器学习模型的预测准确性。二是情感替代反向传播方法(EmBP[32],模仿大脑条件反射机器学习算法,通过焦虑和信心等情感因素来更新网络权重,提高学习速度和分类准确性[33][34]。三是情感启发式机器学习模型(EMLMs),通过融入情感概念,使机器学习更加高效和多样化,应用范围从仿真和预测[35][36],到控制理论[37]再到更客观的分类问题[38][39]。四是其他解剖学结构,如DuoNN是一种受生物启发的结构,将数据分割成腹侧和背侧亚神经元,同时进行情感和认知评估[40]

 

三、情感AI面临的主要挑战

  情感AI作为一种新兴技术,正在逐步改变我们与机器的互动方式。然而,尽管其应用前景广阔,情感AI的发展仍面临着诸多挑战。这些挑战不仅涉及技术层面的问题,还涉及伦理、隐私和数据捕捉等多个方面。首先,情绪数据具有高度的个体性和情境性,这使得数据的捕捉和建模变得复杂。其次,情感理论的多样性和跨文化差异增加了算法设计和模型构建的难度。此外,现代神经网络方法虽然在结果准确性上表现出色,但其黑箱特性使得模型的解释性成为一个重要问题。

  (一)数据捕捉的挑战

  情绪数据不同于认知数据,它们是情境性的、针对个体的,而且通常是多模态的(包括面部表情、声音、手势、姿势和生物识别)。因此,这类情绪数据难以捕捉capturing)。

  首先,情绪数据是关于个体的情境数据,情感人工智能需要将情境数据和特定个体的数据,融入个体的情感状态建模中。但在交互过程中,情境数据往往会丢失。例如,在客服互动中,对话的内容和情绪会被记录下来,但对话的语境却无法被记录。

  其次,情绪数据是多模式的,包括生理反应、主观感受、面部表情、身体姿态和认知评价等,且并非所有模式都可以观察到。认知评价就是要给这些生理反应、主观感受或身体姿态贴上标签,以确定个体正在经历什么情绪。建立这样的认知标签,对于机器甚至很多人类来说,都是困难的[41]

  (二)算法/建模的挑战

  与情绪相关的中外理论非常多,每种理论都认为情绪有不同的数量,并且对情绪究竟是什么持有不同观点。理论上的模糊性,导致机器很难对情绪进行分类和识别。比如,究竟每种情绪都是单纯针对生理经验的认知标签,还是它们都有自己独特的生理经验?罗素(Russell)的情绪维度模型,将唤醒(激活)和效价(愉悦)作为两个关键维度[42],而拉兹萨鲁斯(Lazsarus)的评价理论则认为情绪是人类对自己生理反应的认知评价[43]

  此外,情感体验在文化上是否具有普遍性?来自美国、英国等国家的经验证明,有一些情绪(快乐、爱和悲伤)比其他情绪(幽默、温暖和惊讶)更具有普遍性[44]。而保罗·埃克曼(Paul Ekman)的情绪理论认为,存在对所有人通用的六种基本情绪:愤怒(anger)、厌恶(disgust)、恐惧(fear)、快乐(happiness)、悲伤(sadness)和惊讶(surprise[45]。这些问题强调了机器识别情绪的难度,更不用说对情绪做出适当反应了。许多科技公司根据保罗的理论,开发了情绪检测技术。而究竟哪种方法是建立情感模型的最佳方法,映射方法还是推理方法?这涉及机器能否以及如何体验情感的争论。因此,将情感理解编程化并非一件易事,但测量和复制情感信号,或许可以帮助人工智能更顺利地与人类一起工作[46]

  (三)可解释性的挑战

  现代神经网络方法主要是基于数据的映射,而不是基于知识的推理来实现理想的结果,在以映射为学习机制的情况下,无法对机器产生Y(或生成模型情况下的X)的原因进行解释或推理,因此,模型可解释性成为一个问题。但伴随数据可用性和强大的计算能力,映射的结果会有极强的准确性。虽然人类可以尝试将能捕捉到的最好的情感数据输入机器,以提高结果的准确性,但人类仍然不知道机器如何精确地得出这些结果,机器学习结果并不透明。如果机器的输出无法解释,尤其在它是关于包含主观感受和生理反应的情绪建模时,人类如何确定建模结果是准确的?这个问题在深度学习神经网络层面尤为突出,通常没有简单的方法能够解释为什么系统会产生特定的模型参数。基于此,目前开发可解释的(或透明的)机器的重要性,得到了越来越广泛的认可。

 

四、情感AI的至高追求:人机共情

  情感至关重要。它们处于人类经验的核心之中,深刻影响着人们的日常生活,并帮助我们决定哪些事情值得关注。正是由于情感AI的出现以及智能传感器、生成式AI等相关技术的不断成熟,媒介不再只是一个被动传声筒,而是逐渐具备了识别、体察和反馈用户情感的能力,深入了解用户的情感生活,解读人们的感受、情绪、心理状态、注意力和意图,与用户建立技术形式上的共情empathy)。安德鲁·麦克斯泰指出,涉及新兴媒体技术的共情媒体empathic media)具备以下能力:能够感知和识别对人类有意义的事物,能够将用户行为按特定的情绪类别进行分类,能够基于用户的情绪状态触发相应行为,能够有效利用人们的意图和表达[47]。在这种视域下,情感AI可以被视作一种共情媒体,通过在线情绪分析、生物反馈等手段,分析文字、图像、言语、声音、面部表情、身体运动和生理机能,以推断用户的情绪、意图和注意力并做出相应反应。

  技术的最终价值取决于它如何增强人类的生活质量、如何丰富人类情感的表达,以及它如何帮助我们构建一个更加理解和包容的社会。就AI系统与人的互动层面而言,人们可能会认为人工智能只有具备了感知人的情感、情绪和意图的能力才会具有真正价值。其中包括智能家居助理和引人注目的人形机器人,但其重大进展是在于情感识别系统如何逐渐融汇于人机交互之中。与自我、他人、物品、服务以及媒介内容的情感互动在个人、人际、组织、经济和社会监管等多个层面都具有价值。当媒介技术能够在私人和公共领域中解读人们的感受、情绪、心情、注意力和意图的时候,个人和社会将会发生哪些变化?

  作为共情媒体的情感AI改变了用户与媒介之间单向度的信息传播关系,实现了二者之间的双向互动关系。与此同时,共情媒体为人们构建了新的审美体验维度,比如在游戏和虚拟现实产品中,基于内容、对象和用户之间的互动所产生的沉浸感、流动感和临场感体验尤为明显。共情媒体还在美学方面提供了身临其境的感知方式,人们可以在心理健康、新闻、营销和治安等多个领域,通过感官刺激、情感互动、注意力记录和意图测量等多元手段来增强体验感。而在医疗保健、教育、客户服务和娱乐等多个领域,情感AI不仅使得服务更具人性化、富有同理心,还为那些难以表达情感的人群提供了发声机会,让孤独和不被理解成为过去式。值得注意的是,随着情感AI技术持续深度融入我们的日常生活,我们也必须警惕那些潜藏的风险和挑战,例如通过分析情绪状态进行监视、利用和操纵的风险,数据安全问题,机器同理心和情商的真实性问题,情感误解以及可能导致的社会隔阂等问题。

 

[本论文系2023年度上海市哲学社会科学规划课题(一般课题)人机传播视域下大学生网络焦虑情绪感染的干预研究(项目编号:2023BXW004)阶段性成果]

 

(作者为上海大学新闻传播学院智能传播系讲师)

 

 

1】安德鲁·麦克斯泰.(2023).情感人工智能:共情媒体的崛起[M].中国传媒大学出版社.

2Babu,K.V.,& Prasad,V.N.(2024).Can Replika's Emotional AI Replace Human Companionship?.IUP Journal of Knowledge Management,22(2).

3Ahuja,K.(2024).Emotion AI in healthcare:Application,challenges,and future directions.In Emotional AI and human-AI interactions in social networking (pp.131-146). Academic Press.

4Kalantarian,H.,Jedoui,K.,Washington,P.,Tariq,Q.,Dunlap,K.,Schwartz,J.,& Wall,D.P.(2019).Labeling images with facial emotion and the potential for pediatric healthcare.Artificial intelligence in medicine,98,77-86.

5Babu,K.V.,&Prasad,V.N.(2024).Can Replika's Emotional AI Replace Human Companionship?.IUP Journal of Knowledge Management,22(2).

6Roemmich,K.,Corvite,S.,Pyle,C.,Karizat,N.,&Andalibi,N.(2024).Emotion AI Use in US Mental Healthcare:Potentially Unjust and Techno-Solutionist.Proceedings of the ACM on Human-Computer Interaction,8(CSCW1),1-46.

7Hameed,S.(2024).A review on emotion-based artificial intelligence.

8Picard R W.Affective computing[M].MIT press,2000.

9Li S,Deng W.Deep facial expression recognition:A survey[J].IEEE transactions on affective computing, 2020,13(3):1195-1215.

10Patel,K.,Mehta,D.,Mistry,C.,Gupta,R.,Tanwar,S.,Kumar,N.,& Alazab, M.(2020).Facial sentiment analysis using AI techniques:state-of-the-art,taxonomies,and challenges.IEEE access,8,90495-90519.

11Fahad M S, Ranjan A,Yadav J,et al.A survey of speech emotion recognition in natural environment[J]. Digital signal processing,2021,110:102951.

12Noroozi,F.,Corneanu,C.A.,Kamińska,D.,Sapiński,T.,Escalera,S.,& Anbarjafari,G.(2018).Survey on emotional body gesture recognition.IEEE transactions on affective computing,12(2),505-523.

13Larradet,F.,Niewiadomski,R.,Barresi,G.,Caldwell,D.G.,& Mattos,L.S.(2020).Toward emotion recognition from physiological signals in the wild:approaching the methodological issues in real-life data collection.Frontiers in psychology,11,1111.

14Alswaidan,N.,&Menai,M.E.B.(2020).A survey of state-of-the-art approaches for emotion recognition in text.Knowledge and Information Systems,62(8),2937-2987.

15Riccio,T.(2021).Sophia robot:An emergent ethnography.TDR,65(3),42-77.

16Nishio,S.,Ishiguro,H.,& Hagita,N.(2007).Geminoid:Teleoperated android of an existing person. Humanoid robots:New developments,14(343-352),10-1109.

17Pollak S D,Camras L A,Cole P M.Progress in understanding the emergence of human emotion[J]. Developmental psychology,2019,55(9):1801.

18Briñol P,Petty R E,Rucker D D.The role of meta-cognitive processes in emotional intelligence[J]. Psicothema,2006:26-33.

19Ridderinkhof,K.R.(2017).Emotion in action:A predictive processing perspective and theoretical synthesis. Emotion Review,9(4),19-325.

20Castro-González Á,Malfaz M,Salichs M A.An autonomous social robot in fear[J]. IEEE Transactions on Autonomous Mental Development,2013,5(2):135-151.

21Williams H,Lee-Johnson C,Browne W N,et al.Emotion inspired adaptive robotic path planning[C]//2015 IEEE congress on evolutionary computation (CEC).IEEE,2015:3004-3011.

22Lim,A.,& Okuno,H.G.(2014).The MEI robot:Towards using motherese to develop multimodal emotional intelligence.IEEE Transactions on Autonomous Mental Development,6(2),126-138.

23Asada,M.(2019).Artificial pain may induce empathy,morality,and ethics in the conscious mind of robots. Philosophies 4(3):38.

24Sequeira,P.,Melo,F.S.,& Paiva,A.(2015).Emergence of emotional appraisal signals in reinforcement learning agents.Autonomous Agents and Multi-Agent Systems,29,537-568.

25Moerland,T.M.,Broekens,J.,& Jonker,C.M.(2018).Emotion in reinforcement learning agents and robots: a survey.Machine Learning,107,443-480.

26Gadanho,S.C.(2003).Learning behavior-selection by emotions and cognition in a multi-goal robot task.Journal of Machine Learning Research,4(Jul),385-412.

27Yu,C.,Zhang,M.,Ren,F.,& Tan,G.(2015).Emotional multiagent reinforcement learning in spatial social dilemmas.IEEE transactions on neural networks and learning systems, 26(12), 3083-3096.

28Moerland,T.M.,Broekens,J.,& Jonker,C.M.(2018).Emotion in reinforcement learning agents and robots: a survey.Machine Learning,107,443-480.

29Ficocelli,M.,Terao,J.,&Nejat,G.(2015).Promoting interactions between humans and robots using robotic emotional behavior.IEEE transactions on cybernetics,46(12),2911-2923.

30Babaie,T.,Karimizandi,R.,& Lucas,C.(2006).Prediction of solar conditions by emotional learning. Intelligent Data Analysis,10(6),583-597.

31Babaie,T.,Karimizandi,R., & Lucas,C.(2008).Learning based brain emotional intelligence as a new aspect for development of an alarm system. Soft Computing,12,857-873.

32Khashman,A.(2008).A modified backpropagation learning algorithm with added emotional coefficients. IEEE transactions on neural networks,19(11),896-1909.

33Khashman,A.(2012).An emotional system with application to blood cell type identification.T ransactions of the Institute of Measurement and Control, 34(2-3),125-147.

34Oyedotun,O.K.,&Khashman,A.(2017).Prototype-incorporated emotional neural network.IEEE transactions on neural networks and learning systems,29(8),3560-3572.

35Parsapoor,M.,Bilstrup,U.,& Svensson,B.(2014,September).A brain emotional learning-based prediction model for the prediction of geomagnetic storms.In 2014 Federated Conference on Computer Science and Information Systems(pp.35-42).IEEE.

36Parsapoor,M.(2016).Brain emotional learning-based prediction model (for long-term chaotic prediction applications).arXiv preprint arXiv:1605.01681.

37Zhao,J.,Zhong,Z.,Lin,C.M.,& Lam,H.K.(2021).H∞ tracking control for nonlinear multivariable systems using wavelet-type TSK fuzzy brain emotional learning with particle swarm optimization. Journal of the Franklin Institute,358(1), 650-673.

38Zhou,Q.,Chao,F.,& Lin,C.M.(2018).A functional-link-based fuzzy brain emotional learning network for breast tumor classification and chaotic system synchronization. International Journal of Fuzzy Systems,20,349-365.

39Liu,Z.T.,Xie,Q.,Wu,M.,Cao,W.H.,Mei,Y.,& Mao,J.W.(2018).Speech emotion recognition based on an improved brain emotion learning model.Neurocomputing,309,145-156.

40Khashman,A.(2010) Modeling cognitive and emotional processes:A novel neural network architecture. Neural Networks,23(10),1155-1163.

41Rust,R.T.,& Huang,M.H.(2021).The feeling economy.Springer International Publishing.

42Russell,J.A.(1980).A circumplex model of affect. Journal of personality and social psychology, 39(6), 1161.

43Lazarus,R.S.(1991).Progress on a cognitive-motivational-relational theory of emotion. American psychologist,46(8),819.

44Huang,M.H.(1998).Exploring a new typology of advertising appeals:basic, versus social, emotional advertising in a global setting. International Journal of Advertising,17(2), 145-168.

45Ekman,P.,& Keltner,D.(1970).Universal facial expressions of emotion. California mental health research digest,8(4),151-158.

46Rust,R.T.,&Huang,M.H.(2021).The feeling economy.Springer International Publishing.

47】安德鲁·麦克斯泰.(2023).情感人工智能:共情媒体的崛起[M].中国传媒大学出版社.

 

 

 

 

 

 

 

上海广播电视台 版权所有 沪ICP备10019291号-3
通信地址: 上海威海路298号 邮政编码: 200041