征稿要求:
1.论文符合本刊宗旨与学术规范,具备较新的学术观点,使用较新的文献资料。评论性文章观点鲜明,语言生动,分析深刻,能够及时反映、探讨学界及业界的热点问题。
2.所投稿件为作者本人 撰写并未曾在其他刊物公开发表过。
3.稿件一律用电子邮件附件形式发送到电子邮箱:guangdianyanjiu@yeah.net
4.附件请用Word文件,并注明文件名及作者名。
5.稿件篇幅:论文原则上以6000字以内为宜;评论文章控制在1500字左右。
6.稿件应注明作者的真实姓名、职称(职务或学位)及工作单位、详细通讯地址及邮编、联系电话(手机最佳)和电子邮箱。
来稿的处理流程是什么?
1.请勿一稿多投,也不要重复投稿。
2.收到稿件后,本刊编辑部认为符合要求或基本符合要求但仍需修改的,会主动与作者联系。投稿后30个工作日内未收到本编辑部处理意见的,可自行对稿件另作处理。
3.因经费有限,编辑部对特约稿件支付超标稿酬,一般稿件只能略付薄酬。
文章格式有什么讲究?
1.标题。主题用1号黑体;副题用3号宋体。居中。
2.作者姓名,用四号楷体,右对齐。
3.文本提要,小四号楷体,200字以内;关键词,小四号楷体,3-5个。
4.正文,用5号宋体。1级小标题用小4号幼圆体,居中;2级小标题用5号黑体,左对齐并缩进两个汉字;3级小标题用5号楷体,左对齐并缩进两个汉字。
5.鉴于本刊区别于其他学刊图文特色 建议作者供稿时提供文章相关图片及作者照片,并确保图像精度。
6.文末标出作者单位及职称(或学位、职务),若有多个作者,用分号隔开;
7.注释一律采用尾注形式。注释二字,用小5号黑体。注释条目各项顺序依次为:作者姓名、冒号、《文章标题》、逗号、《刊名》某年第几期(《书名》第几页,某年版),用小5号楷体。
8.为节约篇幅,一般采用注释形式的文章,不再单独一页设立参考文献。
数据应用场景的边界调控与风险治理研究
一、研究背景与问题提出
习近平总书记在2020年浙江考察时提道:“让城市更聪明一些、更智慧一些,是推动城市治理体系和治理能力现代化的必由之路。”[1]党的二十大报告中也强调,要加强城市基础设施建设,打造宜居、韧性、智慧城市[2]。自2008年智慧城市概念提出以来,该理念逐渐成为全球关注的热点,各国纷纷掀起了智慧城市建设的热潮[3]。智慧城市建设的关键在于运用物联网、云计算等技术,重塑政府、企业与公众的互动关系,促进多个领域的智能化响应,以提升城市治理效能与居民生活品质[4]。随着全球数字化进程的加速,数据已成为智慧城市的核心生产要素,并且贯穿多个领域,推动城市治理模式向智能化、精准化转型。
数据驱动的深入应用与技术能力的快速扩张也带来了新的治理挑战。尤其在交通领域智能技术在缓解城市拥堵、提升出行效率方面展现出巨大潜力。在此过程中,系统需要持续采集车辆轨迹、出行信息或视频图像信息,不可避免地涉及公共空间与个人隐私的边界问题。例如,用户的数据是否经过充分授权?是否存在被监控而不自知的风险?平台是否设有明确的使用边界?算法在拥有决策权的同时,是否也应承担相应的伦理责任?
本研究基于上海市“交通拥堵预判与智能主动管控技术”项目及自动驾驶技术,系统梳理了智能交通这一关键数据应用场景中的实操逻辑与治理挑战。研究发现,该领域存在数据边界模糊、责任归属不清与监管机制滞后等问题。如何设定清晰的算法决策边界,合理界定责任归属,并切实保障公众隐私与伦理正当性,已成为该场景中亟须解决的问题。
二、数据应用场景的边界困境
智慧城市建设依托大数据与人工智能技术,推动城市治理从“经验决策”向“数据驱动”转型。数据网络打破了传统条块分割的管理模式[5],实现了跨部门协同与精准服务[6]。数据不仅静态存在,还在被实时动态地采集、处理与使用。关于数据应用场景,官方并未给出具体明晰的阐释,本文指的是数据技术与城市运行、社会行为深度耦合的空间,是一个集数据、技术、制度、主体于一体的复合实践网络。数据不仅驱动预测与控制,也深刻地影响着个体的感知与权力边界。在具体实践中,如交通预测系统、自动驾驶平台等,数据应用场景的边界属性尤为明显。从数据采集的隐蔽性、使用方式的模糊性,到算法决策的不透明性与公众感知的差异性,以及人工智能介入决策过程所引发的责任归属模糊问题,诸多隐性张力不断挑战既有的技术伦理与制度框架。
数据不仅是技术资源,更是一种社会权力[7],其应用边界争议实质上是技术效能与伦理约束的冲突。在智慧交通等智能应用场景中,自动驾驶、轨迹预测等技术不断强化对个体行为的感知与干预,模糊了公共治理与个人隐私的界限。已有研究表明从司法与社会视角对数据与个人信息进行区分,前者更强调市场属性,后者则关涉人格尊严的保护[8]。数据始终在特定的历史、社会、文化和经济环境中被想象与创造[9]。数据应用的边界困境,既关乎技术功能的扩展,也关乎其合法性与正当性的界定,呈现出高度复杂与动态演化的特征。算法作为一种规则体系[10][11],只有嵌入具体场景才能展现其效能。但与此同时,其运行也引发了关于信息透明度、决策公正性与社会信任的持续讨论。特别是在人工智能深度介入数据采集、分析与执行的当下,技术推动城市治理走向预测性与自动化的同时,也模糊了制度边界与责任划分,带来隐私侵扰、伦理风险等挑战。因此,数据应用中的边界问题,不能仅被视为单一技术流程中的操作失误,而应被置于算法逻辑、人工智能、社会回应中加以考察。近年来,无论是《新一代人工智能治理原则》[12],还是围绕“人工智能开发的道德边界”的讨论,均显示出边界议题在技术治理体系中的重要地位。
(一)数据应用场景的四维边界框架
本文将从数据采集、数据使用、决策干预与公众感知四个维度出发,探讨数据应用场景中的边界如何被拓展、重构,甚至走向失控。这四个维度并非孤立存在,而是构成了数据应用场景中“输入、处理、输出、反馈”的完整闭环系统。可以将其理解为数据生命周期中的关键控制节点,每个节点的边界失控都会引发连锁反应,最终导致系统性治理风险。
1.数据采集边界:最小必要原则和知情同意的失衡
目前,数据应用场景的高效运转依赖于对大数据的获取。环境状态、资源信息以及用户行为等数据,以实现更为智能化的管理与服务[13]。在以用户为中心的应用模式中,系统深度挖掘用户的行为习惯和兴趣偏好,以实现个性化内容推送。用户在享受便利的同时,常处于无感知的监控中。个人隐私信息可能不知情地被持续采集和分析,且数据收集、存储、处理、传输和应用的各个环节中都存在信息泄露的潜在风险[14],这也导致用户时常面临隐私边界模糊的困境。实际操作中,许多平台存在默认同意[15]的现象,用户难以明确知道其数据在何时、何地、以何种方式被采集使用。这种做法也与知情同意原则[16]背道而驰,引发了关于数据采集是否越界的讨论。
2.数据使用边界:目的限定性与场景迁移的冲突
在现实的数据应用中,信息一旦被采集,其后续使用往往超出用户最初预期。例如,原本用于交通领域的数据,若未经明确知情同意被用于安防或营销,不仅侵犯隐私,也引发数据滥用的担忧。类似边界模糊问题,不仅存在于个人数据,也体现在公共数据中。公共数据因其覆盖广、价值高而被用于产品开发和增值服务,但其再利用既牵涉数据共享与经营自由,也影响市场竞争秩序的公平性[17]。公共数据商业化利用引发的争议,揭示了技术扩展、平台责任与制度治理之间的张力。在人工智能驱动下,数据跨场景调用已成常态,如何在合法、透明、可控的框架内实现数据流通与增值值得深思。数据信托作为兼顾权利保障与高效利用的新型机制,正在引发广泛的关注[18]。
3.决策干预边界:算法自主性与人类监督权的博弈
随着人工智能技术的发展,算法逐渐渗透至公共管理与社会服务的核心决策环节。算法主导的决策模式显著提升了治理效率,但也悄然重塑了人在决策中的角色。算法系统能够在数据驱动下快速作出响应,降低人为干预的主观性与不确定性,但基于模型计算的自动化决策也面临多重风险。算法本身依赖数据质量,现实中的数据可能存在不全、偏倚或过时等问题,模型训练可能出现过拟合或欠拟合,导致输出结果失真。若算法开发过程中未能充分规避系统性偏见[19],可能造成对特定群体的不公判断,带来隐性歧视。决策干预边界的调控关乎技术效率与公众信任,应当对算法结果进行校验与必要干预。
4.心理感知边界:算法黑箱与公众信任的断裂
随着数据系统与算法技术日益复杂化与自动化,公众对其运行逻辑、判断依据和治理机制普遍缺乏认知。系统的输入和输出虽清晰可见,但运算过程却往往处于黑箱状态,外部个体难以理解其判断基础或行为逻辑[20]。事实上,算法认知障碍不仅源于技术本身的高度抽象,更因为系统的不透明性。系统往往未能提供足够的解释渠道与参与空间,用户只能凭借自身经验进行推测或通过他人反馈间接判断,从而在被动状态下逐渐积累不信任与焦虑感。这也反映出当前智能应用在边界治理方面的不足,直接影响了公众对智能系统的接受程度。数据应用场景关乎权利分配、社会治理与伦理规范的重构,唯有厘清技术边界,完善制度保障,回应公众关切,才能建立起坚实的社会信任与制度支撑。
(二)典型案例的数据边界困境
数据驱动的智慧交通系统已成为城市治理的重要场景。以“交通拥堵预判与智能主动管控技术”与“城市自动驾驶出行试点项目”为例,数据全流程深度介入重构了用户、决策与环境的交互秩序,同时也暴露出数据边界模糊的治理难题。
1.交通拥堵预判中的边界冲突
上海市“交通拥堵预判与智能主动管控技术”,通过“AI+交通治理”构建了“主动发现、自动识别、科学诊断、智能解决、反馈优化”的闭环管理体系。该技术整合多源数据,精准预测六类交通状态并推演拥堵时空演变,结合信号灯调控、路况导航引导等主动管控手段,实现路网容量优化与拥堵溯源分析[21]。
全量采集显著提升了预测精度与响应效率的同时也导致了感知能力与隐私保护边界模糊的问题。对用户位置信息与轨迹数据的深度采集,使得技术系统逐步触及个人隐私的敏感边界。例如,GPS可追踪特定车辆的连续行驶路径,若缺乏有效的数据脱敏与访问控制机制,容易导致对用户行为的过度感知,造成隐私泄露的风险。从本质上讲,算法是一种规训权力[22],会不断争夺隐私领域规则与资源分配的控制权,从而使受众产生持续的隐私被夺感[23]。因此,数据采集并非越多越好,应建立最小必要原则[24]。
“交通拥堵预判与智能主动管控技术”的突出特点是将数据预测与主动调控深度结合,通过信号灯调控、路径引导等方式进行“智能干预”,使得城市不再是被动响应,而是具备“预判性治理”的能力。这种高度自动化的调控模式也暴露出技术逻辑压倒人类判断的风险。系统在面对突发事故、极端天气等非结构化事件时可能会出现决策失灵。同时,过度依赖算法调控反而降低效率,如驾驶员盲目遵循导航建议导致绕行拥堵,交警过分信任预测系统而忽视现场判断。
虽然智能管控系统已在多个区域获得显著成效,但公众对该系统的理解和感知程度却较为滞后,公众普遍不清楚自身数据是如何被采集、使用与反馈的。技术黑箱效应加剧了信息不对称,削弱公众的参与权与监督有效性,甚至可能在系统失误时引发集体不信任。此外,公众对数据治理的容忍并非无限,一旦触及个人隐私,或操作影响日常出行体验,其感知边界便迅速被激化。因此,未来在城市交通系统中需要推动可解释性[25]机制的建立,强化公众的知情权、选择权与反馈权,才能真正实现共治共享的智能交通。
2.自动驾驶的边界失控风险
自动驾驶技术是AI、传感器、互联网等多元技术交汇融合的前沿应用场景,展现出巨大的发展潜力。自动驾驶技术在运行过程中需持续获取包括摄像头影像、雷达回波、GPS轨迹等多维信息,以支撑车辆在不同场景下的感知、判断与响应。然而,全景式感知导致了数据采集边界的模糊。从技术需求出发,自动驾驶系统需最大程度地减少感知盲区,采集覆盖面趋近无死角,例如行驶过程细节的记录;从伦理与法律角度看,这种无差别的数据捕获可能侵犯公众的隐私权。在无明示授权的前提下,这类连带的采集行为是否构成合法收集,如何划定技术与隐私之间的界限,需要法律与监管体系予以充分的回应。
自动驾驶系统的运行优化依赖于对海量数据的深度挖掘与训练,从道路识别到驾驶行为建模,其智能性几乎完全建立在数据之上。如果缺乏有效的数据用途限制,原本用于技术迭代的数据,可能演变为其他用途的数字资源,带来算法歧视、数据歪曲等风险。特别是在不同主体之间流转的数据,是否存在数据主权与授权机制的缺位,也需进一步厘清。
自动驾驶技术的优势在于能够基于算法模型实时决策与路径规划,显著减少人为操作失误,但导致了人类在驾驶场景中的控制作用削弱。当前自动驾驶技术已具备在特定场景下替代人类决策的能力,例如遇紧急障碍物时的自动避让机制。但当算法决策与人类本能选择相冲突时,系统应由谁来主导?此外,事故发生后的责任归属问题引发诸多争议,如何有效分配责任已成为研究焦点。学界围绕责任类型、责任主体与归责原则展开探讨,提出了无过错责任、过错责任、产品责任、高度危险责任等多种路径,但尚未形成统一的观点[26]。
尽管大量研究表明,自动驾驶有望显著降低由人为失误引发的交通事故概率[27],但公众对其安全性与透明性的认知仍存在偏差。在技术试运行阶段发生的个别严重事故,往往会迅速引发舆论放大效应,使公众对整体系统性能的感知呈现负向偏差。例如,中国企业家林文钦在使用蔚来ES8的“NOP领航辅助”功能时发生交通事故身亡,引发了公众广泛的关注[28]。蔚来声称该功能非自动驾驶,仅为辅助系统,需驾驶员时刻关注路况。但公众普遍存在技术误解与心理预期错位,该事件也引发了公众对企业数据处理行为的隐私担忧,凸显了自动驾驶技术中用户感知边界的模糊,以及技术话语与实际责任之间的落差。
三、失控风险的成因剖析
数据应用场景的失控风险不仅体现在人工智能技术的运行偏差,更体现在制度安排与社会基础之间。本部分将从技术、制度与社会三个层面系统梳理数据应用场景的失控风险的表现与成因。
(一)技术层面:算法黑箱、模型偏见与技术越界
随着智能化应用逐步渗透到推荐、搜索、内容分发乃至公共服务等多个领域,算法已成为我们日常生活中的“主动技术环境”[29]。但出于商业竞争与数据安全等目的,技术公司或商业机构等会对算法细节保密,且机器学习模型本身结构复杂、难以解释[30],普通用户面对算法结果时往往难以理解其背后的判断依据[31]。当前仍缺乏有效的解释机制与反馈纠错路径,公众面临算法误判时难以申诉或追责。这种理解的缺失与反馈机制的不足共同加剧了社会层面的信任危机。
算法并非中立,其运行会继承并放大现实中的偏见。模型偏见主要源于训练数据的属性。例如,数据采集中弱势群体往往更容易被忽视,人工标注也可能引入主观偏好[32]。此外,算法设计本身也存在偏见风险,开发者容易将边缘群体数据视为噪音剔除,掩盖多样性特征,加剧结构性排斥[33]。可见,模型偏见贯穿于数据采集、模型构建等环节,其隐蔽性和技术正当性使公众难以察觉,传统治理手段面临挑战。
人工智能在功能扩展和数据使用中常突破既定边界,形成越界行为。越界本意是指越过境界、疆界、区划或超过了限度[34],本文指AI超出初始授权范围,或将数据转用于用户画像、商业营销等非原定用途。算法普及使用户让渡部分知情权与控制权,平台借此深度提取个人数据优化服务,虽提升了用户体验,却导致了个性化—隐私权的悖论[35],用户在享受便利时逐步丧失数据主导权,面临隐私边界模糊的风险。由于系统具备动态学习能力,其功能边界并非静态,需要明确制度与技术约束,加以治理。
(二)制度层面:法律模糊、数据责任主体缺失和跨部门协作壁垒
现有法律体系在应对新兴技术时表现出滞后性与不确定性。传统隐私保护法规多基于传统信息系统,难以适应数据应用智能场景,导致数据采集、共享等环节存在法律空白。以自动驾驶事故为例,由于缺乏明确的责任划分标准,制造商、平台和用户之间的权责界定容易引发争议。这种法律模糊性不仅增加了实践风险,还削弱了公众对技术的信任。
当前数据应用中,采集、处理与流通环节的责任主体界定模糊。当数据被二次开发或跨部门共享时,原始提供方、使用方与监管方的权责划分不清,导致数据泄露或滥用时追责困难。例如,系统采集的车辆运行和用户行为数据本是用于优化服务,但若未经明确授权被用于商业推送或行为监控,将侵犯用户隐私并引发伦理问题。这种情况既挑战了数据采集的合法性,也暴露出用途限定与责任划分的制度缺失,加剧了公众对数据滥用的担忧。
实际的数据应用场景中会涉及政府、企业以及技术服务商等多元主体,形成复杂的数据运行体系。各主体在数据使用过程中缺乏统一的风险识别与相应的防控机制,造成了数据的重复采集与资源浪费,还可能导致冗余治理和监管无门,加剧数据治理体系的碎片化和失控风险。
(三)社会层面:公民参与不足、隐私意识薄弱与数字治理异化
随着数据技术的广泛应用,公众生活与数据的联系日益紧密,但公众在数据政策制定、技术部署等关键环节的参与度仍然有限。当前数据应用多以技术逻辑为主导,公众的知情权、参与权和表达权保障不足。同时,由于信息不对称、技术门槛高和表达渠道匮乏,普通公众难以有效参与数据治理。类似缺乏协商与共识的治理模式容易导致技术应用与社会需求脱节,甚至引发公众的抵触情绪。
数据便利性增强的同时,公众对于隐私的感知变得逐渐模糊,甚至处于被动让渡、默认同意的状态。在交通领域,摄像头、人脸识别等日常数据采集背后的隐私风险常被技术术语掩盖,导致公众的警惕性降低。当前公众数据素养普遍不足,对于数据收集、处理及滥用风险缺乏基本认知。这种隐私意识的弱化不仅暴露了制度保护的缺失,还会助长技术滥权的风险。
数据应用本应该以提升公共服务为出发点,但在实际操作中,部分数据应用场景逐渐呈现出以效率为导向的倾向。例如健康码、信用积分系统、社会治理平台等在缺乏公开透明的情况下,容易导致技术力量的过度集中。这不仅偏离了以人为本的初衷,也可能在无形中加剧对社会的控制,形成治理过度的现象。
四、智能化治理路径
面对数据应用场景中愈加突出的失控风险,构建有效的多维治理框架已成为智慧城市可持续发展的关键。本部分将从技术透明、制度完善与社会共治三大路径出发,提出相应的对策建议。
(一)技术维度:向“可解释”与“可控”迈进
1.推动算法可解释性技术研发与应用。针对算法黑箱问题,可从技术层面入手,推动可解释人工智能[36]等技术的研究与应用。在模型开发阶段引入透明设计的理念,使非技术用户相对更加理解模型的决策逻辑,帮助提升用户对算法系统的信任,也为外部监管提供基础条件。此外,还应推动制定统一的算法解释标准,使算法行为可以被说明、被追问,为用户提供明确的反馈机制和申诉通道,增强算法使用的可控性与合法性。
2.加强数据源审查与模型公平性测试机制。为缓解模型偏见可能带来的问题,可在模型训练初期引入相应的数据审查机制,对训练数据进行结构性分析,尽可能识别歧视性因素,避免算法复制现实中的不平等。同时,建议在模型运行阶段加入公平性评估工具,对输出结果进行周期性检测。如果模型对某些群体存在系统性误差,可尝试引入多样性算法,增强边缘群体的代表性,推动模型在实际应用中兼顾公平与普惠。
3.确立AI功能边界与用途限制机制。为了明确AI系统中的数据使用边界与功能范围,可从技术设计和制度建设入手。一方面,系统上线前应设定清晰的数据使用目标,包括正面用途清单与禁止用途清单,通过系统内嵌的权限设置,防止数据被越界调用。当数据使用目的达成后,系统可以自动删除相关数据或撤销访问权限,降低滥用风险。另一方面,推动差分隐私[37]、联邦学习[38]等隐私增强技术的实际应用与标准化建设,保护数据安全的同时,提升用户对数据使用的信任度。
(二)制度维度:厘清权责与重塑规范
1.加快数据立法进程,细化隐私保护边界。针对数据应用场景中法律模糊的问题,国家层面需要加快《中华人民共和国个人信息保护法》与《中华人民共和国数据安全法》的衔接,构建统一法律框架;地方层面应当结合智慧城市建设,细化数据采集、处理等环节的操作规范,特别对人脸识别等高敏感数据建立申报备案制度。同时,推行“个人信息采集最小化”[39]原则,限制非必要数据采集。类似举措有助于提升法律对数据治理的适应性与保护力,有效防范数据滥用风险。
2.明确多元主体的数据责任划分与追责机制。针对智慧交通等场景中存在的数据责任主体不清问题,尝试借鉴“数据责任地图”的方法[40],明确数据流转各环节的主体职责。建立全流程数据使用记录系统,实现操作可追溯。在此基础上,建议政府主导搭建跨部门问责平台,统一监管公共服务数据流通,形成政府、企业、平台多方共担的清晰责任机制,提升治理透明度,增强公众信任。
3.建立跨部门协同治理与数据互信机制。面对智慧交通等领域中跨部门协作存在的障碍,有必要探索建立统一的数据治理平台和标准化接口,促进政企研数据共享。在实践层面,可以借鉴“监管沙盒”机制[41],帮助提前评估技术的法律适配性与潜在社会影响,保障创新的同时降低风险。此外,建议设立中立的数据协调机构,负责审核数据共享协议与技术接口标准,避免因多方独立操作而导致的数据重复建设和资源浪费。
(三)社会维度:构建包容透明的共治格局
1.拓宽公民参与路径,强化公共协商机制。面对当前数据应用场景治理中公民参与不足的问题,可以从制度设计和平台建设两个层面进行改进。在制度层面,可以探索建立公众参与机制,比如在涉及公众利益的数据应用项目中引入意见征集与反馈流程,提高政策的透明度与接受度。在平台层面,可以尝试搭建线上协商平台或设立“数据议事会”等形式,邀请市民、技术专家与社区代表共同参与技术方案的讨论与监督。这不仅有助于缓解技术决策的封闭性,还能在一定程度上推动数据治理朝着更加开放、协同的方向发展。
2.强化数据素养教育,提升隐私防护意识。为提升公众在智能交通等数据应用场景下的理解与应对能力,可以考虑将数据素养教育逐步融入国民教育体系和终身学习体系。具体而言,可通过社区活动、在线课程、公共媒体等多种形式,向公众普及数据的使用方式及其潜在风险。针对青少年和老年群体,还应设计更具针对性的数字公民素养的教育内容,帮助其提高在数字环境中识别风险、保护隐私和理性表达的能力。这样的教育推广不仅有助于增强公众的隐私意识,也有助于激发社会对数据治理的广泛监督。
3.防止技术治理异化,维护人的中心地位。为避免数字治理过度追求效率、忽视人的价值,在技术应用过程中,有必要引入伦理审查机制和以人为本的评估框架。例如,可以在系统优化前设置影响评估环节,重点识别技术可能对老年人、残障人士等弱势群体带来的不适应或不利影响,从而提前预警、加以改进。同时,也可以探索设立如“算法伦理顾问”或“数据监督员”等新型角色,引入更多社会视角,推动技术治理更加透明、包容与负责任。进而增强公众信任,同时有利于技术与社会的良性互动。
结语
本文以智慧交通领域的“交通拥堵预判与智能主动管控技术”与“自动驾驶数据应用”为例,探讨了数据应用场景中的边界困境与失控风险。研究发现,尽管智能化技术提升了治理效率,但仍面临法律模糊、责任不清、算法偏见等问题,尤其体现在数据采集缺乏充分的知情同意、跨场景使用目的偏离初衷以及算法决策过程不透明等方面。这些问题也反映出当前数据治理体系尚未形成对技术扩张的有效制衡机制,基于此,本文提出以下治理思路,以期为未来的数据治理体系提供一定的参考。
第一,数据治理需要平衡效率与伦理。智慧城市强调以数据驱动治理提效,但若忽视数据采集与使用中的伦理考量,容易导致隐私侵犯与信任危机。因此,在推动技术创新的同时,需要构建覆盖数据全生命周期的制度保障机制,确保数据在合理、合法的边界内运行。
第二,技术应用需回归人本价值。数据应用场景不仅关乎技术与系统的优化,更涉及公共利益的实现,不能只追求效率提升,同时要重视公众的参与感与信任度。数据应用场景需要保障公众的选择权和知情权,构建透明、可解释、可监督的应用机制,使其真正服务于公众福祉。
第三,智能城市需构建协同治理生态。数据边界的合理设定不仅依赖法规制度,更需公众、企业与政府三方共同参与。通过制度引导、公众参与和责任共担,构建起跨部门、跨平台的数据协作框架,实现治理能力与治理体系的进步。
面向未来,数据应用场景不应仅依赖技术创新的推动,更需要在制度设计、伦理引导与社会共识之间建立起良好的关系。只有在确保数据使用边界清晰、公众权益得到保障、治理生态多元协同的前提下,城市智能化才能真正迈向可持续、可信赖的方向。
[本论文系上海科委软科学行动项目《智慧城市治理中数据要素智能应用场景创新研究》(项目编号:24692108300)阶段性成果]
(作者简介:孟筱筱,同济大学艺术与传媒学院助理教授;
王雪,同济大学艺术与传媒学院硕士研究生)
【1】习近平.统筹推进疫情防控和经济社会发展工作奋力实现今年经济社会发展目标任务[N].人民日报, 2020-04-02(01).
【2】习近平.高举中国特色社会主义伟大旗帜为全面建设社会主义现代化国家而团结奋斗——在中国共产党第二十次全国代表大会上的报告[M].北京:人民出版社,2022:32.
【3】唐斯斯,张延强,单志广,等.我国新型智慧城市发展现状、形势与政策建议[J].电子政务,2020,(04):70-80.
【4】巫细波,杨再高.智慧城市理念与未来城市发展[J].城市发展研究,2010,17(11):56-60+40.
【5】CHEN Y C, HSIEH T C.Big Data for Digital Government:Opportunities, Challenges, and Strategies[J].International Journal of Public Administration in the Digital Age, 2014, 1 (1) :1-14.
【6】锁利铭,冯小东.数据驱动的城市精细化治理:特征、要素与系统耦合[J].公共管理学报,2018, 15(04):17-26+150.
【7】MESTHENE E.Technological Change:Its Impact on Man and
Society[M].Cambridge,Mass:Harvard University Press,1970:60.
【8】刘练军.个人信息与个人数据辨析[J].求索,2022(5):151.
【9】Helmond, A.‘Raw data’is an oxymoron[J]. Information, Communication & Society,2014,17(9):1171-1173.
【10】Seaver N. Knowing algorithms[J]. DigitalSTS, 2019: 412-422.
【11】陈烜之.认知心理学[M].认知心理学,2006.
【12】https://baike.baidu.com/item/新一代人工智能治理原则——发展负责任的人工智能/23576627
【13】谢珍, 杨九龙. 智慧图书馆视域下的用户隐私披露意愿[J]. 图书馆论坛, 2020, 40(9):69-78.
【14】喻小继.大数据时代图书馆个性化服务中用户隐私的保护对策研究[J].情报科学,2022,40(9):147-153.
【15】张薇薇.公开个人信息处理的默认规则——基于《个人信息保护法》第27条第1分句[J].法律科学(西北政法大学学报),2023,41(03):62-75.
【16】郑佳宁.知情同意原则在信息采集中的适用与规则构建[J].东方法学,2020,(02):198-208.
【17】沈韵,冯晓青.公共数据商业利用边界研究[J].知识产权,2023,(11):60-77.
【18】翟志勇.论数据信托:一种数据治理的新方案[J].东方法学,2021,(04):61-76.
【19】MEHRABI N, MORSTATTER F, SAXENA N,et al. A survey on bias and fairness in machine learning[J].ACM computing surveys,2021,54(6):1-35.
【20】Pasquale F.The Black Box Society: The Secret Algorithms That Control Money and Information [M]. Cambridge:Harvard University Press,2015:3-8.
【21】预判拥堵,主动管控:AI+交通如何成为“火眼金睛”?_澎湃号·政务_澎湃新闻-The Paper[2024-1-12]. https://www.thepaper.cn/newsDetail_forward_25989604
【22Cinnamon J. Social injustice in surveillance capitalism[J]. Surveillance & Society, 2017, 15(5): 609-625.
【23】杨喜喜,李本乾.结构性剥夺:算法受众隐私剥夺感的生成逻辑[J].山东师范大学学报(社会科学版), 2023,68(06):125-138.
【24】胡李楠.“最小必要原则”适用的解释路径[J].法律方法,2023,45(04):360-377.
【25】赵伟.可解释性与AI算法决策系统的感知公平性问题研究[J].科学技术哲学研究,2024,41(06):115-121.
【26】焦富民,包欢乐.自动驾驶交通事故侵权的归责困境及破解路径[J].学海,2025,(02):174-182.
【27】谭九生,胡健雄.自动驾驶的安全风险及其治理[J].学术交流,2023,(08):131-147.
【28】光明日报.31岁企业家驾驶蔚来车祸去世,警方通报[EB/OL].[2021-08-19].
https://baijiahao.baidu.com/s?id=1708447435531947539&wfr=spider&for=pc.
【29】Aydin C, González Woge M, Verbeek P P. Technological
environmentality:Conceptualizing technology as a mediating milieu[J].Philosophy & Technology,2019,32:321-338.
【30】Burrell J. How the machine‘thinks’: Understanding opacity in machine learning algorithms[J]. Big Data & Society, 2016, 3(1): 1-12.
【31】谭九生, 范晓韵. 算法“黑箱”的成因、风险及其治理[J]. 湖南科技大学学报(社会科学版), 2020(6): 92-99.
【32】Mayson S G. Bias in, bias out[J]. The Yale Law Journal,2019,128(8):2218-2300.
【33】张玉宏,秦志光,肖乐.大数据算法的歧视本质[J].自然辩证法研究,2017(5):81-86.
【34】“汉语大词典”官方App(《汉语大词典》第9卷,1113页)
【35】Cloarec J.Jérémy Cloarec. The Personalization-Privacy Paradox in the Attention Economy[J]. Technological Forecasting and Social Change,2020.
【36】游均.可解释人工智能的哲学困境与出路[J].福建师范大学学报(哲学社会科学版),2024, (01):66-74+169.
【37】Dwork C.A firm foundation for private data analysis[J].Communications of the ACM,2011,(1) :86-95.
【38】刘泽刚.人工智能时代联邦学习隐私保护的局限及克服[J].中外法学,2025,37(01):65-84.
【39】李明.数字经济下个人信息采集最小化原则的适用[J].江苏社会科学,2025,(02):179-187.
【40】于长江,沈振萍.“数据要素×”赋能城市精细化治理——以环卫责任地图在武汉智慧环卫的应用为例[J]. 上海城市管理,2024,33(06):19-27.
【41】Zhao Yan Lee/Mohammad Karim/Kevin Ngui,“Deep Learning Artificial Intelligence and the Law of Causation:Application,Challenges and Solutions”,Information & Communications Technology Law,No.3,2021,pp.1—28,here p.18.