
郑建君
中国社会科学院大学政府管理学院副院长、教授、博士研究生导师,中国社会科学院首都治理研究院执行院长、政治学研究所研究员。
杨羚羊
中国社会科学院大学政府管理学院计算政治学研究中心助理研究员。
【摘要】人工智能正在深刻重塑城市治理范式,推动其从“被动响应”向“主动预判”转型,显著提升治理效率、优化公共服务并增强城市韧性。基于对现有研究的系统回顾,本文系统梳理了人工智能在城市治理中的积极价值,涵盖行政流程自动化、预测性治理模式构建、公共服务精准化与均等化推进,及其在灾害管理与可持续发展中的关键作用。然而,人工智能应用亦伴随着数据偏差、算法黑箱、算法歧视、问责困境与数字鸿沟等多重风险与挑战。这些挑战共同折射出深层次的技术中心主义范式危机。为根本性应对上述困境,必须实现向以人为本范式的系统性转向,其核心在于人机协同与包容性治理两大路径的功能耦合。前者作为“人机共生”理念的制度实践,旨在从治理体系内部约束技术内生风险、重塑权责关系;后者作为“数字正义”价值的社会化展开,旨在从治理体系外部校准技术应用的公共价值方向。二者共同构成技术赋能与价值引领的有机统一体。通过构建动态的法律伦理框架、提升全民数字素养,可有效破解治理困境、弥合数字鸿沟,并增强治理的合法性与公众信任。未来研究应融合多学科视角,强化实证与因果推断分析,并立足本土实践,构建负责任、包容性强的人工智能治理体系,以实现技术赋能与城市治理现代化的良性互动。
【关键词】人工智能;城市治理;治理效能;人机协同;包容性治理
引言
在人类社会发展的历史进程中,城市治理的模式并非一成不变,而是伴随着技术进步与社会需求予以演进。从传统的科层制管理到新公共管理,再到信息技术驱动的数字治理时代,每一次范式变革都与核心技术的更替紧密相连。当前,城市治理正处在一个由大数据、云计算驱动的“数字治理”实践向以人工智能(AI)为核心的“智能化治理”发展过渡的关键阶段。这种转变的深层逻辑,在于AI技术不再是简单的辅助工具,而是具备了更强的智能算力、复杂推理与内容生成能力的“行动者”,从而重塑了治理的知识生产模式、决策逻辑乃至科层组织内的权责体系。这种角色的转变,使得我们必须重新审视城市治理的内在机理。面对日益复杂和碎片化的城市治理挑战,例如人口向超大城市聚集带来的公共资源供需矛盾、交通拥堵、环境污染等问题,传统治理模式早已心有余而力不足。因此,AI赋能城市治理,不仅是技术创新的结果,更是应对这些复杂挑战的备择路径。它秉持通过数据驱动的决策实现从“事后响应”到“主动预判”的根本性转变理念,以期提升城市运行效率、保障公共安全,并最终提升居民的生活品质。
然而,人工智能在城市治理中的应用并非没有挑战,其影响呈现出显著的“双刃剑”效应。一方面,AI的积极价值是显而易见的。在实践层面,AI技术正在通过优化交通管理、提升公共安全、实现精准环保,以及改善公共服务等多个维度,切实提升城市治理效能。另一方面,伴随技术应用的快速扩张,其潜在的风险与局限也日益凸显。研究表明,AI在公共部门的应用面临诸多挑战,包括数据质量不高、算法黑箱风险、问责界定模糊以及伦理冲突激化等。因此,本文旨在系统性地梳理AI赋能治理的积极价值的基础上,同时深入剖析其伴随的深层次挑战,以期为理解和破解这一复杂命题提供理论支撑。
基于此,本文首先系统阐述人工智能赋能城市治理的实践路径与积极价值;其次,深入剖析其面临的技术、伦理与制度挑战;最后,核心任务在于构建一个以以人为本为取向的治理范式,通过人机协同与包容性治理的双重路径,实现技术赋能与公共价值的统一,为人工智能赋能城市治理提供理论参照与实践指引。
二、人工智能赋能城市治理效能的价值与实践路径
人工智能的广泛应用正深刻地改变着城市治理的传统范式,其价值不仅体现在行政效率的提升,更在于对治理模式、公共服务和城市韧性的全面重塑。
(一)治理模式的智能化升级:从被动响应到主动预判
AI通过多种途径显著提升了政府的治理效率和决策水平,实现了从传统的“事后响应”向“主动预判”的转变。首先,在行政流程层面,AI能够实现日常、重复性任务的自动化,例如,生成式AI可以辅助起草文件、总结会议纪要,或在政务服务中提供智能问答和申请辅助。这种“数字助手”的应用,极大地精简了政府体量,减少了人力资源在烦琐事务上的耗费,使得公职人员能够将更多精力投入到需要人类智能认知和判断的复杂决策中。
其次,AI驱动的预测性治理模式,正成为前瞻性治理的典型应用。通过整合海量的多源数据(如交通摄像头、环境传感器、政府数据库等),AI算法能够实时分析并预测潜在的城市问题。在交通管理方面,“城市大脑”可以预测交通拥堵模式并动态调整交通信号,推荐替代路线,从而减少等待时间、降低排放;在公共安全领域,AI通过分析历史犯罪数据和环境信息,可以预测犯罪热点区域,从而实现警力的前瞻性部署。
(二)公共服务供给的精准化与普惠性
AI赋能的城市治理显著提升了公共服务的质量和居民体验,使得公共服务的供给更加精准化。研究表明,智慧城市建设能够显著提升居民的主观幸福感。一项基于中国家庭追踪数据的实证分析发现,智慧城市建设可使居民的幸福感提升约4.1个百分点,其作用机制在于智慧城市建设提升了居民互联网服务的使用熟练度和电子政务的发展水平,这将有利于个体更便捷地获取优质公共服务进而使其幸福感得以提升。此外,AI驱动的政务服务系统可以优化政府的回应效率,一项基于“人民网领导留言板”数据的研究构建了“回应效率指数”,其结果证明了智慧治理技术对政府回应效率的积极作用。
AI在促进公共服务均等化方面也展现出巨大潜力。在超大城市基层治理中,AI技术通过数据下沉、多因素协同作用等路径,显著提升了基层治理的精准性和效率,例如“回天大脑”和“Yi模型”等实践创新案例,已成功将治理效能延伸至为民服务的“最后一米”。政府数字化的建设与效能,通过提升公共服务供给效率和财政转移支付效率进而显著促进城乡基本公共服务均等化。
(三)城市运行管理的韧性提升与可持续发展
AI在城市韧性治理和可持续发展方面扮演着关键角色。在灾害管理中,AI能够显著提升城市应对内涝灾害的韧性程度;同时,AI驱动的数据可视化技术,通过整合多源数据(如物联网传感器、卫星图像等),能够提供更精准的灾害影响预测结果和优化的资源分配方案,从而显著提升灾害响应的敏捷性和准确性,最终减少生命和经济损失。
在可持续发展方面,AI通过优化资源配置、减少碳排放等方式,成为城市实现绿色低碳转型的关键技术。例如,智能电网通过实时监测和预测能源需求,实现供需平衡,减少能源浪费;智慧交通系统通过优化路线规划,减少拥堵和燃料消耗;智慧环保系统则能够全天候监测空气、水质等数据,通过算法优化提升实时预警能力,实现精准治污。短期来看,数字治理对低碳转型的推进及效果有显著的促进作用。为更直观呈现人工智能赋能城市治理效能的主要路径与案例,相关梳理与总结内容见表1。
表1 人工智能赋能城市治理效能的主要维度与实践案例

三、人工智能在城市治理中面临的风险、挑战与局限
人工智能为城市治理带来机遇的同时,也在技术、伦理、社会和制度等多层面伴随深层次风险与局限,对这些挑战的审慎分析是构建健康可持续治理生态的前提。
(一)技术与数据层面的挑战
AI应用的效能高度依赖于数据的质量和算法的可靠性,而这恰恰是其面临的首要挑战。首先,是算法黑箱问题,即AI参与的决策过程通常是不透明、不可解释的。当AI用于制定公共政策或分配资源时,黑箱特性与政府治理所要求的透明性、公正性原则形成尖锐冲突。这使得公民难以理解决策的依据及过程,使得问责变得异常困难。
其次,AI的效能直接受限于训练数据的质量,数据偏差已然成为导致算法歧视和决策不公的根源。例如,一项针对美国城市311投诉系统的研究发现,低收入和少数族裔社区尽管有更高的客观需求,但其投诉率却低于高收入社区,导致基于投诉数据进行的资源分配出现系统性不公的情况。而在福利分配领域,这种情况同样存在。如果AI系统基于有缺陷或过时的数据进行决策,可能导致真正需要帮助的群体被错误地排除在服务供给对象之外。上述现象表明,技术驱动下的决策过程与结果,其本身可能先天性地存在偏差,其应用如果缺乏包容性考量,反而会固化甚至放大既有的社会不平等。这揭示了一个核心悖论,旨在解决不公平问题的技术,如果应用不当,反而会带来“数字鸿沟”,使得技术红利集中在具备技术优势的地区和群体,从而与提升公共服务均等化的初衷产生内在矛盾。
最后,AI技术的广泛应用,还可能导致政府对技术和私营企业的过度依赖。高昂的实施成本、巨大的技术基础设施需求以及专业技术人才的短缺等,构成了AI落地的关键制约因素。此外,AI技术的快速发展,与制度建设的滞后性之间存在着结构性矛盾。AI驱动的自动化决策系统已在基层公务人员的实践中予以应用,但其带来的问责困境、权责划分难题等,传统制度和法律框架尚未能够提供有效的解决方案。这表明,解决AI治理困境的关键,不仅在于技术创新,更在于能够与技术发展同步的制度创新。
(二)伦理与社会层面的风险
人工智能在城市治理中的应用,对社会公平、公民权利和公众信任构成了潜在威胁。其中,首当其冲的是算法歧视,既有研究认为算法歧视的根源在于用于模型训练的数据中固有的历史偏见以及算法设计者的主观因素。这种偏见在公共服务领域可能导致严重后果,例如预测性警务系统可能因训练数据中既有的种族偏见而对特定社区或群体过度监控,这势必会加剧社会不公;而在福利分配、招聘等领域,算法也可能对特定性别、种族或低收入群体产生歧视性判断。
其次,数据隐私与安全是核心伦理挑战。AI在收集、存储和使用公民数据的过程中,存在过度收集、未经授权使用和数据泄露等风险。一旦出现数据泄露,公民的个人信息就可能被滥用于非法活动,严重侵犯公民的隐私权。这也要求政府在追求数据驱动的治理效率时,必须审慎平衡其与公民权利保护之间的关系。
最后,AI应用可能加剧社会不平等,形成数字鸿沟。这种不平等,不仅体现在基础设施和技术可及性上,例如低收入国家和地区互联网普及率远低于高收入国家,更体现在个体在涉及人工智能知识、技能和参与能力上的差异。有研究表明,智慧城市建设的积极效应,更多惠及于高收入群体和非老龄人口。这种技术红利分配上的不均,可能使弱势群体在智能社会中进一步被边缘化,加剧社会分化。
(三)制度与治理层面的困境
AI在城市治理中的应用,也会对现有制度和治理体系带来一定程度的挑战。首先,问责困境与权责模糊。当算法决策引发公共权益损害时(如执法偏见或服务排斥),如果现有法律框架缺乏清晰的问责路径,就会形成责任真空。这种责任真空容易引发公众对政府问责能力的质疑,削弱治理的合法性。
其次,AI正在重塑传统的官僚裁量权。随着算法在社会治理中的广泛应用,一些原本由基层公务员行使的判断权和裁量权逐步转移至算法模型和数据团队。这种权力重构可能带来效率提升,但也使决策过程更依赖技术逻辑而非公共决策,这势必会弱化官僚体系的灵活性与公共服务的温度。当公众面对算法决策结果时,往往难以通过传统行政渠道寻求解释或问题解决办法,从而在治理合法性和公众信任方面引发新的挑战。
最后,一些地方政府在AI应用中存在的“智能化锦标赛”现象也引发了担忧。在部分治理情境中,人工智能的引入并未真正提升治理质效,而是以技术赋能的名义滋生出新的形式主义问题。政府部门可能偏向展示AI在城市治理中的应用,以彰显现代化形象,而非真正解决市民关切的难题。在缺乏科学评估与长期监管的情况下,容易导致资源错配,并掩盖公共政策的实际效能。例如,北京12345热线的研究发现,热线对交通与环境问题的治理确有积极效果,但在施工管理和市场监管等领域作用有限,这反映出制度性保障不足与治理效果不均衡。对于人工智能在城市治理中可能面临的核心风险与挑战,本文从三个维度对其进行了系统梳理与总结(详见表2)。
表2 人工智能在城市治理中面临的核心风险与挑战

四、从技术中心到以人为本:破解困境的范式转向
AI赋能城市治理的进程绝非坦途,其伴随的技术依赖、算法歧视、问责困境与数字鸿沟等风险,共同指向一个深层次的范式危机——技术中心主义的迷思。在该范式下,技术效率被视为最高目标,城市治理被简化为可计算的工程问题,而公民则被物化为被动的数据点与服务接收端。其结果往往是技术逻辑凌驾于公共价值之上,导致治理效能的提升以侵蚀社会公平、公民权利与政府合法性等为代价。
为从根本上破解这一困境,本文主张,必须实现从技术中心到以人为本的深刻范式转向。本文在此处使用“范式”一词,主要是借鉴托马斯·库恩范式理论的核心洞见,将其作为一种强有力的理论隐喻与分析工具,用以刻画AI在城市治理领域正在经历的深刻变革——即治理共同体(政府、企业、公众等)共享的一套关于“为何治理”“如何认知”以及“何为价值”的根本性理念所发生的结构性重塑。
基于这一界定,本文所倡导的以人为本转向绝非简单的理念更迭,而是对上述范式要素的系统性重构,涵盖了本体论、认识论与价值论三个维度的深刻跃迁。在本体论上,治理对象从被视为可量化的数据集合转向具有情感与尊严的人的共同体;在认识论上,从人与技术对立或简单的数字崇拜转向人机共生的交互认知,承认算法理性的局限与人类价值判断的不可替代性;在价值论上,从单纯追求效率至上的工具理性,转向融合了公平正义的数字正义新治理观。
为实现上述范式转向,本文构建了一个以人机协同与包容性治理为两大核心支柱的实践框架。二者并非彼此独立或简单叠加,而是构成一种机制性互联、互为条件的共生关系。具体而言,人机协同旨在从治理体系内部,通过制度设计构建负责任的技术应用基础,为治理提供可靠性;包容性治理则旨在从治理体系外部,通过社会过程校准技术发展的价值方向,为治理提供合法性。二者共同构成一个从技术执行到价值引领的完整闭环,系统性地回应智能时代的治理挑战,其内在逻辑及支撑基础如图1所示。
图1 以人为本范式分析框架图

(一)构建人机协同机制,约束技术内生风险
人机协同路径是本体论与认识论上人机共生理念的制度化实践,意在通过在治理流程中嵌入制度性的人为锚点,为AI的权力行使划定边界。
通过“人机回环”(Human-in-the-Loop)的制度设计,在优化人机互动的同时,实现捍卫公共决策裁量权与温度的目的。在涉及公民基本权利、社会福利分配或复杂伦理判断的高风险决策中,必须通过制度强制规定“人机回环”,保证行政官员(人类智能体)的最终裁决权与必要的裁量空间。这实质上是一种从“工具性执行”向“目的性合理决策”的方法论回归。算法虽然能提供基于概率的最优解,但只有人类智能体能够基于具体情境进行合目的性的价值权衡,才能避免方法工具对人的把持和占有。这不仅是对算法黑箱的必要制衡,更是将人类特有的情境感知、伦理权衡与同理心注入决策过程,防止治理因过度自动化而陷入“算法冷酷”,从而回应了公众对有“温度”的公共服务的期待。
同时,人机协同为破解问责困境提供了路径。传统的人机协同概念常被理解为人类对AI的监督和辅助,但更深层次的协同应是双向互动的。随着AI不断发展,人类与AI的权力分配与责任边界会动态重塑,而不仅仅是“人监督机器”的静态关系。AI的反馈不仅能提升人类的生产力,同时人类对AI的调校和反馈也能优化AI模型。这是一种新型的知识生产与权力互动模式,需要重新界定人类智能体与非人智能体在治理中的主体角色和责任。AI擅长海量数据分析和模式识别,而人类则负责情境理解、伦理判断和最终裁决。这样的视角使我们能够重新界定治理中的主体角色,明确哪些判断是人类负责,哪些是AI辅助或自动化执行的,从而实现优势互补。由此构建一种协同式问责框架,即从制度层面细化责任条款,技术开发者负有确保算法公平、透明的设计责任,政府用户负有对AI决策进行监督、审查与最终解释的政治责任。通过明确界定人类智能体与非人智能体在治理链条中的角色与责任,使问责机制在AI时代得以重新有效运转。
(二)嵌入包容性治理,校准技术应用的公共价值
包容性治理路径是基于价值论层面对数字正义理念的社会化展开。它不仅是缩小数字鸿沟的手段,更是一种融合“包容性发展的价值理性”与“社会治理的工具理性”的制度安排。其旨在解决标准化算法与多样化社会需求之间的张力,校准技术发展的公共价值方向,以直面和回应算法歧视、数字鸿沟与公众信任危机等挑战。
本文选择包容性治理而非善治或参与型治理作为外部支柱,是基于人工智能技术的特殊风险考量的。一是相较于善治对共识与一致性的追求,包容性治理更强调对异质性的尊重。AI算法天然具有平均化和标准化的倾向,容易忽视少数群体的特殊需求,唯有明确主张接纳差异,才能从根本上矫正算法的统计学歧视。二是相较于参与型治理侧重过程,包容性治理更强调权利平等与成果共享的实质结果。针对技术带来的数字排斥现象,仅有参与是不够的,必须通过制度安排实现对弱势群体的数字赋权。
包容性治理旨在推动全过程公众参与来消解算法歧视与数据偏见,其核心在于尊重差异与异质性。而用于人工智能训练的数据的偏差特质和单一设计视角,往往是算法歧视生成的重要根源。倘若缺乏这种包容性视角,旨在提升效率的数字技术可能因其标准化的运作逻辑与资源分配模式,产生一种结构性排斥,无形中挤占了原本应服务于多元化需求的公共资源,将弱势群体推向数字排斥的边缘,削弱治理的合法性。因此,必须将公民,特别是弱势群体的代表,从被动的数据点拉回到积极的共治者位置。通过在系统设计、模型开发及运行监督的全生命周期中引入多元主体参与,吸纳社区代表与专家的意见,构成对算法权力最广泛、最深入的社会监督,从而提升治理决策的适应性与精准度。同时,还应借助普惠性制度设计,弥合数字鸿沟并促进服务均等。一方面,在AI公共服务接口推行普惠设计(如提供老年模式、无障碍功能等),降低技术使用门槛;另一方面,通过公共教育体系,确保所有群体都能机会均等地共享数字红利。这不仅是社会公平的体现,更是维系长期公众信任的基石。
因此,本文的包容性治理,其核心机制在于,通过全过程公众参与将公民(特别是弱势群体)从被动的数据点转变为积极的共治者,以消解算法歧视;并通过普惠性制度设计逆向调节数字鸿沟,确保技术应用的公共价值方向。
(三)范式转型的实现基础:动态保障与能力基石
人机协同与包容性治理两大支柱的有效运转,离不开一个动态演进的支持系统作为地基。一方面,必须构建动态的法律与伦理监管框架[31]。这包括实施包容审慎和分类分级监管,这一框架为人机协同中的权责划分和包容性治理中的公民权利保障,提供了稳定的制度预期。例如,对涉及公民基本权利的AI应用必须设置伦理红线,同时为创新留出“监管沙盒”空间。可以借鉴欧盟《人工智能法案》的经验,为AI应用设置明确的法律边界和道德准则,以此为新范式的落地提供稳定预期与法律保障。另一方面,两大支柱的有效运转,最终依赖于治理主体的能力(即人的综合素养),这要求同步提升公职人员与公民的数字素养。对于公职人员而言,重点在于实现从单一的技术执行者向人机协同的主导者转变;政府应加强对其进行AI治理能力的培训,使其具备识别算法偏见、评估技术风险以及在关键时刻敢于进行“人机回环”干预的判断力,从而确保内部制度约束机制的有效落地。对于社会公众,尤其是诸如老年人等易被算法边缘化的群体,提升其素养不应仅停留在“教会其使用工具”的技能层面,更应上升为算法时代的主体赋权;即通过教育与宣传,培育公众在人工智能与城市治理中的主体意识,赋予其主张合法权益、拒绝算法歧视的能力。唯有当公众具备了这种权利觉醒,包容性治理中的外部监督与反馈机制才能真正被激活,从而确保人工智能的发展始终服务于城市治理效能提升与公共价值最大化的总目标。
五、未来研究与实践展望
本文系统阐释了人工智能在城市治理中的赋能价值与潜在风险,并在批判技术中心主义范式局限的基础上,建构了一个以以人为本为引领、以人机协同与包容性治理为两大支柱的整合性分析框架。该框架通过内部约束—外部校准的双重机制,为系统性化解AI治理困境、实现技术赋能与价值理性的统一提供了新的理论视角。
然而,理论框架的构建仅为研究的起点。为推进这一框架从理念走向实践,并构建更为稳健、前瞻的AI治理体系,未来的研究与实践亟须在以下维度持续深化。
(一)理论深化:整合多学科视角,构建本土化的AI治理理论
现有研究多局限于单一学科视角,缺乏将公共行政、社会学、法学、伦理学等学科与计算机科学深度融合的综合性理论框架。为此,未来研究应致力于构建一个融贯的跨学科理论体系。
首先,在研究探索中关注如何将AI技术嵌入传统公共行政理论,重构其核心概念。例如,将AI的生成式行动者或代理式AI概念,与经典的街头官僚理论相结合,深入探讨AI如何重新分配而非简单取代了一线官僚的自由裁量权。这需要我们审视在人机协同的决策链条中,如何从理论上区分算法理性与人类价值判断的权力边界?如何构建一套既能容纳算法辅助,又能确保人类官员保有最终道德否决权的新型责任伦理框架?此外,还可以关注如何将AI发展应用与现有治理理论(如韧性治理、整体性治理、进化治理等)有机结合。
其次,借鉴社会学和心理学的相关理论,从社会与行为主体视角进一步理解AI与城市治理的互动影响效应。例如,可以探究政府工作人员和公众对AI的感知如何影响他们的信任和行为。除此之外,关注“人与AI互信”这一双向动态过程也具有重要意义,这超越了以往单向的人对AI信任模型。此外,探索在认识论层面,AI如何理解并适应人类的复杂指令与价值偏好。这要求将心理学、社会学与计算机科学深度融合,研究如何建立一种基于可解释性与价值对齐的深层互信关系,为人机协同治理提供坚实的微观理论基础。
最后,立足于中国本土化的治理实践,进行理论提炼和概念创新。通过深入分析超大城市“城市大脑”模式、基层“网格化+数智化”模式等创新路径的内在机理,将其理论化为具有中国特色的AI治理理论体系。马雪松等提出的“价值—数据—技术—制度”框架提供了一个研究起点,基于此框架可进一步探讨如何在实践中将“公共价值”作为AI治理的核心引领,确保技术发展与治理需求、民生诉求形成更紧密的契合。
(二)方法创新:强调实证研究、因果推断与长期追踪
当前研究多为理论探讨或单一案例分析,缺乏对AI政策效能的严格量化评估和因果分析。因此,在未来研究与实践检验中,还需从方法层面予以强化,具体包括以下三个方面。
首先,广泛采用准自然实验或因果推断方法,精确评估AI政策的真实效能和影响机制。例如,可以利用多期双重差分法或合成控制法,将智慧城市试点城市作为处理组,未试点城市作为对照组,量化评估政策对政府回应效率、城乡公共服务均等化、城市韧性等核心指标的净影响。针对传统计量方法存在的线性设定限制和高维变量处理不足等问题,可以采用双重机器学习等更先进的方法,评估政府数字化对城乡公共服务均等化的影响,并对高维数据和非线性关系予以分析,从而获得更准确的因果推断。
其次,加强跨学科数据与方法的融合应用。除传统的社会调查和政务数据外,未来研究可以加强对海量的非结构化数据(如政务留言板、社交媒体舆情、城市监控视频流)进行自然语言处理和计算机视觉分析,以洞察公众的公平感知、信任水平以及城市问题的空间分布特征。此外,还可以采用定性比较分析等方法,来揭示AI赋能城市治理的多因素协同驱动路径;例如在超大城市基层治理中,AI技术、数据规模、政策支持等多种因素如何共同作用以使治理效能得到提升。
最后,强调长期动态追踪的重要性。仅仅依赖短期的横截面数据或观察,可能无法全面捕捉其长效影响,甚至存在高估政策效果的风险。未来研究应建立长期的动态评估框架,特别是通过追踪数据捕捉AI治理模式的动态演化规律、识别其影响的滞后性,避免短期数据带来的高估政策效果的偏差。
(三)实践探索:推动以人为本范式走向实施落地
首先,制度化人机协同,构建负责任的内部约束机制。人机协同不能仅依靠公职人员的自觉,必须建立刚性的制度与技术基础。具体而言,政府应主导并从制度、技术和组织层面构建多维度的安全保障体系。在制度上,进一步细化AI应用中的责任条款,明确开发者、管理者和使用者在不同场景下的具体责任。在技术上,持续探索算法透明化和可解释性技术,并将其与司法审查制度相衔接,以破解“黑箱”问题。此外,组织层面的数字安全体系建设也是实现人机协同的基础,必须通过严格的数据采集与监管规范,为内部约束机制的运行提供安全的数据环境。
其次,实体化包容性治理,搭建全过程的外部校准平台。包容性治理的核心在于将社会公众纳入治理回路以校准技术价值,实现城市治理重心从“技术中心”到“以人为本”的转向。政府应将公民从数据点和被动受益者转变为共同生产者和决策参与者,通过搭建公众参与平台,鼓励其成为城市治理的合伙人和共建者,让公民共同参与AI解决方案的设计、评估和监督。这不仅能提高AI工具的社会适应性,还能增强公众的参与感、归属感和对政府的信任。
最后,构建长效、多元的评估体系。传统的评估多依赖效率、经济等单一指标,未来的评估应转向以“以人为本”为核心的多元化框架。这包括将公众满意度、公平感知、韧性、公民参与度等非技术指标纳入评估体系,确保AI发展真正服务于人的需求和福祉。在实践中,政府应建立AI治理的分类分级监管制度,对涉及公民基本权利的高风险AI应用进行严格的伦理审查与责任追溯。同时,应搭建公共参与和反馈平台,将公众的声音作为AI治理的校准器,能够动态地回应真实的治理需求,避免陷入“智能化锦标赛”的陷阱。