AI Agent面对的挑和、风险取管理
“黑箱”决策过程的归因坚苦:因为深度进修模子的复杂性和不成注释性,我们往往很难精确地逃溯一个错误的决策是若何发生的。是由于锻炼数据中的某个误差,是模子推理过程中的一次“”,仍是Agent对的错误?若是连“因”都无法确定,那么“果”的义务又该若何分派?
因为系统缺乏对LLM输出的二次平安校验机制,这些恶意指令会被间接施行,从而绕过保守的平安防护。按照亚马逊AWS的平安演讲,这种无害内容生成是Agent使用面对的焦点风险之一。
保守的使用法式凡是正在用户明白授权后,才会拜候特定的数据。而AI Agent为了实现其“自从性”,往往需要更普遍、更持续的数据拜候权限。一个摆设正在企业内部的AI Agent,可能需要同时拜候邮件系统、CRM、ERP、代码仓库等多个数据源。这种“全知”视角极大地添加了数据泄露的风险敞口。
这种数据权限的“黑箱”形态,源于AI Agent复杂的运转机制和当前用户界面的设想缺陷。用户往往只是给出一个高条理的方针(如“帮我规划下周的营销勾当”),而Agent为了完成这个方针,具体需要拜候哪些文件、挪用哪些API、取其他哪些Agent通信,整个过程对用户来说几乎是完全欠亨明的。用户缺乏一个清晰、曲不雅的界面来审计和节制Agent的数据拜候行为。
恪守法令律例取行业尺度:严酷恪守《中华人平易近国小我消息保》等法令律例,遵照“知情同意”、“最小需要”等根基准绳。积极参取行业数据平安尺度的制定,确保数据处置勾当一直正在合规的轨道上运转。
无限风险:对于聊器人等取人类交互的AI系统,必需履行通明度权利,明白奉告用户正正在取AI互动。
LLM是Agent的“大脑”,其输出间接决定了Agent的行为。然而,当前绝大大都Agent系统都存正在一个致命的设想缺陷:无前提信赖LLM的输出。者能够操纵这一点,通细致心构制的“越狱提醒”(Jailbreak Prompt)或匹敌性,LLM生成恶意的输出。这些输出可能包含。
这种失控感严沉了用户对AI Agent的信赖。若是用户无法确信本人的数据是平安的、其利用是合规的,他们就不敢将实正有价值、高度的使命拜托给Agent,这将极大地AI Agent贸易价值的实现。
总之,AI Agent的手艺安满是一个系统性工程,需要从代码、框架、和谈到施行的每一个环节都遵照平安开辟的最佳实践,才能实正建立起一条牢不成破的信赖链。
为了实现Agent取外部东西的交互,业界提出了一系列和谈和规范,此中最具代表性的是模子上下文和谈(Model Context Protocol, MCP)和Agent2Agent(A2A)和谈。然而,这些旨正在尺度化的和谈本身也引入了新的面。
不成接管的风险:全面临人类形成较着的AI系统,如操纵人类的潜认识弱点、进行社会评分等。
生态层面:成立对LLM输出的平安审查机制,过滤指令;成立可托的东西市场和MCP办事平台,对上架东西进行严酷的平安审计;正在A2A通信中强制利用双向身份认证和基于脚色的拜候节制。
AI Agent的自从性不只带来了手艺和伦理上的挑和,更对现有的法令框架形成了底子性的冲击。当一个可以或许自从决策和步履的类实体形成损害时,保守的义务归属准绳变得难以合用,构成了一个亟待填补的“问责实空”。取此同时,全球监管机构曾经认识到这一挑和的紧迫性,一场环绕AI,出格是高度自从AI系统的全球监管海潮正正在2025年全面展开。
RCE是最高危的平安缝隙。正在AI Agent框架中,RCE凡是源于对用户输入或模子输出的不成托数据处置不妥。例如,某些框架正在处置东西挪用或动态生成代码时,若是未对输入内容进行严酷的过滤和消毒,者就可能注入恶意代码。一个典型的例子是Pyspur框架中的模板注入缝隙(CVE-2025-6518)。该框架利用了Jinja2模板引擎,但未对用户可控的模板内容进行平安查抄,导致者能够构制包含恶意Python代码的请求,正在办事器端实现肆意代码施行。而是一个由狂言语模子(LLM)、东西(Tools)、插件(Plugins)以及其他智能体配合形成的复杂生态系统。这种组合虽然极大地加强了Agent的能力,但也引入了“挪用链风险互嵌”的问题,即生态系统中的任何一个环节都可能成为平安短板,导致整个系统的信赖链解体。
SSRF是AI Agent框架中最常见的缝隙之一。很多框架为了便利开辟者正在当地进行测试和调试,会默认将办事绑定正在0。0。0。0地址上。这意味着,不只当地能够拜候,局域网内的任何设备,以至正在特定收集设置装备摆设下,公网的者也可能拜候到这个本应是内部的办事。因为这些内部办事凡是缺乏严酷的身份认证和拜候节制,者能够构制恶意请求,通过Agent的口儿,扫描内部收集、内网其他办事,以至读取文件,形成“横向渗入”。
数据:这是最次要的来历。若是用于锻炼LLM的数据本身就包含了人类社会汗青和现实中存正在的性别、种族、地区等,那么模子就会“学会”并复现这些。例如,若是汗青聘请数据中男性工程师居多,AI聘请Agent正在筛选简历时就可能无认识地偏好男性候选人。
沙箱层面:采用颠末平安验证的成熟沙箱手艺,并及时更新补丁;设想并实施动态的、最小权限的沙箱策略,确保Agent只具有完成其使命所必需的最小权限调集。
“当AI Agent犯错时,谁来担任?”——这是悬正在所有AI Agent开辟者、利用者和监管者头上的“达摩克利斯之剑”。广西科技厅正在一篇关于智能体的科普文章中婉言,当智能体形成损害时,明白义务从体(开辟者、摆设者、利用者或智能体本身)变得非常坚苦。这一窘境次要源于以下几个方面。
身份识别取联系关系:Agent可以或许整合来自分歧渠道的碎片化消息,出完整的小我或实体画像,即即是匿名化的数据也可能通过联系关系阐发被从头识别,导致现私“无处可藏”。
比数据泄露更令人不安的,是用户对数据流向的和失控感。《智能体查询拜访》演讲了一个令人的现实:跨越对折的受访者暗示,他们并不清晰本人正在利用AI Agent办事时,到底授予了哪些数据权限,这些数据将被若何利用。
2025年,全球AI管理进入“实枪实弹”的实施元年。以2024年8月1日正式生效、并于2025年起分阶段实施的欧盟《人工智能法案》为标记,全球次要经济体纷纷从准绳转向具体的法令律例扶植。正在中国,政策的迭代速度同样惊人。2025年9月,国度互联网消息办公室指点发布的《人工智能平安管理框架2。0版》,正在距离1。0版发布仅一年后便进行了严沉更新,初次正在顶层管理文件中明白提及“智能体演进”趋向,并前瞻性地提出了“熔断机制”和“一键管控”等针对高度自从AI系统的监管要求。这标记着监管层曾经深刻认识到AI Agent带来的新风险,并起头建立取之相顺应的管理系统。
者窃取:如5。2节所述,AI Agent系统本身就是高价值的方针。一旦系统被打破,者就能获取Agent所能拜候的所无数据,形成大规模数据泄露事务。
多元从体的义务分离:一个AI Agent的降生和运转,涉及多个参取方。开辟者编写了其底层代码和算法;模子供给方(如OpenAI、Google)锻炼了其焦点的LLM;摆设者(企业)将其集成到本身营业流程中;利用者(员工或客户)向其下达指令。当损害发生时,义务能够等闲地正在这些从体之间“踢皮球”。
总之,处理AI Agent的现私取数据平安问题,环节正在于将“数据通明度”和“用户节制权”从头交还给用户,通过手艺取轨制的双沉保障,正在人取智能体之间成立起基于信赖的消息交互鸿沟。
A2A和谈的身份取权限问题:A2A和谈旨正在规范多智能体之间的协做。但360的研究发觉,其开源实现并未包含具体的身份认证代码,而是开辟者自行实现。这意味着,若是开辟者平安认识不脚,就可能导致Agent之间的通信缺乏无效的身份验证和权限节制。者能够伪拆成可托的Agent,向其他Agent发送恶意使命请求(影子),或者正在Agent之间传送被污染的数据(上下文),从而整个多智能系统统的协做。
最终,对AI Agent的管理并非要立异,而是为了给立异供给一个更平安、更可托、更可持续的成长。通过建立一个稳健而富有弹性的管理框架,我们才能确保这一强大的手艺可以或许实正地赋强人类、促进福祉,配合迈向一个负义务的、人机共荣的自从智能时代。
对于AI Agent开辟者而言,起首需要判断其产物能否属于“高风险”类别。一旦被认定为高风险,就必需投入大量资本成立合规系统,以满脚法案的各项要求,不然将面对高达数万万欧元或全球年停业额必然比例的巨额罚款。
处所政策跟进:前瞻财产研究院的演讲显示,截至2025年9月,中国已有31个省市出台了取人工智能相关的政策,构成了一个笼盖数据平安、算法平安、伦理规范等度的政策矩阵。
面临AI Agent带来的深刻挑和,全球立法者和监管机构正正在以史无前例的速度采纳步履。2025年,被业界普遍称为“AI律例实施元年”,标记着AI管理从理论切磋进入强制合规的时代。
从“单一东西”到“系统工程”:对AI Agent的管理已不再是简单的代码审查或算法审计,而是演变为一个涉及手艺、办理、法令、伦理和社会度的系统工程。它要求企业成立全生命周期的风险办理系统,将平安取合规的(Security & Compliance by Design)深度融入到产物研发的每一个环节。
大学薛澜传授正在其关于全球AI管理的研究中强调,义务可逃溯性是建立负义务人工智能的环节。缺乏明白的义务归属,不只使者难以获得补偿,更会严沉冲击社会对AI Agent的采取志愿,障碍手艺的健康成长。正如《东方》的一篇论文所指出的,义务归属不明白和义务承担不均衡,晦气于研发公司开辟负义务的人工智能产物。
现私加强手艺(Privacy-Enhancing Technologies, PETs)的使用:正在数据层面,应积极采用联邦进修(Federated Learning)、差分现私(Differential Privacy)、同态加密(Homomorphic Encryption)等手艺。例如,通过联邦进修,模子能够正在不将原始数据移出当地的环境下进行锻炼,从而数据现私。差分现私则通过正在数据中插手“乐音”,使得者无法从成果中反推出单个用户的具体消息。
按照平安内参正在2025年7月发布的查询拜访演讲,跨越70%的业内受访者对AI取错误决策暗示严沉担心。这种担心不无事理。当一个聊器人发生时,用户大概还能付之一笑;但当一个自从买卖Agent基于消息(如一则虚假的“公司财报”)做出买入或卖出决策时,可能霎时导致庞大的经济丧失。同样,一个工业节制Agent若是由于对传感器数据的“”解读而做犯错误操做,则可能激发出产变乱以至平安灾难。
若是说手艺平安风险是AI Agent可否“走得稳”的底题,那么伦理、取社会风险则决定了它可否“走得对、走得远”的标的目的问题。当AI Agent被付与越来越高的自从性,其决策和行为便不再是纯粹的手艺输出,而是嵌入了特订价值不雅和伦理考量的社会性实践。2025年,跟着Agent从尝试室社会各个角落,由其激发的伦理争议和社会影响正变得日益凸显。
AI Agent的强大能力源于其毗连数字智能取物理步履的桥梁感化,但这恰好也使其成为收集的高价值方针。其平安风险呈现出、荫蔽和系统性的特征,渗入到从底层代码、开辟框架、模子挪用到多智能体协同的整个生命周期。按照360缝隙研究院取大学正在2025年7月结合发布的《智能体平安实践演讲》,研究团队正在对支流AI Agent开源项目标阐发中,发觉了跨越20个平安缝隙(CVE),了一条懦弱的信赖链。本节将深切分解此中的环节手艺平安风险。
取晚期从动化次要替代体力劳动和反复性文书工做分歧,AI Agent凭仗其强大的认知和施行能力,正起头深切“白领”工做的核地。从财政阐发、市场研究、软件编程到客户办事,大量依赖消息处置和决策的岗亭都可能被高度自从的AI Agent部门以至完全替代。这可能激发比以往手艺更普遍、更深刻的就业布局变更,对劳动力市场的顺应性和社会保障系统提出严峻挑和。
从“被动响应”到“自动塑制”:管理的沉心正从对已知风险的被动修补,转向对将来风险的前瞻性防止和敌手艺成长标的目的的自动指导。以中国《人工智能平安管理框架2。0版》提出的“熔断机制”和欧盟AI法案的“高风险”事后评估为代表,监管者正试图正在风险发生前就建立起“平安护栏”。
不测泄露:Agent正在施行使命或取其他Agent交互的过程中,可能无意中将用户的小我消息或企业数据泄露给第三方。例如,一个客服Agent正在回覆问题时,可能会援用到其他用户的案例,从而泄露他人现私。
AI Agent的自从施行能力使其风险远超保守AI。一个带有的保举算法可能只是影响用户看到的内容,而一个带有的自从聘请Agent则可能间接一个及格申请人的工做机遇,形成本色性的社会不公。
过度收集取:为了提拔“智能”,开辟者可能倾向于让Agent收集尽可能多的数据,远超其完成焦点使命所必需的范畴。这些数据一旦被收集,就可能被用于用户画像、精准营销以至其他未经授权的贸易目标。
为了节制AI Agent施行不成托代码或拜候外部东西带来的风险,沙箱(Sandbox)手艺被普遍使用。沙箱旨正在建立一个受限的施行,隔离Agent的行为,防止其对宿从系统形成。然而,沙箱并非满有把握的“金钟罩”。
为了加快AI Agent的开辟取摆设,LangChain、AutoGen、Dify等开辟框架应运而生。它们通过对模子、东西和编排逻辑的笼统封拆,极大地降低了开辟门槛。然而,这种便当性也带来了新的平安问题,框架本身成为了者能够操纵的“”。
于2025年8月1日全面生效的欧盟《人工智能法案》(EU AI Act),是全球首部针对人工智能的全面、具有束缚力的法令。该法案的焦点是基于风险的分级监管方式。
按照新浪财经正在2025年10月的报道,跟着AI Agent使用的普及,用户反面临比以往更高的现私泄露风险。报道指出,仅正在2025年5月,监管机构就传递了多款含有AI大模子的挪动使用存正在违法违规收集利用小我消息的问题。而《智能体查询拜访》演讲的数据更具力:跨越70%的受访者将数据泄露列为他们最担忧的平安问题之一。
AI Agent的决策并非凭空发生,而是基于其锻炼数据和底层算法。然而,无论是数据仍是算法,都可能成为和蔑视的泉源,Agent的自从性则可能将这种不公大规模地、从动化地复制和放大。
综上所述,AI Agent正在伦理、和社会层面带来的挑和是系统性且彼此联系关系的。应对这些挑和,不只需要手艺层面的“算法向善”,更需要从轨制设想、法令规范到社会共识的全方位管理,确保手艺的成长一直办事于促进人类全体福祉的福祉。
中国正在AI管理方面采纳了一种被称为“火速管理”的策略,即通过快速迭代的部分规章、国度尺度和政策文件,来应对快速成长的手艺。2025年,中国的AI管理系统扶植进入快车道。
AI Agent施行使命的复杂性和多步性,加剧了的风险。正在一条长长的决策链中,任何一个环节的细小都可能被后续步调不竭放大,最终导致整个使命的失败或灾难性的成果。若何成立无效的现实核查(Fact-Checking)和分歧性验证(Consistency-Checking)机制,正在Agent施行环节步调前识别并拦截,是当前亟待处理的手艺难题。
自从行为的法令从体地位缺失:正在现行法令系统下,只要天然人和法人才能成为承担义务的法令从体。AI Agent做为一个类实体,不具备法令从体资历,因而无人一样“对本人担任”。这就导致,即便我们能证明损害完满是由Agent的“自从”决策导致的,也无法间接向其逃责,必需找到其背后的人类或法人实体。
本文将系统性地梳理和分解AI Agent正在2025年所面对的焦点挑和、环节风险及其对应的管理框架。我们将从手艺平安、伦理、义务归属以及法令监管等多个维度,连系最新的研究演讲、权势巨子的行业洞察和已发布的政策律例,深切切磋以下焦点问题。
总之,法令监管为AI Agent的自从性规定了不成跨越的红线。将来,合规能力将不再是企业的“加分项”,而是其和成长的“必需品”。只要正在的轨道上,AI Agent的庞大潜力才能被平安、可托地出来。
算法取模子:算法的设想本身也可能引入。例如,为了优化某些贸易目标(如点击率、率),模子可能会优先向特定人群保举产物或消息,从而构成“过滤气泡”或加剧消息不合错误称。
建立手艺合规能力:合规不再仅仅是法务部分的工做,更需要为具体的手艺实现。例如,为了满脚欧盟AI法案的“人类监视”要求,Agent系统必需设想响应的干涉和中止接口。
沙箱本身也可能存正在缝隙。高程度的者能够操纵沙箱的实现缺陷,施行“沙箱逃逸”,冲破隔离,获得对宿从系统的节制权。对于AI Agent而言,一旦其施行被打破,其所具有的所有权限和数据都将给者。
AI Agent的强大内容生成和自从交互能力,也使其可能成为制制和虚假消息的“超等兵器”。由多智能系统统细心筹谋、大规模施行的“认知域”,能够正在社交上制制虚假、小我或机构,以至干涉社会主要议程,严沉社会信赖的基石。深度伪制(Deepke)手艺的,使得目睹不再为实,对小我身份平安和社会不变形成间接。
从“各自为和”到“协同共治”:任何单一从体都无法应对AI Agent带来的复杂挑和。一个由监管机构、行业协会、手艺企业、学术界、社会配合参取的多方好处相关者协同管理模式正正在成为全球共识。国度担任制定底线性律例,行业担任成立细分范畴尺度,企业担任落实具体手艺和办理办法,学术界供给理论支持,而的监视和参取则是确保管理无效性的主要保障。
正如《2025年人工智能指数演讲》所指出的,跟着AI使用的扩大,由蔑视带来的潜正在风险正显著添加。正在金融范畴,AI信贷审批Agent可能由于数据误差,对特定社区某人群给出更低的信用评分;正在司法范畴,量刑Agent可能由于汗青判例数据中的,对不本家裔的被告提出不服等的量刑;正在医疗范畴,诊断Agent可能由于锻炼数据次要来自特定人群,而对其他人群的疾病识别率较低。
框架层面:默认将办事绑定到127。0。0。1,并强制要求身份认证;对所有输入进行严酷的性校验和无害化处置,出格是对于模板衬着、代码施行等高风险操做。
分歧的使命需要分歧的权限。例如,一个只需要进行收集搜刮的Agent和一个需要读写当地文件的Agent,其沙箱设置装备摆设应判然不同。若何按照使命的动态需求,实现差同化、最小权限的沙箱策略,是一个庞大的挑和。过于宽松的沙箱策略会留下平安现患,而过于严酷的策略则会Agent的功能。目前,业界尚未构成成熟的动态沙箱权限办理方案。
为了正在阐扬AI Agent能力的同时,守住现私取数据平安的底线,必需成立一个从手艺到管理的立体防御系统。
高风险:被列入“高风险”清单的AI系统(如用于环节根本设备、教育、聘请、信贷审批、法律等范畴的系统)必需正在上市前和整个生命周期中恪守一系列严酷的权利,包罗风险办理、数据管理、手艺文档、通明度、人类监视和收集平安等。
理解和跟进复杂律例:分歧国度和地域的法令律例存正在差别,企业需要投入特地的法务和合规团队来理解并持续跟进这些复杂的法则。
MCP投毒取:MCP答应Agent动态发觉和挪用东西。者能够正在公共的MCP办事平台(如mcp。so)上传恶意的“投毒”东西。这些东西的描述可能看起来无害,但其实现却包含恶意逻辑。当Agent挪用这些东西时,就会触发。更有甚者,者能够操纵sse(server-sent events)模式下的近程MCP办事,向多个智能体恶意指令,构成“跨智能体投毒”的链条,进一步放大平安风险。
例如,正在360演讲中披露的多个缝隙,如LangChain-Chatchat中的肆意文件读取/写入缝隙(CVE-2025-6853, CVE-2025-6854, CVE-2025-6855,部门缘由就是因为其办事端口的不妥,连系径遍历等其他缺陷,使得者能够操做办事器上的肆意文件。虽然Chrome等浏览器测验考试通过公用收集拜候(Private Network Access, PNA)规范来从公网对私网的拜候,但因为兼容性等问题,该规范正在2024岁尾被颁布发表推迟启用,使得当地请求的风险正在2025年仍然严峻。
“火速管理”成为常态:面临日新月异的手艺,的法令律例难以顺应。将来,雷同于中国“小步快跑”式的政策迭代和欧盟的“沙盒监管”模式将被更普遍地采用,以实现监管的矫捷性取无效性的同一。
强大的AI Agent背后是更强大的LLM,而锻炼和运转这些巨型模子需要耗损惊人的计较资本和电力。跟着全球数以亿计的AI Agent 24小时不间断地运转,其累积的碳脚印和能源耗损将成为一个不成轻忽的问题。若何正在押求智能化的同时,实现绿色、可持续的成长,是所有AI从业者必需面临的严沉课题。
本演讲共计分为“AI Agent手艺概述取成长示状、焦点手艺架构解析、开辟框架取平台、典型使用场景取贸易价值、面对的挑和风险取管理、将来瞻望”六大部门内容。上述文章仅为「面对的挑和取风险管理」的部门内容摘选。前往搜狐,查看更多!
国务院顶层设想:2025年8月,国务院发布《关于深切实施“人工智能+”步履的看法》,明白要求“完美人工智能法令律例、伦理原则”,并“推进人工智能健康成长相关立法工做”。
中国《人工智能平安管理框架2。0版》创制性地提出了“人工智能使用衍生平安风险”这一新类别,它关心的是AI大规模使用对整个社会系统带来的次生影响。AI Agent做为AI使用的“终极形态”,其衍生风险尤为深远。
成立清晰、可审计的数据管理框架:企业正在摆设AI Agent前,必需成立严酷的数据分类分级轨制,明白哪些数据能够被Agent拜候,拜候的权限是什么(只读、读写等)。所有Agent的数据拜候行为都必需被细致记实,构成不成的审计日记,以便进行平安审查和过后逃溯。
AI Agent的自从决策和步履能力,成立正在对海量、度数据的持续和处置之上。从用户的小我偏好、行为习惯,到企业的焦点营业数据、出产流程参数,Agent需要拜候和操纵这些消息来理解使命、制定打算并取交互。这种对数据的深度依赖,使其成为一个潜正在的“数据黑洞”,激发了史无前例的现私取数据平安担心。
手艺取律例的深度融合:将来的法令律例将不再是纯粹的文本条则,而是会包含更多可施行、可验证的手艺尺度和接口规范。例如,律例可能会要求AI Agent必需供给尺度的审计日记接口、人类监视接口或可注释性演讲格局,实现“以手艺之道,还治手艺之身”。
“AI”(AI Hallucination)是指狂言语模子正在看似完全自傲的环境下,生成了取现实不符、凭空或逻辑紊乱的消息。对于AI Agent而言,是其靠得住性的“阿喀琉斯之踵”。
交互:正在取用户的交互中,Agent可能会按照用户的反馈强化某些行为模式。若是用户群体本身存正在,Agent的行为也可能被“带偏”。
均衡立异取合规成本:成立完美的合规系统需要庞大的成本投入,这对于草创企业来说特别坚苦。若何正在满脚合规底线和连结立异活力之间找到均衡。
本文系统性地分解了AI Agent所面对的手艺平安、伦理、数据现私、义务归属和法令监管这五大焦点挑和。从开辟框架中躲藏的SSRF和RCE缝隙,到多智能体生态中懦弱的信赖链;从算法对社会公允的,到AI对决策靠得住性的;从用户对数据失控的遍及焦炙,到法令上“问责实空”的巨题——这些挑和配合形成了一幅复杂而严峻的风险图景,深刻地了AI Agent的自从性是一把需要被审慎把握的“双刃剑”。
设想以用户为核心的数据节制界面:必需打破数据权限的“黑箱”。Agent的用户界面应供给一个清晰的“现私仪表盘”,让用户能够曲不雅地看到Agent正正在拜候哪些数据、打算拜候哪些数据,并付与用户及时授权、或撤销的。对于任何超出常规的、高风险的数据拜候请求,系统必需自动向用户进行二次确认。
全球管理协调的主要性日益凸显:AI Agent是无国界的手艺,其研发和应器具有天然的全球性。分歧司法管辖区之间监管法则的冲突,将成为跨国企业面对的最大挑和之一。因而,鞭策成立全球性的AI管理准绳、尺度和最佳实践,削减“监管碎片化”,将成为国际社会的主要议程。




