拜登政府将人工智能治理作为“领先之争”一大重点发力方向,通过推出系列文件完成了对人工智能治理政策的全面框架搭建。
张岚舒 孙奇芳
现代院美国研究所
2022年11月30日,ChatGPT横空出世,迅速引领全球人工智能技术变革。人工智能治理也成为摆在各国面前的重大问题。拜登政府为此加速政策制定,至今已搭建好全面政策框架,未来实施效果有待验证。
一、 拜登政府人工智能治理政策概览
拜登政府上台以来,不断加深对人工智能的理解,而ChatGPT大热也直接推动拜登政府人工智能治理进程进入“快车道”,至今已推出四份具有代表性的政策文件:
《美国人工智能国家安全委员会最终报告》
2021年3月,拜登政府上台伊始,美国人工智能国家安全委员会(NSCAI)发布《美国人工智能国家安全委员会最终报告》(以下简称《最终报告》)。该委员会通过向总统和国会提建议,“促进人工智能、机器学习和相关技术的发展,以全面满足美国国家安全和国防需求”。《最终报告》长达700多页,全面、深刻揭示人工智能在大国竞争和“中国威胁”背景下的重要性,将人工智能定位为“近几代人获得的最强大工具”,强调需将人工智能技术竞争和威胁应对提升至国家利益与安全高度,力推白宫、国会对人工智能产生重大观念转变,并就“在人工智能时代捍卫美国”和“赢得技术竞争”为拜登政府和国会提出了整套国家战略。其中,人工智能治理建议聚焦应对虚假信息、网攻、数据非法收集与操纵等社会风险、人工智能自主武器军事风险、以及引领人工智能伦理规范与国际秩序等。该报告为政府政策、国会立法管控人工智能系统定下战略基调,推动拜登政府将人工智能治理提上重要议程。
《人工智能权利法案蓝图》
2022年10月,美国白宫科技政策办公室(OSTP)发布《人工智能权利法案蓝图》(以下简称《蓝图》)。《蓝图》的突破性在于提出了关于人工智能系统治理的五项重要原则,包括:搭建安全有效系统,避免算法歧视,保护数据隐私,强调“公众须知”与透明度,以及鼓励留有“不使用系统”的选项。《蓝图》解释了每条原则的重要性及措施,以及如何运用现有法律、政策及实践将原则落地。以“搭建安全有效系统”为例,《蓝图》强调为避免技术出现重大、不合理破坏,人工智能系统应关注“设计、实施、部署、获取、维护”各个阶段,具备调研、广泛测试等保障措施。《蓝图》未提出详细行动措施,但为拜登政府后续政策提供了政策方向和实现路径。
《人工智能风险管理框架1.0》
2023年1月,美国商务部下属的美国国家标准与技术研究院(NIST)公布《人工智能风险管理框架1.0》(以下简称《框架》),其重要性在于详细完善了人工智能系统风险管理的方法论,提供了一种灵活、结构化、可衡量的管理流程,为组织机构开发和部署人工智能系统提供了行动指南。具体看,《框架》涉及两项重点内容,一是对“可信人工智能系统”做出了“有效和可靠性、安全(safe)、安全(secure)和弹性、可说明和可解释性、隐私增强性、公平-偏见管理、可追责和透明性”的定性。二是推出了一种初级的人工智能系统风险管理体系,涵盖政策制度、应用场景、技术工具、资源分配等方面。《框架》仍基于“自愿”。5月,美国国家人工智能咨询委员会(NAIAC)在报告中建议将《框架》从公共部门推广至私营部门,在更大范围落地。
《关于安全、可靠和可信地开发和使用人工智能的行政令》
2023年10月,拜登政府签署《关于安全、可靠和可信地开发和使用人工智能的行政令》(以下简称《行政令》),开启美国有史以来政府推进人工智能治理的最全面最重大行动,具有“里程碑”意义。《行政令》提出八项指导原则,包括“人工智能必须安全可靠、促进负责任的创新、支持美国工人、促进公平和公民权利、保护美国人的利益、保护隐私和公民自由、管控政府风险、引领全球进步”。其将安全作为最优先事项,提出对关键模型全流程监管的措施,并为政府部门初步确定职责分工,指示美国国家标准与技术研究院制定相关测试标准、国土安全部将标准应用于关键基础设施,商务部制定内容认证和水印指南等,还推动相关部门解决化学、生物、核和网络安全等风险。《行政令》的推出标志美国人工智能治理步入全面政策行动阶段,为国会未来立法打下基础。
二、评价与展望
拜登政府通过推出系列文件完成了对人工智能治理政策的全面框架搭建。几份文件在政策思路和方法上体现出一定的内在联系:《最终报告》重在提出涉人工智能主要风险和挑战;《蓝图》将风险问题聚焦到人工智能系统管控,初步划定监管阶段、明确监管原则;《框架》进一步提出“可信人工智能”结构化监管流程与监管体系建设思路;最终的《行政令》作为初步收官文件,将前述文件提及的“安全、可靠、可信”作为叙事重点,保留全流程监管思路,并对前述文件提及的关键基础设施、模型评估标准等问题给出具体措施。这体现出系列文件的渐近性与连续性。
几份文件在治理具体措施上存在“执法模糊”共性。从《蓝图》到《行政令》,拜登政府关注人工智能系统风险,但未给出详细的监管约束。《行政令》要求开发方需向美国政府通报其人工智能开发计划、为保护人工智能模型而采取的物理和网络安全措施,以及上报相关“红队”安全测试结果。但上述要求基于“自愿承诺”,未给出不遵守的后果或处置措施,有引导国防订单相关企业遵守承诺形成行业规范的意味。但“模糊性”也为拜登政府后续措施提供了更大空间。
从措施最终指向性来看,《行政令》不同于前三份文件,提出了直接服务国际竞争的更具体政策。如相比《最终报告》中关于建立良好国际秩序的设想,《行政令》在人工智能治理方面已提出明确的引领性措施,在“提升美国在海外的领导力”主要原则中提出国务院与商务部牵头建立强有力国际框架,管理风险确保安全,就标准制定、国际伙伴间互操作性等方面进行部署,具备实际的治理引领目标与行动。
未来,美国人工智能治理政策实效性仍待进一步验证。从政策内容与美国国内反应来看,《行政令》未来执行、相关法案跟进以及美式治理政策的推广已显示出一定趋势:
美国的人工治理政策因不具有强约束力,或致其后续执行遇到阻碍。美国《时代》杂志网站称,美专家认为《行政令》核心监管政策执行存在多种阻力。一方面,《行政令》部分政策本身或需进一步完善。《行政令》规定了企业向政府进行报告的初级“红线”,即关于模型计算能力的阈值,但其不能覆盖大部分现有模型。未来,开发方可能会专门开发阈值以下模型来逃避报告。此外,商务部需对足够危险的人工智能模型给出技术定义,但专家认为该任务实现难度较大。另一方面,《行政令》部分措施仍需立法保障执行效果。由于《行政令》未提及针对“危险模型”的具体处置措施,部分美专家认为拜登政府行政权力可能受到了限制,或与缺乏执法授权、部门拨款有限等因素相关。相比之下,《行政令》中的人工智能高技能移民政策可能会有立竿见影的效果。
未来国会在立法跟进方面或存在两难。国会立法压力在于其仍处于全面加深对人工智能认识的阶段。两党关于人工智能的共识主要在伦理层面,需就更广泛的治理政策达成一致。目前参院多数党领袖舒默已主持召开两次“人工智能洞察论坛”,听取业界精英关于人工智能的监管建议,并希望在数月内推出相关立法。但2024年总统大选在即,两党立法合作或受到干扰。
治理政策的全球推广进程加快。此前,ChatGPT的火爆、以及拜登政府推动亚马逊、谷歌、微软和OpenAI等一众人工智能顶级企业在监管方面达成“自愿承诺”,均为拜登政府治理宣传增色。在拜登政府推出《行政令》的前后3天,G7峰会和在英国举办的首届全球人工智能安全峰会均提出联合治理意见,与美《行政令》理念相似,联动推广意味明显。本土优势企业以及盟友伙伴纷纷行动,反映拜登政府在人工智能治理政策成型后同步加快治理政策推广,未来或借助美国与盟友主场平台继续加深合作。