中国发展高层论坛2024年年会于3月24日在京召开。在人工智能发展与治理专题研讨会上,十几位中外嘉宾共同研讨如何利用好人工智能的机遇,应对好人工智能的挑战。国务院发展研究中心副主任张顺喜主持专题研讨会。
中国经济时报记者 赵姗
科学技术部副部长吴朝晖在作主题发言时表示,人工智能将成为第四次工业革命的标配,中国政府高度重视人工智能发展,通过加强人工智能领域科技创新、推动人工智能深度赋能实体经济、推进人工智能伦理治理等方面发展。
对于人工智能的发展趋势,吴朝晖认为,一是人工智能正在迈向多智能融合新阶段,以ChatGPT为代表的技术突破,打开了迈向通用人工智能的序幕,大模型已成为主流技术路线,并加快迭代演进。二是人工智能将成为第四次工业革命的标配,它将推动传统实体经济实现革命性升级与发展,从而催生智能经济新形态,成为发展新质生产力的重要引擎。三是人工智能将引发社会发展的深远变革,它将广泛地应用于教育、医疗、家政等行业,充分满足消费者对于自动化、实时化、个性化的要求。
“我们希望与世界各国携手合作,共同探索人工智能边界,共享创新成果,共管风险与挑战,从而共赢美好未来。”吴朝晖说。
北京智源研究院创始人、创始理事长张宏江在作主题发言时表示,当前,AI进入了一个新的发展阶段,以大模型为代表的阶段,它代表了第四次技术革命,带来了效率的提高,为我们的生活带来了诸多方便,将会创造大量的价值以及一个又一个新的产业。但同时,人工智能可能导致全球性的灾难性后果。为了避免这样的危险发生,我们需要划出红线,改进治理机制,同时需要研发更多安全的技术,控制人工智能不去跨越这些红线。要想做到这一点,最重要的一条是坚持和加强国际科学界和政府间在安全方面的合作。
在小组讨论中,Verimag实验室创始人、2007年图灵奖得主约瑟夫·希发基思表示,人工智能本身既不是好的,也不是坏的,关键的挑战是要明智地使用它,通过规范来预防风险。他认为,有两种主要风险,一种是技术风险,另一种是人为的风险,这可能是来自于对AI的误用或者无意中的使用而产生的影响,可以通过监管或者法律的框架来控制。由于AI所带来的自动化导致的失业问题,也可以通过适当的社会政策来应对。此外,还有两种风险,一个是怎么在选择和性能之间取得平衡,如果我们不能确保系统是以公正、中立的方式使用可靠信息,则不要将决策权交给系统。另一个是性能的提升是否与人类控制的缺失相平衡。
香港中文大学(深圳)前海国际事务研究院院长、广州粤港澳大湾区研究院理事长郑永年表示,人工智能的发展与治理必须要同时发展、同时进步。美国跟中国在AI领域实际上是互补的,各有自己的比较优势,可以互相学习。在治理方面,在国际社会上,更需要中美两个国家在AI治理领域进行合作。互联网AI最重要的还是要开放,中国要通过开放向美国学习,把发展做起来;美国应当向中国的监管、治理方面学习,互相进步。
清华大学苏世民书院院长、人工智能国际治理研究院院长薛澜表示,人工智能的发展面临一系列风险需要防范。从人工智能治理的角度来看,面临五大挑战。一是人工智能的技术发展是非常快的,但是我们治理体系的构建相对慢一些。二是信息不对称的问题。比如,企业不知道政府规制最关心的问题在哪儿;对技术发展可能会带来什么风险,政府不清楚。三是防范风险的成本要远远高于它有可能造成危害的成本,所以风险治理的成本较高。四是在全球治理方面,互相之间有重叠甚至也有矛盾的机构,都对某个问题有相关的利益,都希望来参与治理,使得全球治理体系的形成有很大的困难。五是人工智能领域的治理,一定要有美国和中国的合作,但是目前这种地缘政治也会带来相应的一些问题。
怎么去解决上述这些问题?薛澜建议,第一,要加强安全和技术。目前,在安全领域的研发是不够的,今后在这方面需要加强研究,尤其是需要加强国际合作。第二,通过敏捷治理的方式解决治理方面的问题。第三,鼓励企业的自我规制。第四,加强国际治理。在全球治理方面,联合国刚刚通过了协议,并且召开高级别专家的讨论。第五,在人工智能领域,中美双方一定要加强合作,这样才能真正解决人类面临的各种问题。
清华大学智能产业研究院院长、人工智能国际治理研究院学术委员中国工程院院士张亚勤表示,目前,Sora的能量很大,但是刚刚开始,未来5年,我们会看到其在各领域的大规模应用,所以会带来很多风险。他认为有三大风险:一是信息世界的风险。比如,有错误的信息、虚假的信息。二是在大模型领域独有的幻觉,但这个风险本身是可控的。而比较大的风险是,当把信息智能延伸到物理智能、延伸到生物智能,在大规模使用的时候,会出现风险的规模化。三是大模型连接到经济体系、金融体系、电站、电力网络等的风险是相当大的。
怎样防备这些风险?张亚勤提出以下五个建议。第一,标识我们所产生的数字人或者智能体。第二,要有映射和注册机制。未来会有很多机器人,但机器人本身是一个从属体,不是主体,必须要映射到主体。第三,建立分级体制。对于一般规模的模型监管可以少一点,对于前沿大模型、万亿级参数用到物理世界无人车的、用到金融系统的、用到生物系统监管的要多一些,要分级。第四,呼吁把10%的经费投入到大模型风险的研究中,这不仅是政策研究,还有很多算法、技术的研究。第五,人工智能大模型一定不要跨越红线。红线可能在不同的时间并不一样,但是需要有这个红线。中国需要和全球不同人工智能领域一起合作,否则就会有生存风险。