诺奖得主Hinton:AI应回归生物学,不应开放源代码

   日期:2024-12-29     作者:hc5sw       评论:0    移动:http://oml01z.riyuangf.com/mobile/news/11937.html
核心提示:在最近的一场演讲中,诺贝尔奖得主乔治·辛顿(Geoff Hinton)深入探讨了人工智能(AI)的发展方向,以及大规模语言模型(如Chat

在最近的一场演讲中,诺贝尔奖得主乔治·辛顿(Geoff Hinton)深入探讨了人工智能(AI)的发展方向,以及大规模语言模型(如ChatGPT)所面临的理解与伦理问题。辛顿教授强调,AI的发展应回归生物学根源,并对开放大模型的源代码提出了坚决反对,认为这会带来难以预料的风险。

诺奖得主Hinton:AI应回归生物学,不应开放源代码

辛顿首先提到,当前的AI模型在处理数据时,并非仅仅依赖于存储和回忆,而是通过深度学习与上下文理解,进行更为复杂的语言生成。这一观点时刻挑战着人们对AI理解能力的传统看法。他指出,大型语言模型并不是简单的“文本自动完成”工具,而是通过海量数据的学习,逐渐在语义上建立起内在的理解逻辑。虽然一些观点认为这些模型仅是生成与输入相关的三元组形式,但辛顿强调,这种工作远比自动完成复杂,模型需要深刻理解上下文才能生成恰当的回应。

在讨论AI的未来时,辛顿表达了对模型能否具备真正理解能力的担忧。他指出,目前的ChatGPT等模型在某些情况下表现出色,但当面对复杂问题时却可能产生不准确或混淆的信息。他进一步分析了人类记忆与AI生成的相似点,认为虽然人的记忆也会面临“编造”的风险,但人的理解与学习方式与AI模型有本质的区别。这种语言学习与记忆的对比引发了关于人类意识与机器感知的深层思考。

辛顿对AI发展的未来展望并不乐观。他认为,随着AI智能水平的提升,当前的快速发展可能导致人类失去对技术的控制。他特别强调,开放大模型的源代码可能使之被不法分子利用,导致潜在的安全隐患。辛顿以核武器类比,指出开放源代码的风险如同允许公众轻易获得极端技术,可能引发社会的不安与动荡。因此,确保AI技术的安全与伦理使用成为亟需解决的问题。

此外,辛顿提到,AI的计算方式和方向应该学习生物学的特性。他提出了“可朽计算”的概念,即通过模拟神经网络的方式,降低能量消耗并提高计算效率。这一想法意味着,未来的AI不仅需要在效率上有所突破,更应该在技术上模仿生物神经元的复杂性。

总结而言,乔治·辛顿的演讲在技术与伦理之间架起了桥梁,提醒我们在追求AI技术进步的同时,必须深思其影响与后果。AI的未来不应仅仅依赖于算法与数据,更需要回归生物学的本质,才能在智慧与安全之间找到平衡。

解放周末!用AI写周报又被老板夸了!点击这里,一键生成周报总结,无脑直接抄 → → https://ai.sohu.com/pc/textHome?trans=030001_jdaidzkj

 
特别提示:本信息由相关用户自行提供,真实性未证实,仅供参考。请谨慎采用,风险自负。

举报收藏 0打赏 0评论 0
 
更多>同类最新资讯
0相关评论

相关文章
最新文章
推荐文章
推荐图文
最新资讯
点击排行
{
网站首页  |  关于我们  |  联系方式  |  使用协议  |  隐私政策  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  鄂ICP备2020018471号