想象一下,如果你置身于嘈杂的环境中,身边的朋友谁说了什么话,你能听得一清二楚吗?
答案很可能是否定的。
但这个普通人难以做到的事情,AI可以。
上个月,科大讯飞的讯飞星火大模型V4.0发布会上,三位讯飞研究院的研究员现场实测,在噪音环境下同时混叠说话时,正常人难以听清,但讯飞星火凭借其多模态能力,不但实现了三人重叠语音的角色分离,而且成功进行了实时转写。
这对应的是,针对强干扰场景下的语音识别难题,科大讯飞突破了多人混叠场景下的极复杂场景语音转写技术,即使在三人混叠说话场景下,也能实现86%的语音识别准确率。
科大讯飞的探索和技术成果,不止于此。
稍早一些的6月24日,2023年度国家科学技术奖励大会上,科大讯飞作为第一完成单位的“多语种智能语音关键技术及产业化”项目,获得国家科学技术进步一等奖。
这是深度学习引发全球人工智能浪潮以来,过去十年里,人工智能领域首个国家科学技术进步奖一等奖,也是科大讯飞继2002年、2011年分别获得国家科学技术进步奖二等奖之后,首次获得国家科学技术进步奖一等奖。
科大讯飞的上述技术突破,既是它过去多年技术实力的一次彰显,某种程度上,在大模型带来的战略机遇面前,其也在加速推动万物互联时代的到来——从产业视角来看,语音识别等智能语音技术的进阶,将进一步成为万物互联时代的核心推动力,持续向各类终端赋能,实现不同生活场景下的语音交互。
今年6月,科大讯飞董事长刘庆峰指出,科大讯飞正经历着创业以来最充满挑战、最扣人心弦、最激动人心的历史时刻,他认为,科大讯飞迎来了语音和大模型的全新战略机遇。
不难发现,在当下大模型带动的通用人工智能浪潮下,科大讯飞已经成了最具代表性的公司之一,在核心的智能语音技术上、大模型技术上,都已经走在了行业前列。
什么是最大的痛点?
2016年初,《麻省理工科技评论》公布了2016年年度十大突破技术,其中,语音接口技术被排在第三位,其认为,语音识别和自然语言理解相结合,能为世界上最大的互联网市场创造切实可用的语音接口。
同时期里,语音赛道成为全球互联网领域一个新的风口,从互联网大厂到初创企业,都在试图通过互联网硬件、软件抢占这一领域。
其中的一个重要视角,是智能音箱成了全球科技巨头的一个角逐中心。
2014年以来,从国外到国内,从亚马逊的Echo到谷歌的Google Home,到苹果的HomePod,到科大讯飞的讯飞智能音箱X1,到百度的小度智能音箱,再到阿里巴巴的天猫精灵,一众科技巨头都在加速布局。
不仅是大公司,聚焦到中国市场,当时的这股潮流同样传导到了数量庞大的中小企业群体。
科技公司显然不是只想做语音智能硬件,他们的目标,是面向未来切入人工智能市场。而硬件背后的语音平台,有机会成为物联网时代的“操作系统”,连接全新的产业生态。
人工智能助手的大规模出现,也是基于这一逻辑。微软人工智能与研究事业部负责人沈向洋此前曾表示,语音智能是人机交互方式的又一次“范式迁移”。
他将人工智能助手类比几十年前计算机从命令行界面转向图形界面,当时鼠标和桌面等的出现,让人机交互变得友好而便利,由此带来了个人电脑的大规模铺开。
核心的难题在于,机器仍然不够聪明。有业内人士曾坦言,“人工智能、人工智能 ,有多少智能,就有多少人工。”
这对应的是,机器在自然语言理解、知识获取等认知领域,仍然需要新的突破。
举个例子,2016年,在Winograd Schema Challenge大赛中,科大讯飞获得了第一名。Winograd Schema Challenge大赛有新型认知智能国际评测任务,重点考察机器是否具备理解常识并实现认知推理的能力,被认为是图灵测试的替代。
尽管获得了第一名,但当时机器的语言理解能力还远远不够,甚至不及6岁的孩子。
如何破局,成了语音交互产业迈向万物互联时代的最大命题。
深度学习带动智能语音技术加速进化
接着上文科大讯飞在Winograd Schema Challenge大赛中获得第一名说起。
这个故事的后续是,短短一年以后,2017年,科大讯飞和哈工大联合实验室又参与了斯坦福大学发起的SQuAD比赛,这次他们提交的系统模型再次斩获头名,也是中国本土研究机构首次取得SQuAD的第一。
SQuAD比赛对机器语言理解的能力要求更高,核心在于,机器聊天一般有很多通用的答案,但在SQuAD中,机器必须真正理解问题,才能回答问题。
在接下来的几年,双方这一联合团队连续多次在这项比赛中刷新纪录,其中2019年,联合团队首次在英文阅读理解的全部两项指标上超过人类平均水平,这在某种程度上意味着,科大讯飞已经站在认知智能方面的国际领先地位。
这对应的是,在智能语音产业加速进化、市场竞争持续白热化态势下,科大讯飞此类智能语音科技企业,加速走上了从单一的智能语音技术服务商、向全方位人工智能技术服务商的转型,利用在语音技术上的核心优势,在万物互联的趋势下,巩固并增强竞争优势。
事实上,早在2015年前后,刘庆峰就对公司的发展有了新的思考。他认为,科大讯飞要从当时的语音,进一步扩展为挑战更大的认知智能,也就是从能听会说,到能理解会思考。
同一时期,科大讯飞确定了认知智能战略,发布了“讯飞超脑”计划,向认知智能发起挑战。
科大讯飞希望建立起一个和人脑规模差不多大小的人工神经网络,并利用这个网络实现对人类认知、知识表达、逻辑推理等方面的模拟和学习,最终突破人类认知智能的挑战。
从认知智能的实现路径来看,要想让机器能理解、会思考,首先要布局的,是机器阅读理解和常识推理等技术。
这背后的技术背景是,自2006年深度学习技术兴起以来,语音识别实现了重大突破,进入了DNN(深度神经网络)时代;此后,语音识别技术持续进化,比如RNN(循环神经网络)、CNN(卷积神经网络)、DFCNN(深度全序列卷积神经网络)等及端到端技术的发展。
而在这一过程中,科大讯飞是最先布局的企业之一。
早在2012年,科大讯飞就将BN-feature和NDD-HMM两套深度学习方案上线了讯飞输入法和语音开放平台,其由此成为国内首个上线深度学习语音识别商业系统的机构,将实际场景中语音识别的准确率从60%提升到了88%左右。
也正是在“超脑计划”公布后,科大讯飞加速进入AI 1.0时代,在智能语音技术的支撑下,向认知智能不断迈进。
2022年7月,在由艾伦人工智能研究所(AI2)推出的常识推理挑战赛OpenBookAQ中,科大讯飞推出的X-Reasoner模型,以94.2%的准确率夺冠,常识推理单模型首次超过了人类平均水平。
其中呈现出来的技术能力,一方面是机器的语言理解能力提升了;另一方面则是,机器多任务学习的能力也提升了。
科大讯飞的突破来源于,其在2019年初开始做预训练模型,即目标任务之外,通过学习得到的模型。
这就好比人类原来的目标是学会阅读理解,为了实现这个目标,会去读很多的资料,比如文史知识、文学常识等等,在这个过程中人类既学会了阅读理解,也学习到了很多其他的知识,获取了其他的能力。通用人工智能的雏形已经在内部出现。
在2018年的上海世界人工智能大会上,科大讯飞董事长刘庆峰曾表示,下一步AI发展的关键是算法突破,希望AI不用大量数据训练就能自主学习,希望行业AI变成通用AI。
7年之后,他当年希望突破的技术已经实现,他希望看到的通用AI也已经成为现实。
通用人工智能的快速发展和落地背后,语音交互产业也正发生着新一轮变革。
逻辑在于,原来的语音合成、语音识别、机器翻译等单点技术的突破,实现了语音交互的系统性创新,但是通过大模型的自然语言理解、文本生成、指令跟随、多轮对话、情绪感知、超拟人合成等,真正使得语音交互质量得到提升。
从这一刻起,语音交互从可用、实用,走向更加好用——从我们熟知并经常使用的语音输入法、语音助手、智能音箱,到深入各个行业的智能客服、智慧座舱、语音病历等场景,智能语音技术的进一步落地,某种程度上将带来新的人机交互变革。自此,“懂你的AI助手”借助软硬件一体化等方式,全球开花。
在大模型浪潮下,语音领域的几乎所有应用,都值得用新方式重构一遍。
今年6月27日,其发布了讯飞星火大模型V4.0及相关落地应用,在底座能力上全面对标Open AI的GPT-4 Turbo。
讯飞星火V4.0在8个国际主流测试集中排名第一,并在文本生成、语言理解、知识问答、逻辑推理、数学能力等方面,实现了对GPT-4 Turbo的超越。
值得注意的是,除了这一通用大模型之外,今年1月30日,在讯飞星火大模型V3.5的升级发布会上,科大讯飞正式发布了星火语音大模型。
当时刘庆峰强调,让机器具备学习、推理和决策的能力,就是认知大模型要干的工作,“简单来说,借助大模型,我们让一段语音具备更加丰富的属性,有语种、有内容、有韵律、有音色,还有情绪。”
上个月的发布会上,星火语音大模型也迎来了升级。其发布了多语种多方言免切换语音识别能力,可支持37个语种、37种方言“自由对话”,其中,37个语种识别效果领先了OpenAI whisper-V3,37个方言识别效果平均提升了30%。
从更长远的视角来看,在语音技术和大模型的战略机遇期面前,科大讯飞实质上正加速推动人机交互的新一轮变革。
比如在汽车领域,在大模型加持下,星火汽车智能座舱全新升级,不但具备了多语种多方言的“自由交互”,还具备多情感多模态的超拟人交互,让人车交互更有温度。
回顾过去25年,科大讯飞跨越了三座高山:
起初,一群对语音技术抱有热忱、怀着将技术产业化理想的年轻人创办了这家公司,随后用了将近十年甚至更久的时间,将中国语音技术从“跟随者”改写成了“引领者”;
再到大约十年前,科大讯飞开始了新的航向,在人工智能战略的牵引下,其将公司的业务和技术布局,从感知智能拓展到了认知智能;
再到如今大模型浪潮袭来时,科大讯飞又快速反应,凭借着深厚的技术积累,推动万物互联时代的加速到来。