一大波“预演未来”的创新应用来了

来源:中国经济网   阅读量:6080   

近日,在2022科大讯飞全球1024开发者节发布会上,科大讯飞股份有限公司AI研究院副院长高建清以“AI新纪元,讯飞超脑2030”为主题,详解“讯飞超脑2030计划”阶段性技术突破,一大波“预演未来”的创新应用将走入日常生活。

高建清表示,实施“讯飞超脑2030计划”,旨在突破人工智能共性基础算法,攻克多模态感知、多维表达、认知智能、运动智能等核心技术,研究软硬一体的机器人关键技术,探索虚拟人交互、机器人等方面的示范应用。

突破两个关键算法让AI更好地学习、推理

“‘讯飞超脑2030计划’的发展,离不开两个关键算法的突破,无监督学习和知识推理。”高建清说,前者需要实现实用化、场景化的预训练技术,后者需要构建基于知识检索、决策以及融合的推理系统。

科大讯飞设计了基于无监督学习的预训练模型,并创新地使用了少量有监督数据进行优化,大幅提升训练效率。高建清说:“预训练模型支持语音识别、声纹识别、情感识别、多模态语音识别等多个任务,参数量少于业界公开模型,但训练效果却十分显著。”

以回答“面包在低温下会马上发霉吗”这一问题为例,机器要理解“低温变质慢”等常识,在引入海量知识的基础上,要用预训练模型进行知识重要性排序,也要融合知识与问题进行推理,才能与人畅聊“面包变质的二三事”。

科大讯飞还探索将神经网络与符号推理相结合,打造了知识推理系统,实现推理过程的可解释性。在小学平面几何题上,这个推理系统让AI答题的正确率提升到90%的水平,显著优于传统推理系统。

多模态语音增强技术让AI的声音有感情

在“讯飞超脑2030计划”中,“唇形+语音”的多模态语音增强技术,实现了智能语音交互新模式。

“想要让机器更自然地与人类进行交互,就需要通过听觉、视觉、语义以及各种传感器的组合让机器获取更多的有用信息,AI的感知方式必然要从单模态发展到多模态,逐步拟人化。”高建清表示。

如何让机器的声音媲美人类?高建清分享了科大讯飞在语音合成技术领域的新突破——多风格多情感合成系统SMART-TTS。

高建清介绍,SMART-TTS可提供高兴、抱歉、撒娇、严肃、悲伤、困惑、害怕、鼓励、生气、安慰、宠溺等11种情感模式,每种情感模式依程度强弱不同分为20档;SMART-TTS还具备对机器声音的“个性化”设置功能,如停顿、重音、语速等,用户可以根据自己的喜好调节。

当你漫步林荫路,TA可以用字正腔圆的“播音腔”为你读新闻;当你结束一天工作准备入睡,TA可以轻声细语为你读散文;当你驱车去公司上班,TA可以用你最喜欢的歌手的声音告诉你走哪条路不堵车;当你和家人一起观看纪录片,TA还可以为纪录片不同人物配音,人机交互表达自然、情感饱满。

声明:本网转发此文章,旨在为读者提供更多信息资讯,所涉内容不构成投资、消费建议。文章事实如有疑问,请与有关方核实,文章观点非本网观点,仅供读者参考。