机器之心报道
机器之心编辑部
1 月 11 日,在机器之心 AI 科技年会上,清华大学惠妍讲席教授、电子系长聘教授 、清华大学电子系协同交互智能研究中心主任、衔远科技创始人,首席科学家周伯文发表了主题演讲《AI 与人和环境的协同与交互:多模态学习的新机遇》,在演讲中,他主要介绍了协同交互智能与多模态学习领域内的最新进展与对未来研究突破的展望。
以下为周伯文在机器之心 AI 科技年会上的演讲内容,机器之心进行了不改变原意的编辑、整理:
谢谢机器之心的邀请,我是来自清华大学的周伯文。现在正是农历年底,也是公历年初,很高兴有这样一个邀请,与大家分享我们对过去一段时间人工智慧发展趋势的总结,以及对未来的一些思考。
首先将核心想法分享出来,如果整个演讲听下来只能记住三点,请记住这三点:
第一,人工智慧的下一个突破会从纯虚拟的存在转到帮助人在物理世界、生物世界和信息世界更高效洞察并形成新知识、完成任务,创造更高价值场景。
第二,下一代人工智慧亟需加强知识(包括暗知识)、计算、推理的组合能力。这种组合能力非常重要,但我们认为人工智慧与人、环境的高效交互 协同是组合这些能力的核心。
原因有二:一是因为与人和环境的协同和交互是高价值创造的必备条件,如果没有 AI 和人的协同,AI 没办法独立完成这些高价值场景;二是因为这种协同和交互也是提升 AI 在知识、计算、推理及组合能力的有效路径。目前 AI 在计算方面进展很大,但在知识和推理及模块的有效组合之间还存在很大的瓶颈。将人和环境的协同和交互加进来,能够帮助去弥补 AI 在这些方面的一些瓶颈。
第三,关於多模态我们有三个判断:一,多模态理解与生成是协同和交互的重要基石;二,过去两年间,不同模态之间的表徵学习趋於统一,这是一个非常好的基础条件;三,最近大热的 ChatGPT 作为人机协同共创和交互的未来范式雏形,未来必将演变成多模态,将为多模态学习带来新机遇。尽管它还有很多很幼稚的地方,但这种这种范式的呈现给我们点明了未来的方向。
上述就是核心观点。在今天的报告中,我会讲一下协同交互智能与多模态学习,回顾最新的进展和机遇。
第一部分,从传统上的交互智能来说,我们走了很长的路。首先想强调,今天讲的协同和交互,跟原来的交互智能是截然不同的东西。历史上的交互更多是给定一个训练好的系统,把交互作为一个任务去完成,比如从 ELIZA 、IBM Watson、微软小冰、Siri 到京东的智能客服。今天讲的协同和交互,是把交互作为一个学习手段,把协同作为 AI 和人的分工,更好地完成人机协同融合,去洞察、形成新知识并完成任务。这是整个交互智能的历史视角。可以观察到,驱动进展的是技术视角的变化,包括从早期的规则模板到 Frame-based …