机器之心整理,机器之心编辑部。人工智能顶会 IJCAI 2018 的主要议程于昨日在瑞典首都斯德哥尔摩开始。昨天上午,Facebook 首席人工智能科学家、纽约大学教授 Yann LeCun 在会上发表了近一个小时,以《Learning World Models: the Next Step towards AI》为主题的演讲,引起了人们的广泛关注。本文将对 LeCun 的演讲进行简要介绍。

Yann LeCun 开场介绍说,当前几乎所有的机器学习从业者在实践中使用的都是监督式学习:向机器展示大量的样本,然后告诉机器正确的答案与内部参数,然后就能做图像识别之类的任务。而过去几年,监督式学习有了极大的成功,应用也非常广泛。下图对比了传统机器学习与深度学习各自的特点。

深度学习的演讲回溯到 20 世纪 50 年代,当时 AI 社区尝试构建神经网络。建立这样略为复杂的系统,你需要两个基础的运算:线性的加权和与非线性的激活函数。这里,Yann LeCun 回顾了他们在 80 年代末期提出的用来识别数字的卷积神经网络 LeNet5,从最初的识别单个目标发展到了识别多个目标。

很快,他们就建立了一个识别手写文件的系统。在 1995 年,他们在 AT&T 完成了一个商业系统来读取支票账号。经历了如下图展示的过程。Yann LeCun 介绍了,这是上一波人工智能浪潮下的极大成功示例。之后,人们就对神经网络的研究失去了兴趣。一方面是准确率的原因,还因为很多领域当时没有足够多的数据来训练学习系统。

接着,Yann LeCun 介绍说,实际上在 1996-2001 年这段时间内,他并没有研究机器学习,而是在研究其它东西,尤其是图像压缩,www.77305.com

下图是在 21 世纪初加入 NYU 之后用模仿学习做的研究。这个研究激发了 DARPA 的 LAGR 项目。

标签 模型 世界 卷积 神经网络 监督学习

学习世界模型,通向AI的下一步:Yann LeCun在IJCAI 2018上的演讲

You May Also Like