2020全球人工智能十大进展发布

  2020年12月31,北京智源人工智能研究院(以下简称“智源研究院”)发布了《2020人工智能十大进展报告》。该报告由智源研究院全体智源学者共同参与,对2020年里全球范围内人工智能领域的科学系、算法等方向进行了评价分析,最终形成了十大进展成果。其中,由中国学者取得的进展有3项。

  这十大进展分别是:

  进展1:OpenAI发布全球规模最大的预训练语言模型GPT-3;

  进展2:DeepMind的AlphaFold2破解蛋白质结构预测难题;

  进展3:深度势能分子动力学研究获得戈登·贝尔奖;

  进展4:DeepMind等用深度神经求解薛定谔方程促进量子化学发展;

  进展5:贝勒医学院通过动态颅内电刺激实现高效率“视皮层打印机”功能;

  进展6:清华大学首次提出类脑计算完备性概念及计算系层次结构;

  进展7:北京大学首次实现基于相变存储器的神经高速训练系;

  进展8:MIT仅用19个类脑神经元实现控制自动驾驶汽车;

  进展9:Google与FaceBook团队分别提出全新无监督表征学习算法;

  进展10:康奈尔大学提出无偏公平排序模型可缓解检索排名的马太效应问题;

  在中国学者取得的进展中,北京应用物理与计算数学研究院王涵所在的“深度势能”团队,获得了国际高性能计算应用领域最高奖项“戈登·贝尔奖”。“戈登·贝尔奖”设立于1987年,由计算机协会(ACM)颁发,被誉为“计算应用领域的诺贝尔奖”。该团队研究的“分子动力学”,结合了分子建模、机器学习和高性能计算相关方法,能够将第一性原理精度分子动力学模拟规模扩展到1亿原子,同时计算效率相此前人类最好水平提升1000倍以上,极大地提升了人类使用计算机模拟客观物理世界的能力。

  清华大学张悠慧、李国齐、宋森团队首次提出“类脑计算完备性”概念以及软硬件去耦合的类脑计算系层次结构,通过理论论证与原型实验证明该类系的硬件完备性与编译可行性,扩展了类脑计算系应用范围使之能支持通用计算。《自然》周刊评论认为,“‘完备性’新概念推动了类脑计算”,对于类脑系存在的软硬件紧耦合问题而言这是“一个突破性方案”。

  北京大学杨玉超团队提出并实现了一种基于相变存储器(PCM)电导随机性的神经高速训练系,有效地缓解了人工神经训练过程中时间、能量开销巨大并难以在片上实现的问题。该系在误差直接回传算法(DFA)的基础上进行改进,利用PCM电导的随机性自然地产生传播误差的随机权重,有效降低了系的硬件开销以及训练过程中的时间、能量消耗。该系在大型卷积神经的训练过程中表现优异,为人工神经在终端平台上的应用以及片上训练的实现提供了新的方向。

本文由程序自动从互联网上获取,其版权均归原作者所有,文章内容系原作者个人观点,不代表本站对观点赞同或支持。如有侵权,请联系删除。