本篇文章939字,读完约2分钟
May đanh bạc【科技在线】ibm的几位研究者近日发表了论文。 论文阐述了所谓的电阻解决方案单元( resistive processing unit,rpu )的新芯片概念。 据悉,与之前流传的cpu相比,该芯片将深度神经互联网的训练速度提高30000倍。
深神经互联网( dnn )是一种具有多个隐藏层的人工神经互联网。 这个神经网络可以不进行监视训练也可以不进行监视训练。 结果出来的就是可以自己学习的机器学习(或者说人工智能),也就是所谓的深度学习。
前几天,谷歌( alphabet ) deepmind在人机大战中击败李世石的ai围棋程序alphago使用了同样的算法。 alpha go由一个搜索树算法和数百万种神经元连接而成的两个多层深度神经互联网组成。 一个互联网被称为战略互联网,用于计算走哪一步胜率高,另一个互联网被称为价值互联网,用于告诉alpha go如何让白子和黑子都运转比较好
由于前景广阔,许多机器学习研究者已经聚焦于深度神经互联网。 但是,要达到一定程度的智能,这些互联网需要非常多的计算芯片,例如alpha go采用的计算芯片数量达到了数千个。 所以,这是消耗计算资源,烧钱的任务。 但是,现在ibm的研究者提出了强大的计算能力可以与以前流传的数千个芯片匹敌的新芯片概念。 这个芯片组合千万个的话,未来ai的能力可能会越来越突破。
这个叫做rpu的芯片主要利用了深度学习等算法的两个优点。 局部性和并行性。 因此,rou利用新一代非易失性存储器( nvm )技术的概念,在本地存储算法中使用的权值,减小训练中的数据移动。 研究人员表示,如果将这个rpu大规模应用于10亿以上权重的深度神经互联网上,训练速度会提高30000倍。 也就是说,平时训练数千台机器需要几天的结果用这个芯片只需要几个小时,而且能源效率也要低得多。
当然,论文只是提出了概念,由于该芯片目前处于研究阶段,普通非易失性存储器尚未进入主流市场,预计这类芯片还需要几年的时间才能上市。 但是,如果这个芯片确实具有那么大的计算和能效特征,谷歌、facebook等从事ai研究和应用的巨头一定会关注,ibm本身也是ai、大数据的积极参与者之一,东西都会被做出来,
标题:“IBM新概念芯片:AI训练速度提升30000倍”
地址:http://www.j4f2.com/ydbxw/24946.html