不懂GPU深度学习,何以谈人工智能?

  • 时间:
  • 浏览:0

随着淬硬层 网络层数的增加,训练集动辄以T为单位计算,现在淬硬层 学习的训练可能性离不开GPU了,而GPU的计算能力也在不断的提升,以满足淬硬层 学习训练的计算需求。

2012年,Geoffrey E. Hinton(与Yann LeCun 和Yoshua Bengio并称为淬硬层 学习三驾马车)的弟子Alex Krizhevsky在ILSVRC-2012的图像分呼告赛中使用2块Nvidia GTX 550 GPU训练的多层神经网络(但是被称为AlexNet)以15.3%的top-5测试错误率摘得冠军,而使用传统妙招 的第二名的成绩是26.2%,整整提高了10多个百分点。这也成为了淬硬层 学习发展史上的里程碑事件,从此淬硬层 神经网络一炮走红,此后ILSVRC的优胜者突然被淬硬层 神经网络霸占。

这不得不提到2012年的一场竞赛...

实在淬硬层 学习面前的神经网络基础理论早在上世纪50年代就已提出,经过几起几落的发展,到了21世纪初,多层神经网络算法也日趋性性心智旺盛期图片 图片 图片 是什么。淬硬层 学习理论早在十多年事先 都有重要突破,为什么会么会会么会会直到近年才突然冒出爆发?

一年半事先 ,AlphaGo完胜李世乭的围棋赛让淬硬层 学习(Deep Learning)这俩 名词家喻户晓,再度掀起了人工智能的新一波热潮。

还可不能不能 说淬硬层 学习爆发有另六个 主要原因, 另六个 是像ImageNet另另六个 的大规模数据集的突然冒出,而另另六个 重要原因可是我我计算能力的提高,而这主要得益于GPU用于淬硬层 学习的加速,尤其是淬硬层 学习训练的加速

Alex当时使用的数据集含晒 17万张高清图片,受限于单块GTX 550 GPU 3GB的内存,大伙儿儿使用了2块GPU来训练大伙儿儿含晒 5000万参数和67万神经节点的网络,当时花了5~6天的时间。还可不能不能 想象,没办法 GPU的加速,要完成没办法 大规模的数据集的多层神经网络训练至少多长的时间。