第382章 错误率(第2页)

训练这个模型花了阿列克斯不短的时间,以至于他每天都在房间里夜以继日的训练,完全不关心外面发生了什么。

如果他玩游戏,并且接触到了吃鸡的大火,可能他就会从黑洞用Ai训练dLss上得到某些信息。

至少,显卡训练他会明白已经不是他的专利了。

或许这时候的阿列克斯就不会对黑洞在iageet大赛上拿出来的模型如此吃惊。

两天后,iageet大赛现场。

自2010年以来,每年度的iageet大赛,许多研究团队在给定的数据集上评估其算法,并在几项视觉识别任务中争夺更高的准确性。

大赛上总共有20个类别总共超过2万张图像,各大研究团队需要让自己的模型在里面图像级注释表示图像中存在或不存在对象类。

虽然说起来很绕口,但其实就是让模型去判断“这张图片中有没有自行车”这样的问题。

对于人类来说是一个十分简单的任务,但对于计算机来说真的很难。

比如在一项任务中增加了120种类别的狗品种来展示细粒度的分类,而Ai需要把这120个不同品种的狗全都学会并归纳到“狗”这个命题下。

还要把其中的“猫”分辨出来,不能把猫或者大象、不穿衣服的大姐姐之类的东西混进去。

要处理这种级别的数据,需要非常庞大的计算力,这也是谷歌为什么会动用16000片cpu的原因。

可为什么阿列克斯用两张显卡就能达到一样甚至超过谷歌的能力呢?

这就取决于显卡的并行运算能力了。

拥有大规模并行计算架构,还拥有大量相对简单的核心,这些核心更擅长处理高度并行的任务,比如矩阵运算和卷积运算。

而cpu虽然单个核心性能强大,但核心数量少得多,处理并行计算任务时速度就更慢了。

英伟达的A100在深度学习任务中的计算速度比普通cpu甚至要快100倍。

gpu还配备了大容量、高带宽的显存,能够快速读取和存储大量的数据。而cpu的内存容量小,带宽有限,处理大规模数据的时候自然缺少效率。

而在iageet大赛这种图像识别任务中,gpu可以快速读取和处理大量的图像数据,提高处理速度和准确性,这也不是cpu能比的。