首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

挑战已来,英伟达能否延续优势?

图片来源:视觉中国

文|孙永杰

日前,全球AI芯片第一股英伟达在发布了不及预期的2019财季第三季度财报及第四季度业绩展望后,股价一度暴跌近20%,而在过去一个月中,英伟达股价已经下跌超过14%。

那么问题来了,这两年股价一直暴涨,颇有AI芯片“妖股”之称的英伟达缘何出现股价暴跌?

众所周知,以PC图形芯片(GPU)为核心的英伟达之所以股价和市值暴涨,最根本的原因是其自身和外界赋予了英伟达AI芯片(公司)的名头,而AI被外界公认为是未来芯片产业的发展方向。

尽管如此,从英伟达的财报看,传统的PC图形芯片依然是其营收和利润的主要来源(至少营收依然占到了一半)。

而此次财报发布后股价的暴跌,究其原因,也主要与其图形芯片库存的增加和“挖矿”芯片需求的减少而导致业绩未达预期密切相关。

虽然与AI真正相关的数据中心和智能驾驶等等芯片业务营收的处在增长之中,但鉴于其在英伟达整体营收的比重不足以影响整体的业绩表现,所以仍未能成为影响其股价走势的主要因素。

实际上不仅是刚刚过去的第三季度,从过去接近一年英伟达传统PC图形芯片业务一直占据其一半营收左右的事实,至少从短期看,英伟达仍不能称之为AI芯片公司或者说按照AI芯片公司衡量其股价和市值。

而就在英伟达发布财报之后,曾经因为AI而看好英伟达股价的高盛将从其“确信名单”中剔除,声称它“显然看错了这只股票”,低估了该公司库存积压的严重性,也从侧面证实了业内审视英伟达的标准开始发生变化(至少不能完全以AI企业的标准来衡量)。

如果说上述是英伟达实际业务构成和表现显现出,其作为全球AI芯片第一股盛名难副的话,那么即便是将其放置当下和未来的AI芯片中,也远非外界普遍认为的那般强大,至少存有一定的误区。

曾几何时,在英伟达、媒体和分析机构等的大力鼓吹和宣传下,英伟达似乎成为了AI芯片,甚至是整个AI产业的代表。

但事实远非如此。我们仅以目前AI芯片市场规模最大,也是英伟达GPU应用最为广泛的数据中心支撑的云计算为例,具体到所谓AI芯片的应用,主要分为云端训练(Training)和云端推理(Inferencing),也理应是业内现在和未来以AI之名衡量英伟达股价和市值的主要依据。

其中在强调算力重要性的云端训练方面,由于GPU具备的算力的天然优势,英伟达目前占有绝对领先的市场份额。

但在云端推理方面,先不说传统的CPU目前就可以承担接近一半AI相关应用的负载,从AI芯片的角度,与英伟达的GPU在云端训练方面近乎一家独大不同,其呈现的百花齐放之势,且芯片大佬云集。例如基于FPGA的全球FPGA芯片巨头赛灵思(Xilinx)和英特尔(并购来的Altera)。

对此,美国投资研究机构MorningStar分析师Abhinav Davuluri分析称,英特尔与赛灵思之所以在云端的推理阶段具备优势,首先是在推理方面,并不需要GPU强大的算力(更注重功率效率),其次英特尔和赛灵思有比英伟达更广泛的芯片选择,包括CPU、FPGA、协处理器和特殊应用集成电路(ASIC)等。

例如在CPU方面,虽然在云端训练方面的算力上不及GPU,但在注重功率效率的云端推理上则有望超越GPU。

以CPU市场的老大英特尔为例,在斯坦福大学更新的DAWNBenchmark测试成绩显示,英特尔的ResNet模型(Caffe框架),即完全由Xeon处理器构建的亚马逊EC2平台,推理延迟和推理成本上都拿下第一。具体来说,英特尔平台处理10000张图片的延迟是9.96ms,成本0.02美元,相比之下,英伟达基于MXNet框架的K80显卡+4 CPU平台的成本是0.07美元、延迟29.4ms。

需要说明的是,DAWNBench是一套用于端到端深度学习训练和推理的基准套件,提供了一套通用的深度学习评价指标,用于量化训练时间、训练成本、推理延迟以及推理成本,并通过不同的优化策略、模型体系结构、软件框架、云和硬件来计算推理成本。

除了CPU外,英特尔在今年美国旧金山举办的人工智能开发者大会上,还推出了基于ASIC专为机器学习设计的神经网络处理器芯片Nervana NNP-L1000(Spring Crest),有分析称这款NNP将大幅超越GPU。

同样,作为全球FPGA芯片巨头的赛灵思不久前也宣布推出专为云端推理设计的AI芯片,这款名为Versal的芯片将FPGA与两个更高性能的ARM处理器相结合,再加上一个专用的AI计算引擎,与现有硬件相比,可以实现更高的吞吐量、更低的延迟和更高的功效。

对此有分析师表示,赛灵思推出这款Versal芯片是将矛头对准了英伟达及其已经成为AI工作负载标准的GPU。

通过上述的分析,我们不难发现,在所谓AI芯片应用最大的云计算市场,按照云端训练和推理竞争的AI应用衡量,芯片厂商竞争的核心无非是芯片的处理能力(算力)和功率效率。而英伟达的优势目前只是体现在了云端训练的算力上,在注重功率效率的云端推理上显然并不具备绝对的优势,且面临强大的竞争对手。

而众所周知的事实是,一个完整的AI云端解决方案,从训练走向推理是必然,而英伟达能否将在云端训练上的优势扩展到云端推理,业内一直存有相当的争议,这也让英伟达在最大的AI芯片应用市场的未来能否是绝对的老大充满了变数。

如果说上述是英伟达在最大AI芯片应用市场面临激烈竞争能否延续既有优势存疑的话,那么在既有的算力优势上,英伟达的挑战已经到来。而且这些挑战者均是目前英伟达GPU用户的非芯片企业。

其中最典型的就是谷歌已经发展了三代的TPU。

相比于传统GPU图形芯片,TPU使用8位低精度计算以节省晶体管,对精度影响很小但可以大幅节约功耗,而若把多个TPU集成在一起,在增强性能的同时,功耗也会低于多个GPU集成。具体到今年发布的第三代TPU,据称,其新运算阵列TPUv3 Pod 的计算能力远远超过了100 Petaflops,这无疑使得英伟达在今年NVIDIA GTC 2018大会上发布的可容纳16块Tesla V100 GPU的DGX-2提供的2Petaflops的算力相形见绌。

而更让英伟达感到不安的是,谷歌宣布今年宣布开放自己的TPU算力和生态,这无疑又会间接影响到目前在云端使用英伟达GPU作为AI芯片的企业,减少对于其GPU的采购和使用。

不仅是谷歌,像诸如微软、亚马逊、中国的华为、阿里巴巴、百度等这些英伟达的大客户均已经发布和准备涉足AI芯片(主要是面向云端的AI应用)。

例如微软正在开发基于FPGA的Brainwave,华为更是在日前举行的华为全链接2018大会上发布了两款AI芯片:昇腾910、昇腾310。其中昇腾910作为单芯片计算密度最大的AI芯片,算力远高于谷歌研发的TPU V3、NVIDIA V100芯片,达到了惊人的256TFLOPS;而阿里巴巴正在研发一款神经网络芯片Ali-NPU,该芯片将运用于图像视频分析、机器学习等AI推理计算。

综上所述,我们看到,无论是从英伟达现在的营收构成,还是未来的AI芯片产业中,其全球AI芯片第一股盛名难副的迹象已经显现,就像知名做空机构香椽今年8月份在做空英伟达时所言:每次有新的人工智能技术亮相,在提到竞争对手时,都会提到英伟达的名字。

言外之意,英伟达已经成为AI芯片领域的众矢之的(统计数据显示,有多达40家公司都在设计定制化的AI芯片,其中许多都锁定了数据中心和云端应用),不管是芯片产业的真正竞争对手(主要是芯片厂商),还是合作伙伴(英伟达的客户),它们或出于竞争,或出于自身业务发展的考量,在技术、商业模式等方面直接或者间接地影响着未来英伟达在AI芯片领域的地位。

  • 发表于:
  • 原文链接http://www.tmtpost.com/3599275.html
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券