发布时间:2022-12-16 18:30
AI芯片技术市场思考
参考文献连接
https://mp.weixin.qq.com/s/qYv3EpZiYlld7FV-bnvSEw
https://mp.weixin.qq.com/s/kQ3XFzLd2IbweRqISeLUTw
AI芯片行业深度研究
四大类人工智能芯片(GPU、ASIC、FGPA、类脑芯片)及系统级智能芯片在国内的发展进度层次不齐。用于云端的训练、推断等大算力通用 芯片发展较为落后;适用于更多垂直行业的终端应用芯片如自动驾驶、智能安防、机器人等专用芯片发展较快。超过80%中国人工智能产业链企 业也集中在应用层。
总体来看,人工智能芯片的发展仍需基础科学积累和沉淀,因此,产学研融合不失为一种有效的途径。
研究主体界定:面向人工智能领域的芯片及其技术、算法与应用
无芯片不AI , 以AI芯片为载体实现的算力是人工智能发展水平的重要衡量标准。
广义的AI芯片:专门用于处理人工智能应用中大量计算任务的模块,即面向人工智能领域的芯片均被称为AI芯片。 狭义的AI芯片:针对人工智能算法做了特殊加速设计的芯片。
《2022中国AI芯片行业研究报告》报告将对针对狭义的AI芯片即人工智能算法做特殊加速设计的四种主流芯片GPU、ASIC、FPGA、类脑芯片以及系统级AI芯片技术、实现 AI的主流算法及在场景中的应用情况进行解析。
AI芯片的发展历程:模仿人脑建立的模型和算法与半导体芯片发展交替进行
人工智能算法需要在计算机设备上实现,而芯片又是计算机设备运作的核心零件,因此AI芯片的发展主要依赖两个领域:第一个是模仿人脑建 立的数学模型与算法,第二个是半导体集成电路即芯片。优质的算法需要足够的运算能力也就是高性能芯片的支持。
亿欧智库2019年发布AI芯片行业研究报告认为,人工智能于芯片的发展分为三个阶段:第一阶段由于芯片算力不足,神经网络算法未能落 地;第二阶段芯片算力提升,但仍无法满足神经网络算法需求;第三阶段,GPU和新架构的AI芯片促进了人工智能的落地。
目前,随着第三代神经网络的出现,弥合了神经科学与机器学习之间的壁垒,AI芯片正在向更接近人脑的方向发展。
中国AI芯片产业图谱
基于技术架构、部署位置及实践目标的AI芯片分类
AI芯片一般泛指所有用来加速AI应用,尤其是用在基于神经网络的深度学习中的硬件。
AI芯片根据其技术架构,可分为GPU、FPGA、ASIC及类脑芯片,同时CPU可执行通用AI计算,其中类脑芯片还处于探索阶段。
AI芯片根据其在网络中的位置可以分为云端AI芯片、边缘及终端AI芯片;根据其在实践中的目标,可分为训练(training)芯片和推理 (inference)芯片。
云端主要部署训练芯片和推理芯片,承担训练和推理任务,具体指智能数据分析、模型训练任务和部分对传输带宽要求比高的推理任务;边缘 和终端主要部署推理芯片,承担推理任务,需要独立完成数据收集、环境感知、人机交互及部分推理决策控制任务。
GPU:从图形处理器到通用数据并行处理器
GPU(Graphics Processing Unit)图形处理器最初是一种专门用于图像处理的微处理器,随着图像处理需求的不断提升,其图像处理能力也得 到迅速提升。目前,GPU主要采用数据并行计算模式完成顶点渲染、像素渲染、几何渲染、物理计算和通用计算等任务。因其超过CPU数十倍 的计算能力,已成为通用计算机和超级计算机的主要处理器。其中通用图形处理器GPGPU(GeneralPropose Computing on GPU)常用于数据 密集的科学与工程计算中。
英伟达与AMD仍占据GPU霸主地位,2018年至今,国产GPU也积极发展中,已有部分产品落地。
ASIC与FPGA: AI芯片领域“兵家必争之地”
FPGA全称是Field Programmable Gate Array:可编程逻辑门阵列,是一种“可重构”芯片,具有模块化和规则化的架构,主要包含可编程 逻辑模块、片上储存器及用于连接逻辑模块的克重购互连层次结构。在较低的功耗下达到GFLOPS数量级的算力使之成为并行实现人工神经 网络的替代方案。
ASIC(Application-Specific Integrated Circuit)是指应特定用户要求和特定电子系统的需要而设计、制造的集成电路。ASIC从性能、能效、 成本均极大的超越了标准芯片,非常适合AI计算场景,是当前大部分AI初创公司开发的目标产品。
ASIC与FPGA:功能与市场定位不同,竞争关系不明显
FPGA具有开发周期短,上市速度快,可配置性等特点,目前被大量的应用在大型企业的线上数据处理中心和军工单位。ASIC一次性成本远远 高于FPGA,但由于其量产成本低,应用上就偏向于消费电子,如移动终端等领域。
目前,处理器中开始集成FPGA,也出现了可编程的ASIC,同时,随着SoC的发展,两者也在互相融合。
基于不同硬件实现方式的AI芯片:系统级芯片
在手机、可穿戴设备等端设备中,很少有独立的芯片,AI加速将由SoC上的一个IP实现。
SoC(System-on-chip,片上系统)作为ASIC设计方法学中的新技术,始于20世纪90年代中期,是以嵌入式系统为核心,以IP复用技术为基 础,集软、硬件于一体的集成芯片。在一个芯片上实现信号的传输、存储、处理和I/O等功能,包含嵌入软件及整个系统的全部内容。
由于高集成效能,SoC已经成为微电子芯片发展的必然趋势。
基于不同计算范式的AI芯片:类脑芯片
CPU/GPU/GFPGA/ASIC及SoC是目前用的较多的AI芯片,此类AI芯片大多是基于深度学习,也就是深度神经网络(DNN),以并行方式进 行计算的芯片,此类AI芯片又被称为深度学习加速器。
如今,模仿大脑结构的芯片具有更高的效率和更低的功耗,这类基于神经形态计算,也就是脉冲神经网络(SNN)的芯片为类脑芯片。
目前,部分企业产品已进入小批量试用阶段 ,类脑芯片最快将于2023年成熟,能效比有望较当前芯片提高2-3个数量级。
AI芯片发展:向着更低功耗、更接近人脑、更靠近边缘的方向
现在用于深度学习的AI芯片(包括CPU、GPU、FPGA、ASIC)为了实现深度学习的庞大乘积累加运算和并行计算的高性能,芯片面积越做越 大,带来了成本和散热等问题。AI芯片软件编程的成熟度、芯片的安全,神经网络的稳定性等问题也未能得到很好的解决,因此,在现有基础 上进行改进和完善此类AI芯片仍是当前主要的研究方向。
最终,AI芯片将近一步提高智能,向着更接近人脑的高度智能方向不断发展,并向着边缘逐步移动以获得更低的能耗。
AI芯片发展:计算范式创新方向及其硬件实现
AI硬件加速技术已经逐渐走向成熟。未来可能更多的创新会来自电路和器件级技术的结合,比如存内计算,类脑计算;或者是针对特殊的计 算模式或者新模型,比如稀疏化计算和近似计算,对图网络的加速;或者是针对数据而不是模型的特征来优化架构。
同时,如果算法不发生大的变化,按照现在AI加速的主要方法和半导体技术发展的趋势,或将在不远的将来达到数字电路的极限(约1到 10TFlops/W),往后则要靠近似计算,模拟计算,甚至是材料或基础研究上的创新。
AI芯片,撑得过明年吗?
前几年的“人工智能热”让大小厂商陆续跳入AI芯片的研发大军中,当潮水褪去,AI芯片的风口已然不再,当初的大多数初创公司们都黯然退出历史舞台,如今谁在潮头卖芯片?
往日的热闹逝去已久,AI芯片这一行,已经快降温三年了。企业们的战略摇摆、动作变形随处可见,仿佛是一个个行走的创业记错本。他们趟过的坑、摔过的跟斗,其他玩家即便亲眼看见了各种失败先例,可肉身还是得下场走一遭。这就是创业,听过无数的道理,也逃不过重复别人失败的一生,这更是创业者的宿命:不断的试错和验证。
AI芯片市场如今进入洗牌时刻,加速呈现去 AI 化趋势,在中国的这场狂欢又该怎么收场?
繁荣背后的一地鸡毛
AI芯片的火爆,与其说是AI技术发展的果实,不如说是资本的产物。
资本如酒,能壮创业胆。
忽如一夜春风来,千树万树梨花开。随着AI产业的迅速发展,越来越多的企业都投身到了AI淘金这股浪潮中,而其中最为耀眼的便是AI芯片。
为什么好像一夜之间大家都在造AI芯片?
虽然从AI芯片相对偏长的投资回报周期来看,芯片与资本的逐利本性来看是相冲突的,但是它可以包装成为一个好故事。
早前就有业内人士提出质疑:人工智能芯片概念比较怪,定义也非常宽泛。AI市场的第一颗芯片是包括现成的CPU,GPU,FPGA和DSP的各种组合。在国外巨头眼中的AI芯片更多是基于传统的通用芯片架构中去升级或者拼装组合。
OneSpin Solutions总裁兼首席执行官Raik Brinkmann也在质疑并提出了以下问题:在AI芯片中,你有三个问题需要解决:
• 首先,需要处理大量的数据
• 其次,构建用于并行处理的互连
• 第三,功率,这是移动数据量的直接结果
所以亟须从冯诺依曼架构转变到数据流架构。然而,AI芯片究竟是什么样子,以及该如何定义还没有统一的标准。在国内市场来看,更多是一个缺乏严格定义的伪概念。
这种令外界心跳业内窃喜的概念,更多是为了商机而制造出来的“新技术”。
正是因为缺乏定义与标准,所以它有了将概念包装讲故事的空间。
当然对于很多人来说,有一个好的故事来圈钱已经足够。
随着各行各业的企业都开始进入IC行业,人才需求量猛增。但是人才培养的速度完全跟不上需求的增长。因此,新进入的企业高薪挖人,高薪抢人已经成为常态,应届生的薪资水涨船高。能够拿出高薪的企业有两种:
• 其一,拿到大笔融资的初创企业
• 其二,入局IC的互联网巨头
对于初创公司来说,要对得起投资人的大笔投资,技术团队必须建立起来。往往投资人的压力也比较大,一般需要在一定时间之内,建立多少人的队伍。时间一到,是需要向投资人汇报的。因此,技术团队建设,往往比较急。而恰恰这类企业,由于知名度不够,招人还不太容易招到。正所谓,重赏之下必有勇夫,那就用更高的薪水来吸引人才。如果50%不够,那就双倍。反正投资人的钱是必须要花的。
其实,也不是所有的初创企业都有实力不计代价的砸钱。如果没钱怎么办?可以许诺股份。由于没有上市,估值就有很大的随意性。因此,招人的时候,可以许诺价值数百万的股份,一样可以吸引很多人加入。当然,到变现的时候,就要看造化了。
另外一种企业,就是大名鼎鼎的互联网巨头。财富,声望都完全吊打创业公司。无论是老BAT(百度,阿里,腾讯)还是新三巨头(字节,阿里,腾讯),都已经入局。这类企业,资金雄厚,认准一个行业,重金投入,然后将整个行业洗牌。
共享单车、滴滴快滴大战、外卖,这些企业以及代理,凭借雄厚实力,砸入重金,疯狂补贴。一般企业哪里见过这样的世面?要么被收购,要么就得倒闭。
如今,这些企业进入到芯片行业。传统芯片行业,凭借搞芯片赚取的微薄利润,如何和这些互联网企业竞争?这些企业的海量资金,不是来自于芯片,而是流量。他们可以拿出传统芯片企业难以拿出的薪水,再加上初创公司难以企及的名气,成为了吸引人才无往不利的大招。
芯片行业并不是暴利行业。要不是中美科技战,芯片行业可能根本不会吸引众多人才的注意。
传统芯片公司,像海思这样背后有着实力雄厚靠山的企业少之又少。长期以来,更多的企业一直在欧美等芯片巨头的阴影之下发展。芯片火热的大背景下,这些企业,原本以为自己有了机会,有了出头之日。但可悲的是他们还没来得及高兴,互联网公司来了。
这就出现了非常吊诡的现象:芯片行业受到了前所未有的重视,很多芯片公司也打开了市场,结果赫然发现,自己的团队,或被挖空,或集体出走。以往,芯片公司往往会死于没有市场,如今,他们的死亡的可能又多了两样:
• 死于没有产能
• 死于没有员工
互联网企业,赚的是快钱,芯片,却是需要长期的投入,却往往看不到什么利润。互联网企业现在可以重金砸向芯片,如果不见什么利润的话,会不会始乱终弃,最后搞得一地鸡毛?那就真的是历史的罪人了。
被低估的软件复杂度
AI 芯片的快速发展,其中一个回避不了的问题就是软件复杂度的指数级提升。很多公司花了两年甚至更短的时间做出一款芯片,却发现需要更长的时间支持繁多的框架、紧跟算法的进步,适配从终端到数据中心的各类平台。当错过了部署和量产的窗口期,即便做出了芯片也会很快落伍。
与设计通用架构不同,设计 AI 芯片这样的专用架构需要同时考虑到软件设计和优化。芯片公司往往乐观估计了软件适配和优化的成本,指望通过中间件和编译器来解决所有问题。事实上,从 Intel 到 Google 再到 Nvidia,大量的软件工程师正被投入到适配各种平台,手动优化网络性能当中。而对于初创公司,芯片早已 tapeout 却一再延期交付的问题比比皆是。
从本质来看,当我们开始不断挖掘芯片架构的潜力时,软件层的抽象也会变的越来越困难,因为其不得不在上层抽象中引入底层的架构的模型或参数。现在的通常做法是做底层芯片架构与上层软件之间的中间件,然而开发这些中间件的代价也往往被低估。
AI是一个全新领域,AI芯片需要支撑的不仅是AI计算,更要面向场景,实现完整的功能。芯片公司多年的积累不是主要矛盾,其主要矛盾是如何将软硬件结合起来,开发出一个高效能、低功耗、低成本,同时能够又快又准的完成自主机器人的任务。
AI芯片的成功不止于将ISP调的好,能够看清楚;也不是将传统的语音算法做的更精进,更不是说一个传统的车规芯片公司把CPU和DSP升级成一个NPU,AI芯片没有那么简单。
碎片化严重
只需要编写一套代码即可运行在不同平台,是软件工程师们的长久诉求。不同架构的 AI 芯片带来的碎片化会极大的打击他们在实际软件产品中应用 AI 的积极性。
与以往的经验不同,深度学习糟糕的解释性会带来许多意想不到的缺陷。
比如这样一个常见的困扰:一个私有的模型可以在本地 CPU 上得到满意的结果,然而却在部署到某款设备后性能大幅下降。如何调试这些问题,谁来负责调试,通过怎样的工具来调试,甚至调试的工程师能否拿到私有的模型?这些问题都难以回答。
碎片化还表现在,专有架构为了挖掘绝对性能往往会放弃向前兼容性。如上文提到的中间件,它的一端是碎片化的 AI 软件框架,另一端则是一代又一代的芯片架构。如何同时维护多个部分不兼容的指令集架构,并保证每一次软件更新都能完整的覆盖所有的设备?
除了投入更多的人力,别无他法。一个常见的论调是像当下的消费级芯片一样只保持一个短期的(2-3年的)软件支持,然而当下 AI 芯片的常见应用领域,如智能摄像头、工业智能、以及自动驾驶,一款芯片的生命周期可能长达十年。
很难想象一家公司需要多大的量级才能提供持久的技术支持,如果预估一家初创公司活不过两三年,如何才能放心的部署其产品到一款面向消费者的量产车上?
同质化严重,深陷价格战
在2021年ICCAD上,清华大学教授,博士生导师魏少军教授指出,在2810家芯片设计企业中,仅有32家企业的人数超过1000人,51家企业人员规模为500-1000人,人员规模100-500人的有376家。此外,更是有2351家企业是人数少于100人的小微企业,占比高达83.7%。可见,国内芯片设计企业体量规模差异较大,大部分初创企业规模较小。
受限于规模体量,中小芯片公司专业管理能力不足,自建的技术和运营团队也难以长久维持,几款产品的销售额和利润很难摊薄芯片成本,同时还要持续的投入研发,两者难以兼顾。
因此,不少公司为了摊薄投入,盲目拓展产品线,希望通过低价快速去其他芯片细分领域探寻市场机会,但这种策略容易使其他企业也来自己的主战场杀低价,导致国内芯片行业的同质化竞争严重,造成内卷化的惨烈竞争。
以MCU芯片为例,涉及MCU业务的企业占比较多,竞争非常激烈。虽然市场上已有瑞萨电子、恩智浦、英飞凌、意法半导体、微芯科技、德州仪器等国际大牌厂商,以及士兰微、兆易创新、中颖电子、国民技术、芯海科技等一众本土企业,但国内MCU初创企业仍在不断增加。
据不完全统计,当前国内MCU厂商已有上百家,本土MCU品牌的产品序列、采用工艺、性能参数也几乎是完全对标进口品牌,产品同质化情况严重,且价格战越来越激烈,尤其是在通用MCU市场。
这也进一步导致本土厂商对产品的创新能力低下,只能模仿市场上的热门产品,自身产品易于替换,代理商和客户对品牌的忠诚度也必然会变低。
此外,自动驾驶芯片、AI芯片等在内的诸多赛道都存在类似的情况,新晋企业盲目造芯可能导致国内芯片企业同质化、低端化项目频出,采用低价竞争的方法争取市场份额,最后难免留下“一地鸡毛”,不仅造成资源浪费,还会拖累产业发展。
供应链困难雪上加霜
对于初创AI芯片公司来说,一颗芯片在产品化过程中,产业链的管控和自身需求之间存在巨大障碍。由于缺乏规模效应和相关经验,初创公司一般很难得到足够的供应链支持(流片/晶圆代工/封装测试等)、合理的价格、及时的技术支持和公平竞争的机会,在近两年产能紧张的局势下这种情况更为严峻。很多创业团队难以发挥出自己的技术优势,反而被供应链和运营的短板拖累,把太多精力浪费在试错和踩坑,最终影响芯片的研发进展。
从流片环节来看,流片是芯片设计企业至关重要的一环,上乘芯片设计,下启封装测试,是芯片从无形的数据转换给物理实体的重要步骤,也是芯片企业研发成果的重要体现。与具有雄厚研发实力、资深技术人员和供应商强力支持的头部企业相比,处于腰部甚至腿部的中小芯片设计企业往往缺乏相关经验,在专业度以及所获得资源方面远不如头部企业。
尤其是在当前芯片产能紧缺的状态下,一个公司的综合能力全部体现到能否抢到产能这个单一指标。大客户在产能争夺中的表现会相对好很多,因为他们的出货量和资金是支持他们与晶圆厂一直保持合作的底气。但对于初创企业来说,在这方面的不足就被暴露出来。
中小芯片企业在流片环节与晶圆代工厂之间的错位与矛盾:
• 对Foundry体系不了解:缺乏工艺选型的经验,对流程不熟悉、交期变化、产能波动等都将大大增加初创公司与晶圆代工厂的沟通成本,降低效率
• 缺乏系统的供应链管理能力:尤其在ramp up阶段,对产能、交期、质量过于乐观,影响TTM
• 缺乏备货机制:恐慌性下单或有了订单再下单导致产能跟不上市场需求
纵观国内的芯片设计企业,除了具备较强供应链实力的部分头部厂商,大多数中小公司或多或少都存在或将面临上述困扰。除了面对市场的挑战,还要面对供应链的激烈竞争。
量产真相:落地艰难
随着AI芯片进入深水区,人们更关注的不再是单纯的算力,还有对应用落地和商业化的支持:进入了哪些场景?合作了哪些客户?有没有软硬一体化方案?是否已经有实际案例?……“AI落地难”已成行业共识,浮华过后,AI芯片接下来将进入市场检验真理的阶段。
短短几年时间,AI芯片经历了概念炒作、泡沫破灭、修正预期和改进问题。多位AI芯片公司的CEO都表示,AI芯片一直在持续发展,落地的速度确实比他们预期的慢。
目前市面上AI芯片基本被分成了两类:
• 云端AI芯片:部署在大型服务器中,可支持图像、语音等不同类别的AI 应用
• 终端AI 芯片:部署在自动驾驶、安防、零售、智能硬件等音设备中
两者对比,云端芯片的门槛更高,无论是对半导体工艺、封装技术和配套软件都有很高要求,一旦成型,其他企业亦很难进入,可以形成竞争壁垒。同时,这个领域更为通用,前景更广,是让企业真正有希望成为“中国英伟达”的方向。
但云端芯片也需要更多的资金和生态支持,高门槛使得大多数创业公司几乎加入无望。尤其是在华为与阿里巴巴两大巨头下场,并先后推出云端芯片之后,如今,寒武纪几乎是唯一一家仍在坚持云端芯片方向的AI创业公司。(然而寒武纪当下的生存状态依然阴云笼罩,充满了太多不确定性,参见:寒冬里的寒武纪)
可这个方向同样困难重重。做云端服务器的条件是拥有生态资源。比如你需要有数据库资源,要训练自己的芯片,这对于大厂是天然的,可是创业公司没有,要花巨资去购买。
与寒武纪相对,大多国内的AI芯片企业则集中在进入门槛较低的终端AI芯片方面,如云天励飞、肇观电子等企业,均以研发智能视觉芯片为主,也有一些企业在集中研究智能语音芯片。
芯片研发比AI语言的更迭速度慢,当芯片面市时,其采用的AI语言可能已经过时了。这种问题首先体现在量产,但归根结底,缺乏杀手级应用场景才是最致命的。AI芯片厂商高投入研发过后,却不知道自己的产品要卖给哪些客户或者说应用到哪些产品上,无法找到可持续性的落地场景。
缺乏杀手级应用使得现有的AI 芯片大多没有清晰的定位,无法高度优化PPA。做半导体的都知道PPA有多么重要,尤其是Performance。AI芯片需要针对应用场景进行设计,以此来指导研发调整优化方向,引导客户进行正确选择,同时能够促进行业有序协同向前发展。
加速去AI化,决胜2023
AI芯片初创成立之初都以AI为核心,提供基于AI芯片的解决方案。然而,经过这几年的探索,跨过亏损和量产的两大障碍之后,AI芯片公司的AI标签不再那么突出,呈现去AI化趋势,AI芯片公司间的分水岭也即将出现。
在多个从业者看来,AI芯片并非一个独立的存在,“只是场景中的一部分”,如果想让产品真正落地,创业者们需要掌握的是“场景理解能力”。
早年间,CV四小龙几乎都在探索AI+行业,而“行业”则包含金融、零售、安防、汽车、物流等领域,不同点在于各自的领域各有侧重。但从2019年前后,同处计算机视觉下的AI四小龙开始讲起了“独特”故事:
• 旷视把目标定在了AIoT上,所有业务都要带上“物联网”。基于此,还打造了“算法+软件+硬件”的一体化产品体系,推出物联网时代的AIoT操作系统。目前,在招股书中,其主要业务分为物联网解决方案、城市物联网解决方案、供应链物联网解决方案
• 依图则在探索应用场景过程中发现了产业链上的“芯片”一环,于是打开了“算力提供商”的新世界,以人工智能芯片技术和算法技术为核心
• 商汤招股书中,其主营业务分类为智慧商业、智慧城市、智慧生活和智慧汽车。将自身定位成人工智能软件平台型公司,打出了“1(基础研究)+1(产业结合)+X(行业伙伴)”战略,AI+“所有”,没有给自己限定场景,什么行业都做
• 云从则是涉及智慧金融、智慧治理、智慧出行、智慧商业四个领域
• 作为CV领域的“小弟”,格灵深瞳的业务分类为城市管理产品及解决方案、智慧金融产品及解决方案、商业零售产品及解决方案
AI 企业家们现在讲出的故事,早已不再能如同此前般打动人心。二级市场的表现倒挂一级市场,这让投资者们对“估值高、回报周期久”的AI公司已经失去了信心和耐心。资本冷却的重担最先就砸在了“CV四小龙”所在领域。这堪称“三十年河东三十年河西”,此前,由于早期需求明确、数据好获取,CV是中国市场AI行业中技术和落地均发展最快的市场。按照2021年2月的报道数据,我国各种类型的机器视觉企业已经超过4000家。现在,它却成为“卷”得最厉害的窄巷。
市场对AI企业们正在提出新的要求。与过去以技术单点为发力方向、抓住某一场景持续烧钱获取、处理、训练数据的方式不一样,如今业界更多地开始强调AI技术在向工业场景迁移过程中的落地能力。
在这一过程中,人工智能作为一种底层技术,当深入具体的产业及行业深处时,它们面临的便不再仅仅是技术层面的挑战,甚至之前它们所依赖的技术优势,正在逐步被削弱。
AI芯片公司以AI为出发点设计芯片,但客户对AI的需求可能并没有那么强烈。比如在安防行业,即便能够提供优秀的AI能力,但客户更在意的是ISP(图像信号处理器)性能,这些领域的客户只会选择ISP性能更好的产品。
过去几年间成功找到落地场景或者验证商业模式可行的AI芯片公司,AI的标签越来越弱。AI芯片公司的产品以AI为出发点,不断集成客户所需的各种非AI功能(如控制、通信等)。
这个难题就足以困住大量的AI芯片公司,因为懂应用的人不懂 AI,懂芯片的人不懂应用,芯片提供者和应用者之间有巨大的认知差。
无论从技术门槛、落地场景和市场竞争来看,如今AI创业的窗口期已过,理解一个场景,深挖和精准研发,甚至整合这个场景的解决方案,企业还是有机会活下去。不过,如若能做到,这些企业也许已转型为某个场景方案解决商,而不再是“AI 芯片企业”。
写在最后
AI芯片市场进入一个洗牌的时刻。回到笔者在开头提到的问题:AI芯片在中国的这场狂欢如何收场?
当无数的巨头和初创公司设计出一块又一块大同小异的 AI 芯片,我们需要回答这样一个问题:真的需要这么多 AI 芯片吗?
从一个软件工程师的角度,我个人坚信定制化的 AI 处理器只会是一个过渡期产物。一个统一的、可编程的、高并发的架构才应该是我们追求的方向。回想过去的二十年,我们见证了专用架构的小型机市场的萎缩,图形处理器到通用向量处理器的发展,甚至连我们的手机和电脑的平台都将趋于统一。
任何事物一旦进入泡沫期,就不免让人担心什么时候会崩盘,而当下的 AI 芯片已经进入公认的泡沫期。据艾瑞咨询发布的《AI芯片行业研究报告》指出,目前AI芯片行业接近Gartner技术曲线泡沫顶端,只有通过市场检验和筛选的优质团队才能够继续获得产业、政策和资本的青睐与支持。
2022年,已经找到了应用和验证了商业模式的AI芯片会生存下来,而大量还在探索的公司,最快在2023年就会面临被淘汰的风险。
参考文献连接
https://mp.weixin.qq.com/s/qYv3EpZiYlld7FV-bnvSEw
https://mp.weixin.qq.com/s/kQ3XFzLd2IbweRqISeLUTw