ChatGPT爆火后,哪些芯片将会狂飙?

2023-02-15 15:25:39 9632

 

因库存陷入低迷周期的半导体市场因ChatGPT的火热而重新受到外界关注。

ChatGPT,一个比Siri更智能的AI聊天机器人,其文本生成能力、代码生成与修改以及多轮对话的性能,大幅度超越了过去的AI。

据了解,GPT生成预训练是一种基于互联网可用数据训练的文本生成深度学习模型。其有着大量复杂计算需求的AI模型,算力消耗非常巨大,需要强大的AI芯片提供算力基础。

ChatGPT需要的总算力消耗约为3640PF-days,至少要7-8个投资30亿规模的数据中心才能支撑ChatGPT的运行。光从模型训练算力具体来看,至少需要上万颗英伟达 GPU A100以参数规模为1750亿的GPT-3为例,一次模型训练成本超过 1200 万美元。

而AI芯片,作为人工智能时代的技术核心之一,它决定了平台的基础架构和发展生态。而目前的AI芯片大致可分为CPU、GPU、FPGA(半定制化)与ASIC(全定制化)。

  • GPU:支撑强大算力需求。由于具备并行计算能力,可兼容训练和推理,目前GPU被广泛应用于加速芯片;


  • CPU:可用于推理/预测。AI服务器利用CPU与加速芯片的组合可以满足高吞吐量互联的需求;


  • FPGA:可通过深度学习+分布集群数据传输赋能大模型。FPGA具备灵活性高、开发周期短、低延时、并行计算等优势;


  • ASIC:极致性能和功耗表现。AI ASIC芯片通常针对AI应用专门设计了特定架构,在功耗、可靠性和集成度上具有优势。

根据公开数据,智能汽车,机器人和物联网技术的发展,使得AI芯片在商用领域的需求与日俱增。而在消费者终端,眼下越来越多的AI文字、图片应用,也在驱动AI芯片市场的成长。预期2026年AI芯片市场规模有望达到930亿美元,其中CPU与GPU仍占据AI芯片市场主要份额,而ASIC市场前景广阔。

ChatGPT相关资料分享

标签: