据AMD CEO苏姿丰介绍,MI300X提供的高带宽显存(HBM)密度是NVIDIA H100的2.4倍,HBM带宽是竞品的1.6倍。业内消息显示,Nvidia还计划针对中国市场推出另外两款芯片——L20和L2。科大讯飞董事长刘庆峰介绍,“飞星一号”是科大讯飞与华为联合打造的完全国产的算力基地,可以让大模型训练和推理的效率成倍提升。科大讯飞将在此平台上训练一个以GPT-4 为基准的大型模型。
如果微软与AMD的合作顺利,AMD获得Meta和谷歌的订单,预计2025年AMD的AI芯片出货量将达到英伟达的30%以上(基于CoWoS封装技术)。分析师预计英伟达至少能赚到美国2023 年和2024 年GPU 收入将达到370 亿美元至457 亿美元。
第一个是华为的鲲鹏和升腾AI生态算力解决方案,不涉及NVIDIA GPU;二是混合算力支持,采用大量NVIDIA A100芯片,部分环境添加AMD、Intel芯片,以及天枢智核、寒武纪、海光、加速卡等国产芯片集成运行大型模型训练;第三,租用更具性价比的服务器云算力,补充算力不足。以前,NVIDIA的显卡每次推出,都会受到国内各大公司的竞争。然而,由于美国的长期禁令,这段时间情况似乎发生了逆转:
因此,很多大型模型公司都在努力摆脱NVIDIA的垄断。有自研能力的就自己研究,没有自研能力的就创造条件。另一位经销商透露,H20计算卡的价格并不固定,会在一定范围内波动。目前,NVIDIA倾向于销售完整的服务器系统。不过,NVIDIA 没有办法在短时间内发布这么多的A100/H100,因为NVIDIA A100/H100 GPU 完全由台积电代工,并采用台积电先进的CoWoS 封装技术。
今年6月,AI算力市场第二玩家芯片厂商AMD推出全新人工智能GPUMI300系列芯片,与Nvidia在人工智能算力市场展开竞争。原标题:全球科技巨头正在加速布局AI PC。 NVIDIA推出新芯片,推动股价创下历史新高。 AI人工智能ETF()早盘上涨逾1%。随着英伟达2024财年第三季度业绩的发布,该公司再次证明自己是关键高增长技术领域的主导力量。
近年来,NVIDIA最亮眼的表现来自于其在AI领域的突破和领先地位。根据今年8月GPU Utils更新的一篇关于Nvidia H100显卡供需状况的分析文章,保守估计H100的供应缺口达到43万台。 A100拥有出色的计算性能。其强大的GPU架构和多个Tensor Core单元支持大规模深度学习任务所需的高性能计算,特别是在处理复杂的矩阵运算时。