7月15日,英伟达创始人黄仁勋访华时宣告向我国商场出售H20芯片。这款推理才能仅为H100芯片20%的“版”产品,再次将“算力焦虑”推至言论前台。
作为AI职业的创业者,我也是见证了许多创业者同行们在算力困局中的挣扎,这不仅仅技能博弈,更是一场关乎工业生态话语权的“暗战”。
要了解算力焦虑,必须先看懂英伟达构建的“算力帝国”。自2012年“谷歌猫”项目用1.6万块CPU集群识别出猫脸以来,AI练习对算力的需求呈指数级添加。英伟达凭仗GPU的并行核算优势,逐渐垄断了AI芯片商场,市占率长时刻超越70%。其H100芯片的FP8算力到达1.5PetaFLOPS,是一般CPU的1000倍以上,成为大模型练习的“刚需”。
以GPT-4练习为例,需调用2.5万块H100芯片,继续练习3个月,仅算力本钱就超越1亿美元。
而英伟达经过CUDA生态绑定开发者——全球90%的AI结构如PyTorch、TensorFlow依靠CUDA接口,构成“硬件+软件”的两层护城河。
这种局势下,AI 创业者的命运被牢牢攥在芯片巨子手中:算力缺乏意味着模型功用落后,本钱过高则或许拖垮整个公司。
上海无问芯穹联合发起人夏立雪揭露表明,他们为练习一个7B规划的垂类模型,每月需付出200万元算力费用,相当于一家中型企业的年利润。
更严峻的是,跟着美国出口控制晋级,我国创业者连购买H100的资历都被掠夺,只能转而运用功用大幅缩水的H20芯片。
这种“起步即落后”的窘境,让许多团队堕入“用低端芯片牵强保持,或冒险运用二手设备”的两难地步。
英伟达H20芯片虽运用先进的Hopper架构和CoWoS封装技能,但中心核算功用被严厉约束:FP16算力仅148TFLOPS,缺乏H100的15%。
这种直接引发练习功率暴降——相同规划的模型,用H20练习时刻是H100的5倍以上。
更荫蔽的是集群功用的距离。AI练习需求多块芯片协同作业,英伟达的NVLink互联技能可完成900GB/s的高速数据传输,而国产代替方案的互联带宽遍及缺乏200GB/s。
算力本钱已成为AI创业的“生死线”。练习一个千亿参数的大模型,需耗费价值5000万元的算力资源,这还不包括后续迭代优化的费用。
更挖苦的是,算力本钱的上涨速度远超预期:2023年H100的租借价格为每卡每天300美元,到2025年已飙升至800美元,涨幅超越160%。
这种压力在中小企业身上尤为显着。比方咱们就接待过一个客户,他们本来方案用500万元开发智能客服系统,成果仅算力费用就花掉300万元,导致产品功用大打折扣,只能对外寻求协作。
相比之下,头部企业凭仗规划优势和本钱背书,可经过长时刻协议确定算力资源,进一步加重职业马太效应。
美国对华算力封闭的“组合拳”正在收紧。2025年1月出台的新规将我国列为第三等级国家,全面禁止进口高端AI芯片。
这种方针不只直接堵截供应链,更引发连锁反应:云服务厂商为躲避危险,纷繁下架H100实例;高校实验室因无法获取先进设备,被逼停止与企业的联合研制项目。
更具威慑力的是“长臂统辖”——某芯片代理商因向我国企业转售H100,被美国司法部罚款2000万美元,导致整个职业堕入惊惧。
这种环境下,AI创业者的技能道路被逼调整。本来依靠英伟达生态的团队,不得不投入很多资源重构代码,适配国产芯片的指令集。
我一个朋友某金融科技公司为将模型从H100迁移至昇腾910B,耗时6个月,研制本钱添加30%。而即便如此,模型推理速度仍下降20%。
跟着量子核算、光子核算等新技能打破,现有算力系统或将被完全推翻。这种技能跃迁,或许让AI创业者一夜之间脱节对英伟达的依靠。
别的更值得等待的是,算力分配形式的改变,区块链技能正在催生“分布式算力商场”,个人用户可将搁置的GPU资源租借,构成去中心化的算力网络。
海外渐渐的开端实践了。“同享经济+算力”的形式,或许也会重塑整个职业的商业形式。
只不过,前史终将证明,算力焦虑仅仅AI革新进程中的一个阶段。正如1894年蒸汽拖拉机赢得首场赛车竞赛,却终究被内燃机替代,今日的算力困局或许正是孕育新生态的土壤。
当创业者们不再执着于“具有多少算力”,而是聚集于“怎么更聪明地运用算力”,一个更具包容性和立异性的AI年代,终将到来。
成功案例
——ayx注册入口 - AYX国际官网 - ayx sport体育平台 版权所有 豫ICP备14D12308号-1 网站地图
ayx注册是以生产混凝土搅拌站、混凝土搅拌设备为主的大型建筑机械设备生产厂家