新闻中心

每秒24000字! LPU掀翻英伟达, 美国万亿算力霸权危了?

2025-02-23 06:38:06

来源:

每秒24【000字】! 。LPU掀翻英伟达, 美国万亿算力霸:权危了。?

557万美元能干什么?一家中国公司用这笔钱训练出全球第三的AI大模型,用户量7天暴涨1亿。当美国为单次训练投入10亿美元筹建"星门计划"时,DeepSeek-R1以万分之一的成本撕开了AI垄断的铁幕。但真正颠覆行业的,是藏在算力赛道底层的秘密武器——一颗每秒吐出24000个文字的芯片,正在改写游戏规则。

烧钱游戏终结者

打开苹果应用商店中美双榜,占据榜首的DeepSeek-R1正用数据诠释什么叫降维打击。单日3000万活跃用户背后,是2048块H800显卡55天炼成的AI大脑,训练成本不足ChatGPT-o1的零头。更让同行窒息的是,这个开源模型让企业定制知识库的成本断崖式下跌,教育机构能轻松搭建学科助手,HR部门可批量生成面试官,就像在应用商店下载模板。

三大电信运营商集体接入的动作暴露了深层意图:当中国移动把大模型塞进客服热线,当联通用AI重构数据分析,传统产业与人工智能的接口已被彻底打通。资本市场用真金白银投票——算力供应商订单暴增,算法优化团队估值翻倍,一场由低成本驱动的AI军备竞赛悄然启动。

藏在显卡里的革命

硅谷实验室的工程师盯着屏幕上的数字反复确认:Groq的LPU芯片运行DeepSeek时,文字生成速度达到每秒24000个字符。这相当于用H100显卡的价格,买到十倍的推理效率。秘密藏在芯片架构里:砍掉高带宽存储器的LPU,改用速度提升20倍的SRAM,让数据调用从"跨城取货"变成"伸手拿杯"。

更狠的是能耗控制。处理同样规模的文本推理,LPU的耗电量比英伟达GPU低得多。当三星和SK海力士的HBM芯片销量暴跌19%,半导体巨头们突然发现,那个需要堆砌显存和散热器的时代正在落幕。沙特人用15亿美元赌这个未来——达曼数据中心19000块LPU芯片,正在给40亿用户铺就"平价算力高速公路"。

中国实验室的反向操作

清华系的工程师们做了个疯狂实验:把需要四张显卡才能跑的AI大模型,硬塞进单块FPGA芯片。无穹LPU给出的成绩单让业界哗然——成本砍掉75%,能效反超同代GPU。这背后是国产团队独创的"手术刀式压缩法",就像把臃肿的Windows系统精简成手机应用,却保留全部核心功能。

他们正在搭建的算力网络更值得玩味。通过让不同AI芯片协同工作,这家成立不到一年的公司,硬生生把推理成本压到原来的十分之一。当海外还在争论LPU能否取代GPU时,中国工程师已经用异构计算开辟了第三条道路。

写在最后

从DeepSeek撕开成本缺口,到LPU重构硬件底层,这场AI革命的胜负手从来不是参数比拼。当美国实验室还在烧钱堆算力,中国工程师已经证明:优化算法比升级制程更重要。

沙特人押注的LPU集群开始运转,清华团队的单卡模型投入测试,ChatGPT用户增长曲线被中国APP碾碎。这一切都指向同一个事实:人工智能的平民化时代,比所有人预期得更早降临。

诺维茨基:不敢相信东契奇被交易北京2万家智能机器人企业分布如何补贴公示泄露隐私桑延温以凡用蝴蝶定情侵华日军为便于奸淫百姓赤身骑马卜冠今自创团队参加演员3俄军出动喷火坦克焚毁乌军阵地情侣俩路边偶遇 女友打个招呼就走马斯克换头像了哈马斯移交以方人质遗体 最小仅9个月

(内容来源:海峡导报社)

作者: 编辑:许梓琳

  • 越牛新闻客户端

  • 越牛新闻微信

  • 绍兴发布微信

  • 越牛新闻微博

  • 绍兴发布微博

爆料

新闻热线

0575-88880000

投稿信箱

zjsxnet@163.com