提到AI芯片,不少人可能觉得“离自己很远”,但其实咱们平时用的AI聊天、刷的短视频推荐,背后都靠AI芯片“算”出来的。现在AI芯片正在快速升级,其中有两个方向特别关键:FP8精度和多芯互联。这俩词听着挺专业,其实用大白话拆解开特别好懂——简单说,FP8精度是让芯片“算得又快又省电”,多芯互联是让芯片“组队干活,力大无穷”。今天就从这两个方向入手,跟大家聊明白AI芯片是怎么升级的,以及对咱们用AI、对国产芯片发展有啥影响。
一、先搞懂基础:AI芯片为啥要“升级”?核心是解决“算力不够、电费太贵”的问题
在聊具体技术之前,得先弄明白一个事儿:AI芯片为啥非得升级?答案很简单——现在的AI越来越“能吃算力”了。
比如训练一个像GPT-4这样的大模型,需要处理几十万亿条数据,要是芯片算得慢,可能得花好几个月才能训练完;而且芯片算的时候特别费电,一个大模型训练一次,电费可能就好几百万。以前的芯片技术,要么算得慢、要么电费高,根本跟不上现在AI的“胃口”。
就像咱们做饭,以前用小煤炉,做一大锅饭又慢又费煤;现在换成大燃气灶,又快又省气。AI芯片的升级,就相当于从“小煤炉”换成“大燃气灶”,核心是解决“算力不够用、能耗太高”这两个痛点。而FP8精度和多芯互联,就是解决这两个痛点的“两把钥匙”。
二、第一个升级方向:FP8精度——让芯片“算得准、跑得快、省电费”,大模型训练直接受益
先来说第一个关键技术:FP8精度。这里的“精度”不是指芯片的制造精度,而是指芯片“计算数据时的精细程度”。咱们可以把芯片计算想象成“用尺子量东西”:以前的芯片用“厘米尺”量,现在FP8精度相当于用“毫米尺”量,既能量得更准,还能更快量完,同时还不费“力气”(也就是省电)。
1. 先拆“FP8精度”:不是“精度降低”,而是“精准控耗”,该细的地方细,该省的地方省
可能有人看到“FP8”里的“8”会疑惑:以前不是有FP16、FP32吗?数字变小了,是不是精度变低了?其实不是这么回事。
简单说,“FP+数字”代表芯片存储和计算数据的“格式”,数字越大,能存储的数据越精细,但需要的存储空间和计算资源也越多。比如FP32就像“高清电影”,画面特别细,但占内存大、播放时费电;FP16像“标清电影”,画面稍粗一点,但占内存小、播放快;而FP8是“优化后的标清”——在保证画面(计算精度)够用的前提下,把没用的“像素”(冗余数据)去掉,既不影响观看(计算结果),还能省内存、省电费。
举个例子:比如计算“1. + 2.”,用FP32能算出“3.”,精确到小数点后8位;用FP8算,能算出“3.5802”,精确到小数点后4位。对咱们日常用的AI来说,小数点后4位的精度完全够用——比如AI推荐短视频,不用精确到小数点后8位,只要能判断“你喜欢这个视频的概率是85%”就行,没必要算成“85.%”。
所以FP8精度不是“降低精度”,而是“精准控耗”——把算力和电量用在“刀刃上”,该精细的地方不马虎,没必要精细的地方省资源。
2. FP8精度的核心好处:算力密度翻2倍、能耗降30%,大模型训练直接“提速又省钱”
搞懂了FP8精度的原理,再来看它的实际好处,主要有两个:一是“算力密度提升2倍”,二是“能耗降低30%”。这俩好处对大模型训练来说,简直是“及时雨”。
先解释“算力密度”:就是同样大小的芯片,能提供的计算能力翻了2倍。以前一块芯片每秒能算100次,现在用FP8精度,每秒能算200次。这意味着训练大模型时,需要的芯片数量能减半——比如以前要100块芯片,现在50块就够了,不仅省了芯片采购钱,还省了机房空间(放芯片的地方也需要成本)。
再看“能耗降低30%”:就是算同样多的数据,电费能省三成。举个直观的例子:以前训练一个大模型,用老芯片需要100万度电,电费按工业用电1元/度算,得花100万;现在用支持FP8精度的芯片,只要70万度电,电费直接省30万。对那些经常训练大模型的企业来说,这可不是小数目——比如某AI公司一年训练10个大模型,光电费就能省300万。
而且这两个好处加起来,还能“缩短训练周期”。比如训练GPT-4这样的大模型,以前用老技术需要3个月,现在用FP8精度,算力翻2倍、能耗降30%,算下来训练周期能缩短25%,也就是只要2个多月就能训练完。对企业来说,训练周期缩短意味着能更快推出新的AI产品,比如别人还在训练,你已经把新的AI聊天工具上线了,自然能抢占市场先机。
小主,这个章节后面还有哦,请点击下一页继续阅读,后面更精彩!