4月,因為登頂夏國首富,李易深居簡出,不是去學校就是在別墅。
也不是什麼都沒做,他整理了很多記憶中,前世看到的各種資料資料。
比如谷歌人工智慧晶片:tpU(tensor processing Unit),張量處理器。
這是財大氣粗的谷歌,針對機器學習演算法而專門製作,一款訓推一體的Ai晶片。
如果說cpU,GpU是比較萬能的工具,那麼tpU就是專用工具。
tpU就是谷歌專門為加速深層神經網路運算能力而研發的一款晶片。
它有更高效能的深度機器學習能力。
據說,tpU與同期的cpU和GpU相比,可以提供15-30倍的效能提升,以及30-80倍的效率(效能\/瓦特)提升。
每一個操作需要更少的電晶體,用更多精密且大功率的機器學習模型,並快速應用這些模型,因此使用者便能得到更正確的結果。這就是tpU。
在李易的記憶中,谷歌最新發布的tpU 晶片,包含1個張量核心,每個張量核心有4個矩陣乘法單元、1個向量單元和1個標量單元。
較比上一代產品,每美元可提供高達2倍的訓練效能。
對於大型語言模型和生成式AI模型,每美元可提供2.5倍的推理效能。
成本卻不到上一代的一半。
最新上線的tpU支援多達256個晶片互連,總頻寬超過400tb\/s,INt8效能達到100petaops,從而解決更復雜的計算任務。
Ai模型的引數數量以每年10倍的速度增長。
而晶片效能每年最多增長2~3倍,單晶片效能增長根本撐不住。
所以,必須透過叢集擴充套件和稀疏化模型來應對飆漲的算力需求。
傳統的設計和構建計算基礎設施的方式,無法滿足生成式AI和大型語言模型指數級的增長需求。
這就需要做許多事情,將tco效能提升幾十倍、數百倍!
李易不是這方面的專家,他只是看過相關的報道。
星海半導體也不是直接抄襲,而是做相關的研究,徹底消化這方面的東西。
至少有一點可以確定。
就是有了一個確切的研究方向,能少走很多彎路。
商兵華的加入,能將星海半導體的人工智慧晶片提速!
除此之外,還有軟體方面的研究。
這方面李易自己就懂得比較多。
結合起來,能大大提升人工智慧技術的研究速度。
“這段時間,我們已經敲定了各方面的研究專案……從半導體原材料,到晶片設計、生產製造裝置,都已經整理出來!”
“根據需求,投入相應的資金,做相關研究,攻克相關問題。”
比如,最底層的原材料方面,其實不用那麼著急。
像光刻膠、晶圓這方面,雖然依舊很重要,依舊被卡脖子,但國內也有公司在做。
只不過沒達到世界領先。
這些方面即便被卡脖子,也能暫時用一用。
現在,這方面可以投入資金,繼續做研究和提升,繼續追趕。
最主要的還是晶片生產製造方面涉及到的裝置!
光刻機!
“這方面,夏科院、幾個光學研究所、臨海那邊微電子公司有相關的研究……”
光刻機這方面難度,卓院士都要搖頭。
一臺光刻機,它代表的,不僅僅是一臺高精密裝置。
代表的是全球,各個國家最頂尖的技術集合體!
光刻機也他不是一家公司,