DAVID BAILLOT/UNIVERSITY OF CALIFORNIA SAN DIEGO在軟件和硅中復制人腦是人工智能(AI)研究的長期目標。雖然神經形態芯片在能夠同時運行多個計算方面取得了重大進展,并且既能計算也能存儲數據,但它們還遠未達到模擬大腦的能源效率。人工智能計算是非常耗能的,但所消耗的能量大部分不是計算本身。能量密集型部分是在AI芯片內的內存和計算單元之間移動數據。為了解決這個問題,一組研究人員開發了一種新的內存計算(CIM)芯片原型,消除了這種分離的需要。他們在8月17日發表在《自然》雜志上的論文中聲稱,其原型展示了現有人工智能平臺效率的兩倍。之所以稱為NeuRRAM,是因為它使用一種稱為電阻式隨機存取存儲器(RRAM)的RAM,這種48核RRAM-CIM硬件支持多種神經網絡模型和架構。該論文的第一作者、斯坦福大學研究員Weier Wan表示,與傳統內存相比,RRAM有很多優點。其中之一是在同一硅片區域內具有更高的容量,從而可以實現更大的AI模型。它也是非易失性的,意味著沒有電源泄漏。他補充說,這使得基于RRAM的芯片成為邊緣工作負載的理想選擇。研究人員設想,NeuRRAM芯片可以在低功耗的邊緣設備上有效地處理一系列復雜的人工智能應用,而不依賴于與云的網絡連接。為了設計NeuRRAM,團隊必須權衡效率、多功能性和準確性,而不犧牲其中任何一項。Wan說:“主要創新是我們使用了一種新型的模數轉換方案,因為這被認為是CIM芯片能源效率的主要瓶頸。我們發明了一種新的方案,它是基于感應電壓,而以前的方案是基于感應電流。電壓模式感應還允許在單個計算周期內提高RRAM陣列的并行性?!?/span>他們還探索了一些新的體系結構,如可轉置神經突觸陣列(TNSA),以靈活地控制數據流方向。Wan解釋道:“為了精確性,關鍵是算法和硬件協同設計。這基本上允許我們直接在這些AI模型中建模硬件特征?!边@反過來又允許算法適應硬件非理想性并保持精確性。換言之,Wan總結道,他們優化了整個堆棧,從設備到電路,從架構到算法,設計出一款高效、通用、準確的芯片。加州大學圣地亞哥分校研究員Gert Cauwenberghs是這篇論文的合著者之一,他說:“內存計算的大多數進展都局限于軟件級的演示,基本上是使用一系列突觸。但在這里,我們將其放在堆棧的水平層?!?/span>NeuRRAM在手寫數字識別任務中實現了99%的準確率,在圖像分類任務中達到了85.7%,在谷歌語音命令識別任務中達到84.7%,在圖像恢復任務中,圖像重建錯誤減少了70%。研究人員總結道:“這些結果可以與現有的數字芯片相媲美,這些數字芯片在相同的比特精度下進行計算,但可以大幅節省能源。”將NeuRRAM與Intel的Loihi 2神經形態芯片(800萬神經元Pohoiki Beach系統的組成部分)進行比較,研究人員表示,他們的芯片具有更好的效率和密度。圣母大學(University of Notre Dame)另一位合著者兼研究員Siddharth Joshi補充道:“基本上,Loihi是一個標準的數字處理器,帶有SRAM庫和特定的可編程ISA(指令集)架構。它們使用了一種更為von Neumann–ish式的架構,而我們的計算是在位線本身上進行的?!?/span>最近的研究還認為,包括Loihi在內的神經形態芯片可能具有比AI更廣泛的應用范圍,包括醫療和經濟分析,以及量子計算需求。NeuRRAM的制造商同意這一觀點,認為內存計算架構是未來的發展方向。Cauwenberghs補充道,NeuRRAM的可擴展性在架構方面表現得很好,“因為我們有這個并行的核心陣列,每個核心獨立進行計算,這就是我們如何實現具有任意連接的大型網絡的方法?!?/span>研究人員表示,現在考慮商業化還為時過早。雖然他們認為芯片的高效硬件實現與內存計算是一個成功的組合,但廣泛采用仍將取決于降低能效基準。“我們正在繼續努力整合學習規則,”Cauwenberghs報告說,“這樣未來的版本將能夠通過RRAM技術的進步進行循環學習,從而實現大規模的增量學習或產品學習?!盬an還補充道,為了實現商業化,RRAM技術必須更容易為芯片設計者所用。文章來源:IEEE電氣電子工程師