
了解大腦如何組織和訪問空間信息「我們在哪里」,「拐角處有什么」,「如何到達那里」,這仍然是一項艱巨的挑戰。該過程涉及從數百億個神經元中調用整個記憶網絡和存儲的空間數據,每個神經元都連接到數千個其他神經元。
神經科學家已經確定了關鍵元素,例如網格細胞、映射位置的神經元。但更深入將被證明是棘手的:并不是說研究人員可以移除或研究人類灰質的切片來觀察基于位置的圖像、聲音和氣味記憶是如何流動并相互連接的。
人工智能提供了另一種方式。多年來,神經科學家利用多種類型的神經網絡——為大多數深度學習應用程序提供動力的引擎——來模擬大腦中神經元的放電。
在最近的工作中,研究人員表明,海馬體是一種對記憶至關重要的大腦結構,基本上是一種特殊的神經網絡,被稱為 Transformer。他們的新模型以與大腦內部運作相似的方式跟蹤空間信息。他們已經看到了非凡的成功。
「我們知道這些大腦模型相當于 Transformer,這一事實意味著我們的模型表現得更好,更容易訓練。」來自斯坦福大學的認知神經科學家 James Whittington 說。
Whittington 和其他人的研究表明,Transformer 可以極大地提高神經網絡模型模擬網格細胞和大腦其他部分進行的各種計算的能力。Whittington 說,這樣的模型可以推動我們對人工神經網絡如何工作的理解,甚至更有可能推動我們對大腦中如何進行計算的理解。
「我們并不是要重建大腦。」谷歌大腦的計算機科學家 David Ha 說,他也在研究 Transformer 模型,「但我們能否創造一種機制來完成大腦所做的事情?」
Transformers 于五年前首次出現,是人工智能處理語言的一種新方式。它們是 BERT 和 GPT-3 等引人注目的補句程序中的秘密武器,可以生成令人信服的歌詞、創作莎士比亞十四行詩并模仿客戶服務代表。
Transformers 使用一種稱為自我注意的機制工作,其中每個輸入——一個單詞、一個像素、一個序列中的數字——總是連接到每個其他輸入。(其他神經網絡僅將輸入連接到某些其他輸入。)但是,雖然轉換器是為語言任務而設計的,但它們后來在其他任務上表現出色,例如對圖像進行分類——現在是大腦建模。
2020 年,由奧地利林茨約翰內斯·開普勒大學的計算機科學家 Sepp Hochreiter 領導的一個小組使用 Transformer 改造了一個強大的、長期存在的記憶檢索模型,稱為 Hopfield 網絡。40 年前由普林斯頓物理學家 John Hopfield 首次提出,這些網絡遵循一般規則:同時活躍的神經元彼此建立牢固的聯系。
Hochreiter 和他的合作者指出,研究人員一直在尋找更好的記憶檢索模型,他們看到了 Hopfield 網絡如何檢索記憶與轉換器如何執行注意力之間的聯系。他們升級了 Hopfield 網絡,基本上把它變成了一個Transformer。Whittington 說,由于更有效的連接,這種變化使模型能夠存儲和檢索更多的記憶。Hopfield 本人與 MIT-IBM Watson AI 實驗室的 Dmitry Krotov 一起證明了基于Transformer的 Hopfield 網絡在生物學上是合理的。
然后,今年早些時候,Whittington 和 Behrens 幫助進一步調整了 Hochreiter 的方法,修改了轉換器,以便不再將記憶視為線性序列——就像句子中的一串單詞——而是將它們編碼為高維空間中的坐標。正如研究人員所說,這種「扭曲」進一步提高了模型在神經科學任務上的表現。他們還表明,該模型在數學上等同于神經科學家在 fMRI 掃描中看到的網格細胞放電模式模型。
倫敦大學學院的神經科學家 Caswell Barry 說:「網格細胞具有這種令人興奮、美麗、規則的結構,并且具有不太可能隨機出現的引人注目的圖案。」這項新工作展示了 Transformer 如何準確復制在海馬體中觀察到的那些模式。「他們認識到,Transformer 可以根據以前的狀態以及它的移動方式來確定它的位置,并且以一種與傳統網格單元模型相結合的方式。」
最近的其他研究表明,Transformers 也可以促進我們對其他大腦功能的理解。去年,麻省理工學院的計算神經科學家 Martin Schrimpf 分析了 43 種不同的神經網絡模型,看看它們對 fMRI 和皮層腦電圖報告的人類神經活動測量結果的預測效果如何。他發現,Transformers 是目前領先的、最先進的神經網絡,幾乎可以預測成像中發現的所有變化。
Ha 和計算機科學家 Yujin Tang 最近設計了一個模型,該模型可以有意地通過 Transformer 以隨機、無序的方式發送大量數據,模仿人體如何將感官觀察傳遞到大腦。他們的 Transformer,就像我們的大腦一樣,可以成功地處理無序的信息流。
「神經網絡天生就接受特定的輸入。」Tang 說。但在現實生活中,數據集往往變化很快,大多數 AI 沒有辦法調整。「我們想試驗一種可以很快適應的架構。」
盡管有這些進步的跡象,Behrens 認為 Transformers 只是邁向準確的大腦模型的一步,而不是探索的終點。「我在這里必須是一個懷疑的神經科學家。」他說,「例如,我不認為 Transformers 最終會成為我們在大腦中思考語言的方式,即使它們擁有當前最好的句子模型。」
「這是預測我在哪里以及接下來會看到什么的最有效的基礎嗎?老實說,現在說還為時過早。」Barry說。
Schrimpf 也指出,即使是表現最好的轉換器也是有限的,例如,在單詞和短語方面表現良好,但在講故事等更大規模的語言任務中卻不適用。
「我的感覺是,這種架構,這種 Transformer,讓你進入正確的空間來理解大腦的結構,并且可以通過訓練得到改善。」Schrimpf 說,「這是一個很好的方向,但這個領域超級復雜。」
https://www.quantamagazine.org/how-ai-Transformers-mimic-parts-of-the-brain-20220912/
編譯:白菜葉
文章來源:ScienceAI
IEEE Spectrum
《科技縱覽》
官方微信公眾平臺