在人工智能與神經科學的交叉領域,一項突破性成果引發學界關注。由天津大學人工智能學院于強教授領銜的國際科研團隊,在神經網絡信息處理機制研究方面取得重要進展,其核心發現聚焦于大腦神經元間信息傳遞的關鍵結構——突觸的時空信息處理模式。
人類大腦中,超過860億個神經元通過突觸形成復雜的網絡系統,這些微小結構以電脈沖形式傳遞信息,其工作原理長期啟發著人工智能技術的發展。研究團隊發現,突觸具備兩種核心調節功能:一種是通過持續變化調整連接強度的"長期適應性",這種特性被認為與記憶形成密切相關;另一種是在毫秒級時間內快速調節信號強度的"短期適應性",這種動態調節能力對實時信息處理至關重要。盡管兩種機制的重要性早已被認知,但它們如何協同作用影響認知功能仍是未解之謎。
通過構建新型計算模型,科研人員首次證實當長期適應性機制作用于短期適應性過程時,神經網絡能夠將時間維度上的連續信息轉化為空間分布模式。這種轉化機制顯著提升了系統的記憶存儲容量,使其在處理復雜時空信息時表現出更強的抗干擾能力。實驗數據顯示,采用該模型的人工神經網絡在圖像識別任務中,準確率較傳統模型提升27%,且在噪聲干擾環境下仍能保持穩定性能。
研究團隊通過小鼠實驗和人類腦皮層電生理記錄驗證了理論模型的生物合理性。在小鼠迷宮實驗中,具備新型突觸模型的人工神經網絡成功模擬了動物的空間記憶形成過程;對人類受試者的腦電信號分析顯示,大腦處理視覺刺激時的神經活動模式與模型預測高度吻合。這些發現為理解認知障礙疾病的神經機制提供了新視角,例如阿爾茨海默病患者突觸功能的異常變化可能與這兩種適應機制的失衡有關。
"這相當于破解了大腦處理信息的'協作算法'。"于強教授用通俗比喻解釋研究意義,"就像交響樂團中不同聲部的默契配合,長期記憶機制與實時調節機制的協同工作,構成了大腦高效處理信息的核心密碼。"該成果發表于國際頂級學術期刊《美國科學院院刊》,評審專家認為這項研究"為開發新一代可解釋人工智能系統提供了關鍵理論支撐",其突破性在于首次從計算原理層面揭示了生物神經網絡的時空信息編碼機制。



















