訓練人工智能系統與養育孩童竟有異曲同工之妙。部分AI研究者開始借鑒兒童通過探索、好奇、漸進學習和正向激勵獲取知識的方式,來開發新一代人工智能。"當前AI算法的許多缺陷,可以通過借鑒神經科學和兒童發展理論來解決,"羅切斯特大學計算機科學系副教授Christopher Kanan表示。這位專精人工智能、持續學習與腦啟發算法的專家指出,要讓AI具備類人推理能力——且更快更強——就必須將安全防護機制內置于開發全程,"若等到最后才考慮安全,我們可能釋放出怪物"。

通用人工智能的定義與分野

人工智能旨在創建能執行感知、推理、決策等人類特有智能任務的計算機系統。傳統AI研究多聚焦于專用人工智能(ANI),如圖像識別系統、語音助手或策略游戲程序,這些系統在特定任務上往往表現超群。

而通用人工智能(AGI)則致力于構建像人類一樣跨領域理解、推理和學習的系統。實現AGI仍是AI研究的終極目標,目前尚未突破。更遙遠的超級人工智能——在幾乎所有領域遠超人類智能的存在——目前仍屬于科幻范疇。

"我們實驗室正通過借鑒神經科學和兒童發展理論,推動AI系統像人類兒童般持續學習適應,向AGI邁進。"

AI的學習方式解析

ANI的成功得益于2014年興起的深度學習技術。通過人類標注的海量數據訓練多層神經網絡,深度學習已支撐起從計算機視覺、自然語言處理到生物醫學研究的現代AI應用。這類系統在圖像識別、語言翻譯、棋類游戲及內容生成方面表現卓越。

以GPT-4為代表的大語言模型(LLM)采用自監督學習:通過預測文本序列而非人工標注來訓練,其訓練數據量相當于人類數十萬年閱讀量。基礎訓練后還需經過監督微調與基于人類反饋的強化學習(RLHF),以規范輸出邊界。

AI的卓越能力清單

語言處理:在翻譯、寫作、文本潤色等方面表現優異

應試能力:GPT-4在美國律師考試(90百分位)、LSAT(88百分位)等高端測試中遠超人類平均水平

科研輔助:可生成假設、起草研究方案、整合復雜文獻

情感智能:研究顯示其情商評分甚至高于人類

生成式AI的現存局限

幻覺問題:會自信地生成似是而非的錯誤信息

認知凍結:訓練后知識停止更新,無法持續學習

元認知缺失:缺乏自我覺察能力,鮮少主動澄清模糊指令

漸進學習障礙:無法像人類那樣層層遞進掌握復雜技能

"人類嬰兒需先掌握基礎動作控制才能學習行走,而當前LLM完全不具備這種累積式學習能力——這正是我們重點研究的課題。"

AI帶來的挑戰與風險

職場變革:

對需要專業知識的白領崗位沖擊顯著

AI助手能使新手快速達到專家水平,可能導致大規模崗位精簡

需要創造力、領導力或實體操作的工作短期內難以被取代

安全隱憂:

比起尼克·博斯特羅姆提出的"回形針危機"假說,更需警惕人類惡意使用AI的風險

需加強國際合作、負責任開發與學術安全研究

監管應平衡安全與創新,避免開源生態受挫導致技術壟斷

實現AGI的可能性探討

AI領域三位"教父"——圖靈獎得主Yoshua Bengio、Geoffrey Hinton和Yann LeCun——均認同AGI可實現性。Bengio與Hinton近期多次警示AGI可能帶來生存危機。但值得注意的是:"現有LLM架構本身不足以實現真正的AGI。"Kanan指出關鍵差異:"人類思維不依賴語言媒介,而LLM的推理完全建構于語言之上,這從根本上限制了其抽象思維與可視化能力。"

精選文章:

人工智能時代的創意構思:工業設計師Vojtek Morsztyn如何突破創作空白

Genies 推出用戶生成內容工具,讓任何人都可以創建自定義 AI 頭像

十座與全玻璃趨勢背道而馳的摩天大樓

2025年米蘭設計周指南:不容錯過的核心展館、活動與建筑裝置

別只會做普通包裝!這4種設計思路讓你的作品脫穎而出~