Ilya Sutskever(OpenAI 共同創辦人、Safe Superintelligence 掌舵人)在最新的訪談中,提出了對當前人工智慧發展趨勢的深刻見解,認為業界正從一味追求算力規模的時代,重回需要根本性研究突破的時代。
1. 算力瓶頸與典範轉移:規模時代的終結
| 核心觀點 | 說明與啟發 |
| 算力時代已結束 | 2020-2025 年的狂熱投資集中於堆疊算力(Scale),但算力擴大到一定程度後,繼續加碼已難帶來質變。瓶頸已不在計算資源,而在於新的研究想法。 |
| 重回研究時代 | 業界目前手握海量算力,卻缺乏下一階段的研究方向和想法。競爭的本質已從執行力轉為想法。 |
| 「規模化」的誤導 | 「Scale」(規模化)這個關鍵字,曾驅使整個產業閉眼向前衝,但語言的影響力可能誤導了思考,忽略了非規模化的根本問題。 |
2. AI 的核心困境:泛化能力與「智慧」的本質
| 核心觀點 | 說明與啟發 |
| 「天才」與「犯傻」的悖論 | AI 在評測中表現優異(像競賽選手刷題萬小時),但在實際應用(如修程式碼的 Bug)上卻表現出低級錯誤和缺乏連貫性。 |
| 缺乏「It」因素 | 真正的天賦(人類智慧)具有舉一反三的能力(Ilya 稱之為「It」因素),這是目前 AI 缺乏的,導致其學習到的知識難以泛化或深入理解。 |
| 動物智慧 vs. 人工智慧 (Karpathy 的觀點) | 兩者的「聰明方式」邏輯完全不同: * 動物智慧: 被自然進化(生存、競爭、死亡)逼出來的,通用且全能,具有內建的價值函數(情緒)。 * AI 智慧: 被商業訓練(模仿人類語言、討好用戶、完成任務)篩出來的,不懼怕死亡,沒有「我是誰」的概念,行為模式與人類(動物)的直覺大不相同。 |
| 情緒的重要性 | 腦部損傷研究顯示,情緒不只是一種感受,它是一個內建的價值函數,指導人類做決策(如選襪子、投資),這是 AI 缺乏的,解釋了人類在極少量數據下學習效率遠超 AI 的原因。 |
3. 超級智慧的新定義與部署策略
| 核心觀點 | 說明與啟發 |
| 重新定義 AGI/超級智慧 | 人類本身也不是 AGI(都有知識盲區)。真正的超級智慧不是一個什麼都知道的全能大腦,而是一個能夠快速學習任何技能的智慧體(像一個學習能力極強的 15 歲超級學生)。 |
| 漸進式部署的重要性 | 由於 AGI 涉及的「權力」問題太難想像,最好的方法是展示出來。透過漸進式部署,讓人們「感受到」AI 的力量與限制,進而引發政府、公眾和企業在 AI 安全問題上的合作與行動。 |
| AI 部署的未來模式 | AI 將不會是一個丟給用戶的成品,而是一個可以不斷成長的學習者,像新員工一樣進入組織,在實際工作中學習和成長。 |
沒有留言:
張貼留言