星期日, 6月 29, 2025

AI的發展歷程與輝達的關鍵角色

人工智慧(AI)的發展歷程漫長且充滿波折,從早期的理論概念到如今改變世界的生成式AI,每一步都離不開關鍵人物的遠見、技術突破,以及硬體基礎設施的演進。輝達(NVIDIA)及其創辦人黃仁勳,在其中扮演了無可取代的加速器角色,使得AI得以從實驗室走向現實,引發了新的工業革命。

第一階段:AI的早期概念與「寒冬」(1940年代 - 1990年代初期)

  • 1940年代:神經網路(neural network)的早期構想出現,被稱為「神經網」,實驗者嘗試利用複雜的電動機械硬體來重建大腦的神經元與突觸。然而,這些龐大設備耗費大量電力與金錢,卻成效不彰。
  • 1960年代初期:數位運算的基礎架構主要由IBM推出,在此之後一直沒有太大改變。
  • 1965年:英特爾(Intel)前執行長高登.摩爾首次提出「摩爾定律」(Moore’s Law),預測電晶體數量大約每十八個月就會翻倍,這在很長一段時間內被證實為真。
  • 1969年:麻省理工學院研究員馬文.明斯基(Marvin Minsky)證明單層神經元無法執行簡單邏輯運算,導致AI研究資金蒸發,大多數相關機器被拆除,迎來AI的「寒冬」。
  • 1970年代 - 1980年代:AI領域經歷多次失敗,即使初期看似有希望,最終仍徒勞無功。1974年,符號主義流派的AI研究遭遇第一個寒冬。1980年代,「專家系統」(expert system)一度重燃興趣,但在1987年股災後破滅。儘管主流研究者不看好,仍有一群電腦科學家堅持神經網路研究,認為透過軟體模擬和多層神經元架構可以克服限制。
  • 1984年:威廉.吉布森(William Gibson)的科幻小說《神經喚術士》(Neuromancer)出版,提出了「母體」(Matrix)的概念,即由電腦運算產生的共同幻覺。
  • 1986年:加州大學聖地牙哥分校的認知心理學家大衛.魯梅哈特(David Rumelhart)和電腦科學家傑佛瑞.辛頓(Geoffrey Hinton)與隆納德.威廉斯(Ronald Williams)提出了一種訓練多層神經網路的數學計算法,名為「反向傳播」(backpropagation),這使得電腦軟體不再需要明確的程式設計,系統能夠自行制定規則,推動了神經網路研究的復甦。
  • 1980年代末期:IBM研究員傑若德.泰薩羅(Gerald Tesauro)轉向研究雙陸棋(backgammon),透過模擬骰子投擲,生成數十萬場人工雙陸棋棋局,作為神經網路學習的訓練數據。
  • 1990年左右:泰薩羅開始採用「強化學習」(reinforcement learning)的方法,讓電腦自己和自己對戰數十萬次,其神經網路TD-Gammon在數萬場實戰後表現達到中上水準。
  • 1993年:黃仁勳與柯蒂斯.普林姆(Curtis Priem)、克里斯.馬拉考斯基(Chris Malachowsky)共同創立了輝達。公司最初的目標是設計電玩遊戲用的晶片。

第二階段:輝達的崛起與平行運算的應用(1990年代中後期 - 2000年代中期)

  • 1994年:挪威研究員法雷德里克.達爾(Fredrik Dahl)發布了「水母」(Jellyfish),這是第一個向公眾銷售的神經網路軟體,它經過數百萬局雙陸棋的訓練,將複雜的計算量濃縮在小小的磁碟片裡。這標誌著AI發展早期「訓練」和「推論」兩個階段的區分。
  • 1997年:IBM的超級電腦「深藍」(Deep Blue)擊敗了西洋棋世界冠軍加里.卡斯帕洛夫(Garry Kasparov),引起全球矚目。同時,達爾的「水母」在與人類頂尖雙陸棋選手對弈時,表現與人類棋手不相上下。同年,輝達推出的NV3(後續產品Riva顯卡)透過跳過昂貴的產品原型製作步驟,僅使用硬體模擬器進行測試,使得公司一戰成名,扭轉了瀕臨破產的局面。
  • 1990年代末期:黃仁勳向台積電尋求協助,開啟了輝達與台積電之間成果豐碩的合作關係。這個時期,摩爾定律吞噬了輝達最初經營的電腦周邊電路板市場,但3D繪圖卡因其對運算能力的無限需求而得以倖存。
  • 2000年代初期:輝達發現他們為電玩遊戲設計的晶片可以轉變為低成本的超級電腦。
  • 2002年:黃仁勳重返桌球運動,並在此期間堅持工作,面對公司股價大幅下跌和會計詐欺調查等多重危機。
  • 2004年:輝達員工超過一千人,營收創歷史新高。

第三階段:CUDA與深度學習的交會(2000年代後期 - 2010年代初期)

  • 2006年:比爾.達利(Bill Dally)加入輝達,成為首席科學家。
  • 2007年:輝達工程師約翰.尼科斯(John Nickolls)發明了CUDA(Compute Unified Domain Architecture),這是一個統一運算架構,旨在將用於電玩遊戲的平行運算電路應用到科學領域。透過CUDA,遊戲顯卡可以搖身一變成為一台超級電腦。
  • 2008年:辛頓的研究生阿博德拉曼.穆罕默德(Abdelrahman Mohamed)與喬治.達爾(George Dahl)利用搭載輝達顯卡的伺服器建立語音辨識模組。
  • 2009年:輝達在聖荷西舉辦了第一屆年度「圖形處理器技術大會」(GTC)。麻省理工學院教授尼可拉斯.平托(Nicolas Pinto)展示了使用CUDA改良圖像辨識應用程式,並指出輝達晶片組的效能是同等價格英特爾CPU的一千三百五十六倍。同年,傑佛瑞.辛頓在神經資訊處理系統大會(NIPS)上公開表示,運行在平行運算處理器上的神經網路是AI的未來,並建議研究人員購買輝達顯卡。
  • 2011年:約翰.尼科斯因黑色素瘤去世。
  • 2012年
    • 加拿大多倫多的一些研究人員,在生物大腦的啟發下,利用輝達的遊戲硬體訓練一種特殊軟體,稱為「神經網路」。這項突破在電腦科學界掀起革命巨浪,黃仁勳迅速抓住這個機會。
    • Google的吳恩達團隊使用兩千個CPU組成的叢集,將一千萬部YouTube影片縮圖輸入神經網路,成功教電腦辨識「貓」。
    • 黃仁勳將整個公司押注在AI和神經網路這個意外結合上。
    • 傑佛瑞.辛頓的團隊(亞歷克斯.克里澤夫斯基、伊利亞.蘇茨克維)在ImageNet圖像辨識比賽中,憑藉其基於卷積神經網路和CUDA(AlexNet)的模型,以超過80%的辨識率輕鬆擊敗所有參賽者,比當時最先進的技術高出10個百分點,震驚了AI研究社群。
    • Google收購了辛頓的AlexNet團隊所創立的新創企業DNNResearch。
    • 布萊恩.卡坦察羅(Bryan Catanzaro)利用12個輝達GPU,成功複現了吳恩達辨識貓的實驗,證明輝達硬體的巨大效率優勢。

第四階段:NVIDIA全面擁抱AI與Transformer的誕生(2013年 - 2017年)

  • 2013年
    • 黃仁勳開始清空行程,投入大量時間研究神經網路,並將cuDNN(為加速CUDA平台上神經網路開發而設計的軟體庫)視為輝達二十年來最重要的計畫,甚至將其形容為「一生一次的機會」(O.I.A.L.O.)。
    • 投資機構星盤價值公司質疑輝達在CUDA上的巨額投資,甚至要求更換執行長。
  • 2014年
    • 輝達在GTC大會上首次公開提及AI,並展示了cuDNN,宣布與Adobe、臉書和Netflix等企業合作夥伴進行測試。
    • Google推出「重型貨車專案」(Project Mack Truck),採購超過四萬顆輝達GPU,成本超過1.3億美元,是輝達當時最大的一筆採購訂單。
    • 尼克.伯斯特隆姆(Nick Bostrom)出版《超智慧》(Superintelligence),提出AI可能對人類生存構成威脅的觀點。
  • 2015年
    • 黃仁勳最終確定了他的招牌造型——黑色皮衣,搭配深藍色Polo衫、黑色休閒褲與黑色皮鞋。
    • 黃仁勳與伊隆.馬斯克(Elon Musk)在GTC大會上討論AI的潛在風險。
    • 馬斯克聯合其他捐助者和技術專家,共同創立了OpenAI,旨在以造福全人類的方式推動數位智慧。
  • 2016年
    • 輝達推出DGX-1,一款專注於矩陣乘法的AI加速電腦。黃仁勳親自將首部DGX-1送給OpenAI的馬斯克,並將另一台送給李飛飛在史丹佛大學的實驗室。
    • ImageNet競賽中,深度學習模型首次突破人類平均95%的辨識率,達到98%,標誌著機器超越人類的時代來臨。
    • 輝達股價上漲224%,黃仁勳重返億萬富豪行列。
  • 2017年
    • 輝達的營收翻倍,獲利翻三倍。
    • 在諾貝爾物理學獎和化學獎中,得獎的科學工具效能提升都與輝達GPU在平行運算技術上的進步脫離不了關係。
    • 加密貨幣挖礦熱潮興起,利用CUDA在輝達GPU上進行挖礦,使得GPU需求激增。
    • Google研究團隊(烏斯克瑞特、波洛蘇欽、瓦希瓦尼等)以「自注意力機制」(self-attention mechanism)為基礎,開發出「Transformer」模型,並在《神經資訊處理系統》期刊上發表了標題為「注意⼒就是你的全部所需」(Attention Is All You Need)的論文。

第五階段:生成式AI的爆發與輝達的壟斷地位(2018年 - 至今)

  • 2018年
    • 伊隆.馬斯克因內部爭議離開OpenAI,薩姆.奧特曼(Sam Altman)掌權。
    • 伊利亞.蘇茨克維(Ilya Sutskever)看到Transformer的潛力,建議OpenAI立即轉向以Transformer架構為基礎,開發能提供高品質文字、回答問題的模型,最終發展出「生成式預訓練Transformer」(GPT)。
    • GPT-1於6月推出,雖然表現不佳,但證明了GPT這類模型的潛力。
  • 2019年
    • OpenAI成立「獲利有限」的子公司,並獲得微軟10億美元的投資。
    • 輝達以70億美元收購以色列晶片互連公司Mellanox(後改名為以色列輝達),將AI工廠從單純的大腦轉變為整合的神經系統。
  • 2020年
    • 輝達市值首次超越英特爾。
    • OpenAI發布GPT-3,訓練過程使用超過1TB的文本資料,模型參數至少達到一兆個,接近貓的大腦。
    • 黃仁勳要求公司每位員工每週提交五項最重要工作清單,以維持對公司運作的掌握。
    • 輝達嘗試以400億美元收購英國晶片設計公司ARM,但在2021年被美國、中國與英國當局以不利創新為由阻擋。
  • 2022年
    • 美國政府禁止輝達將先進的A100和H100晶片銷往中國,隨後擴大禁令範圍,導致高端晶片在中國黑市以高價流通。
    • DeepMind推出用於加速矩陣乘法的神經網路。
    • ChatGPT(基於GPT-3)於11月30日開放測試版,在五天內註冊用戶超過百萬,兩個月內月活躍用戶數達到一億人,展現了驚人的文本生成和多樣化能力。
  • 2023年
    • OpenAI發布GPT-4,其智力表現通過多項學術測驗,並能理解複雜的視覺笑話。
    • 黃仁勳向投資人宣布,美國百大企業中,一半購買了輝達的GPU超級運算叢集,另一半則透過雲端租用輝達的基礎設備。輝達資料中心營收首次超過遊戲硬體營收。
    • 輝達市值在單日暴漲約2,000億美元,成為全球市值第六大公司。
    • AI新創企業募得的資金累計高達500億美元。
    • 約書亞.班吉歐和傑佛瑞.辛頓等AI先驅表達對AI可能帶來人類滅絕風險的深切擔憂。黃仁勳則堅稱AI帶來風險的機率為「零」。
  • 2024年
    • 輝達發布最新一代的B100和B200晶片,電力需求大幅增加。
    • 輝達推出一套軟體套件,能使用生成式AI來設計矽晶片上的電路。
    • 輝達公布財報,年營收遠高於預期,超過600億美元,毛利率超過70%,淨利近300億美元。
    • 輝達市值在單日增加2,770億美元,總市值達到3兆美元,超越微軟和蘋果,成為全球市值最高的公司之一。
    • OpenAI發布GPT4o(o代表omni,意為「無所不在」),這是一款多媒體AI,能夠接受並回應各種輸入組合,其流暢回應得益於輝達最新晶片的推論能力。
    • 伊利亞.蘇茨克維辭職離開OpenAI,轉向研究AI超智慧與人類利益的一致性問題。
    • Google、Anthropic、Meta等科技巨頭紛紛發布或宣布在AI領域的重大投資與產品。Meta宣布斥資300億美元購買一百萬顆輝達晶片。
    • 傑佛瑞.辛頓和DeepMind的德米斯.哈薩比斯(Demis Hassabis)分別獲得諾貝爾物理學獎和化學獎,肯定了他們在AI領域的開創性貢獻。
    • 黃仁勳獲選美國國家工程學院院士。

輝達的成功不僅在於其硬體產品的性能,更在於黃仁勳對AI潛力的遠見和對平行運算的執著投入。他將AI視為一種新的工業革命,認為它將像蒸汽機和電力一樣,改變人類社會的基礎設施,從而實現幾乎零邊際成本的計算能力。儘管面對AI可能帶來的潛在風險,黃仁勳始終堅定地認為AI是一股純粹的進步力量,並專注於將其推向更遠的應用邊界。輝達不僅成為AI硬體領域的霸主,也透過不斷推動軟體工具和開發平台的創新(如CUDA),建立起難以撼動的生態系統,確保其在AI時代的領先地位。

沒有留言:

張貼留言