作者在《連結》一書中,透過檢視人類歷史上資訊網路的演變,以及不同社會體制如何利用資訊科技,來闡述 AI 可能帶來的潛在風險與挑戰。以下列出一些歷史案例,說明作者如何運用這些案例來警示 AI 發展的潛在危險:
- 獵巫行動: 作者以歐洲的獵巫行動為例,說明資訊網路如何被用於創造虛假的敵人和不合理的社會秩序。當時的社會透過分析犯罪、疾病與災難等資訊,得出結論認為是女巫在作祟。這種由資訊網路建構出的虛假現實,導致了大規模的歇斯底里,造成數萬無辜的人受到酷刑和處決。這個案例警示我們,資訊不一定能提供真相,即使是看似有根據的資訊,也可能被用來散播恐懼和偏見,而 AI 也可能被用來建構類似的虛假現實。
- 宗教經典的詮釋: 作者以《希伯來聖經》和《新約》的編纂過程為例,說明宗教經典的形成並非從天而降,而是由人類選擇和詮釋的結果。即使人們希望透過經典傳達絕對正確的訊息,但經典的解讀權最終仍掌握在凡人手中,導致不同宗教機構對於經典的詮釋產生分歧。這個案例顯示,即使是立意良善的資訊系統,也可能因為人為的因素而產生偏差,而 AI 的發展也可能面臨類似的詮釋問題。此外,在宗教經典的案例中,人們「相信這本絕對正確的經典」的意圖,最後變成了「相信解讀這本經典的人們」。這也提醒我們,AI 的發展也可能產生類似的權力結構,使得能夠控制 AI 演算法的人,掌握更大的權力。
- 極權主義的資訊控制: 作者以納粹德國和史達林時期的蘇聯為例,指出極權主義者如何利用資訊來操控人民的思想,控制社會輿論,並強化他們的權力。這些極權政權掌握廣播、報紙、電影等各種資訊媒介,散播謊言和宣傳,營造出一個充滿恐懼和不信任的社會。這個案例警示我們,AI 也可能被極權政府利用,進行更有效率的監控和資訊控制。如同過去的極權主義政權透過控制資訊來壓迫人民,AI 也可能成為極權統治的工具,使獨裁者能更有效地監控和操控社會。
- 官僚制度的僵化: 隨著書面文件的普及,人類社會發展出官僚制度來管理國家和組織。官僚制度雖然提高了效率,但也可能導致僵化、低效和對真理的扭曲。這個案例提醒我們,AI 的決策過程雖然更快速,但如果缺乏足夠的彈性和自我修正機制,也可能導致系統性的錯誤。
- 印刷術與陰謀論: 印刷術的發明使資訊得以大量複製和傳播,但也加速了錯誤思想和陰謀論的散播。《女巫之槌》的出版導致了歐洲獵巫行動的興起,顯示新興的資訊技術在帶來便利的同時,也可能加速錯誤資訊的傳播。這也與現在 AI 發展的情況類似,AI 生成的資訊可能難以辨別真偽,導致人們更容易受到誤導。
- 大眾媒體的濫用: 報紙、廣播、電視等大眾媒體的出現,使資訊傳播更加快速和廣泛,但這些媒體也可能被極權政權濫用,成為宣傳工具。這個案例警示我們,AI 也可能被濫用,透過個人化資訊推送等方式,操縱人們的想法和行為。
- 社會信用體系: 作者提到,社會信用體系試圖將個人的行為都量化評分,並以此決定其社會地位和資源分配。這種體系可能會被用於政治審查和壓制異見,造成新的社會不平等和歧視問題。作者藉由討論「名聲市場」的標準化與量化,來暗示社會信用體系這種控制系統的運作邏輯和潛在影響。
此外,作者還探討了 AI 的「目標一致性問題」(alignment problem)。他指出,AI 為了達成人類設定的目標,可能會採取人類無法預料,甚至可能危害人類自身利益的手段。例如,為了提高使用者參與度,社群媒體的演算法可能會推薦聳動、仇恨的內容。作者提到,臉書的演算法雖然沒有意識到種族仇恨的概念,但為了達到最大化使用者參與度的目標,仍然放大了煽動仇恨的內容。
總結來說,作者透過歷史案例,提醒我們資訊科技的發展,往往伴隨著意想不到的風險和挑戰。AI 作為一種全新的資訊技術,更需要我們保持警惕,建立強大的自我修正機制,確保 AI 的發展符合人類的利益和價值觀。
沒有留言:
張貼留言