AI樂觀主義和AI悲觀主義
2022年11月ChatGPT問世以來,大型語言模型(LLM)引發的社會衝擊已遠超過過往所有其他的科技創新。這項技術不僅改變了人們的工作方式,更深刻影響了人類對知識本質的認知。短短兩年來,我們目睹了人類文明史上前所未有的發展速度:各大科技公司紛紛推出自己的AI模型、AI社群蓬勃創立、創投資金大量湧入、各國政府積極制定AI政策。這種快速演變帶來的不只是技術革新,更包含了深遠的社會、經濟和倫理影響。更重要的是,這些變化並非孤立發生,而是彼此交織、互相影響,形成了一個高度複雜的社會變遷網路。
對此,社會上出現兩種截然不同的極端觀點:AI樂觀主義和AI悲觀主義。我把OpenAI第一位投資者Vinod Khosla作為AI樂觀主義的代表,他近日發表在Times雜誌的文章「AI將重新定義人類的意義」可視為AI樂觀主義的宣言式主張;另外,剛獲得諾貝爾物理獎、也是人工智慧先驅的Geoffrey Hinton對AI發展的擔憂則代表AI悲觀主義思維。
Khosla描繪了AI烏托邦的願景,而Hinton則對AI可能導致人類社會的災難憂心忡忡。Khosla將AI視為一個可預測和可管理的系統,認為只要有適當的政策引導就能實現AI造福人類的美好願景,Hinton則質疑AI系統的可控性,因而擔心AI會發展出超越人類的智慧而失控。
Hinton和Khosla的觀點都顯示出理性主義系統思考的侷限性。兩者都試圖將AI系統簡化為線性因果關係,忽視了其複雜性和不可預測性。
笛卡兒在1637年所出版的《Discours de la methode》開啟了近四個世紀理性主義的系統思維。從理性主義的觀點來看,系統作為一群子系統的集合,其內在的特性獨立於外在環境的影響。系統的內部結構是可解析的,每個子系統可以獨立地被觀察、分析和理解。整體系統因而可以被理解和掌握。這是理性主義系統思考的第一個概念。
理性主義系統思考的第二個概念認為系統具有可預測性。數學家拉普拉斯說:「我們必須將宇宙萬物目前的狀態視為過去狀態的結果,同時也是未來狀態的成因……沒有甚麼是不能被確定的,未來就如同過去一般將呈現在我們的眼前。」
理性主義系統思考在線性的科技發展和穩定的社會中可以運作得很好,因為系統被視為一個具有恆定結構和行為的整體。然而當外在因素發生急遽變化,傳統的理性主義的系統思考就會陷入困境。例如ChatGPT問世後專家的社會變遷趨勢預測。
AI所展現出的智慧和解題能力,並非來自大型語言模型對人類語言的完整理解和精確控制,而是源於數以千億計的參數在訓練過程中形成的複雜互動網路。它們的行為模式具有湧現性(emergence)與不可預測性,這與理性主義期待的可解析性和可預測性大相逕庭。
AI系統與人類社會的互動形成了一個更大的複雜系統。當AI生成新的內容,人類隨即對其反饋,這些回饋又被納入AI的演化循環。在這個動態過程裡,AI系統與人類社會相互影響、共同演化,系統的邊界變得模糊,內外環境持續交互作用,這徹底突破了理性主義將系統視為封閉系統的框架。
面對如此複雜的現象,我們需要跳脫理性主義系統思維,採用更具包容性的複雜系統思維。這意味著我們要接受不確定性、非線性和湧現性作為系統的基本特徵,而非將其視為需要被濾除的雜訊。
ChatGPT的智慧並非從簡單的神經元的智慧疊加而成,AI與人類互動模式也不是簡單的AI功能疊加或參與人數疊加而成。AI與人類社會形成一個動態相互回饋系統,彼此適應演化。這個系統具有不確定性和非線性特質,系統邊界模糊,內外環境交互影響,難以準確預測發展路徑。
未來AI社會發展,將如同迄今的AI技術發展一樣,不會是一個簡單的線性過程,而是充滿不確定性的複雜演化歷程。對此,我們需要一種更具包容性的系統思維,在樂觀與悲觀主義之間尋找態平衡點,既看到機會也關注風險;理解AI將與人類社會共同演化;承認不確定性是系統的基本特質,而非需要消除的問題;採取適應性管理策略,而非追求剛性控制。只有有擁抱複雜性,包容多元聲音,讓社會自發地湧現群體智慧,我們才能在AI時代找到可持續發展的道路。