作者:紀碩鳴
2025年10月29日,這一天必將被載入科技與金融史。 晶片巨頭英偉達(Nvidia)股價突破5萬美元大關,總市值一度超過全球部分中型經濟體的GDP,意味著人工智慧(AI)時代的全面到來。 市場將這一刻視為「科技革命的分水嶺」,正如兩百多年前的蒸汽機點燃了工業革命,AI正以驚人的速度重塑人類社會的結構、金融市場的邏輯與個體生活的秩序。
如同1769年瓦特改良蒸氣機,揭開工業革命的序幕; 如同1947年貝爾實驗室發明電晶體,開啟電子時代; 如同1990年代互聯網普及,讓資訊時代奔流而至。 如今,AI時代的“蒸氣機”,已然點火。 蒸氣機讓人類第一次駕馭了能量; AI晶片則讓人類第一次駕馭了智能。
美國總統關注AI下人類福祉
面對這股AI狂熱及金融盛宴,今年的1月23日,美國總統特朗普在人工智慧(AI)行政命令中,將「human flourishing(人類茁壯/人類繁榮)」與「經濟競爭力」「國家安全」並列為AI發展的首要目標之一,為全球科技治理釋出明確信號:AI的方向盤,必須對準人的整體福祉。
AI風險管控專家阮可韻博士在倫敦接受訪問時也提出警示:這在美國政策史上相當罕見。 過去美國AI政策強調的往往是技術競爭和國防安全,而這份檔首次將「人類福祉」置於首位,這其實是對社會焦慮的一種回應:人類不能只當技術的用戶或受害者,而應該是技術發展的主人。

阮可韻:研究AI革命的「幸福學」
阮可韻博士認為,科技革命若無倫理與風險防控的框架,可能會成為人類文明的災難性危機。 她呼籲:AI革命需要「幸福學」的平衡,她正致力於讓AI「回歸人性」的研究。
阮可韻博士(Dr. Keyun Ruan)是一位享譽國際的電腦科學家與經濟學家,她服務GOOGLE倫敦,以在雲端鑒識(Cloud Forensics)與風險經濟學(Risk Economics)等領域的開創性工作而知名。 從電腦科學出發,她深諳數位化對經濟活動的重塑; 轉入經濟學後,她將風險視角帶入科技治理,提出「科技若不創造幸福,即是社會風險」的判准。 她的專著《數位資產估價與網路風險衡量:網路經濟學原理》;《網路犯罪與雲端取證:調查過程中的應用》在業內頗受歡迎。
五年前,她在英國創立「幸福基金會」(Happiness Foundation),嘗試搭起科技、幸福學與經濟學之間的橋樑,將人類福祉置於人工智慧時代的決策中樞。
阮可韻關注到,AI的狂潮開啟了算力競賽到人類命運的抉擇。 英偉達掌握的高性能GPU,是AI運算的基石; 而資本市場的瘋狂追捧,體現出投資者對這場「智能革命」的集體信仰。 自ChatGPT問世後,生成式AI迅速滲透各行各業,從醫療診斷、金融投資到藝術創作,AI正在重塑「生產力」與「創造力」。
但是,阮可韻認為,不能只是看到「AI如何強大」,而看不到「AI如何反噬人類」。 這正是任何科技革命中最深刻、也最容易被忽略的部分。
正如每一次技術革命一樣,當光芒照亮未來,也在背後投下陰影。 數據濫用、演算法偏見、AI倫理、勞動市場被取代等問題,正成為全球科技政策的新焦點。
「我們發現,AI不僅改變工作方式,更在重塑人的情感結構與幸福感。」阮可韻博士在接受採訪時表示,「當機器開始理解人類,甚至取代人類時,我們應該問自己:我們還幸福嗎?」
這位出身於電腦科學領域的博士,近年活躍於國際論壇與倫理研究領域。達沃斯連續數年將「AI與幸福」納入討論,關注技術進步下人類福祉的衡量與治理; 梵蒂岡則從倫理視角出發,促成科技界與人文社群的橫向對話。阮可韻博士近年多次受邀於這兩個平臺發表演講,分享「幸福科技經濟學」的研究與實踐,並與來自牛津、哈佛等機構的學者持續交流。 她指出,這些跨場域的碰撞,有助於把分散的研究與倡議收斂為一套可被企業採納、被監管理解、被投資使用、也能被公眾感知的共同語言。

阮可韻:傳播AI時代的幸福理念
受聘哈佛推動AI風險防治
2025年5月,哈佛大學邀請阮可韻博士擔任其AI風險防治研究專案總監,負責領導跨學科團隊,研究人工智慧對社會結構、心理健康及倫理治理的長期影響。 這個專案,哈佛團隊已經有長達十年之久的研究。
「我們希望不僅停留在理論層面,而是真正讓研究成果進入政策和企業決策流程。」阮可韻博士強調。
研究的結果將以產品形式呈現。在她看來,AI風險防治將成為下一個萬億級市場——從數據安全、演算法審核、心理輔導到AI倫理顧問服務,都將形成新型產業鏈。
她指出:「如今全世界都在投資AI的生產力,但很少人投資AI的『防護力』。 未來十年,誰能讓人工智慧更安全、更可控,誰才是真正的贏家。」
阮可韻博士認為,這不僅是科技治理的問題,更是文化選擇的問題。 「人類社會需要一次新的覺醒。」她說,「如果蒸汽機解放了人類的肌肉,電腦解放了人類的腦力,那麼AI革命將挑戰人類的靈魂。 我們必須確保,AI的未來是為人服務,而不是讓人服從。」
AI給人類發展帶來六大負能
各類研究表明,如同工業革命帶來機器束縛人類、環境污染等各種問題一樣,以AI為標誌的科技革命,同樣給人類自身發展帶來負能。 大概包括六大問題:
1,勞動的「異化」與「無用階層」問題。 AI並非僅奪走「體力勞動」,而是開始取代腦力工作——客服、設計師、程式員、記者、律師助理、教師、甚至藝術創作者。 麥肯錫預測,2030年前全球約有3億人的工作可能被AI重構或淘汰。 必將造成社會分化、心理失衡、以及政治後果。
2,人際疏離與情感「數字替代」。 AI取代的不只是工作,還取代陪伴。 智能手機、虛擬助手、聊天機器人逐漸讓人與人之間的交流變得次要。 日本已有「AI女友」「虛擬伴侶」應用,甚至有人舉行與AI結婚的「儀式」。 美國心理學界報告指出,青少年因沉迷於社交媒體和智能互動,孤獨感與焦慮症比例急升。 人類社會正由“社會性動物”逐步變成“個體化的用戶網路”。
3,心理健康與數字依附症人被手機與演算法「綁架」。 AI透過推送、推薦、情緒演算,不斷塑造人的行為與思想。 美國研究顯示,智能手機用戶平均每天觸摸手機超過 2600次,且青少年抑鬱率與螢幕時間呈正比。 中國與韓國已出現多起青少年因沉迷AI聊天或虛擬角色而自殺的事件。 “數字成癮症”成為21世紀的全民心理病; AI不再是工具,而是精神麻醉劑。
4,真實感與認知崩壞。 AI生成的文字、圖片、聲音、影片幾乎無法與真實區分。 真實與虛構的界線被摧毀。 AI生成的「假記者」「假科學報告」影響輿論與學術; 生成式AI藝術作品奪獎,引發創作者身份混亂。 “真假不分”的時代來臨,人類認知基礎動搖。
5,倫理與道德空洞化。 AI沒有倫理,只學習模式與結果。 當決策交給AI,價值判斷可能被數據取代。 例如:你將面對自動駕駛在“撞人與自保”間如何決策? 醫療AI在生死取捨中如何定義“最優”? 司法AI根據統計概率判罪,可能放大偏見。 結果是人類道德被演算法統計稀釋; “效率至上”成為新信仰; 人類逐步放棄判斷權與責任。
6,自我消解與文明自吞的風險。 當AI具備生成知識、創造內容、決定策略的能力時,人類可能逐漸失去「主體性」。 企業決策交由AI運算模型,管理者僅作簽署; 學生用AI寫作、思考,失去獨立思辨力; 軍事AI若出錯,可能導致人類無法預測的戰爭或災難。 最極端的情況:人類創造出比自己更強卻不可控的智能體(如AI軍事、自動決策系統),造成自我滅頂。
阮可韻博士回望工業革命初期,人類在享受生產力躍升的同時,也在長時段內承受了環境污染的累積代價,直至治理體系成熟、標準完善才逐步收斂。 她指出,AI時代的污染更多發生在心理與社會層面,具有隱匿性、遞進性與群體性三大特徵:它不易被察覺,會在反復使用中逐步加深,並在群體行為中彼此放大。 「一旦滾雪球到臨界點,治理成本將呈指數級上升」。
資本的熱潮與人類的冷思考
英偉達股價創下歷史紀錄後,全球投資者紛紛湧入AI相關產業,AI晶片、雲端服務、機器人與自動駕駛領域的投資規模創下新高。
但同時,一些倫理學者與風險投資家開始提醒市場——AI發展的外部成本正被嚴重低估。 人工智慧發展帶來的AI負能,人類需要防範風險及治理需要面對的另一個龐大的市場。
阮可韻博士語帶堅定的說,AI並非洪水猛獸,但我們不能讓它成為新的上帝。」
從特朗普把「human flourishing」寫進AI政策開始,「把幸福寫進演算法」正逐步走出學術象牙塔,成為公共治理與產業升級的共同議題;到哈佛延攬阮可韻博士掌舵已有十年的專案,表明這場關於人類命運與風險治理的長跑已然起步。 這不是對技術的恐懼,而是對方向的校準; 不是要放慢創新,而是要讓創新與善同頻。
若將工業革命初期的環境污染視為人類付出的學費,那麼AI時代的功課,應該在代價尚未不可承受時就提早完成。 用阮可韻的話說:「技術的速度我們無法也不應放慢,但我們可以握住方向盤,讓它奔向我們共同願景的未來,而不是誰也不願抵達的終點。」
阮可韻博士期望她的研究成果能讓,AI的未來不是讓人更忙,而是讓人更自由; 不是取代人,而是讓人重新找到存在的價值。」
當資本市場沸騰的時刻,倫敦這位女學者的話,或許是這個時代最需要的冷靜回聲。