(東西問)肖君擁:人工智能的已知人權風險及其法治化應對

中新社北京4月20日電 題:人工智能的已知人權風險及其法治化應對

作者 肖君擁 北京理工大學法學院教授、科技人權研究中心執行主任

人工智能時代,人機交互模式正在各領域中深度融合。例如在交通領域,智能車憑藉多個傳感器與技術,為駕駛者提供諸如變道、泊車等高水準輔助;教育領域,智能輔導係統能通過自然語言處理技術理解學生問題,提供解答和指導;醫療領域,藉助人工智能影像輔助篩查功能,醫生能從海量影像中精準找出微小病灶,提昇影像輔助診斷的精準度。

人工智能技術對人類工作和生活的影響愈發深刻,對人權的保障有諸多的積極意義。但是,隨著人工智能技術在各個領域不斷推廣,其應用也面臨著或現實或潛在的人權風險,我們必須予以正視。如何通過法治化路徑應對人權風險,是人工智能發展過程中的一道必答題。

人工智能應用中的人權風險

人工智能可能在數據、算法等方面形成人權風險,侵害人的生命權、健康權、財產權、隱私權、人身自由等權益。

一是與數據有關的人權風險,包括數據過度收集、數據濫用、數據跨境傳輸等,都可能帶來侵犯人權的問題。

數據過度收集和濫用方面,一些企業在用戶不知情的情況下收集位置信息、瀏覽記錄等個人數據,或在未獲得同意情況下將用戶數據擅自出售給其他公司或機構,用於廣告投放、市場調研等商業活動,侵犯用戶的知情權和隱私權。若被不法分子用於詐騙、惡意騷擾等非法目的,將給用戶帶來精神困擾、財產損失,侵害其人身權利和財產權。

數據跨境傳輸方面,由於不同國家間數據保護法規存在顯著差異,數據在跨境流動期間面臨保護缺失的困境。此外,某些國家出於特定目的,可能會借數據跨境傳輸之機,實施情報收集活動,進而對其他國家公民的隱私權構成侵犯。

二是與算法有關的人權風險,包括數據偏差、算法邏輯錯誤、算法黑箱問題。

數據偏差方面,訓練人工智能算法的數據集可能存在偏差,導致分析結果失真,進而在決策中延續或放大現有不平等,影響某些群體權利實現,如招聘算法中的性別或年齡歧視。

算法邏輯錯誤方面,在設計或實現過程中,邏輯錯誤會導致非預期行為或錯誤結果產生,進而侵害人權。如自動駕駛場景中的算法缺陷,導致車輛未正確處理道路突發狀況(如行人突然出現),引起事故,直接影響他人的生命權和健康權。

算法黑箱問題方面,由於人工智能或大數據分析中,算法的輸入、輸出及運行過程不透明、不可知、不可解釋,一些算法壟斷行為會對消費者權益帶來損害,用戶的知情權、決策自主權面臨被剝奪的風險。

三是人類決策被取代所導致的人權問題。

智能推薦係統通過算法架構,重塑用戶的信息獲取路徑,使用戶選擇權被剝奪。例如,視頻網站基於用戶歷史行為推薦相關內容,電商平台將高利潤商品置於前列,一些社交平台的“關閉推薦”功能需經過多步操作,這些都導致用戶信息接觸範圍逐漸收窄、選擇權降低。

此外,人工智能工具在提昇效率的同時,可能導致人類決策者成為“技術附庸”,削弱專業人士的批判性思維,使決策過程從“人機協同”異化為“機器主導”,如醫療領域的“雙重誤診風險”(人工智能誤診+醫生盲從)等。

人類的就業權也面臨風險。世界經濟論壇發佈的《2025年未來就業報告》預測,到2030年全球將有9200萬個崗位被人工智能取代,同期可能創造1.7億個新崗位,形成顯著的“崗位替代潮”。此外,由於就業門檻提高,低技能勞動者將難以適應新的就業市場,人工智能的數字鴻溝致使發展中國家崗位流失風險比發達國家高,易造成不同國家貧富差距擴大等問題。

溯源人工智能應用的人權風險

人工智能的人權風險,既來源於技術本身,也受到社會偏見、法律監管缺失等影響,主要可分為以下四個方面。

一是算法黑箱問題。由於人工智能係統依賴於深度神經網絡等複雜模型,其內部參數和計算流程常被視為“黑箱”,缺乏可解釋性和透明度,嚴重削弱了對其決策的追責能力,也讓個人權利保護面臨巨大挑戰。

二是人為偏見的工具性放大。算法訓練依賴歷史數據,而歷史數據常常蘊含歧視性偏見,這導致人工智能系統在性別、種族、殘疾等維度上做出不公決策,弱勢群體更易成為監控和錯誤風險評估對象,挑戰了平等權和非歧視原則。

三是商事策略與盈利動機。製造人工智能產品的私營企業,在追求商業利益過程中常以數據作為核心資產,產品在部署後難以從外部及時發現潛在人權侵害,也缺乏有效渠道進行糾正。

四是法律缺失。當前,人工智能方面的法律和監管體系相對滯後,並缺乏統一的國際標準與強制性約束機制,這讓企業在人工智能治理方面往往“無意識睡著”,或難以在不同司法轄區承擔一致的人權責任。

應對人權風險的法治化路徑

首先,加強人工智能人權風險的立法保障。一方面要進行頂層設計,例如中國於2023年10月發佈的《全球人工智能治理倡議》,圍繞人工智能發展、安全、治理係統闡述了人工智能治理的中國方案。另一方面要提昇立法保障,包括國內立法中的民事法律和國家安全法律,信息合成規定、算法備案等行政法規,國家標準技術等。

其次,加強人工智能人權風險的社會防控。為此,既要加強教育與普及,提高民眾對人工智能技術的認知與應用能力,也要培養兼具技術理解、倫理意識、政策把握、國際視野的復合型人才,推動人工智能安全研究、人才培養和產學研合作。

再次,加強人工智能人權風險的技術防控。針對數據安全,應繼續落實《中華人民共和國個人信息保護法》第二十四條規定的自動化決策需透明化;針對算法歧視,監管機構應進一步落實《中華人民共和國數據安全法》第二十七條關於信息安全的要求,驗證算法偏見或歧視現象;針對網絡犯罪,應支持《中華人民共和國刑事訴訟法》中電子數據等證據的合法性認定,搭建國際聯合取證平台,支持多國司法機構通過安全多方計算共享案件關鍵數據。針對企業監管,應要求企業建立數據防洩漏係統,提昇自身係統防護能力,必要時與企業共同進行網絡安全實戰演練。

最後,促進人工智能人權風險防控的國際合作。在國際規則制定方面,應防範單一國家或企業壟斷關鍵算法技術,提昇發展中國家的話語權;在加強國際合作方面,需繼續強化聯合國核心平台作用,推動《人工智能框架公約》等硬法建設,通過“技術—倫理—法律”三位一體的協作機制實現治理包容性。(完)

來源中新社

留下一個答复

請輸入你的評論!
請在這裡輸入你的名字