(東西問)蕭君擁 :如何應對AI帶來的人權風險?

中新社北京6月23日電 題:如何應對AI帶來的人權風險?

作者 蕭君擁 北京理工大學法學院教授、科技人權研究中心執行主任

當前,人工智能技術迅猛發展,且已被廣泛用於生產生活場景,從智能家居到汽車的自動駕駛,從醫療診斷的精準輔助再到具有劃時代意義的生成式人工智能等。人工智能技術為人類社會生活帶來了巨大便利,同時伴隨人工智能的發展也引發出一系列關於人權風險的隱憂。

“人工智能的人權風險”是一個複雜而敏感的議題,不僅涉及到技術層面的倫理考量,也觸及人類社會對於公平、正義和尊嚴的深層次追求。在人工智能技術快速發展的同時,必須深入思考人工智能的人權風險,利用法制手段約束和引導人工智能技術的發展。

人工智能帶來哪些人權風險?

當前人工智能正處於弱人工智能時代,關於人工智能的人權風險可以分為三類,分別是一般人權風險,潛在人權風險,以及強人工智能和超人工智能的人權風險。

一般人權風險涉及與數據有關的人權風險,以及算法偏見和歧視性決策。

如果說石油是工業的“血液”,那麼數據就是人工智能的“神經系統”,數據對於人工智能的發展至關重要,然而與數據有關的各個環節都存在著一定的人權風險。

在數據收集階段,未經用戶明確同意的收集,超過必要限度的收集會侵犯用戶的隱私權;人臉識別技術利用人臉進行監控、追蹤或識別身份等,增加了隱私權被侵犯的風險。

在數據處理階段,脫敏技術的不完善,用戶的隱私無法得到保護,系統自身的網絡漏洞,將會造成被攻擊之後數據洩露的後果。

在數據使用階段,很多技術公司在獲取用戶信息之後又將其轉手賣出,這是對普通民眾個人信息權的嚴重侵犯;而近期大火的生成式人工智能,在驚艶世人的同時,也會產生虛假信息,從而侵犯他人的名譽權,隨意使用和重組他人作品,可能會構成對他人知識產權的侵犯。

在數據存儲階段,集中存儲增加了使用便利性,也增加了洩露風險。例如近年來發生的某平台的信息洩露事件,不僅嚴重侵犯了相關當事人的隱私權,更影響了社會的穩定。

算法偏見,是指在信息的生產、分發及核查的過程中對用戶造成的非中立立場影響,導致片面、失實等信息觀念的傳播。算法偏見可能是由於算法設計和開發者自身的偏見,也可能是訓練數據的偏見,更有可能是在人機交互的過程中,機器無意識且不加選擇地習得人類的一切倫理與喜好,包括偏見。

從技術角度來看,算法偏見無法避免。算法偏見會使人的平等權在無形之中被侵害,某些群體將逐漸成為機器歧視的對象,壓縮了他們的網絡生存空間。同時,算法偏見引發的歧視性決策,會使某些群體的權益受到嚴重侵害。

潛在人權風險方面,隨著人工智能的進一步發展,其決策的正確性和高效性已超越了人類主體,可以預見的是,在未來,許多領域的決策主體都將從人變為機器。在提昇效率的同時,更極大地增加了人權風險,最為棘手的就是責任承擔問題。如,智能駕駛普及後,出現交通事故該由誰承擔責任,這引發了學界和實務界爭論。傳統法學的主體均為人,如果機器決策成為常態,人的主體地位會受到極大衝擊,這會影響法學的發展方向。

人工智能極大地提昇各行各業的效率,同時也可能引發史上最嚴重“下崗潮”。人工智能技術能够高效完成許多重復性、低技能的工作,這種現象將導致大量從事這類工作的勞動力失業。

未來的社會是高度互聯化的社會,具備一定技術素養才能在社會中立足,可是人工智能技術具有一定的門檻,對於無法掌握這些技術的民眾,可能就很難適應社會,這會影響社會的平等,影響部分民眾基本人權的實現。

強人工智能和超人工智能將對人類社會產生極大的衝擊。當前最為先進的生成式人工智能也祗是弱人工智能的一種,其所能進行的文本生成技術,也祗是人類大腦功能的一部分,並沒有達到真正像“人類思考”(強人工智能),更不會超越人類(超人工智能)。在未來,人工智能不僅能像人類一樣思考和工作,更能够學習人類的撒謊、貪婪等品質,作出對人類有危害的決策,如果機器演化出人類主宰世界的意識,更可能通過各種手段清除人類而主宰整個世界。任何技術的發展都應當“以人為本”,更好地促進人類的發展。

如何約束人工智能技術應用?

當前,人工智能發展的速度已超出預期,縱觀全球各個主體的立法速度,落後於人工智能技術發展的速度。也就是說,如果任憑人工智能技術的發展,很快就會出現人工智能領域無法可依、亂象叢生的局面。

對人工智能進行法律規制,可從以下幾個方面進行。

首先,加強行政監管式規制方案。

應當建立實質性的人工智能算法人權保護標準,及其相配套的審查和懲罰機制。通過標準化的方法實現算法決策機制一定程度的可視化乃至量化,並以此為基礎對算法應用進行進一步規制。

通過行政方式收集信息和數據,評估人權的保護狀況。因為算法提供者沒有足够動力,而算法使用者雖有動力卻無實力負擔信息收集成本。

以行政介入方式確保少數群體權益得到充分表達,以規範形式給予少數群體訴求表達的渠道和正當性,可降低其表達訴求的行為成本並提高其訴求得到採納的機會。

其次,完善數據、算法等相關立法。

數據作為人工智能時代最重要的資源,對數據的規制應當進一步細化,對於數據的收集、流動、跨境流動,數據的存儲、處理,數據的使用、删除及銷毀等,都應當建立相關的法律規制。

進行算法有關的立法,應要求AI系統的設計者和使用者公開其算法的工作原理、數據來源及決策邏輯,特別是對於影響個人權益的重大決策;應確保AI決策過程可以被人類理解和審查,提供決策理由的解釋,尤其是當決策結果對個人產生重大影響時;應建立定期審查與審計流程,檢測並糾正算法中的偏見,確保決策過程的公正性和無歧視性。

再次,通過市場進行規制。

市場自發秩序驅動算法用戶自主選擇,促使人工智能算法與傳統服務競爭,用戶最終選擇在人權保護方面表現最佳的服務。在充分競爭的市場中,用戶可選擇其他提供公平服務的競爭者,這使得不公正的算法服務提供者逐漸被淘汰。由於算法服務的邊際效應遞減,公平服務提供者可因更多用戶而降低平均成本,增強競爭力。在市場規範中,行政管理問題得以解決,不需要複雜的歧視還原和監管體系。市場主體自發調整,以滿足用戶選擇,實現價值衝突的均衡,替代低效的自上而下監管,促進算法服務的人權保護。

最後,保障知情、選擇與申訴權。

應當確保用戶瞭解服務的人工智能屬性、服務提供方身份、採集的信息、隱私保護政策和申訴渠道等實質性權利。服務提供方也有義務解釋說明其條款。

確保公共部門場景中,至少提供“2+1”的選項(兩個以上不同的人工智能程序及傳統方案)。商業行為場景中,至少要求提供傳統解決方案或選擇不接受服務。

確保能够向算法提供方要求重新判斷和提供判斷依據等。在人權範疇內權利受到侵害時,主張停止侵害和侵權賠償等。同時有向政府指定行政機關說明情況尋求救濟的權利。

人工智能的發展速度迅猛,其存在的“技術黑箱”,也讓人工智能專家對很多現象無法解釋。可以說,人工智能像是一個強有力的推進器,讓人類社會再一次經歷騰飛,在這美好的背後,更要警惕其帶來的人權風險,通過法律規制引導保障人工智能技術健康、向善發展。(完)

來源中新社

留下一個答复

請輸入你的評論!
請在這裡輸入你的名字