以下文章來源于鄭老師的英國法課堂
2025年7月底,英國負(fù)責(zé)法律改革的機(jī)構(gòu)法律委員會(Law Commission)發(fā)布了題為《人工智能與法律》(AI and the Law)的討論文件(discussion paper)。該文件的核心目的并非提出具體的法律改革建議,而是全面地概述人工智能技術(shù)(特別是那些具有自主性和適應(yīng)性的系統(tǒng))對現(xiàn)有法律框架構(gòu)成的挑戰(zhàn),旨在引發(fā)公眾和專家對這些問題的討論,為未來可能的法律改革奠定基礎(chǔ)。、文件開宗明義,指出AI技術(shù)在21世紀(jì)取得了顯著進(jìn)展,從早期的概念階段進(jìn)入了實(shí)際應(yīng)用,影響著社會生活的方方面面。盡管AI帶來了巨大的益處,但也帶來了法律上的挑戰(zhàn)。該討論文件的目標(biāo)是系統(tǒng)性地探討這些挑戰(zhàn),并為未來的政策制定提供信息。文件強(qiáng)調(diào),它將聚焦于那些具有“自主性”(autonomy)和“適應(yīng)性”(adaptiveness)的人工智能系統(tǒng),因?yàn)檫@些特性使得人工智能的行為更難預(yù)測,從而對現(xiàn)有的法律原則和責(zé)任歸屬構(gòu)成特殊挑戰(zhàn)。一、什么是AI及AI如何工作?文件的這部分為沒有技術(shù)背景的讀者提供了AI的基本概念。法律委員會采納了經(jīng)濟(jì)合作與發(fā)展組織(Organisation for Economic Co-operation and Development,OECD)對AI的定義:AI是一種基于機(jī)器的系統(tǒng),它根據(jù)接收到的輸入進(jìn)行推斷,以生成能夠影響物理或虛擬環(huán)境的輸出,例如預(yù)測、內(nèi)容、推薦或決策。AI有兩個關(guān)鍵特性:自主性(Autonomy):AI能夠在沒有人類直接干預(yù)的情況下做出決定或采取行動;適應(yīng)性(Adaptiveness):AI能夠通過學(xué)習(xí)或自我優(yōu)化來改進(jìn)其性能,這意味著它的行為會隨著時間的推移而改變。這兩種特性使得現(xiàn)代AI與傳統(tǒng)的基于規(guī)則的軟件程序截然不同,正是這些特性導(dǎo)致了法律上的“責(zé)任空白”(liability gaps)問題。法律委員會指出,傳統(tǒng)的軟件是“確定性”的,相同的輸入產(chǎn)生相同的輸出;而AI系統(tǒng)則具有“概率性”,其輸出可能具有不確定性。二、AI可能產(chǎn)生何種法律問題法律委員會強(qiáng)調(diào),AI的上述兩種特性是導(dǎo)致各類法律問題的根源。一個自主且適應(yīng)性強(qiáng)的AI可能做出超出其最初設(shè)計(jì)者預(yù)期的行為,這使得追溯責(zé)任變得復(fù)雜。1. 因果關(guān)系確定傳統(tǒng)的侵權(quán)責(zé)任法要求證明被告的過失與原告的損害之間存在因果關(guān)系。然而,AI的復(fù)雜性、自主性和適應(yīng)性使得AI造成損害時可能難以證明其行為與特定的人類決策或過失之間存在直接的因果鏈。例如,一個自適應(yīng)的AI可能在運(yùn)行過程中,通過與環(huán)境的互動而產(chǎn)生了一個意想不到的“行為”,進(jìn)而導(dǎo)致?lián)p害。在這種情況下,將損害歸因于最初的程序員或AI的使用人可能會面臨挑戰(zhàn)。2. 主觀犯意(mental element)在許多刑事犯罪和某些民事過失案件中,法律要求證明被告具有特定的主觀意圖,例如“知情”(knowingly)、“輕率”(reckless)或“故意”(intentionally)。法律委員會指出,由于AI本身沒有意識或意圖,且其行為可能難以預(yù)測,因此將人類的主觀犯意歸咎于AI造成的后果變得非常困難。例如,如果一輛由AI控制的汽車違反交通規(guī)則,是應(yīng)歸咎于開發(fā)者在編程時的疏忽,還是歸咎于用戶在使用時的不當(dāng)?3. 責(zé)任主體 (who might be liable?)AI的開發(fā)和應(yīng)用涉及一個復(fù)雜的供應(yīng)鏈,包括:
開發(fā)者/程序員:創(chuàng)建AI算法和模型的個人或公司。
軟件集成商:將AI模型集成到最終產(chǎn)品中的實(shí)體。
用戶:將AI系統(tǒng)投入使用并可能對其進(jìn)行配置的個人或公司。
AI本身:法律委員會將AI本身也作為一個潛在的“行為人”進(jìn)行討論,但指出其缺乏法律人格。
法律委員會強(qiáng)調(diào):在AI造成損害時,確定上述鏈條中的哪一方或哪幾方應(yīng)該承擔(dān)責(zé)任是一個復(fù)雜的問題。目前的法律,如產(chǎn)品責(zé)任法,可能無法完全解決這一問題,因?yàn)锳I可能不是一個“有缺陷的產(chǎn)品”,而是由于其自主行為導(dǎo)致了損害。
4. 不透明性(opacity)
許多AI模型,特別是深度學(xué)習(xí)模型,被認(rèn)為是“黑盒”(black box)。這意味著即使是開發(fā)者也可能無法完全解釋為什么模型會做出某個特定的決策或預(yù)測。這種不透明性對法律程序構(gòu)成了挑戰(zhàn)。例如:(1)在法庭上,被告可能難以解釋AI的決策過程,從而影響其辯護(hù)權(quán);(2)如果AI在刑事司法中被用來輔助量刑或預(yù)測犯罪風(fēng)險(xiǎn),其決策的不透明性可能與“公平審判”原則相沖突;(3)在民事訴訟中,原告可能難以證明AI的過失或缺陷,因?yàn)樗麄儫o法獲得關(guān)于AI內(nèi)部運(yùn)作的足夠信息。
5. 監(jiān)督與依賴(oversight and reliance on AI)
法律委員會指出,人類用戶,特別是專業(yè)人士(如醫(yī)生、律師),對AI的輸出負(fù)有審查和核實(shí)的責(zé)任。過度依賴AI系統(tǒng)而不進(jìn)行獨(dú)立的判斷可能會導(dǎo)致過失。例如,法律委員會引用了律師因依賴大語言模型(LLM)而引用了不存在的判例的例子,說明了人類監(jiān)督的重要性。
6. 訓(xùn)練和數(shù)據(jù)(training and data)
法律委員會簡要提及了訓(xùn)練數(shù)據(jù)可能引發(fā)的法律問題,例如數(shù)據(jù)侵犯版權(quán)、隱私問題以及訓(xùn)練數(shù)據(jù)中的偏見可能導(dǎo)致AI產(chǎn)生歧視性輸出。
三、要賦予AI獨(dú)立法律人格嗎?
討論文件最后,法律委員會作了一個“更具思辨性”的分析:是否應(yīng)賦予AI某種形式的法律人格。法律委員會承認(rèn),這在法律界是一個有爭議的話題。其指出,如果賦予AI法律人格,那么AI將能夠擁有權(quán)利和義務(wù),并能夠作為獨(dú)立的法律主體被起訴。不過,法律委員會也提出了反對意見:(1)不成熟的AI:目前的AI技術(shù)可能還未達(dá)到需要賦予其法律人格的程度;(2)意識缺乏:AI缺乏意識、情感和道德判斷能力,因此賦予其法律人格可能違背法律人格的基本原則;(3)責(zé)任轉(zhuǎn)嫁:這可能導(dǎo)致AI的開發(fā)者和用戶將責(zé)任推卸給AI本身。
法律委員會的結(jié)論是:目前為AI賦予法律人格可能為時過早,但這是一個需要持續(xù)關(guān)注和討論的長期問題。
四、總結(jié)
這份討論文件是一份前瞻性的法律分析,它沒有提供硬性的解決方案,而是系統(tǒng)性地梳理了人工智能(特別是自主和適應(yīng)性系統(tǒng))給現(xiàn)有法律框架帶來的根本性挑戰(zhàn)。核心問題在于,傳統(tǒng)的法律原則(如過失、因果關(guān)系和主觀犯意)是為人類行為設(shè)計(jì)的,而AI的非人類、非確定性行為模式使其難以適用。報(bào)告通過提出一系列問題,旨在為未來如何填補(bǔ)“責(zé)任空白”和確保法律在AI時代保持有效性提供一個清晰的討論路線圖。報(bào)告全文下載:https://lawcom.gov.uk/publication/artificial-intelligence-and-the-law-a-discussion-paper/