中國消費者報北京訊(記者桑雪騏)當下,人工智能已經滲透到消費者生活的方方面面。記者9月10日從北京市互聯網法院獲悉,該法院審理案件情況分析顯示,涉人工智能案件增長較快,糾紛類型也日益復雜化和多元化,對于此類案件的審理存在三大挑戰。
一是技術應用復雜導致事實查明難。案件往往涉及對人工智能的生成過程、算法模型以及數據來源等進行司法審查,技術門檻高,事實查明難度大,對司法專業性要求高。例如在北京互聯網法院審理的“人工智能標識案”中,平臺運用算法工具將用戶發布內容判定為未標識的AI生成內容從而引發糾紛,該案中平臺既是算法工具掌控方又是結果判斷方,法院判斷其平臺審查及處理結果是否有合理依據時需要探明其算法決策邏輯,平臺需圍繞案件爭議事實以可理解的方式舉證或說明算法運行機制、對可能出現的誤判是否采取了合理的救濟措施。
二是規則適配不足導致法律適用難。人工智能領域規范性法律文件制定存在一定的滯后性,難以完全適應技術快速發展的新形勢,相關案件的司法裁判常常無法規可依、無先例可循。例如在著作權領域,涉及AI文生圖、文生視頻、虛擬數字人等新型權益客體是否構成著作權法意義的作品,其著作權應歸屬于AI服務提供者還是使用者;大模型訓練對作品的利用在著作權方面如何定性等問題。在人格權領域,涉及自然人的人格權保護范圍是否及于AI合成的虛擬形象、虛擬聲音;以人臉信息作為模型應用深度合成技術是否侵犯個人信息等問題。這些具體爭議需要法官充分發揮司法智慧,綜合法律原則、政策導向、價值衡量等進行合理裁判。
三是主體角色多元導致責任認定難。人工智能產業鏈條復雜、上下游相互依存,案件往往涉及訓練者、開發者、服務提供者、使用者等不同角色,各方主體分工合作形成復雜關聯,影響法律責任的認定。例如在北京互聯網法院審結的全國首例“AI聲音權案”中,原告主張侵犯其聲音權益的被告涵蓋錄音制品制作者、文本轉語音產品開發者、服務提供者以及云服務平臺等人工智能數據訓練、模型研發和技術服務鏈條下的眾多環節中的多個主體,如何理順相應的產業鏈條,在眾多主體中確定責任由誰承擔,既關涉個案公平正義的實現,又影響著相關產業能否健康有序發展。
北京互聯網法院對預防化解涉人工智能案件糾紛提出4點建議:提升法律意識與數字素養,明確自身行為邊界,依法維護自身合法權益;嚴格遵守技術倫理規范,確保數據和基礎模型來源合法;積極完善管理機制,強化人工智能服務提供者主體責任;加強人工智能監管協同合作,形成監管合力。















