首頁>專題>學習貫徹黨的二十屆三中全會精神>述評·理論·評論
以“善治”促“善智”
黨的二十屆三中全會通過的《中共中央關于進一步全面深化改革、推進中國式現代化的決定》指出,要“完善生成式人工智能發展和管理機制”“加強網絡安全體制建設,建立人工智能安全監管制度”。近年來,人工智能技術發展迅速,作為新一輪科技革命和產業革命的核心驅動力,被廣泛應用于諸多領域。但與此同時,新技術所帶來的數據安全、算法黑箱、新型糾紛等風險也層出不窮,如何建立人工智能領域的法律監管體系備受關注。
我國高度重視人工智能的發展和治理,“人工智能法草案”已經連續兩年被列入預備提請全國人大常委會審議項目,人工智能法專家建議稿、學者建議稿討論不斷,但其起草的重點及難點也是顯而易見的。
首先,技術發展迅速,治理對象和方式變化多。人工智能治理的重點一般圍繞數據、算法和平臺,但僅在2023年內,生成式人工智能的發展便形成了“基礎模型—專業模型—服務應用”的分層業態。這種新發展降低了平臺對數據資源及要素運用的核心掌控能力,也導致平臺不再是治理的主要核心。由于技術發展,人工智能的應用前景和發展方向難以預測,加之立法機構對快速發展的底層技術難以深入理解,將導致治理對象和治理方式變化加速。
其次,人工智能發展具有跨界性和跨國性。一方面,我國正開展“人工智能+”行動,人工智能從研發到場景應用再到產業全鏈條賦能,涉及領域復雜多樣,立法的系統性和協調性難度也相應加大。另一方面,在不同的國家和地區,人工智能治理的監管理念、標準體系等方面存在巨大差異。所以人工智能立法不僅體現本國的立法和監管智慧,還將被置于“放大鏡”下被其他各國審視,成為國家競爭力的重要組成部分。
此外,人工智能技術創新帶來倫理道德等新型安全風險。人工智能的決策基于算法和模型得出,其可能會輸出違背人類倫理道德的結果,如歧視性決策、侵犯隱私等,所以人工智能立法需要找到技術創新和倫理道德之間的平衡點。此外,人工智能系統若被黑客攻擊、病毒感染,可能危及個人信息、社會秩序乃至國家安全,所以,人工智能安全體系構建也應得到重視。
人類與人工智能將長期共存,技術與風險的不確定性將是治理需要面對的常態。人工智能立法需要統籌高質量發展和高水平安全,促進人工智能健康發展。
“以人為本”,定位“促進”。通過“以人為本”,可以防止因過度追求技術理性導致人的主體性的消解,這也符合我國在參與人工智能全球治理中提出的,以人為本、智能向善、造福人類的原則。同時,不發展就是最大的不安全,借鑒我國在互聯網產業發展監管的成功經驗,統籌考慮促進產業轉型升級、保障公民權益和社會公正等多層次需求,探索好監管和發展的平衡關系,以立法和監管推動人工智能技術與產業的健康發展。
采取靈活審慎的立法策略。比如,針對突出問題,可以通過出臺司法解釋、監管部門指導意見等形式解決;在涉及具體場景問題時,可以通過先行先試、監管沙盒等方式進行探索,也可以先出臺地方立法或部門規章,再逐步推進立法,有效解決技術快速發展帶來的監管“真空”問題。
注重系統性和協調性。在系統性方面,一是健全人工智能研發與應用法律制度,不僅要為技術創新提供法律支持和保障,也要對人工智能提供者及產品及服務加諸相應的合規義務。二是構建人工智能風險防控和責任追究機制,比如在大模型備案和相關評估制度落實的基礎上,明確人工智能產業鏈上各主體的法律責任,也可采取權責相統一原則,確保責任認定明晰。三是完善人工智能監管與治理體系,針對不同行業的人工智能應用,要明確各部門監管職責;也可將人工智能應用按風險等級進行劃分,分級分類進行監管。此外,可考慮探索將人工智能技術應用于人工智能監管,提高監管效率。在協調性方面,應充分考慮既有法律規范體系,注意加強人工智能立法與個人信息保護法、數據安全法、網絡安全法等現有法律的銜接,避免沖突和矛盾的產生。
具有前瞻性和國際視野。人工智能是一種動態發展的通用技術,其產生的潛在風險與行業應用密切相關,所以立法工作中應預留“領域接口”,以應對技術發展的不確定性。同時,人工智能已經成為當今國際競爭的關鍵領域,因此,立法工作一方面應對域外的遏制予以回擊,另一方面要確立我國的理念制度,方便未來我國人工智能產業國際化發展和參與人工智能治理國際規則制定。
人工智能立法不僅關系著人工智能技術產業的長遠發展,更會深刻地影響人工智能時代的個體權利、社會運行和國際地位等,要本著發揮法治固根本、穩預期、利長遠的作用,盡快推進人工智能立法。
(作者張毅系全國政協委員,上海市新的社會階層人士聯誼會會長,金杜律師事務所高級合伙人)
編輯:崔姝音