每日速遞:透視歐盟人工智能法草案

        光明網-《光明日報》 2023-03-16 09:32:04

        【環球視野】?


        (相關資料圖)

        作者:柳建龍(中國社會科學院大學法學院教授)

        隨著人工智能技術的應用和發展,人們對它可能帶來的收益和風險的認識日益深刻。當下,人工智能的跳躍式發展在給人類社會帶來廣闊前景的同時,也給個人安全和保障帶來很大風險,增加了侵犯人類基本權利的可能性。然而,各國政府卻普遍存在欠缺權力、程序框架和資源以確保人工智能的發展和使用符合法律規定的能力。

        如何從立法著手促進人工智能產業的健康發展,成為迫在眉睫的課題。

        從跨國視角來看,碎片化的監管措施會妨礙跨境人工智能市場的形成,并威脅到數字主權。為此,歐盟出臺了一系列措施鼓勵企業發展人工智能解決方案。本月底,《關于制定確立人工智能統一規則(人工智能法)以及修改部分聯盟法律的歐盟議會和歐盟理事會的條例的提案》(以下簡稱“草案”)將提交歐盟議會表決。如獲通過,意味著該法案將成為具有拘束力,可在歐盟成員國內直接適用的法律。

        目前,草案已提交歐盟議會一讀。草案為調和人工智能的發展和利用與歐盟國家社會價值觀和公民基本權利保障,對人工智能的概念和分類,高風險人工智能系統的提供者、使用者及其他人的義務、法律后果等作了詳細的規定。鑒于當下人工智能技術的發展、利用以及流轉程度的加深,特別是在日益復雜的全球科技格局和國際關系背景下,有必要對相關動態予以進一步關注。

        1.監管“黑箱”技術的核心訴求

        統一人工智能立法對于歐盟而言,最重要的訴求就是要確保投放到歐盟市場的人工智能系統及其使用的安全性。近來,人工智能系統的平民化使得藏在“黑箱”里的新技術變得觸手可及。人工智能變得可以與普通人“交流”,但是它的好多“想法”卻讓人產生不安。

        怎么才能確保人工智能尊重現行法律中所包含的價值觀和基本權利成為一個現實問題。人工智能可以“理解”歐盟社會的價值觀嗎?如何讓一個智能系統符合歐盟對于建立一個包容、寬容、公正、團結、非歧視的社會的期待?尊嚴、自由、平等、民主、法治、人權保障等理念如何經由對人工智能系統的分類處理、細化各類主體的職責和義務、完善有關程序,進而被強化、具體化、內化到人工智能安全規定本身之中?《歐盟基本權利憲章》所保障的基本權利又如何能通過人工智能系統得到推進,如:人性尊嚴、尊重私生活和保護個人數據、不受歧視權和男女平等、獲得有效救濟和公平審判的權利、辯護權和無罪推定等以及一些特殊群體的權利,如工人享有公平和公正的工作條件的權利、消費者權益保護、兒童權利和殘疾人的復歸社會,與人們的健康和安全有關的,如獲得高水平的環境保護和改善環境質量的權利。

        從更宏觀的層面來看,人工智能沒有國界,未來它很可能被用于不同國家的經濟和社會部門,在整個歐盟內或者跨境進行流轉。部分成員國已經制定了相應的法律,但這種做法對于人工智能的經營者而言,容易欠缺法律的穩定性。因此,制定統一的法律框架、確保法律的確定性和可預見性,進而促進人工智能的投資和創新成為迫在眉睫的問題。

        歷史上,各自為政的立法措施造成市場碎片化的案例屢見不鮮。制定統一的法律框架,可以促進合法、安全和可靠的人工智能的應用,確保基于人工智能的貨物和服務的跨境自由統一市場的形成。不過,值得注意的是,草案旨在確立統一的法律框架,而非具體法律規范,這為成員國在不損害立法目標的情況下采取不同程度的行動,特別是市場監督系統的內部組織和促進創新措施的采納,留下了空間。

        2.從寬泛界定到細化指引

        最初的“草案”對人工智能系統作了寬泛界定,將其界定為采取一種或多種技術和方法開發的軟件,并且能夠針對一組特定的人工定義的目標,產生諸如內容、預測、建議或決定等影響其互動環境的輸出。不過,歐盟理事會認為,標注過于寬泛難以提供清晰的指引,為此,進一步將人工智能的范圍縮小,即通過機器學習以及以邏輯和知識為基礎的方法發展起來的系統,以區別于一般軟件系統。

        按照對個人人身和安全、基本權利可能造成的風險高低,《歐盟人工智能法》將人工智能系統分為三類加以區別處理,分別是禁止、高風險、非高風險三類。

        草案禁止人類的人工智能實踐及實時遠程生物識別系統的運用作了規定。首先,禁止在市場上投放、交付使用的包括:以個人無法認知的方式,采用潛意識教化技術嚴重扭曲個人行為或者利用特定群體的年齡、殘障或者特定社會或經濟處境等弱點,其目的旨在或者效果為嚴重扭曲與該群體相關的人的行為,業已或可能對個人生理或心理造成傷害的人工智能系統,以及根據自然人的社會行為或者已知或預測的個性特征或人格特征,在一定時期內對自然人進行評估或分類,但其所產生的社會評分可能造成自然人或其整個群體在社會環境中受到不利或不適宜待遇的人工智能系統。

        與此同時,草案對實時遠程生物識別系統的使用作了一般性禁止規定。其例外情形作了嚴格限制,當且僅當其使用存在絕對必要性時,執法機關或受其委托者可在公共場所訴諸前述系統。

        高風險的人工智能指可能對個人健康、安全及基本權利產生重大有害影響的人工智能。草案雖然未作明確界定,但給出了高風險人工智能系統的判斷標準。具體而言,下列人工智能系統應視為高風險人工智能系統:根據歐盟統一立法清單,相關產品或者作為其安全部件的人工智能系統本身,在投放市場或者投入使用前需要接受第三方合規評估的,如運輸、機械、電梯、壓力設備、醫療設備、安全設備、無線電設備的人工智能系統;旨在用于包括自然人的生物識別和分類、關鍵基礎設施的管理和運作、教育和職業培訓、就業、執法、移民、難民和邊境管制以及司法和民主過程等領域的人工智能系統;就其嚴重程度和發生概率而言,其對個人健康、安全和基本權利造成不利影響的風險極大的人工智能系統。

        與前述相比,諸如聊天機器人之類的非高風險人工智能技術,只需要滿足最低限度的透明性要求。草案起草者認為,只要告知用戶他正在與人工智能進行互動就可以減少潛在風險,故其對個人的健康、安全及基本權利造成損害的可能性較小。

        3.高風險技術需要全過程監管

        對高風險人工智能系統,草案設計了全過程監管制度。高風險人工智能系統“從搖籃到墳墓”——自投放市場或投入使用前直至整個存續期間——都要接受審查,以確定其是否遵守強制性的風險管理系統、嚴格的數據和數據治理規定,技術文件和日志保存的規定及上市后監測和事故報告的規定。與之相應,草案對高風險人工智能系統的提供者課以較重義務。

        提供者負有合規義務。提供者應確保高風險人工智能系統的預期使用目的符合規定,按照規定建立、運行、記錄并維持風險管理系統,并確保人工監管的準確性、韌性和安全性。

        提供者應建立合理的質量管理系統,并以書面政策、程序和指令的形式系統、有序地載明該質量管理系統,確保合規程序的執行、相關文件的草擬以及強有力的售后監管制度的建立;確保高危人工智能系統在投放市場或投入使用前,經過相關的評估程序。在高風險人工智能系統投放市場或投入使用前,提供者應起草并持續更新技術文件。技術文件的編制方式應能證明高風險人工智能系統符合歐盟人工智能法的要求,并為國家主管部門提供全部必要的信息,以評估人工智能系統是否符合這些要求。

        提供者有記錄保存義務。在人工智能系統投放市場或者投入使用之日起的10年內,提供者應保存技術資料、質量管理系統相關文件等以備檢查。依照與用戶的協議或法律規定由其控制高危人工智能系統自動生成的日志的,則提供者有義務保存上述日志。保存期限根據高危人工智能系統的預期使用目的、歐盟或成員國的法律規定予以確定。在投放市場或投入使用前,提供者應依法向歐盟委員會在成員國協助下設立的歐盟數據庫申請登記。歐盟數據庫應只包含根據本條例收集和處理信息所必要的個人數據。這些信息應包括負責注冊系統的以及有權代表供應商的自然人的姓名和聯系方式。倘若提供者認為或有理由認為其投放市場或投入使用的高風險人工智能系統不符合規定,應立即采取必要的糾正措施,酌情撤回或召回。他們應告知有關高風險人工智能系統的經銷商,并在適用時告知授權代表和進口商。

        4.人工智能發展違法必究

        一旦草案獲得批準,成員國應根據相關規定和條件制定相應罰則,采取必要措施確保這些規定得到適當和有效的執行。所規定的處罰應是有效的、相稱的和教育性的,并應特別考慮到小規模提供者和初創公司的利益和經濟生存能力。

        草案規定,提供者違反有害的人工智能禁止性規定和數據治理義務的,可以處以最高3000萬歐元的罰款或全球年營業額的6%(以較高者為準);高風險人工智能系統的使用違反其他規定的,可以處以最高2000萬歐元或營業額的4%的罰款;向成員國主管機構提供不正確、不完整或具有誤導性的信息,將被處以最高1000萬歐元或營業額2%的罰款。

        草案規定,歐盟機構、機關違反有關禁止性人工智能和數據治理義務規定的,可以處以最高50萬歐元的行政罰款;違反其他規定的,可以處最高25萬歐元的罰款。

        草案試圖在促進人工智能的發展和利用與歐盟價值觀和基本權利保障之間尋找平衡:首先,其對人工智能采取了較確切的定義并對禁止的和高風險人工智能系統作了詳細的規定,課予提供者較大的義務,并對包括歐盟機構、機關在內的義務主體設定了高額的罰款,可以在較大程度上確保人工智能的發展和利用不至于嚴重損害歐盟價值觀和基本權利;其二,前述規定同時也構成了對歐盟和成員國的限制,非有授權其不得干預和限制人工智能的發展和利用,并要求在適用相關罰則時,應考慮小規模提供者和初創公司的利益和經濟生存能力,這為人工智能的發展預留了一定空間;同時,為保護重要的公共利益和個人權利,草案對公權力機關,尤其是執法機關使用的人工智能系統預留了較多空間,并對訴諸禁止的人工智能系統的例外情形作了規定,這可以確保公權力職能的實現。

        不過,正如批評者所指出,鑒于基本權利侵害風險主要來自于國家,尤其是例外情形和對公權力使用的人工智能系統的差別對待,也使得上述平衡處于危險之中。正因為此,目前歐盟議會尚未能達成一致意見,以至于不少人擔心草案可能流產。

        《光明日報》( 2023年03月16日?14版)

        關鍵詞:

        免責聲明:市場有風險,選擇需謹慎!此文僅供參考,不作買賣依據。

        上一篇:

        下一篇:

        最新推薦