按照風險高低,歐委會將人工智慧應用場景分為"最低、有限、高、不可接受"四個風險等級,等級越高的應用場景受到的限制越嚴格。
風險等級最低的應用場景包括基於人工智慧的電子遊戲和垃圾郵件識別軟體等,目前歐盟絕大部分人工智慧系統都屬於該類別,歐委會提出的法律框架對此不做約束;風險有限的場景包括聊天機器人等,歐盟建議應讓用戶知曉自己在與機器互動,並有權決定繼續對話還是退出。
高風險應用場景指可能對人們生命、生活造成嚴重影響的場景,如交通設備、教育培訓、醫療輔助、信用評級等。歐委會建議,這類功能在啟用前應履行嚴格義務,如足夠的風險評估、高品質的資料交換、確保可追蹤的活動記錄以及必要的人工監督等。
歐委會強調,所有遠距離生物識別系統都被認為具有高風險,禁止執法部門在公共場合使用這一技術,只有少數情況例外,如尋找失蹤兒童或防止個別恐怖襲擊、甄別犯罪分子和可疑人員等。這類應用需得到司法部門或獨立機構授權。
某些明顯威脅人們安全和生活以及侵犯人們權利的系統被劃為不可接受風險的場景,包括利用人類行為來誤導用戶、違反其自由意志的應用,如使用語音助手誘導未成年人做出危險行為的玩具等,這類應用須禁止。
歐委會執行副主席瑪格麗特·韋斯塔格在新聞發佈會上說,若有商家不遵守規定,首先是受到警告,然後產品可能會被下架,如屢犯不改則可罰沒其年收入的6%。
除了法律框架外,歐委會當天還公佈了針對機器人、3D印表機等的人工智慧機器條例,以及人工智慧協調計畫,旨在加強對人工智慧研發的鼓勵和扶持。這套政策建議尚需經過歐洲議會和歐盟理事會批准。
最新評論