隨著之人工智慧市場迅速拓展,各國亦加快對通用性AI之治理與管控。其中,歐盟於今年(2024)通過之《人工智慧法》亦對通用性AI之風險門檻與治理,獨立為一章予以規範:
通用性AI提供者所應負擔之義務,主要如下(而AI辦公室或主管機關因此得知之資訊,應保持秘密):
編纂及更新技術文件(相關內容則參考本法附件11),並應要求提供予AI辦公室和各國主管機關。
編纂及提供相關資訊文件(相關內容則參考本法附件12)予有意願整合該AI之提供者。
制定政策以遵守歐盟就著作權與相關權利所規定之法令。
公開訓練內容之詳細摘要。
若提供者非來自歐盟成員國,應以書面指定代表至歐盟,使代表於歐盟處理相關任務、文件提出並與有關單位接洽。
惟若提供者將通用性AI免費開源、公開參數或使用資訊,則僅須遵守著作權相關法令及估開訓練內容摘要即可,而免去其餘義務。
而通用性AI倘具有系統性風險者,則須額外負擔以下義務:
2週內立即通知歐盟執委會。
透過標準協議與工具對通用性AI進行評估,包含對通用性AI進行對抗性測試並記錄之。
評估和減輕歐盟層級之潛在系統風險及其來源,包含因開發、投入市場或使用所產生者。
追蹤、記錄並即時向AI辦公室與各國主管機關報告重大事件與和可能之糾正措施。
確保通用性AI及其實體設備具備適足之網路安全防護能力。
對於通用性AI,歐盟採取降低負擔以鼓勵提供者開源,惟若通用性AI將對社會產生重大衝擊,而對歐盟市場中之人民基本權利、公共安全、大眾健康、具有可預見且將大量散播之危險,致通用性AI具有系統性風險時,即須隨時監測並通知有關單位,確保系統性風險之可控性,以避免前述基本價值受有侵害,而不再以科技發展為由優待通用性AI提供者。此種為通用性AI設計底線並給予一定條件優惠之權衡方式,不僅促進提供者開源供公眾使用之意願,亦可確保通用性AI風險維持於可控範圍內,或可作為我國未來對通用性AI治理之借鑒。
資料來源:
編輯:林煒鎔 黃皓羽
댓글