生成式AI與大型語言模型於亞太地區日益興盛,隱私遠見論壇(Future of Privacy Forum, FPF)於2024年提出之《亞太地區生成式AI之治理框架綜觀》,即針對澳洲、中國、日本、新加坡及南韓等5國如何對生成式AI為因應及治理,提出說明。
現今亞太地區對生成式AI之治理方針,於部分領域達成共識。目前多數國家傾向採取自願性準則與多方利害關係人諮詢之方式作為現行生成式AI之治理方式。其次,多數國家亦肯認生成式AI將產生「事實錯誤、不透明、不當使用個人數據、惡意使用、偏見和歧視」之風險,多數國家亦認同應採取具體措施因應之,其中包含:
進行影響評估,以確定並減輕危害
管理資料之品質,以減少有害偏見
制定隱私管理計畫並公布隱私政策
採取安全措施如:系統發布前之安全測試、系統發布後之監測、回報安全事件等
對AI生成之內容進行標示
再者,上開國家至今仍未對AI訂定個別法規,在生成式AI必定大量使用個資作為訓練資料之前提下,資料保護之相關法令即成為各國要求生成式AI開發者與使用者負擔一定義務之主要法源,而相關規定多有含括:
蒐集個資之法律基礎(其中以網路爬蟲之規範最為重要,生成式AI之訓練資料主要均源自於網路爬蟲所取得,惟此種方式幾無可能取得當事人之同意。然多數國家之個資法令仍未對此有所規範)
管理資料之品質
個資洩漏事件處置
個人權利行使之維護,如取得、更正、以及刪除個資
然而,亞太地區目前對生成式AI之治理方針或見解仍有諸多歧異。舉例而言,中國相對於其他國家,採取全然不同之規範路徑,為生成式AI訂定強制性之法令予以規管。甚至是在國家內不同機關對於生成式AI治理之見解,亦經常有所扞格。亞太地區在生成式AI之治理上,究竟面臨那些挑戰?未來解決之趨勢又該如何?(續下篇)
資料來源:
paulger, D. (2024). Navigating Governance Frameworks for Generative AI Systems in the Asia-Pacific. The Future of Privacy Forum (FPF).
編輯:林煒鎔 黃皓羽
Comments