top of page

《促進人工智慧安全性國際科學期中報告》: AI發展風險多,結果仍取決於政府决策

  《促進人工智慧安全性國際科學期中報告》於本月(2024年5月)17號,即首爾人工智慧高峰會前一週正式發布。本報告主要聚焦於通用性人工智慧近期迅速發展之相關情形外,亦包含對通用性人工智慧之能力、風險及相關減輕與風控措施之分析。

  該報告中提及,如果人工智慧管理得當,可以帶來更高的福祉、更多的繁榮和新的科學發現。但隨著人工智慧能力的不斷提升,可能出現惡意使用、誤解風險、系統性風險及交叉風險等問題,諸如:深偽技術(deepfake)、網路攻擊(cyber offence)、歧視、對勞動市場、技術、產業、能源、隱私、智慧財產權等之跨領域重大影響。雖研究人員對上述風險程度多寡仍有爭議,但社會或政府對於上述風險之評估將影響未來對人工智慧治理之措施與進程。其次,目前雖有各種技術方法可作為降低或控管上述風險,但所有方法均有其限制,而有待進一步研析。

  隨人工智慧不斷進展,各國已逐漸意識到其所伴隨而生的風險。無論是歐盟的《人工智慧法》(EU Artificial Intelligence Act)或是《鼓勵創新之人工智慧治理白皮書》(A pro-innovation approach to AI regulation),雖治理模式與精神有所差異,但對於人工智慧的風險控管皆以著手進行觀測並研析。縱使人工智慧的風險不可能完全避免,亦無所謂正確解答,但不可諱言地,我國往後在人工智慧的發展上,當須考量對於本土之個人、社會、產業乃至政府所造成的衝擊,盡可能於治理上形成軟著陸。

相關連結:

​編輯:林煒鎔 黃皓羽

最新文章

查看全部

暗黑模式的法制(上):歐盟

暗黑模式(Dark Patterns)對使用者日益顯著的負面影響,逐漸引起各國政府關注,歐盟作為全球數位治理的先驅之一,已在多項法令中對暗黑模式有所關注。本文上篇將說明歐盟如何透過法令,限制暗黑模式的氾濫。        暗黑模式指的是在使用者介面中,利用人類心理和行為偏好...

Comments


bottom of page