陳委員素月:次長早。今天我們是針對人工智慧法來進行詢答,我們也知道現在科技的進步發展真 的是日新月異,所以人工智慧也跟著蓬勃發展,而人工智慧的運用對於我們的商業活動以及人 類的生活也造成很大的衝擊及影響。賴總統也宣示要打造台灣成為人工智慧之島,卓院長也有 強調要推動台灣進入全面應用 AI 的時代,所以一個完善的人工智慧基本法對於我們要發展 AI 的指引,絕對是有它的必要性,這也是很多委員及社會各界都在關注的議題。我們也知道,隨 著 AI 的快速發展跟它的運用,它所帶來的風險真的也是非常大,像 AI 所提供的資訊偏見或不 準確性,或是錯誤的訊息,或是否會侵犯隱私的問題,還有智慧財產權的問題,這部分剛剛昆 澤委員有問到,還有威脅國家安全以及 AI 失控的一些風險,這些風險也成為各國在 AI 治理上 迫在眉睫必須去面對跟處理的。在這邊我請教一下葉次長,對於 AI 風險的管理,我們的態度是 怎麼樣?
葉次長寧:我們都完全同意委員的說法,就是我們要在鼓勵創新跟風險管理之間求取平衡,行政院 在研擬 AI 基本法的時候大概就會特別強調,包括人類的自主、隱私保護、安全性、透明及可解 釋性、公平以及可問責,希望我們能夠享受 AI 所帶來的好處,減低 AI 所帶來的負面影響,這 個部分在草案裡面也都會做詳盡的規劃。
陳委員素月:是。那麼未來對於 AI 的監理,因為我們知道現在是參考國外的作法,目前大概有兩 種的方式:一個是歐盟的,就是制定人工智慧監管的專法,另外一個是美國的,就是不制定專 法,它的監管態度是採取比較自由的方式,避免過度干預。所以在這個部分,我們是不是也要 去思考,在制定專法監管之後,對於 AI 的發展是不是會造成限制?
葉次長寧:謝謝委員。的確我們有看到歐盟跟韓國比較嚴格的監管規範,會造成 AI 創新一定的阻 礙,所以我們採取基本法模式,最大的好處是它是原則性的規定,不會阻礙創新或是彈性的運 用,在各個領域使用到 AI 的時候,各個領域的主管機關可以根據風險高低來訂定規範。譬如說 自駕車一定會使用到人工智慧,交通部就可以訂定無人載具的特別規範;或者是在醫學上已經 廣泛應用 AI 的醫療器材,其實衛福部也訂定了相關醫療器材 AI 的指引。意思就是,在一般性 的規範上面,我們採取基本法,也就是原則性的,就像委員所說的,保留一定的彈性,但是在 各個領域會根據風險高低來制訂比較細膩的規範,我們是採取這樣的作法,可以說是折衷歐盟 跟美國所採取的一種折衷式的方式。
陳委員素月:是。所以我們就是參照歐盟,針對 AI 的監理,它是用風險分級的方式,分為不可接 受的風險、高風險、有限風險以及低或無風險四個等級,我們看到數發部的報告還有對外的說 明,都是說我們要採取風險分類,所謂的風險分級跟風險分類有什麼差別?差異是在哪裡?
陳委員素月:好。我們知道現在全球 AI 競爭可以說是非常激烈,所以 AI 技術也成為各國科技競 爭的核心,也看到各國真的都是卯足全力、摩拳擦掌。我們看到韓國也宣示 2030 年要以躋身全 球 AI 三強為目標,所以韓國的作法,今年他們就將有關科技的預算增加了 25%,來到 1.8 兆韓 元,換算成台幣是 386 億,這是一個非常龐大的預算。我們也看到去年數發部有表示要規劃五 年期的政府 AI 發展戰略計畫,這個部分好像編列 190 億的經費,預計在明年正式啟動,目前這 個政府 AI 發展戰略計畫的計畫內容,行政院核定了嗎?