張委員雅琳:謝謝主席。現場的各位專家學者,還有部會代表,在這邊跟大家打聲招呼,我是民進 黨立法委員張雅琳。今天非常高興舉辦這樣的 AI 座談會來蒐集大家的意見,尤其在此時此刻, 我想大家都知道 AI,畢竟大家都是這個領域的專業。有鑑於 AI 的快速發展,技術已經進入到日 常生活的各個層面裡面,尤其是國家也喊出了台灣 AI 國家隊等等,所以我們勢必要針對發展中 的 AI 產業,我們還是必須要回應,這個法規的重點應該是怎麼樣來支持我們的產業發展,以及 確保我們的國民安全,我這邊講的安全其實是一個權利的概念。 如果是這樣子的目標的話,我自己有兩個想法,但我覺得也可以請教大家的意見,這個基本 法裡面應該要有主責單位──要有一個主管機關,因為現在的 AI 發展可能橫跨於數發部、經濟 部、國科會,甚至衛福部、教育部等等,其實各個面向都會受到影響,可是我們現在缺乏一個 整體的治理架構。因為 AI 的風險與倫理問題,不只是存在產業發展而已,更涉及了人權、民主 、國安,甚至可能影響我們的司法判斷,因此,我認為我們需要一個能夠統籌各部會,並且具 有決策及執行能力的中央主管機關來專責管理 AI 的規範制定、政策推動、風險控管,以及讓我 們可以跟國際接軌。 美國拜登總統在 2023 年簽署了一份 AI 的行政命令,明確要求要設立一個 AI 安全研究中心, 交由國家標準與技術研究院和國安部門與國家安全部來主導,統一處理 AI 的測試標準、風險評 估以及各部門的應用規範。我想大家也可以一起來集思廣益,到底我們台灣比較適合放在哪一 個部門呢?第二個部分,我也認為在 AI 基本法裡面,應該要明確界定風險分級與責任分類制度 ,因為 AI 不是每一個用途都應該要有高強度的監管,我們應該依據它的實質影響程度來把風險 分等級,例如,可能有最低等級、有限風險、高風險以及不可接受的風險。這部分我們可以參 考歐盟 AI Act 的分級方式,但是也要納入美國所強調的用途導向、影響導向的原則,比方 AI 如 果只是用來寫文案、畫插圖或是課堂練習,風險當然是相對非常的低;但是如果用於司法判決 、醫療診斷、求職審查,這些可能屬於高風險的系統,就需要更嚴格的審查機制。 更重要的是,我們應該要明確界定風險的義務人到底是開發者、使用者,然後誰負責系統安 全、誰負責資料透明等等,不能夠發生問題之後是各部門互踢皮球,廠商也不用負責,所以我 認為我們在設計 AI 基本法的時候,除了考量到產業和技術部分,也要把人的基本權益一起納入 來思考。同時我也知道產業也會有點擔心,因為 AI 的變化實在是太快了,如果我們把一個相對 的罰則放進來的時候,可能也會限縮了 AI 的發展,所以這個部分也是我們未來在制定相關法律 的時候要一併考量的。 最後,我要強調 AI 基本法並不是要限制創新,而是要提供清楚的規則和方向,讓好的技術能 夠安心發展,讓人民能夠信任使用,我相信我們現在一起來面對的話,我們就更有機會在兼顧 剛剛講的不管是產業、國際趨勢或是人權的部分,可以面對這樣子的問題。今天再次感謝大家 一起前來,我也希望未來我們可以打造出一個更能夠適應各個領域,也能夠保障人權的 AI 基本 法,謝謝。