林委員宜瑾:好,繼續加油。我想談到永續科研,我們就不得不談到近期席捲而來的 AI 浪潮。自 然期刊有登出一篇 AI 研究,研究團隊有發現,早期的 AI 模型遇到不懂的問題比較會迴避,但 升級過後的版本會出現一些胡謅答案的情形。他們分析了三大語言模型,像 OpenAI 的 GPT 或 者 Meta,就是臉書的 LLaMA,還有就是 BLOOM,發現越來越大的語言模型,回答的精準度當 然確實有上升,可是這些不精確的答案中,其實錯誤的比例也有上升。有專家指出,可能是因 為餵給 AI 模型的訓練語料不見得完全正確,以及模型本身也不見得可以篩掉錯誤的資訊假象的 關係。當然這篇期刊所針對的模型是 2023 年投稿時的 AI 模型,而最新銳的 AI 模型還不一定有 相關的研究出爐,可是這是不是給我們世界一個警訊,就是 AI 的可靠性容我們質疑,那我們國 科會開發的 TAIDE 模型有辦法迴避掉這些疑慮嗎?我們要如何去定期檢查或者餵給它大量的資 料,可是要掌握這些資料的正確性?主委。
吳主任委員誠文:謝謝委員,委員講得的確很重要,因為一般新的模型出來,特別是這種通用的模 型,它的訓練資料不見得符合我們自己的需求,所以有時候我們問它一些問題,它不見得答得 很好,的確是有這樣的現象,這是為什麼我們要發展主權 AI 的原因。我們用台灣自己的資料訓 練自己的模型,這個模型將來應用到我們自己的社會,它的準確度是可以提高的,而且我們把 這個模型優化以後,也不要用原來通用的這種非常大型的模型,可以節省我們的能源,不要太 浪費能源,將來我們自己主權 AI 的發展會朝這個方向走。謝謝委員。