【國考行政學】公部門AI治理(by飛溟)
【國考行政學】公部門AI治理(by飛溟)
作者:飛溟
發佈日期:2025年1月20日
壹、AI 到 Day 係蝦米?
AI(Artificial Intelligence),中文為「人工智慧」,是一智慧數位運算技術與工具的集合名詞。其自西元 1950 年代中期以英國數學家艾倫 ‧ 圖靈(A.Turing)為首研究伊始,[1]迄今訓練機器自動學習,朝向工業革命 5.0 強調人機協作、客製化等趨勢發展。[2]
這一時代浪潮也令公部門數位轉型迎來新的命題,有論者認為短期內資源配置、可預測的方案、程序性和重複性工作等類型非常適合應用 AI,並期待未來對治理效能、智慧韌性、貪腐防治、地方治理、法規調適等議題帶來變革,以價值、動機和情感驅動思考,具備獨立學習、評估環境等能力之自動代理人(autonomous agents)。惟現階段 AI 囿於技術,提升公務員技能和工作成效,還有行政指導自動化等輔助角色,是較為合適和可行的方向。[3]以下就當前公部門應用實例、可採取之措施,以及其所伴隨而來之優缺點和風險進行論析。
貳、公部門應用實例
一、服務型智慧政府 2.0[4]
於「跨域一站式整合服務」和「打造多元協作環境」(政府入口網站使用流程優化、開放政府資料加值應用、公共政策網路參與平臺應用範圍深入直轄市和縣市版本服務)等基礎上,進一步聚焦下列 3 項重點:
(一)、強化跨機關服務
民眾民生領域申辦程序簡化、數位服務客製化。
(二)、加速開放資料釋出
1.建立政府資料申請、授權、收費等原則性規定及開放資料諮詢、輔導機制。
2.優先推動釋出大眾運輸、金融商品等民生相關資料集,並引導政府善用。
(三)、加強循證式決策
將跨機關、跨業務等資料運用分析模式與演算法輔助決策作成。
民眾能以如口語對話般的形式,使用 AI 簡單、快速查詢各法院庭期表及開庭進度資訊等服務。
參、優缺點與風險
一、優點
(一)、行政效率品質提升
AI 可突破地域和時間限制,且能多工地處理大量資料、自動化行政文書工作,改善行政程序效率和品質,亦令公務員得以較多心力與時間專注解決更為繁複、迫切的問題。
(二)、專業性提升
公部門得以更為新穎之技術分析和演算大量、多樣的資料。
(三)、公平性提升
機器不帶情感之去人性化性質,較人類在服務傳遞上更為平等。
(四)、客製化服務
AI 可依據使用者個人資訊和其設定之需求進行服務。
二、缺點和風險
(一)、課責問題
當 AI 導入公共服務產生爭議或侵害人民權益時,課責對象究竟是操作之公務員或建置系統之工程師,又或者是引進之公部門,還是研發之科技公司?此外,課責方式也不無疑問。有論者認為可賦予 AI 主體性,視其為機關代理人,使之具備獨立人格與地位,方有建立對 AI 課責機制的可能性,惟實務層面仍有待討論。
(二)、衝擊公部門之專業分工和層級節制
AI 多工處理可能觸及跨管轄領域的問題,對公部門專業分工和層級節制之規範產生衝擊。
(三)、不擅長解決危機管理與預測問題
目前 AI 技術最擅於解決諸如影像辨識、物流計算、產品瑕疵檢測等和情境無關且樣本數量多之問題,而危機管理和預測問題則是其弱項,例如:災害應變處理、經濟表現預測、戰爭預測等具高度情境相關性且樣本數量少之領域[6]。
(四)、AI 治理下的管制者俘獲(Regulatory Capture)[7]
科技公司以特定框架引導政策討論(議程設定),避免直接針對 AI 系統之監管,亦透過資助研究和學術機構來影響政策(學術俘虜),乃至選擇性分享有利資訊,隱瞞潛在風險(資訊操控),達到規避法律責任或限制競爭者等目的,並導致公部門設置偏弱的監管標準,無法有效保障公共利益。
公部門為杜絕上開弊端、提高監管透明度,可設立獨立機關審查,鼓勵公民(團體)、其他非產業相關之專家學者參與政策討論,增進政府 AI 專業能力,避免過於依賴業界資訊。同時,設置旋轉門條款或類似美國之《遊說公開法(Lobbying Disclosure Act)》之立法,利益揭露和迴避以及提供獨立研究資金,可一定程度遏制科技公司在政商學界的影響力。[8]
(五)、透明度問題
AI 其「黑箱」運作、演算法程式未公開等特質,考驗社會對其認可和信任程度。[9]有論者認為 AI 開發階段,開發者即應就其如何使用、篩選各項資料及參數,還有後續產出結果充分說明和解釋,並對此設定判斷公平性或透明度之具體標準,其牽涉到管制、監督、救濟可能性與課責等問題,乃至建構整體監管組織和法規架構的基礎。[10]
(六)、放大社會既存偏見的風險
若 AI 中運用有偏差的訓練集或演算法,將可能導致種族偏見制度化且規模化,擴散至更廣泛的政策領域。[11]臺灣可能產生之問題是 AI 以大量漢人本位主義之資料,應用於原住民族之政策領域。
(七)、侵害個人隱私
當 AI 蒐集和運用個人資訊時,個人資訊隱私權受司法院釋字第 603 號解釋保障之
「自主控制權利」和憲法法庭 111 年憲判字第 13 號判決肯認的「退出權」,是否仍具使用知悉和課責之完整性,具備憲法對其程序和制度上的充分保障,則不無疑問。
我國實務混用個人資料保護措施之概念,甚至在《個人資料保護法》脈絡下之「去識別化」內涵也存有見解上的歧異,以致無法確立其客觀標準和保護程度,[12]依舊是眼下須迫切解決之問題。近來政府則應前揭憲法法庭判決之要求,籌設獨立機關「個人資料保護委員會」,並就未來其執法權限、各級公私部門間協力合作機制、資料安全維護和事故應變通報、司法救濟等面向,預告修正《個人資料保護法》部分條文,[13]亦屬應對 AI 治理之初步作為。
(八)、演算法串通合謀(Algorithmic Collusion)的疑慮
此目前主要是指 AI 應用於股票投資市場時,可能因其存在隱性協調機制、懲罰交易行為偏差的「價格觸發機制」、簡單的利潤最大化算法、共用基礎模型開發致同質化的學習偏差等,使各 AI 間有意無意地相互協調,例如:哄抬或固定價格、限制競爭等,產生看似串通共謀的現象,從而影響市場公平性、流動性和價格訊息。有論者認為 AI開發階段即應排除獎懲機制,並確保盈利非透過隱性協調或自主共享敏感訊息達成。[14]當上開情況最終惡化為市場失靈時,公部門介入解決則不無可能,故在此併予說明。
★記憶方法:凡事都有一體兩面
優點 | 缺點和風險 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
行政效率品質提升 | 協助公務員處理事情→課責問題 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
多工處理(跨管轄領域)→衝擊專業分工和層級節制規範 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
重複性、程序性事務→不擅長解決危機管理與預測問題 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
專業性提升 | 分析、演算→AI 治理下的管制者俘獲、透明度問題 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
大量、多樣資料→放大社會既存偏見 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
公平性提升 | 去人性化→偏差的訓練集或演算法將可能導致種族偏見 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
客製化服務 | 依據使用者個人資訊和其設定之需求服務→侵害個人隱私 |
肆、現階段政府可採取之措施
一、公部門 AI 應用之政策分析步驟[15]
(一)、探討 AI 運用政策領域與可能產生之倫理道德風險。
(二)、個案中各類資料之管理和分析者的責任歸屬、各利害關係人面對之風險和影響。
(三)、提出可行政策建議和解決方案以提升 AI 倫理道德能力。
(四)、預評估可能政策方案在各層面影響,特別關注利害關係人對各種政策之觀點。
(五)、監督政策執行成果,並隨時檢討執行成效。
二、建立 AI 導入策略[16]
(一)、著重問題導向的應用而非創造需求
AI 僅是解決特定問題的其中一個選項,而非為了使用而勉強使用。
(二)、深化公民的參與
藉此提升公民信任和支持,並取得其使用者回饋,持續修正、優化公共服務。
(三)、擴大公私協力
嘗試為既有系統導入或整合 AI,例如將 1999 服務專線建置為 AI 客服。
(四)、資訊共享、整合
開放資料之格式統一與資料隱私規範建立,後者經前揭憲法法庭判決揭櫫國家負的憲法保障內涵。
(五)、建立公務員與 AI 分工共榮工作場域
AI 作為對公務員工作能力增強與協助的角色,而非裁員取代之。公部門亦得藉此鼓勵公務員學習、培養新專業技能,為舊有文化(legacy culture)注入變革。
伍、近年相關考題
一、113 年高考二級:一般行政(兩岸組一) 第 3 題
因應人工智慧(artificial intelligence, AI)發展趨勢,各級政府機關既有的對內與對外協調連繫機制需要進行那些變革?又可能需要排除那些障礙?(25 分)
二、113 年高考二級:一般行政(兩岸組一) 第 4 題
請論述政府機關推動行政透明化(administrative transparency)過程中,應要求公務人員提升那些倫理(ethic)或責任(responsibility)的認知?相對的,機關組織設計與管理又要採行那些配套的變革作為?(25 分)
陸、結論
隨著時代變遷、科技日新月異,公部門 AI 治理看來勢不可擋。然而,AI 技術仍存有不少未知數,以及應用後伴隨難以預測和估量之影響,導入公部門使用於公共服務,所涉及的對象和層面甚鉅,如何審慎應用是近來研究著墨頗多之處,是故本文優缺點和風險部分論述比例不均在所難免,若考試遇到相關題目,仍需留意正反意見的申論比重。
「科技的良善,始終來自於政府治理的良窳。」,科技革新並非百利而無一害,如何從應用 AI 進行公部門數位轉型的發展中趨利避害,需各界務實參與討論與行動,才能提高數位轉型成功的機率。學者范垂斯(C. Ventriss)曾云:「行政是政府核心,但公共才是國家重心。」,在 AI 提升公部門公共服務品質和效率的同時,須莫忘其最終指向增進公共利益,公民的意見和決定仍不可輕忽。
註腳
[1] 黃心怡、曾冠球、廖洲棚、陳敦源,〈當人工智慧進入政府:公共行政理論對 AI 運用的反思〉,《文官制度》,第 13 卷第 2 期,2021 年 11 月,頁 94。
[2]吳欣珊,〈工業 5.0 世代預備,未來工廠的發展趨勢為何?〉,《行銷人》(最後瀏覽日 2024.12.23)。
[3]同註 1,頁 92-97。
[4] 以下內容主要摘自國家發展委員會,〈服務型智慧政府 2.0〉,《行政院》(最後瀏覽日 2024.12.23)。
[5]司法院,〈司法院「#智慧客服小幫手 2.0」試營運啦!〉(最後瀏覽日 2024.12.23)。
[6]同註 1,頁 96、99-103。
[7] 指公共政策制定遭受規範者藉遊說、資訊操控、文化影響、旋轉門移動等手段犧牲或違背公共利益為代價操縱監管。
[8] Kevin Wei , Carson Ezell , Nick Gabrieli , Chinmay Deshpande , “ How Do AI Companies “Fine-Tune” Policy?Examining Regulatory Capture in AI Governance , ” paper presented at the San Jose , CA at 2024 AAAI / ACM Conference on AI , Ethics , and Society ( San Jose , CA:Association for the Advancement of Artificial Intelligence and Association for Computing Machinery , October 21-23 , 2024 ) , pp . 1539-1548 .
[9]同註 1,頁 98。
[10]張濱璿、陳敦源、廖洲棚、黃心怡、王千文、張瀠心、陳郁函,〈當人工智慧風潮下公共服務制度設計策略與法規調適作為之研究〉,《行政暨政策學報》,第 78 期,2024 年 6 月,頁 113。
[11]同註 1,頁 102。
[12]吳全峰、許慧瑩,〈健保資料目的外利用之法律爭議──從去識別化作業工具談起〉,《月旦法學雜誌》,第 272 期,2018年 1 月,頁 48-57。
[13] 個人資料保護委員會籌備處,〈預告修正「個人資料保護法」部分條文〉,《公共政策網路參與平臺》(最後瀏覽日 2024.12.24)。
[14] Ai Deng , “ What Do We Know About Algorithmic Tacit Collusion?, ” Antitrust , Vol. 33, No. 1, Fall 2018 , pp. 88-94 .
[15]以下內容主要摘自王禕梵,〈公部門人工智慧治理:從倫理道德觀點出發〉,《公共行政學報》,第 65 期,2023 年 9 月,頁 125。
[16]以下內容主要摘自註 1,頁 105-106。
作者簡介
飛溟
113高考及格
「Trial and Error」