演算法的社會與政府

主持人:楊谷洋(國立陽明交通大學電機工程學系 教授)

政府運用人工智慧決策系統的透明度難題

林勤富(國立清華大學科技法律研究所 副教授)

隨著大數據資料可得性增加,硬體計算能力及機器學習演算法等技術的迅速發展,各類人工智慧(artificial intelligence,AI)之具體應用逐漸觸及各類經濟與社會活動,改變勞動模式、市場結構、與人類行與思維,更產生諸多規範衝擊與挑戰。而各國逐漸將AI應用於期政府職能運作中,除交通系統優化、智慧執法、社會福利分配、戶政服務等面向,確保決策速度與一致性,或自動化單一性質、重複性高的工作,期能提高政府效能與降低行政成本。然而,機器學習與深度學習演算法,如許多文獻已指出,可能會強化並再製社會既存之偏見與歧視,甚至造成正當法律程序等基本人權之侵害等,而其中最受爭議的問題之一,恐為演算法的「黑盒子」挑戰,亦即欠缺透明性(transparency)而無法供社會大眾檢驗,而無法針對前述問題確保政府決策日漸「演算法化」(algorithmization)的可課責性(accountability)。
基此,近年已有諸多規範倡議明示納入透明性原則,強調演算法決策不能欠缺之,如2019年歐盟發布的《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI),以及美國參議員於2019年提出之《演算法課責法》(Algorithmic Accountability Act)法案等,而我國科技部2019年發布的《人工智慧科研發展指引》亦將透明性列為八大指引之一。然而規範層次上,何為透明性仍未有釐清,如要求政府應用演算法決策時,應公開原始碼供公眾檢驗,是否能滿足透明性要求?深度學習演算法,即令將原始碼公開,亦無法以人類可理解之方法充分解釋決策邏輯,這樣是否可稱為透明?抑或僅需由一部分專家審查,即可具備透明性?如此議題,均為本文欲探討之重要面向。本文將從政府職能演算法化的類型與所涉風險程度,探討究竟何種決策要透明?為何要透明?何時應透明?對誰透明?如何才為透明?透明程度是否應牽涉事項不同而調整?有否可不具透明性的例外情形?藉由此些層面之分析,期能對政府職能演算法化之透明性困境,提出若干初步建議,緩解其可課責性赤字。

關鍵字:演算法、透明性、可解釋性、人工智慧、政府課責、演算法化

機器人促發的社會互動:自閉症類疾患者與機器人的互動

林宗德(國立清華大學通識中心/社會學研究所 副教授)、周紹傑(國立清華大學系統神經科學研究所)

隨著神經多樣性(neurodiversity)運動的興起,自閉症類疾患(ASD, Autistic Spectrum Disorder)者與資訊科技物之間的親近關係廣受注意。又由於機器人技術近來的發展,機器人已應用於輔助自閉症者發展社會互動技能之實驗。此類實驗基於對自閉症者與科技物之間的親近性假設:和人與人之間的互動相較,機器人的行為容易預測,較少多面向(說話聲調的、面部表情的、手勢的)的社會線索(social cues),因而較不易產生使自閉症者感覺超載而排斥互動的問題。
為了評估機器人促發社會互動之效果,本研究結合故事敘說,透過量化分析自閉症兒童的社會互動,比較人類與NAO機器人是否有差異。實驗過程並邀請參與者之照顧者全程參與,完成後取得照護者之質性回饋。
研究結果顯示,人類與NAO機器人敘說故事之效果並無十分明顯之差異,兩者皆能誘發參與者的社會互動。但根據照護者之質性回饋,參與者在與機器人互動的過程中可能出現平時觀察不到的主動模仿、分享資訊等社會互動行為。此外,由於參與者的特殊教育經驗和認知能力有不小差異,參與者的個體差異可能相當程度地左右了機器人促發之效果。

關鍵字:自閉症、機器人、NAO

演算法監控社會:臉部辨識科技之發展與潛在風險

楊蕙亘(國立清華大學科技法律研究所 碩士生)

臉部辨識科技(FRT)已悄無聲息地擴展到與人們日常生活密切相關的私人或公共領域。從利用FRT驗證使用者身份以解鎖手機、機場智慧化出入境管制、COVID-19疫情中為降低接觸風險之患者行跡追蹤,乃至作為警察辨識犯罪者的工具,抑或透過街道上安裝的監控鏡頭連續地辨識人群中的每個人,FRT會因技術分類、應用情境、辨識錯誤類型等要素之不同而異其潛在風險程度。尤有甚者,若政府使用新興科技替代或與傳統工具結合作為新的管制方法,則除了促使現代監控國家的興起之外,FRT諸如演算法不透明性、權利侵害之可課責性、對少數民族和弱勢族群之錯誤呈現(misrepresentation)、系統偏見或歧視之隱憂,亦會伴隨監控社會而使風險與不利影響進一步規模化。自2019年起,美國舊金山、波士頓、波特蘭等多個城市已禁止公部門使用FRT,而微軟、亞馬遜、IBM等大型科技公司亦相繼宣布不同的禁止政策。儘管如此,中國作為主要FRT擁護者,除在中國境內將FRT用於社會信用系統等多種目的,更希望能進一步影響FRT在世界各國的使用。本文首先藉由FRT之運作流程、使用情境與錯誤類型進行分類,以對相應風險程度進行剖析,此外,透過梳理美國與中國不同管制架構,進一步勾勒出FRT發展可能輪廓與方向,最後評估FRT於公部門之可能應用與界限。

關鍵字:臉部辨識、演算法、系統偏見、風險管制、監控社會