演算法的社會與政府
主持人:楊谷洋(國立陽明交通大學電機工程學系 教授)
政府運用人工智慧決策系統的透明度難題林勤富(國立清華大學科技法律研究所 副教授) 隨著大數據資料可得性增加,硬體計算能力及機器學習演算法等技術的迅速發展,各類人工智慧(artificial intelligence,AI)之具體應用逐漸觸及各類經濟與社會活動,改變勞動模式、市場結構、與人類行與思維,更產生諸多規範衝擊與挑戰。而各國逐漸將AI應用於期政府職能運作中,除交通系統優化、智慧執法、社會福利分配、戶政服務等面向,確保決策速度與一致性,或自動化單一性質、重複性高的工作,期能提高政府效能與降低行政成本。然而,機器學習與深度學習演算法,如許多文獻已指出,可能會強化並再製社會既存之偏見與歧視,甚至造成正當法律程序等基本人權之侵害等,而其中最受爭議的問題之一,恐為演算法的「黑盒子」挑戰,亦即欠缺透明性(transparency)而無法供社會大眾檢驗,而無法針對前述問題確保政府決策日漸「演算法化」(algorithmization)的可課責性(accountability)。 關鍵字:演算法、透明性、可解釋性、人工智慧、政府課責、演算法化 |
機器人促發的社會互動:自閉症類疾患者與機器人的互動林宗德(國立清華大學通識中心/社會學研究所 副教授)、周紹傑(國立清華大學系統神經科學研究所) 隨著神經多樣性(neurodiversity)運動的興起,自閉症類疾患(ASD, Autistic Spectrum Disorder)者與資訊科技物之間的親近關係廣受注意。又由於機器人技術近來的發展,機器人已應用於輔助自閉症者發展社會互動技能之實驗。此類實驗基於對自閉症者與科技物之間的親近性假設:和人與人之間的互動相較,機器人的行為容易預測,較少多面向(說話聲調的、面部表情的、手勢的)的社會線索(social cues),因而較不易產生使自閉症者感覺超載而排斥互動的問題。 關鍵字:自閉症、機器人、NAO |
演算法監控社會:臉部辨識科技之發展與潛在風險楊蕙亘(國立清華大學科技法律研究所 碩士生) 臉部辨識科技(FRT)已悄無聲息地擴展到與人們日常生活密切相關的私人或公共領域。從利用FRT驗證使用者身份以解鎖手機、機場智慧化出入境管制、COVID-19疫情中為降低接觸風險之患者行跡追蹤,乃至作為警察辨識犯罪者的工具,抑或透過街道上安裝的監控鏡頭連續地辨識人群中的每個人,FRT會因技術分類、應用情境、辨識錯誤類型等要素之不同而異其潛在風險程度。尤有甚者,若政府使用新興科技替代或與傳統工具結合作為新的管制方法,則除了促使現代監控國家的興起之外,FRT諸如演算法不透明性、權利侵害之可課責性、對少數民族和弱勢族群之錯誤呈現(misrepresentation)、系統偏見或歧視之隱憂,亦會伴隨監控社會而使風險與不利影響進一步規模化。自2019年起,美國舊金山、波士頓、波特蘭等多個城市已禁止公部門使用FRT,而微軟、亞馬遜、IBM等大型科技公司亦相繼宣布不同的禁止政策。儘管如此,中國作為主要FRT擁護者,除在中國境內將FRT用於社會信用系統等多種目的,更希望能進一步影響FRT在世界各國的使用。本文首先藉由FRT之運作流程、使用情境與錯誤類型進行分類,以對相應風險程度進行剖析,此外,透過梳理美國與中國不同管制架構,進一步勾勒出FRT發展可能輪廓與方向,最後評估FRT於公部門之可能應用與界限。 關鍵字:臉部辨識、演算法、系統偏見、風險管制、監控社會 |