人工智能與社會
主持人:林文源(國立清華大學通識教育中心 教授兼圖書館館長)
技術政治的基礎設施:以機器學習的教育為例許峰瑞、歐孟哲、張承宇、張庭涓、陳峙佑(國立臺灣大學社會學系 學生) 機器學習是劃時代的技術,然而,近期愈來愈多學者指出人工智慧,由於其資料的偏 誤,可能成為種族主義者、性別歧視者,檢討這項突破性科技中可能存在的倫理議 題、權力政治。本文從機器學習的教育切入,試圖理解這樣的技術如何被形塑,我們 認為資料在教學的過程中經歷「基礎設施化」的過程,一方面,不只技術特性存在難 以全面關切、無法破譯的問題,在教學的社會配置中,它的預設更是純淨而無須關 切;另一方面,教學過程將機器學習模型的參數調整形塑為首要目標,將資料處理劃 分為其他人的工作,導致了基礎設施化的資料不被關照,去政治的機器學習教育反而 埋下政治性的根源。技術的政治性亦存在其基礎設施,一則來自它的技術特性,一則 在教學時文化敘事的傳散和鞏固。回到技術物政治性的探討以及關乎照護的觀點,我 們期待檢討機器學習技術的社會配置,能夠帶來更加平等與民主的社會技術模式。 關鍵字:機器學習、技術政治性、基礎設施 |
STS-倫理AI系統設計的哲學反思與對話 — 以自駕車倫理兩難決策模型為例甘偵蓉(國立清華大學動力機械工程學系 助理研究學者) 本文從倫理學如何有助於 AI 系統設計的角度出發,並以麻省理工學院與清華大 學兩研究團隊所設計的自駕車倫理案例作為討論對象,尤其涉及倫理兩難的決策 模型建置。目的在於說明,當有研究團隊宣稱要設計倫理決策模型時,有哪些倫 理考量應該顧及且評估,並試圖從討論中顯示出,相關倫理考量必須是從設計的 目的到以哪些資料訓練模型,再到模型預期如何落地應用等,採取整體且結構性 的評估,而非只就單一環節、流程甚至在最後應用時才提出個別的評價。本文首 先說明從倫理學角度怎麼看待這類 AI 系統的設計(第一節),並簡介麻省理工學 院與清華大學兩團隊各自的設計特色後(第二節),將針對這兩團隊最常遇到的 三個批評:不應該以群眾外包蒐集倫理資料(第三節)、倫理特徵在自駕車案例 設定不當(第四節)、電車難題不適合模擬自駕車倫理決策情境(第五節),逐一 釐清每項批評,有哪些論點出於誤解或不公允,哪些論點則從倫理觀點應該如何 思考或問題在哪。最後指出針對這類有可能做倫理決策的 AI 系統,公眾及個人 參與技術設計對話的重要,並簡要提供開啟對話的策略(第六節)。 關鍵字:人工智能(AI)、自駕車、倫理決策、倫理兩難、群眾外包 |
受「自動」忽視的聲音:探討人工智慧於新聞媒體之應用對於少數族群媒體近用權之影響羅紹儒(國立清華大學科技法律研究所 研究生) 近年人工智慧(Artificial Intelligence,AI)迎來許多重大進展,隨著人類數據大幅提升、大數據分析技術如自然語言(Natural Language Processing)等等的進展,「人工」的「智慧」已非科幻電影中的劇情。人工智慧已被應用於諸多領域,如醫療產業中的精準醫療、法律產業中的自動檢索系統等等。 關鍵字:人工智慧、新聞媒體、少數族群、媒體近用權 |