人工智能與社會

主持人:林文源(國立清華大學通識教育中心 教授兼圖書館館長)

技術政治的基礎設施:以機器學習的教育為例

許峰瑞、歐孟哲、張承宇、張庭涓、陳峙佑(國立臺灣大學社會學系 學生)

機器學習是劃時代的技術,然而,近期愈來愈多學者指出人工智慧,由於其資料的偏 誤,可能成為種族主義者、性別歧視者,檢討這項突破性科技中可能存在的倫理議 題、權力政治。本文從機器學習的教育切入,試圖理解這樣的技術如何被形塑,我們 認為資料在教學的過程中經歷「基礎設施化」的過程,一方面,不只技術特性存在難 以全面關切、無法破譯的問題,在教學的社會配置中,它的預設更是純淨而無須關 切;另一方面,教學過程將機器學習模型的參數調整形塑為首要目標,將資料處理劃 分為其他人的工作,導致了基礎設施化的資料不被關照,去政治的機器學習教育反而 埋下政治性的根源。技術的政治性亦存在其基礎設施,一則來自它的技術特性,一則 在教學時文化敘事的傳散和鞏固。回到技術物政治性的探討以及關乎照護的觀點,我 們期待檢討機器學習技術的社會配置,能夠帶來更加平等與民主的社會技術模式。

關鍵字:機器學習、技術政治性、基礎設施

STS-倫理AI系統設計的哲學反思與對話 — 以自駕車倫理兩難決策模型為例

甘偵蓉(國立清華大學動力機械工程學系 助理研究學者)

本文從倫理學如何有助於 AI 系統設計的角度出發,並以麻省理工學院與清華大 學兩研究團隊所設計的自駕車倫理案例作為討論對象,尤其涉及倫理兩難的決策 模型建置。目的在於說明,當有研究團隊宣稱要設計倫理決策模型時,有哪些倫 理考量應該顧及且評估,並試圖從討論中顯示出,相關倫理考量必須是從設計的 目的到以哪些資料訓練模型,再到模型預期如何落地應用等,採取整體且結構性 的評估,而非只就單一環節、流程甚至在最後應用時才提出個別的評價。本文首 先說明從倫理學角度怎麼看待這類 AI 系統的設計(第一節),並簡介麻省理工學 院與清華大學兩團隊各自的設計特色後(第二節),將針對這兩團隊最常遇到的 三個批評:不應該以群眾外包蒐集倫理資料(第三節)、倫理特徵在自駕車案例 設定不當(第四節)、電車難題不適合模擬自駕車倫理決策情境(第五節),逐一 釐清每項批評,有哪些論點出於誤解或不公允,哪些論點則從倫理觀點應該如何 思考或問題在哪。最後指出針對這類有可能做倫理決策的 AI 系統,公眾及個人 參與技術設計對話的重要,並簡要提供開啟對話的策略(第六節)。

關鍵字:人工智能(AI)、自駕車、倫理決策、倫理兩難、群眾外包

受「自動」忽視的聲音:探討人工智慧於新聞媒體之應用對於少數族群媒體近用權之影響

羅紹儒(國立清華大學科技法律研究所 研究生)

近年人工智慧(Artificial Intelligence,AI)迎來許多重大進展,隨著人類數據大幅提升、大數據分析技術如自然語言(Natural Language Processing)等等的進展,「人工」的「智慧」已非科幻電影中的劇情。人工智慧已被應用於諸多領域,如醫療產業中的精準醫療、法律產業中的自動檢索系統等等。
而AI技術也逐漸受新聞媒體產業所應用。如紐約時報在2015年啟用Editor,自動辨識出所撰寫文字中的重要部分,並自資料庫及網路上取得相關資訊,提供作者參考等。眾多新聞媒體皆開始應用不同的AI演算法協助其在新聞產生前、產生過程、及產出後不同的應用。
其中,有新聞媒體應用AI技術,依照用戶喜好分析,進行自動且客製化的新聞提供。此應用雖能提供即時而更符合民眾偏好的新聞,使其更受青睞,然而此類「專屬新聞」將基於「數據分析」的結果,嚴重影響少數及弱勢族群之媒體近用權。尤其考量現今民眾多半已非由傳統媒體取得新聞,過往對於少數族群的保護手段將面臨挑戰。如何確保數位媒體時代中,媒體作為公共討論空間及少數族群發聲之管道,是未來將面臨的重要課題。本文欲針對此課題,探討AI於新聞媒體應用之管制問題,將以自動及客製化之新聞對於少數族群媒體近用權之衝擊為核心,探討現存法律問題並提出可行之管制手段。

關鍵字:人工智慧、新聞媒體、少數族群、媒體近用權