AI 時代下,如何運用自由軟體駕馭科技?

rock
局部可解釋性模型(Local Interpretable Model-Agnostic Explanations, LIME)(參考資料 8)


譯者:魏子杰

(本文翻譯自 Controlling technology at the age of Artificial Intelligence: a Free Software perspective by Vincent Lequertier, "Copyright © 2001-2021 Free Software Foundation Europe. Verbatim copying and distribution of this entire article is permitted in any medium, provided this notice is preserved."


技術創新、大型且詳細的資料集增加、電腦硬體進步等因素,共同掀起了一場人工智慧(Artificial Intelligence, AI)革命。舉例來說,電腦視覺的突破性進展、大型資料集建構、文本分析方式改善、使用者個人資料蒐集等面向,都促成了無數 AI 應用程式的誕生,而那些 AI 應用程式造福了許多歐盟會員國的人民。然而 AI 本質上較為複雜、對技術性資源與須具備知識要求高,因此可能對人類駕馭科技的能力與基本自由人權造成危害。因此,我們必須訂定新的 AI 相關法規。

本文採取新法規訂定之視角,探討在自由軟體授權條款下發布的 AI 應用程式如何促進可存取性、透明度與公平性。


自由軟體是什麼?

自由軟體(也稱為開放原始碼)提供用戶四項自由權利,人們因而得以駕馭科技:
  • 可不受地理與用途限制,自由使用軟體
  • 可不受保密協議侷限,自由鑽研軟體
  • 可免費分享軟體
  • 可自由改善軟體、分享改善過的版本
正是因為以上這些自由權利與自由軟體授權條款相容,我們才能享受這些自由。目前有多種目標不同的自由軟體授權條款,自由軟體可能由其中任一種條款授權。如果人們希望可以自由修改 AI 應用程式,其訓練程式碼與訓練資料就需要在任一種條款下發布,這樣 AI 才算是真的「自由」軟體。

可存取性

若人們能夠存取 AI ,代表 AI 可供人們再利用、修改、改善、用於個人用途等,而在自由軟體授權條款下發布的 AI 就是可供再利用的。這麼做有許多好處:公開的法律依據能促進自由 AI 軟體不斷創新,因為人們再利用時不需受到任何限制;這麼一來,自由 AI 軟體使人們能站在巨人的肩膀上,研究者與開發者也能專注在研發新的、更佳的 AI 軟體,而非不斷複製前人已做出來的成果。除了提升效率,自由 AI 軟體使人們共享專業技術、省時又省授權費,降低研發成本。以上所有益處都提高 AI 的可存取性,使愈來愈多人能參與到此領域中。
AI 可再利用性也使人們更容易以泛用的 AI 模型為基礎,建立供更專業用途使用的 AI 模型。如果泛用的 AI 模型發布為自由軟體、而不是從頭訓練新的模型,泛用模型可以作為較專業的下行預測任務之基礎。例如泛用電腦視覺模型(參考資料 1、2)可以作為人們管理公共基礎建設的基礎,因為它要求更為專業的圖像處理技術。

但是,將程式碼運用於訓練 AI 應用程式與相對應的資料,不代表人們就可以存取那些 AI 應用程式。 AI 需要透過大量資料來辨識各種模式與相關性,最終才能得到正確的預測結果;若資料不足, AI 將難以學習到任何規律。進一步來說, AI 資料集大、本質上又較為複雜, AI 模型的規模很可能大到使訓練過程太耗時、投入資源過多。若想要 AI 處理複雜的資料, AI 模型就需要經過足量訓練,研發人員也必須具備相關專業技術與管理大電腦容量所需之知識等,而這些事務對人力資源要求很高。從上述困境不難看出,就算 AI 訓練程式碼發布為自由軟體,我們也很難享受到自由 AI 軟體授予我們的自由權利。如此看來,將經過訓練的 AI 模型發布為自由軟體必定會使人們更容易存取相關資料。

最後要強調的是,與其他科技一樣, AI 開放所有人再利用可能是有害的,例如把發布為自由軟體的臉部偵測軟體應用在臉部辨識軟體中,可能涉及人權議題;但是,無論哪種科技都有風險,所以若我們認為使用軟體可能有害,我們該做的是訂定使用標準,而非完全摒棄 AI 科技不用。

透明度

AI 透明度可細分為開放性與可詮釋性兩類。此處我們將開放性定義為「人們受告知 AI 軟體相關資訊的權利」,並將可詮釋性定義為「人們能夠了解 AI 如何運用、辨識、處理輸入資料並做出預測,且也能了解以上過程各自重要性的權利」。歐盟 GDPR 法規 (General Data Protection Regulation;歐盟法規編號:(EU) 2016/679)的第 71 點已保障人們「受告知 AI 演算法之運作方式的權利」:「在任何情況下,我們都應該適度限制 AI 演算法的運作,包括向資料來源人提供特定資訊,以及保障以下權利:人們可隨時介入、發表個人看法、獲知 AI 做出預測的理由並質疑該理由等。」因此,透明度可定義為「能夠了解 AI 如何做出預測的權利」。

AI 必須保持透明,因為人們用它們處理重大議題,例如決定信譽度(參考資料 3),或是用於自動駕駛車(參考資料 4)、預測性警務(參考資料 5)與健保(參考資料 6)等領域。就這些用途而言,了解 AI 如何做出預測非常重要,人們也應該能獲知 AI 所使用之資料與它們處理資料的方式,畢竟未來人們會更加相信且活用 AI 。再者,深度學習等現代 AI 科技也許不需要保持透明,因為當中包含的上萬至上億個獨立參數(參考資料 7)使其既複雜又難懂,這時候就需要能協助分析這些複雜狀況的自由軟體了。

目前已經有一些促進 AI 透明度的自由軟體科技存在了。舉例來說,局部可解釋性模型(Local Interpretable Model-Agnostic Explanations, LIME)(參考資料 8)是一種可將 AI 的複雜預測模型簡化的軟體包,它能以較簡易、較方便解釋的模型來模擬原本的 AI 模型,使用者就能了解該模型中所運用到的所有參數:如圖 1 所示, LIME 比對兩個不同模型所做出的預測。 Captum(參考資料 9)是一款發布為自由軟體的模型解釋庫,可幫助使用者了解不同輸入變因與變數對不同深度學習模型的重要性如何。綜上,AI 透明度是可以提升的。

雖然專有 AI 模型可以保持透明,但自由軟體能夠讓檢核與檢閱過程更順利,進一步促進透明度。有些資料可能太過敏感而無法在自由軟體授權條款下發布,但資料的統計特性還是可以公開發布的。有了自由軟體,人人都能執行 AI 、了解它們的運作原理,也能利用它們查閱資料。但人們也該明瞭,AI 模型本身是由上萬甚至上億個參數構成的,它們其實不需要保持透明,不過我們可以用大幅簡易的 AI 軟體來模擬它們,檢閱過程將更加便利。

延續以上話題,自由軟體還有另一項益處:它們保障人類改善 AI 軟體並與他人分享改善成果的權利,人人因此都能提升 AI 透明度,進而避免「供應商綁定」(vendor lock-in)的情況,人們不需要痴痴等待軟體供應商提升 AI 軟體透明度。

公平性

討論 AI 時,公平性是指「保證所有人不因社會性別、民族、宗教、失能、性向等敏感特色而受到有害之歧視」。因為用來訓練 AI 模型的資料集包含人類可能不甚公平的行為或活動、 AI 模型又會被用於辨識與複製現存的格局, AI 很可能造成不良的歧視與人權侵害。

舉例來說,COMPAS (參考資料 10)是一種計算有前科的人再犯罪可能性的權重計分機制,而它遭指歧視非裔美國人(參考資料 11),因為它將有高機率再犯的非裔美籍犯罪者的數目高估了約 1 倍。也就是說,它的演算法冤枉了並沒有再犯的有前科者,把他們估算成高機率再犯者。結果另一方面,它將有高機率再犯的白人犯罪者的數目低估了約 1 倍。

類似的不公平情況也出現在健保方面(參考資料 12):演算法給予不同病人不同風險分數,進而辨識哪些病人需要更多醫療資源。而同樣風險分數的非裔美國人跟白人比起來,他們的高血壓、糖尿病、貧血、壞膽固醇、腎衰竭等疾患都更為嚴重。以上例證皆顯示 AI 演算法存在不公平性。再從法律角度來看, GDPR 的第 71 點也規定了公平性:「須特別防止所有自然人因其種族或民族出身、政治傾向、宗教或信仰、工會成員資格、基因或健康狀況、性向等因素,而受到歧視或差別性待遇之影響。」因此,我們需要有方法能檢測用於訓練 AI 的資料集是否不夠公平,並且在有狀況時加以導正。

要檢測任何不公平性,我們得先將其量化。目前有許多方法界定 AI 的公平性,主要分為兩類:第一類是驗證演算法是否並未差別對待具相似敏感特色的人們,量測準確率、敏感度與偽陽性率;第二類是在事先確保相似的個人們不受演算法差別待遇,於個人層級測量公平性(參考資料 13)。更正式的作法,是在資料集中採樣並進行一次距離測量、以演算法分別預測後再進行一次距離測量,最後比較兩次距離測量所得的比率持平。然而,要同時達到群體層級與個人層級的公平性幾乎不可能(參考資料 14),因此若檢測到不公平性,以下有三種常用的緩解方法:
  1. 移除資料集中的敏感變數(如社會性別、民族、宗教等),但這可能不適用於現實世界的情況中。若任何敏感變數與資料集當中的其他變數呈相關,移除它們也無法完全抹滅其影響,因此移除變數可能不夠周全、移除太多相關的變數可能導致資訊大量流失;
  2. 確保任一種敏感特色都有相等人數符合該特色;同時完善 AI 模型的準確率與公平性。
  3. 若演算法是以現存具歧視性的資料集訓練的,盡量同時考慮準確率與公平性(參考資料 15)。
換句話說,將公平性列為演算法的另一目標。若以上所有方法有用武之地,我們就該接受「完全準確且公平的演算法不可能存在」的事實(參考資料 14);而如果準確率是由已知對某特定族群不公的資料集所支撐,我們很可能就不再追求百分之百準確的 AI 模型了。

因為發布為自由軟體的 AI 應用程式能為所有人使用與檢視,比起專有軟體,人們能更容易驗證這些 AI 程式、找出潛在的有害歧視部分。再者,這也與 AI 的透明度(參閱「透明度」段落)相得益彰:透明的 AI 程式能促進人們對做出預測之因素的理解。將 AI 程式發布為自由軟體不代表它們足夠公平,但人們能更容易評估、強化其公平性。

結論

本文強調與 AI 民主化與人權意涵的多項潛在議題,也提供可處理上述議題的多種自由軟體相關解決方案。具體而言, AI 必須可供自由存取、足夠透明與公平,才能為大眾所運用。「將 AI 發布為自由軟體」作為解方可能不夠充分,卻是必要的——隨著 AI 愈來愈受廣泛使用於資訊系統,自由軟體能為人們帶來更可理解、可信任、有安全保障的科技新未來。

參考資料

  1. K. He, X. Zhang, S. Ren, and J. Sun, “Deep Residual Learning for Image Recognition,” arXiv:1512.03385 [cs], Dec. 2015.
  2. K. Simonyan and A. Zisserman, “Very Deep Convolutional Networks for Large-Scale Image Recognition,” arXiv:1409.1556 [cs], Apr. 2015.
  3. X. Dastile, T. Celik, and M. Potsane, “Statistical and machine learning models in credit scoring: A systematic literature survey,” Applied Soft Computing, vol. 91, p. 106263, 2020, doi: 10.1016/j.asoc.2020.106263.
  4. C. Badue et al., “Self-Driving Cars: A Survey,” arXiv:1901.04407 [cs], Oct. 2019.
  5. D. Ensign, S. A. Friedler, S. Neville, C. Scheidegger, and S. Venkatasubramanian, “Runaway Feedback Loops in Predictive Policing,” in Conference on Fairness, Accountability and Transparency, Jan. 2018, pp. 160–171.
  6. N. Schwalbe and B. Wahl, “Artificial intelligence and the future of global health,” The Lancet, vol. 395, no. 10236, pp. 1579–1586, May 2020, doi: 10.1016/S0140-6736(20)30226-9.
  7. A. Canziani, A. Paszke, and E. Culurciello, “An Analysis of Deep Neural Network Models for Practical Applications,” arXiv:1605.07678 [cs], Apr. 2017.
  8. M. T. Ribeiro, S. Singh, and C. Guestrin, “"Why Should I Trust You?": Explaining the Predictions of Any Classifier,” arXiv:1602.04938 [cs, stat], Aug. 2016.
  9. N. Kokhlikyan et al., Captum: A unified and generic model interpretability library for PyTorch. 2020.
  10. “Practitioners Guide to COMPAS.” Northpointe, Mar. 2015.
  11. L. K. Mattu Jeff Larson, “Machine Bias,” ProPublica. Mar. 2015.
  12. Z. Obermeyer, B. Powers, C. Vogeli, and S. Mullainathan, “Dissecting racial bias in an algorithm used to manage the health of populations,” Science (New York, N.Y.), vol. 366, no. 6464, pp. 447–453, Oct. 2019, doi: 10.1126/science.aax2342.
  13. C. Dwork, M. Hardt, T. Pitassi, O. Reingold, and R. Zemel, “Fairness Through Awareness,” arXiv:1104.3913 [cs], Nov. 2011.
  14. J. Kleinberg, S. Mullainathan, and M. Raghavan, “Inherent Trade-Offs in the Fair Determination of Risk Scores,” arXiv:1609.05807 [cs, stat], Nov. 2016.
  15. M. B. Zafar, I. Valera, M. G. Rodriguez, and K. P. Gummadi, “Fairness Beyond Disparate Treatment & Disparate Impact: Learning Classification without Disparate Mistreatment,” Proceedings of the 26th International Conference on World Wide Web, pp. 1171–1180, Apr. 2017, doi: 10.1145/3038912.3052660.