英國於疫情下的成績考核



 呂胤慶
2020年09月04日

摘要

衛報(The Guardian)透過一系列報導,說明英國今年為因應疫情所為的成績核定措施,以及其所生影響。

為因應疫情避免群聚感染,英國各地的大考中心取消實體考試,改以演算法系統決定各該11年級學生的會考成績。該演算法在設計上是出於「標準化」的目的,使今年成績,在分布上不要與過去的成績差距過大,避免成績的通貨膨脹。其分別採納「教師對於特定學生的評價」、「學生於該班的排名」,以及「該校過去的表現」得出特定學生的會考評價。詳言之,其計算的演算法如下:

  • 班級人數大於15人
  • Pkj = (1-rj)Ckj + rj(Ckj + qkj – pkj)
  • 班級人數小於15人
  • Pkj = CAG

Pkj指的是每個人最終成績的計算方式。在建構理念上,教師對於特定學生的評估會依據班級人數而決定是否納入(15人以下的班級會納入教師的評估(即CAG),多於15人的大班則會不計入教師的特定評估,而僅以排名跟學校的表現加以評比)。rj與成績無關,涉及班上同學歷來成績是否存在,如果存在,rj就是1,反之,rj就是0。依據rj的數值,公式可以分為兩部分:

一、如果不存在歷來會考成績,該演算法即變成「Pkj = Ckj」,而Ckj指的是學生於學校之中近三年的成績分布,其設計理念即為以學校的歷年數據作為基準。

二、如果存在歷來會考成績,該演算法變成「Pkj = Ckj + qkj – pkj」,亦即最終的成績是學校近三年的成績分布(Ckj)加上各班過去成績所計算出的成績排名(qkj)再扣掉基於過去所預測的成績分布(pkj),其設計理念即是以學校歷年數據作為基準外,加上基於成績所計算出來的預測結果,但扣掉些基於排名所生的落差。

實施之前行政機關聲稱該系統一概公平,不過已有議員指出該系統對於經濟弱勢、種族弱勢者的不公平影響。各地在實施之後,的確有不公平的聲浪以及抗議發生。在蘇格蘭,124000人的成績被調降;而在英格蘭250000名的學生,總共有近四成學生的成績被調降。

未弭平抗議的浪潮,各地考試行政機關有不同的處理方式,例如蘇格蘭的大考中心調回所有被調低的成績,並容許學生於學校同意的前題下,提起訴訟加以救濟;而英格蘭則未改變成績,且其僅容許以「學校」為單位提起訴訟加以救濟。 數間研究機構,針對本次使用演算法成績判斷的結果進行分析。在500份的抽樣調查中顯示:在族群上,8成的白人滿意其分數、7成的黑人滿意其分數以及4成的亞洲人滿意其分數;在學校的類型上,8成的私立學校學生滿意其分數;7成的公立學校學生滿意其分數。


小編

一、英國本次發生歧視現象的原因

演算法對於決策所生的歧視效果,依據近來法律學界的討論,主要有三個原因:一、既存於社會的偏見因為系統的建置而進入到系統之中;二、科技無法確切捕捉社會現實所呈現的偏見;三、因知識內涵的改變,扭曲原本之意,產生了偏見導致歧視結果。

然而英國本次使用演算法決策系統所發生的歧視主要並非前開理由所致,主要理由在於英國大考中心這套系統僅有四種資料來源,加上人數僅限於特定年紀的考生,因此僅能算是「小數據」。本次不公正的現象發生之原因在於制度的設計理念。自動化決策的使用原理在於:特定事件會有規律的重複發生,因此從過去歷史資料中所得出的「規則」在未來會有「預設」的功能。然而,考試是一個特定個人的行為,具有「一身專屬性」,以過去的歷史成績作為未來成績應該如何表現是有問題的,因為「成績」並不是具有規律而能重複發生的結果。因此,本次英國發生成績問題的理由主要在於避免成績通貨膨脹的設計理念所導致。

二、都是演算法惹的禍?

若設計理念改為依據在校成績決定,是否即會化解部分議員指出的貧富差距、種族弱勢的歧視現象?本文認為這個答案是否定的。

貧富差距以及種族所導致的成績分布不均並非自動化決策所致,自動化決策僅是忠實的呈現經濟弱勢、種族弱勢者等在考試上的劣勢。而學科考試成績很大部分是社會資源分配的呈現,因此若沒有就考試成績與經濟的關聯加以解決,此種以考試成績作為入學標準的量測方法,仍舊會存在不平等的現象。

三、救濟上應有的實體主張

在防疫的目的上,於疫情之中以替代化的措施來決定入學分發的標準,仍屬正當。然而,該標準的設計應以正確考量學生的程度為基準,因此將學校歷史數據納入考量並不合理。另外,值得思考的點是有考生主張替代措施是要求人為介入,重新打成績。此種主張頗類似學界所主張的「人為介入的權利」,要求透過人為的介入,補正機器的結果。不過「人為介入的權利」在以入學考試的競爭關係之中是否能夠事後行使,會不會造成對於其它考生的不平等,值得進一步思考。

另一個主張是平等原則(反歧視法)的主張。然而此處會有問題的原因在於,此結果是否該當一個法律上的「歧視」。平等權法中的歧視類型包括直接歧視以及間接歧視,其在認定上都要求存在一個「較不利」的待遇。較不利的認定通常是基於比較所生,然而在個別化的決策上,是否較不利,在認定上較為困難。


資料來源


延伸閱讀

  • Barocas, Solon and Selbst, Andrew D. (2016). Big Data’s Disparate Impact. 104, 671-732.
  • Chander, Anupam. (2016). The Racist Algorithm Michigan Law Review, 115, 1023-1046.
  • Criado, Natalia and Such, Jose M. (2019). Digital Discrimination. In K. Yeung and M. Lodge (Eds.), Algorithmic Regulation (pp. 82-97). U.K. : Oxford University Press.
  • Fredman, Sandra. (2011). Discrimination Law (2 ed.). U.K.: Oxford University Press.
  • Friedman, Batya and Nissenbaum, Helen. (1996). Bias in Computer Systems. ACM Transactions on Information Systems, 14, 330-347.
  • Huq, Aziz Z. (2018). Racial Equity in Algorithmic Criminal Justice. Duke Law Journal, 68, 1043-1134.
  • Mayson, Sandra G. (2019). Bias In, Bias Out. Yale Law Journal, 128, 2218-2300.

Image by Canon EOS 5d Mark IIi from Pixabay

作者

呂胤慶

台大科技部計畫「人工智慧治理架構下的法學路徑」

本研究感謝科技部計畫「人工智慧治理架構下的法學路徑」支持