英國於疫情下的成績考核 呂胤慶 2020年09月04日 衛報(The Guardian)透過一系列報導,說明英國今年為因應疫情所為的成績核定措施,以及其所生影響。 [ Read More ] 巨量資料、大數據歧視、差別待遇歧視偏差
全美第一個規範AI用於影像面試之法案伊利諾州的人工智慧影像面試法(AIVIA) 顧長芸 2019年10月04日 伊利諾州州長J. B. Pritzker於8月9日正式簽署人工智能影像面試法(Artificial Intelligence Video Interview Act, AIVIA ),此為美國首個規範雇主使用AI作為面 [ Read More ] 人工智慧個人資料隱私保護歧視偏差
AI偏差歧見的另類難題 – 使用者對AI風險評估工具的差異性互動 許慧瑩 2019年09月06日 隨著AI人工智慧新興技術的興起,各界寄望於AI可能帶給人類更方便、更效率、更精準、更公平的智慧生活,各國政府與產業也紛紛發布AI相關發展策略與與進行佈局,莫不希望可以搶到AI人工智慧發展的利基。在AI可能帶來的方便、效 [ Read More ] 歧視偏差演算黑盒子/黑盒子效應
加拿大公部門採用自動決策系統工具前必須完成演算影響評估 許慧瑩 2019年09月06日 一份由CITIZEB LAB 發表之「邊境的守門機器人:加拿大政府移民與難民自動決策系統人權分析報告」(Bots at the Gate: A Human Rights Analysis of Automated D [ Read More ] 歧視偏差演算自動化決策
演算法公平性 何琳潔 2019年02月20日 本篇由軟體資訊工業協會(The Software & Information Industry Association, SIIA)發表之報告,針對當代新興科技所帶來的平等挑戰,提出企業應遵守的行為準則。機器學 [ Read More ] 歧視、差別待遇歧視偏差演算
簡評山本龍彥「機器人‧AI會奪走人性尊嚴嗎?」一文 趙若漢 2019年02月20日 日本憲法第13條的個人尊重原則,宜解釋為一種由四個層次組成的複階層原則。具體內容為:(一)將個人作為人類尊重。(二)將個人視作人格上之存在來平等尊重。(三)將個人視作人格上自律之存在來尊重。(四)將個人作為自律主體所為 [ Read More ] 人工智慧可解釋的人工智慧憲法權利