【本報墨爾本訊】澳洲雇主越來越多地使用人工智能AI 招聘系統篩選求職者,但最新研究發現該技術有嚴重歧視風險。
據 Responsible AI Index,去年約 62%澳洲組織在招聘中「廣泛或適度」使用 AI,但澳洲尚無專門法律規範。AI系統借助簡歷掃描器、聲音評估等技術對求職者「分類、排序和打分」,雖能為雇主節省時間與金錢,卻意味著電腦程式可在人工面試前依機器理解決定求職者申請去留。人們原本希望AI能夠消除招募過程中的偏見,但美國幾起案例卻表明,情況恰恰相反。2019 年美國電子隱私資訊中心就投訴 HireVue軟件存在諸多問題,違反多部法律。例如,原住民聾啞婦女DK具備經驗資歷,卻因自動視頻面試和評估被拒,其自動語音識別系統對非白人及聾人等表現欠佳。一家教集團招聘系統壁紙歧視大齡求職者,致使 200名合格者被拒。美國公民自由聯盟基金會還投訴一家供應商,稱其線上評估存在基於殘疾和/或種族的歧視。墨爾本大學博士後、律師希爾德研究也發現,AI 招聘系統可能促成、強化和放大對歷史邊緣化群體(如女性、殘疾、非英語背景及年齡較大求職者)的歧視,雇主使用方式存在嚴重風險。例如機器人面試通常要求應徵者錄製自己對一系列問題的回答,然後由AI進行評估。AI工具在分析這些訪談時最初使用了一種名為面部分析的有爭議的技術,會觀察求職者的面部特徵和動作,以評估他們的行為和性格。例如,它會觀察他們在與顧客交談時是熱情的還是憤怒的。雖然面部分析已被科學所否定,不過謝爾德博士警告說,目前還沒有法律禁止其使用,因此「一些系統可能仍在使用」。謝爾德還說,AI系統會根據輸入的資訊進行學習,如果缺少弱勢群體的資料集,就無法代表更廣泛的人群,如果訓練資料存在偏見,情況也會類似。希爾德說,有必要監管 AI 篩選系統,一些團體在缺乏法律保障及不了解其對邊緣化群體影響時呼籲全面禁止有一定道理。今年二月,眾議院就業、教育和培訓常設委員會報告建議禁止無人工監督下用 AI 系統進行人力資源最終決策。澳洲政府一直在研究AI技術監管,提議為高風險應用(通常包括 AI 篩選系統)設強制性防護欄,但目前並無時間表。希爾德認為澳洲政府還需審查反歧視法律,確保其符合目的並涵蓋新技術,尤其是與責任相關的技術。(王傑)分享 / Share :