首頁>資訊 >
面試你的不是人?紐約計劃限制人工智能「面試官」 2021-11-25 07:52:12  來源:36氪

「我們無法提供有關您面試結果的具體反饋?!?/p>

在美國,越來越多的雇主利用人工智能(AI)加快招聘流程。但求職者很少知道 AI 招聘工具為何拒絕他們的簡歷,或者如何分析他們的視頻面試。當他們落選時,往往只能收到這樣一封冷冰冰的郵件,不知道自己到底為什么落選。

這不免令人不安,AI 在我們的職業(yè)生涯中究竟起到怎樣的決定權?

美聯(lián)社報道,11 月初,紐約市議會以 38 票對 4 票通過了一項法案:如果 AI 招聘系統(tǒng)沒有通過年度審計,將被禁止使用。

年度審計將檢查 AI 招聘系統(tǒng)有沒有種族或性別歧視,允許求職者選擇人工審查等替代方案,AI 開發(fā)人員還需披露更多過去不透明的細節(jié)。

有趣的是,負責年度審計的是 AI 開發(fā)人員,但會被處罰的是雇主,如果他們使用了未通過年度審計的 AI 招聘系統(tǒng),每項違規(guī)行為最高處罰 1500 美元。

支持者認為,該法案將為復雜的算法打開一扇窗戶。算法往往根據求職者的說話或寫作方式對技能和個性進行排名,但機器能否準確公正地判斷性格特征和情緒信號值得懷疑,這一過程未來會更加透明。

至少,知道「因為算法有偏見而被拒絕」就是有意義的,牛津大學技術法教授 Sandra Wachter 曾經表示:

反歧視法主要是由投訴驅動的,如果他們不知道發(fā)生在自己身上的事情,就沒有人可以抱怨被剝奪了工作機會。

初創(chuàng)公司 Pymetrics 也非常支持這一法案,他們提倡借助 AI 通過游戲等方法面試,并認為其符合公平要求。

與此同時,過時的 AI 面試方案將被掃進垃圾堆。AI 招聘系統(tǒng)提供商 HireVue 在今年初已開始逐步淘汰其面部掃描工具,這項工具被學術界稱為「偽科學」,讓人想起有關種族主義的顱相學理論。

對法案的反對意見,大多是出于「這遠遠不夠」。民主與技術中心主席 Alexandra Givens 指出,提案實際上只是要求雇主滿足美國民權法的現(xiàn)有要求——禁止因種族、民族或性別而產生不同影響的招聘行為,但忽略了針對殘疾或年齡的偏見。

而一些人工智能專家和數字權利活動家擔心,法案只是讓 AI 開發(fā)人員自證他們遵守了基本要求,也只是為聯(lián)邦監(jiān)管機構和立法者設定薄弱標準,具體如何「審計偏見」非常模糊。

值得注意的是,偏見在面試中并不少見,主要問題出在喂養(yǎng)算法的樣本,但它們往往被置于「黑箱」之中,普通求職者很難發(fā)覺。

幾年前,亞馬遜停用了簡歷掃描工具,因為它偏向讓男性擔任技術崗位。部分原因在于,它將求職者的條件與公司內部的男性技術勞動力進行比較;同理,如果算法從種族和性別差異已經普遍存在的行業(yè)中獲取養(yǎng)料,那么它只是在鞏固偏見。

這種偏見并不只是招聘中。今年 4 月,南加州大學一項新的研究表明,F(xiàn)acebook 正在以可能違反《反歧視法》的方式展示廣告,男性更有可能看到披薩送貨司機招聘廣告,而女性更有可能看到購物廣告。

本質上,AI 歧視就是被人類社會培養(yǎng)的,個人的偏見行為甚至是下意識的,我們自己不一定察覺。如果將一家偏見較少的公司與偏見嚴重的公司比較,一般就是兩種原因——前者在有意消除偏見方面做得更好,后者更擅長收集并不合理的現(xiàn)狀并使它們永久化。

所以,中性意見認為紐約市提案最好的部分是它的披露要求,讓人們知道自己正在被 AI 評估、如何被 AI 評估以及他們的數據去向是哪里。

▲ 參考資料:

1.https://apnews.com/article/technology-business-race-and-ethnicity-racial-injustice-artificial-intelligence-2fe8d3ef7008d299d9d810f0c0f7905d

2.https://apnews.com/article/job-seekers-artificial-intelligence-hiring-decisions-784ccec7ac6175aadc573465ab604fb9

圖片來自:unsplash

本文來自微信公眾號“愛范兒”(ID:ifanr),作者:張成晨,36氪經授權發(fā)布。

關鍵詞: 紐約 人工智能 面試官

相關閱讀:
熱點
圖片 圖片