首頁(yè)>資訊 >
扒了社畜底褲還不夠,有人甚至打算對(duì)學(xué)生們下手 2022-04-26 07:35:19  來源:36氪

有個(gè)問題想問一下差友們:誰上學(xué)的時(shí)候沒有在課堂上開過小差?

其實(shí)對(duì)于正常人來說,基本不太可能時(shí)刻保持精神和情緒的專注,開小差這種事可太正常了。

托尼讀書的時(shí)候也常常干點(diǎn)不怎么和學(xué)習(xí)有關(guān)的事,不過那時(shí)候會(huì)不會(huì)挨罵,主要得看老師稀不稀罕搭理你。。。

別以為自己隱藏得好,其實(shí)在講臺(tái)上看大家的小動(dòng)作基本都一清二楚。

不過由于一些眾所周知的原因,現(xiàn)在的學(xué)生也慢慢接受了網(wǎng)課形式的上學(xué)新體驗(yàn)。

甚至個(gè)別人可能還覺得是件 “ 好事 ”:畢竟隔著網(wǎng)線和屏幕,老師對(duì)學(xué)生的狀態(tài)不能一覽無余,到底聽沒聽課只有自己知道。

哪知道一山更比一山高,英特爾之前搞出來的一個(gè)情感 AI(Emotion AI)就被海外的教育機(jī)構(gòu)拿去做了學(xué)生們的 “ 監(jiān)視器 ”。

美國(guó)有一個(gè)基于 Zoom 開發(fā)的名叫 「 Class 」的教育 App 就搭載了英特爾的這項(xiàng)技術(shù),他們認(rèn)為這能夠解決老師們上網(wǎng)課時(shí)的困難,而且能及時(shí)向遇到問題的學(xué)生提供幫助。

根據(jù)海外媒體的報(bào)道,英特爾的情感 AI 可以通過攝像頭捕捉學(xué)生們的肢體動(dòng)作、面部表情,然后結(jié)合具體情境來分析和判斷他們當(dāng)時(shí)的情緒或行為。

比如當(dāng)你面露疑惑的時(shí)候,它就會(huì)提醒老師這個(gè)學(xué)生 “ 沒聽懂 ” 課堂內(nèi)容;甚至在你趴在桌子上的時(shí)候它有可能會(huì)認(rèn)為你覺得今天的課程很無聊等等。。。

所以這項(xiàng)技術(shù)是怎么做的呢?不外乎還是 AI 訓(xùn)練的那一套。

英特爾先是通過攝像頭拍攝了成千上萬張學(xué)生們聽課時(shí)的表情,然后再讓心理學(xué)家們根據(jù)那些表情進(jìn)行情緒分類,這個(gè)時(shí)候基礎(chǔ)的算法數(shù)據(jù)模型就做好了。

最后拿著這套模型,日復(fù)一日進(jìn)行 AI 智能訓(xùn)練。。。

然而這項(xiàng)技術(shù)在海外并沒有得到太多支持,很多網(wǎng)友甚至將矛頭對(duì)準(zhǔn)了英特爾表示反對(duì)。

他們對(duì) Emotion AI 的準(zhǔn)確性和科學(xué)性提出了質(zhì)疑。。。而且其實(shí)從表情變化判斷情緒,這是人的基本能力之一吧?

這也要搞一套 AI 智能的東西出來。。。就挺沒必要的。

當(dāng)然,托尼相信英特爾做這項(xiàng)技術(shù)的初衷可能并不是為了監(jiān)測(cè)學(xué)生,而且 Class 的初心或許也是好的,但它的方式真的很難讓人認(rèn)同。

雖然人的情緒或者行為大多有跡可循,可往往在生活中可能會(huì)有很多復(fù)雜的因素才共同構(gòu)成了某種情緒。

上個(gè)世紀(jì)有兩位心理學(xué)家 ( 保羅·??寺?& 華萊士·弗里森 ) 在經(jīng)過研究和總結(jié)后發(fā)現(xiàn),人類的面部表情可以和包括憤怒、快樂、蔑視在內(nèi)的 7 種情緒 一一 對(duì)應(yīng)并概括。

保羅·??寺腿A萊士·弗里森的著作▼

這一發(fā)現(xiàn)雖然成為了早期情感識(shí)別技術(shù)的理論依據(jù),但它在當(dāng)時(shí)就引起了很大的爭(zhēng)議。。。

因?yàn)椴煌幕尘跋碌娜藗儽磉_(dá)情緒的方式可能不同。比如前兩年網(wǎng)絡(luò)爆火的 “ 黑人抬棺 ”。。。就是加納特有的喜喪習(xí)俗。

如果讓 Emotion AI 來分析人家的情況,這 7 種情緒真能代表親友們的復(fù)雜心理?說不定在人工智能眼里,那些人個(gè)個(gè)都將成為 “ 不肖子孫 ”。

即使文化背景相同,每個(gè)人對(duì)于情感的表達(dá)也可能存在差異。何況用單一化的標(biāo)簽來代表人的整體行為本身就是一種不嚴(yán)謹(jǐn)?shù)姆椒ā?/strong>

用錯(cuò)誤的方式得出錯(cuò)誤的答案,怎么可能指向正確的結(jié)論?

按照 Emotion AI 的邏輯,如果我因?yàn)榻裉斓脑绮吞貏e難吃,然后家里的貓還打碎了花瓶。。。這時(shí)候又趕上了網(wǎng)課,那么 Class 此時(shí)能連續(xù)捕捉到的可能是托尼緊皺著眉頭、嘴角向下暗自咬牙的表情畫面。

于是我此時(shí)可能處于一種對(duì)課堂極度不滿意,甚至還想對(duì)著老師吐口水的狀態(tài)?

在托尼看來,這完全是一種凌駕于他人之上的姿態(tài)在做事,堪稱科技圈的 “ 我不要你覺得,我要我覺得?!?/p>

太離譜了。 。。真的。

另一個(gè)爭(zhēng)議是,英特爾的這項(xiàng)技術(shù)還可能涉及到對(duì)人權(quán)和隱私權(quán)的侵犯。

比如,Class App 必須通過捕捉面部圖像來分析判斷情緒,這就意味著你得時(shí)刻打開攝像頭。

當(dāng)然,一個(gè)國(guó)家正常公民的個(gè)人住所是應(yīng)該被保護(hù)不受侵犯的,住宅內(nèi)的正?;顒?dòng)也不應(yīng)該受到監(jiān)視或監(jiān)聽。

只是托尼覺得,僅僅是上網(wǎng)課的話,老師和學(xué)校要求大家開啟攝像頭也合情合理。

這些年我們一直能聽到有些公司在利用大數(shù)據(jù)或者軟件在 “ 監(jiān)控 ” 大家的生活,就像之前被曝出的 「 深信服 」事件那樣。

但Emotion AI 這種直接能定義人們主觀情緒的東西,好像并不多?其實(shí)這玩意兒不僅國(guó)外現(xiàn)在開始應(yīng)用,國(guó)內(nèi)曾經(jīng)也有過好幾次類似技術(shù)。

比如 2017 年貴州的部分學(xué)校,就在學(xué)生身上測(cè)試過一套 “ 智慧校服 ”。不僅能收集學(xué)生的指紋、人臉信息、行為和身體狀況,還能把數(shù)據(jù)及時(shí)上報(bào)給學(xué)校和家長(zhǎng)。

圖片來源:今貴川新聞客戶端▼

還有杭州的一所中學(xué)曾經(jīng)也在 2018 年上線過一套“ 智慧課堂行為管理系統(tǒng) ”。通過教室內(nèi)的攝像頭分析學(xué)生表情和動(dòng)作,并對(duì)學(xué)生行為打分。

就像大學(xué)里老師會(huì)記錄你的課堂表現(xiàn)做平時(shí)分一樣。

如果有學(xué)生存在上課打瞌睡或者走神的情況,除了影響學(xué)生自己的考評(píng),還會(huì)降低整個(gè)班級(jí)的評(píng)分,并公示在走廊的電視機(jī)上。

一人犯錯(cuò)全班吃虧,這一波直接倒退到公元前 356 年,商君直呼內(nèi)行。。。

還有 2019 年南方都市報(bào)報(bào)道稱在北京實(shí)地走訪,也發(fā)現(xiàn)部分高等教育院校或機(jī)構(gòu)采用了所謂的 “ 智慧校園 ” 系統(tǒng)等。

這些都和英特爾這次的 Emotion AI 技術(shù)類似,當(dāng)然也伴隨著爭(zhēng)議。

要我說人們之所以會(huì)反對(duì),除了基于對(duì)人權(quán)的尊重外,還有一部分原因是因?yàn)榭謶帧?技術(shù)被濫用 ”。

就拿這種所謂的情緒 AI 在教育上的應(yīng)用來說,不僅變相給學(xué)生們套上了一層枷鎖,同時(shí)也限制了老師的工作。

比如:用這種技術(shù)檢測(cè)到的學(xué)生們上課狀況,作為老師們的工作指標(biāo)之一?

其實(shí)技術(shù)本身是為了幫助任課老師更好地了解到課堂學(xué)生的狀況,同時(shí)也能了解到自己的課堂效果好不好。

只是數(shù)據(jù)永遠(yuǎn)不能完全代表現(xiàn)實(shí)中的實(shí)際情況。

或許管理者僅憑學(xué)生們回答問題的次數(shù)、睡覺的人數(shù)就能直接評(píng)價(jià)老師們的水平。

這種簡(jiǎn)單而粗暴的邏輯,就和通過考試成績(jī)判斷學(xué)生是不是 “ 壞孩子 ” 一樣不講道理。

然后層層加壓之后老師們可能迫于無奈,也只好用相同的邏輯來考量自己的學(xué)生。除非他們真的不在乎自己的職業(yè)生涯好不好。。。

這難道是一個(gè)比較正確的教育方式嗎?

如果需要 “ 監(jiān)視” 才能讓老師們好好工作、學(xué)生們好好讀書,那么說明這件事從一開始就走錯(cuò)了方向。

為什么不可以用其他方式來激發(fā)孩子們的學(xué)習(xí)熱情?

難道被 “ 監(jiān)視 ” 著學(xué)生們就能好好學(xué)習(xí)了?

所以英特爾 Emotion AI 的主要開發(fā)者,以及一些海外的教育分析師在接受采訪的時(shí)候也說了,這項(xiàng)技術(shù)的目標(biāo)并不是為了監(jiān)視或者懲罰任何人,但這并不意味著教師或者管理者不能用這種方式使用它。

表達(dá)的意思我也聽出來了,就是說技術(shù)是無罪的,主要還是得看人們?cè)趺从谩?/p>

可托尼還是覺得,Emotion AI 根本就不算是一項(xiàng)成熟的技術(shù)。

將這樣一個(gè)理論依據(jù)都還存在爭(zhēng)議的東西拿出來,就算使用方法沒問題它也仍然是懸在人們頭頂?shù)囊话牙麆Α?/p>

人之所以為人,有很大一部分就是因?yàn)樾枰灾?,?duì)自由選擇和個(gè)人控制的渴望是我們的天性,更是人權(quán)之一。

誰也不會(huì)想要處在被人 “ 監(jiān)視 ” 的生活環(huán)境中,并且不知道自己什么時(shí)候、做了什么事就被別人打上一個(gè)結(jié)論性的標(biāo)簽。

也正是因?yàn)槿巳硕寄茏杂蛇x擇,才有了這百花齊放、豐富多彩的世界。

圖片、資料來源:

谷歌

光明日?qǐng)?bào):《機(jī)器能識(shí)別情感嗎?》

《學(xué)生上課全程監(jiān)控,人臉識(shí)別30秒一次 》

https://www.sohu.com/a/232753614_100072655

https://www.sohu.com/a/341465044_603975

https://www.reuters.com/article/idCNCHINA-3024620100916

https://www.protocol.com/enterprise/emotion-ai-school-intel-edutech

關(guān)鍵詞:

相關(guān)閱讀:
熱點(diǎn)
圖片 圖片