首頁>資訊 >
AI正在“占領(lǐng)”職場,人類能適應(yīng)嗎? 2023-03-22 17:59:42  來源:36氪

神譯局是36氪旗下編譯團隊,關(guān)注科技、商業(yè)、職場、生活等領(lǐng)域,重點介紹國外的新技術(shù)、新觀點、新風(fēng)向。

編者按:人工智能作為如今的一大風(fēng)口正日新月異地發(fā)展著。雖然我們已然接受了人工智能,但并未對其有著深入的了解,而且我們對人工智能的反應(yīng)也存在矛盾之處。人類真的能與人工智能和諧相處嗎?展望未來,科技行業(yè)從業(yè)者需要像關(guān)注技術(shù)本身一樣,關(guān)注人類對人工智能的反應(yīng)。本文來自編譯,希望對您有所啟發(fā)。


(資料圖)

[Source illustration: PM Images/Getty Images]

過去的一年見證了人工智能領(lǐng)域的飛躍。數(shù)百萬人突然開始與人工智能聊天機器人 ChatGPT 進行類似人與人的對話,并使用 Lensa 等應(yīng)用程序制作機器生成的肖像。ChatGPT 最近還通過了一位教授的 MBA 考試。一位計算機科學(xué)家甚至用人工智能,為一整本兒童書籍創(chuàng)作了文本和插圖。

人工智能也正在接管我們的工作場所。它通過將日常任務(wù)自動化,以及綜合和匯總信息,使人們的工作更加容易。雖然一些員工對效率的提高表示歡迎,但也有人擔(dān)心有一天科技可能會完全取代他們。甚至有人猜測,最近科技公司的裁員潮,可能與人力資源等部門的任務(wù)日益自動化有關(guān)。專家們還擔(dān)心人工智能會被用來監(jiān)視員工,以及擔(dān)心人工智能會通過學(xué)習(xí)人類言論,來重現(xiàn)一些糟糕的偏見。

人工智能技術(shù)的每一次進步,都與古老的人類心理學(xué)發(fā)生著碰撞,導(dǎo)致我們以復(fù)雜且往往相互矛盾的方式做出反應(yīng)。我們喜歡可穿戴設(shè)備 Fitbits 和智能手表,但討厭保險公司利用這些數(shù)據(jù)來定價或預(yù)測我們的健康結(jié)果。我們?yōu)槟切┛梢詭椭鷼埣踩酥匾姽饷骰蛑匦滦凶叩奈磥砜萍级鴼g呼,但對軍方使用同樣的技術(shù)來創(chuàng)造超級士兵的想法感到反感。我們經(jīng)常把短期的技術(shù)采用和其長期的后果看作是不同的事情,而它們實際上是一個硬幣的兩面。

這意味著,我們的心理沖動和認知偏見使自己很容易采用新技術(shù),而隨著時間的推移,這些新技術(shù)會創(chuàng)造一個我們可能并不喜歡的未來。在過去的 20 年里,我們張開雙臂擁抱 Facebook 和 Twitter 等社交媒體平臺。直到現(xiàn)在,我們才意識到這些平臺可能會影響我們的世界觀、傳播錯誤信息和仇恨言論,甚至?xí)绊戇x舉結(jié)果——但為時已晚了。

作為南加州大學(xué)馬歇爾商學(xué)院(USC Marshall School of Business)的行為科學(xué)家,我在自己的研究中看到了這些矛盾。當(dāng)研究人們?nèi)绾嗡伎夹录夹g(shù)以及如何與新技術(shù)互動時,我驚訝地發(fā)現(xiàn),人們對人工智能的反應(yīng)是多么矛盾和不一致,而且我們經(jīng)常未能充分考慮到后果。

例如,我和合作者進行了兩組關(guān)于“工作場所人工智能”的研究。在其中一項研究中,我們發(fā)現(xiàn),當(dāng)監(jiān)控由自主技術(shù)而不是人工進行時,員工會更愿意在工作中被監(jiān)控——考慮到人們對被他人評判(或控制)的根深蒂固的恐懼,這是有道理的。在監(jiān)控過程中把人的因素剔除,會讓我們覺得沒有被他人評判得很厲害,因此我們有更大的自主權(quán)。

然而,在第二組關(guān)于“招聘和晉升決策”的研究中,我們發(fā)現(xiàn)員工更喜歡由人類做出決定。盡管人工智能的決策和結(jié)果是相同的,但人們認為算法不太公平,并質(zhì)疑其考慮定性信息或上下文信息的能力。相反,我們希望能夠向另一個人講述自己的故事,而且相信他們能夠更好地理解其中的細微差別,并給我們一個公正的評價——但這也可能會導(dǎo)致我們拒絕那些有可能糾正人類偏見的算法。

這些下意識的反應(yīng)值得注意,因為這表明,我們對技術(shù)的感知和反應(yīng)方式可能與技術(shù)本身一樣重要。隨著人工智能變得越來越強大,我們不僅要投資技術(shù)設(shè)計,還要提高我們自己的“技術(shù)商”(相對于“智商”而言,指我們對技術(shù)的理解和做出明智決定的能力)。

簡而言之,我們需要更好地客觀評估技術(shù)在生活中的利與弊。目前,我們的反應(yīng)取決于人工智能的呈現(xiàn)方式,以及我們與生俱來的認知偏見和心理上的合理化。例如,我們會優(yōu)先考慮刷 Snapchat、TikTok 或 Instagram 帶來的多巴胺沖擊,而不是這些平臺對隱私或情感健康潛在的長期負面影響。這種現(xiàn)象被稱為“雙曲線貼現(xiàn)”(我們的心理傾向是選擇眼前的滿足,而不是等待未來更大的利益)。

規(guī)范和期望也很重要。如果你注冊成為一名 Uber 司機,那么你會期望你的路線由機器分配,你的評分由算法監(jiān)控,這都是交易的一部分。相比之下,一個突然得知自己將被算法管理的辦公室職員可能會對此更加猶豫和懷疑。但是以上這二者明明都是人工智能在工作場所的應(yīng)用實例,人們明明沒有理由相信,一種監(jiān)視形式會比另一種更有害。

人們對技術(shù)的反應(yīng)也因其用途而異。在上述研究中,我們發(fā)現(xiàn),當(dāng)公司使用人工智能監(jiān)控數(shù)據(jù),為員工提供有用的反饋時,比用這些數(shù)據(jù)來評估員工的表現(xiàn)更容易被員工接受,即使在這兩種情況下追蹤的是同樣的數(shù)據(jù)。我們經(jīng)常沒有意識到的是,一項技術(shù)的“理想應(yīng)用”和“非理想應(yīng)用”往往是齊頭并進的。

那么,我們該怎么辦呢?為了進行我們迫切需要的關(guān)于人工智能的智能社會對話,我們需要更深入地了解人類心理是如何驅(qū)動我們采用技術(shù)的,以及技術(shù)是如何反過來塑造我們的心理的。背景和框架如何影響我們對一項新技術(shù)的反應(yīng)?哪些認知偏見妨礙了我們對人工智能的清晰認識?對人工智能的依賴會如何改變我們理解世界和與世界互動的方式?

這些話題還沒有得到充分的研究,但我很高興看到,像我在南加州大學(xué)尼利道德領(lǐng)導(dǎo)與決策中心(Neely Center for Ethical Leadership and Decision Making)的同事們這樣的研究人員,用他們的研究加速了我們的理解。學(xué)者們不僅在關(guān)注科技的危害,還在研究我們該如何利用社交媒體和虛擬現(xiàn)實等技術(shù),來促進人類的長期繁榮。

展望未來,科技領(lǐng)導(dǎo)者需要像關(guān)注技術(shù)本身的設(shè)計一樣,關(guān)注人類心理對人工智能的反應(yīng)。同樣,采用人工智能的經(jīng)理和公司也應(yīng)該考慮員工的反應(yīng),并讓他們了解情況,而不是突然實施新技術(shù)。建立和維持信任是至關(guān)重要的。

隨著人工智能的加速發(fā)展,人類的未來正處于再平衡之中。我們的選擇和行動的后果是巨大的。讓我們認真對待這一責(zé)任,把人工智能作為一個復(fù)雜的謎題來對待,而不是孤立地看待謎題的“好”或“壞”的部分。我們必須提高自己的“技術(shù)商”,以確保與人工智能建立更積極的關(guān)系,并最終創(chuàng)造一個更美好的未來。

譯者:Jane

關(guān)鍵詞:

相關(guān)閱讀:
熱點
圖片 圖片