首頁>資訊 >
Hey,Siri?背后,隱藏著一個大問題 2021-12-02 19:52:13  來源:36氪

豆瓣平臺上有一個名叫“人機之戀”的小組,組內(nèi)成員分享的大部分內(nèi)容,都是一款聊天軟件 Replika 的使用心得。通過這款軟件,用戶可以與自己創(chuàng)造的“機器人”聊天,并與之建立親密關(guān)系。相當多的分享者形成了這樣的共識:至少在 Replika 中,人與程序的情感交互是可能的。

但持有類似觀點的群體還相當小眾。“人機之戀”這個極具科幻色彩的詞匯,尚停留在影視文學等作品中,離我們真實生活仍然遙遠。

回歸日常情境,我們與“機器”的關(guān)系,僅僅是停留在“對話”這一維度:

“Hey,siri,明天天氣怎么樣?”

“小愛同學,123+321 等于多少?”

我們向 AI 助手發(fā)出指令,后者接受指令、解析并執(zhí)行,然后給出反饋。類似的交流模式,多見于智能家居、手機應(yīng)用等場景。

隨著人工智能技術(shù)不斷發(fā)展,特別是語義識別等技術(shù)日漸成熟,與 AI 交流的相關(guān)問題開始被頻繁探討。在這些聲音中,非常有代表性的一種擔憂是:

當我們已經(jīng)習慣了以命令式的口吻與 AI 交流,并且能迅速得到回應(yīng),這種模式會不會在潛移默化中影響我們對“交流”的定義,并改變?nèi)伺c人之間的交流、溝通?

為什么我們對AI的交流是指令式的?

2017 年,蘋果公司推出了一則 Siri 宣傳廣告,可以作為人類與人工智能助手對話的范例:

“巨石”強森扮演的主人公,通過 Siri 處理生活中各種事務(wù),包括查看日程、提醒事項、叫車等生活瑣事,他全程沒有操作手機屏幕,僅僅是發(fā)出如“Hey,siri,read my schedule!”等指令。

“巨石”強森拍攝的廣告片《事事在握》

Siri 是最具代表性的人工智能助手,它在 2007 年面世,并在 2010年被蘋果以 2 億美金收購。

以 Siri 為代表的人工智能助手在智能家居控制、智能導航等領(lǐng)域的大規(guī)模應(yīng)用,便利了日常生活。人們可以通過說“小愛同學,打開客廳燈”控制室內(nèi)照明,或者使用Google Home 或 Alexa 來設(shè)定廚房用品購物清單,為家人準備晚餐。

但現(xiàn)在人工智能助手還相對初級。技術(shù)投入伊始通常會伴隨追捧和質(zhì)疑,比如前述的那個問題:當 AI 深度介入我們生活的時候,我們是否會對命令式的話語交流方式習以為常?

當“Hey siri”似乎可以解決大部分問題的同時,類似擔憂隨之出現(xiàn):這種指令式語句是否會影響交流方式、尤其是改變兒童語言行為,養(yǎng)成“沒有禮貌的下一代”?

問題在于,我們?yōu)槭裁磿褂煤唵沃噶钆cAI交流呢?這與效率有關(guān),也與科學技術(shù)與生俱來的目的緊密相關(guān)。

在人類的認知基模中,科技發(fā)明就是為了拓展人類認識外部世界的途徑,給人類帶來利益,不斷滿足人類的各種需求。

作為一種技術(shù)類型,AI 的初衷和更新迭代路徑也是要使機器變得越來越“聰明”,以便更好幫助用戶解決問題。

就像我們使用掃把掃地之前,并不會向它征求意見。因為在我們的潛意識中,它是沒有感情的“工具”。同樣,面對人工智能助手,盡管它能與我們“交流”,但我們?nèi)匀磺逦匾庾R到,這些對話是自動化程序生成的結(jié)果。它們?nèi)允枪ぞ?,唯一不同的是它們能發(fā)出一些聲響。

因此,不同于人與人之間的交流往往需解讀話語的隱藏含義,智能語音識別技術(shù)更多是對直接的指令進行回應(yīng),即凸顯 “工具性”。

著名語言哲學家維特根斯坦的“語言游戲”理論認為,人類語言作為傳遞情感信息的工具,以符號、文字、圖案、音樂、語音、肢體動作與面部表情等為載體。而用戶與機器對話的過程并不關(guān)涉肢體動作、面部表情等體現(xiàn)情緒的“無聲語言”。

因而,人類創(chuàng)造出代碼語言與人工智能進行互動時,即使智能音箱、手機助手等能夠?qū)ξ覀兊那榫w進行簡單識別,究其本質(zhì)依舊是工具使用,或者說是代碼運轉(zhuǎn),具備程式單一性。

換句話說,人類與人工智能交流的過程并不產(chǎn)生情感等意義共享,此類語言交往和對話并不能形成完整的雙向傳播和交流鏈。用戶語音控制的本質(zhì)是:基于目的發(fā)出命令,與以往“點擊屏幕”“按下開關(guān)”等指令動作沒有區(qū)別,只不過語音控制解放了我們的雙手,以語言命令的方式取而代之,這是目前最有效率的一種方式。

如果Hey,Siri成為兒童的“榜樣”

Synced 曾對 2017 年的人工智能失誤進行了總結(jié),其中十大“失敗案例”中提到:

LG 的 IoT AI 助手 Cloi 在拉斯維加斯國際消費電子展上首次亮相時,作為能夠識別控制家用電器語音命令的人工智能,卻遲遲未能回應(yīng) LG 市場營銷主管的語言指令,該場面一度堪稱典型“社死瞬間”。

類似的 AI 失靈問題不斷提醒我們,所謂的人工智能很可能只是“人工智障”。依靠代碼運轉(zhuǎn)的智能語音識別技術(shù),目前還遠不能取代人類復(fù)雜多樣的語言交往實踐,甚至可能帶來諸多負面影響。

這并不是無根據(jù)的揣測或者危言聳聽。語言學的基本觀點認為,語境、意義環(huán)境等都會影響交流和用語習慣,而美國語言學家本杰明·沃爾夫曾提出“沃爾夫假說”,意即不同語言結(jié)構(gòu)差異會決定語言使用者對世界的感知和認知。

不難想象,伴隨著指令性語言越來越多地進入日常生活,人們會逐漸模糊與機器交流以及與人交流的界限,從而將指令性用語習慣帶到人際交往中,長此以往,也許將來“請”“謝謝”等交際常用詞匯將瀕臨消失。

更重要的是,這一問題或?qū)Τ砷L中兒童的語言交流產(chǎn)生更顯著的影響。心理學研究普遍認為:孩童自出生起即觀察這個世界,在很長一段時間里通過模仿別人的行為 (表情、語言、行為、思維) 獲得成長,他們的辨別能力相對較弱,無法作出判斷、篩選和剔除,很可能全盤習得。

美國著名心理學家班杜拉就曾做過一個被稱為“波波玩偶”的實驗,在實驗中兒童通過模仿“榜樣”對玩偶施暴而習得暴力行為,因此,他認為兒童社會行為習得主要通過觀察、模仿現(xiàn)實生活中重要人物的行為來完成。

班杜拉波波玩偶實驗

光明網(wǎng)的一篇新聞報道也證實了這一點:一位家長反映孩子看了動畫片《熊出沒》之后,學習影片中主人公的話語罵出“臭狗熊”等詞匯。媒體指出,央視熱播的動畫片《熊出沒》曾在 10 多分鐘的內(nèi)容里,出現(xiàn)了 20 多次不文明語言。據(jù)報道,在兒童影視劇的影響下,多地都曾出現(xiàn)過兒童仿效其中暴力場面的案例。因而,《熊出沒》等動畫片后來被規(guī)定為適合 10-14 歲收看。

同樣,美國電影分級制度的初衷也是由家長們組成的委員會負責,根據(jù)電影的主題、語言、暴力程度等對電影進行評價,幫助更多的父母們判斷哪些電影適合特定年齡階段的孩子們觀看。

與擔憂影視中的暴力語言對孩子產(chǎn)生的影響相比,和 AI 交流可能產(chǎn)生語言交流上的負面影響似乎遠沒有引起家長們的警覺,學術(shù)界也尚未有成熟的研究結(jié)論。

但這些負面影響仍然不容忽視。當兒童長期與人工智能進行交流,在“模仿”的學習機制作用之下,難免會產(chǎn)生語言使用上的變化,越來越靠近如 AI 般的機械化交流。

指令性語言違背的是語言交流中的“禮貌原則”,即說話人在說話時往往都應(yīng)當盡量多給別人一點方便,從而在交際中使雙方感到受尊重,同時反過來獲得對方對自己的好感。

與之相反,指令性話語交流方式的權(quán)力差異和不禮貌行為,將會在很大程度上造成交際失敗,甚至使交流對象對你敬而遠之。

可以想見,如果一個兒童與家長和朋友說話時滿嘴都是“給我拿玩具”“幫我打開游戲機”; 偶遇陌生人問路時理所當然開口“hey,帶我去這個地方”; 甚至請同事幫忙時說“你幫我做一下這個”,這樣的命令語氣,至少現(xiàn)在看來除了 AI,沒有人會予以理睬。

與AI對話如何可能:交流邊界與意義共享的拓展

當然,以上可能導致語言交流的負面變化并非無人察覺。

因為擔憂與人工智能的交流方式會使用戶,尤其是兒童說話變得“沒有禮貌”,國內(nèi)外許多科技公司對相關(guān)產(chǎn)品進行了優(yōu)化。

比如,在2018年,亞馬遜和谷歌相繼在其智能助手中加入了鼓勵禮貌用語的功能,例如當人們使用please時,助手會回應(yīng)“Thanks for asking so nicely”以示嘉獎。

在實現(xiàn) AI 與人更好的情感互動方面,以 AI 情緒研究為代表的技術(shù)正試圖使機器與人的對話變得更加智能、處理更為復(fù)雜的人機交互。

這一領(lǐng)域的進展主要表現(xiàn)在兩個方面:一是加強 AI 對人類基本情緒類型的感知,通過識別說話人的言語、表情等完成;二是加強 AI 對人類情緒的反應(yīng)。

類似的改進自然能夠使機器不再作為一個“工具人”,更能與用戶在交流的過程中共情。如微軟所開發(fā)的第五代“小冰”,與前幾代不同,它的功能并不僅限于簡單的聊天回復(fù),更能夠具備自主的語言組織能力。微軟甚至讓其沖破虛擬技術(shù)的束縛,為用戶送上電話生日祝福。小米公司的小愛同學5.0版本,也變得更聰明、主動,具備人文特征。

在這些努力之下,人工智能仿佛擁有了情感,也讓用戶不再將其視為一個語調(diào)冰冷的機器,而能感受到它所作出的情感回饋,有效避免了兒童陷入對命令式對話的模仿和習慣。

問題是,應(yīng)對指令式交流進入語言交流的方式,僅僅通過機器作簡單的情緒識別與回應(yīng)還遠遠不夠。

在傳播學的基本觀點中,人類的“交流”被賦予“意義共享”之意,只有人與人之間的交往才能產(chǎn)生情感與意義交換。

面對冰冷的機器,我們很難在語言交流中賦予如“禮貌”“愛”等情感。因此,若想使人機交互更加接近人際傳播的交流和分享,首先應(yīng)正視兩者在交往中存在的差異,進而從技術(shù)層面加強人工智能對對話信息量的處理和識別能力,使 AI 在交互中不斷進行預(yù)測、保持與引導,同時提供人類理解算法交流的可能性和方法。

隨著 AI 技術(shù)的不斷演進,人與機器的語言交流方式更加多元,在面對新技術(shù)與其伴生的交流問題時,甚至會重新定義“交流”的意涵,拓展“ 意義共享”的面向。更現(xiàn)實的影響可能是 ,與AI 交流將促使我們重思交流的邊界,以及語言交往所具備的社會意義。

本文來自微信公眾號 “騰訊研究院”(ID:cyberlawrc),作者:白鴿,36氪經(jīng)授權(quán)發(fā)布。

關(guān)鍵詞: 大問題 Siri Hey

相關(guān)閱讀:
熱點
圖片 圖片