首頁>資訊 >
從中國到美國,為什么我們需要禁用算法的權(quán)利 2021-11-15 07:52:37  來源:36氪

近年來,早前縈繞在互聯(lián)網(wǎng)企業(yè)身上的光環(huán)已經(jīng)開始逐漸褪色,并且隨之而來的,是各國監(jiān)管機構(gòu)將其放到了聚光燈之下。就在不久前,國內(nèi)監(jiān)管部門連續(xù)發(fā)布《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定(征求意見稿)》與《關(guān)于加強互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見》后,海外市場也開始關(guān)注互聯(lián)網(wǎng)企業(yè)使用算法所造成的影響了。

日前有消息顯示,美國眾議院議員提出了一項法案,要求Meta旗下的Facebook和Google等互聯(lián)網(wǎng)平臺允許用戶查看非算法選擇的內(nèi)容,也就是要求這些平臺向用戶顯示算法之外的信息。這些議員在聲明中表示,“消費者應(yīng)該有權(quán)選擇如何使用互聯(lián)網(wǎng)平臺,而不必受到由特定用戶數(shù)據(jù)驅(qū)動的秘密算法操縱?!?/p>

當(dāng)大洋兩岸都開始關(guān)注互聯(lián)網(wǎng)企業(yè)用算法來改變乃至塑造潮流的能力,無疑是一種好事。畢竟,算法如今已成為了互聯(lián)網(wǎng)世界中幾乎是最為核心的信息推送機制,并成為了大家日常生活中不可分割的一部分,甚至算法機制在某種意義上已經(jīng)塑造我們的社會意識。

通常,我們所說的“算法”指的是推薦算法,本質(zhì)上其實是一種信息過濾的手段。早期,互聯(lián)網(wǎng)廠商秉承著原教旨的互聯(lián)網(wǎng)精神,將所有信息一股腦地推給用戶,但用戶卻并沒有接收海量信息的能力,所以即便是搜索引擎也需要用戶先有一個“關(guān)鍵詞”。但問題是互聯(lián)網(wǎng)上的信息太多,而人的認(rèn)知范圍太小,這就導(dǎo)致了在算法出現(xiàn)前,大量有價值的信息被浪費,并沒有被真正需要的人發(fā)現(xiàn)。

這時候推薦算法幫助用戶解決了信息過載的問題,是一種信息發(fā)現(xiàn)工具。對于互聯(lián)網(wǎng)廠商來說,推薦算法實現(xiàn)了挖掘用戶需求并投其所好的作用,它的引入是以內(nèi)容推送代替了用戶的尋找,其設(shè)計初衷是增加用戶尋找目標(biāo)內(nèi)容的效率。而討好了用戶、滿足了用戶需求,也就意味著互聯(lián)網(wǎng)廠商的商業(yè)利益得到了保證。

那么為什么推薦算法走到今天,卻反過來被不少用戶反感,甚至于需要被監(jiān)管呢?一種通俗的解釋,是推薦算法會讓用戶陷入“信息繭房”或“過濾氣泡”(Filter Bubble)。因為算法會基于用戶的個人興趣、社交關(guān)系、地理位置等數(shù)據(jù),推薦與用戶偏好高度匹配的個性化內(nèi)容,但長期處于單一信息來源的環(huán)境下則會形成回音室效應(yīng),將自己桎梏于像蠶繭一般的“信息繭房”中,容易一葉障目不見泰山。

不過在學(xué)界關(guān)于"算法是否會將用戶囚禁在信息繭房中”的問題,其實是有一定爭議的。傳播學(xué)中的“選擇性接觸理論”揭示了這樣一個事實,就是人通常更傾向于接觸與自己既有立場、觀點、態(tài)度一致或接近的媒介和內(nèi)容,而有意無意地去回避那些與自己既有傾向相左的媒介或內(nèi)容。從這一理論出發(fā),就可以解釋為什么人們更愿意向與自己價值觀、立場、態(tài)度等相似的人靠近,以此獲得抱團取暖、相互支持的可能,并最終形成一個個小圈子的原因。

換句話來說,基于興趣或價值觀進行信息消費其實是人的天性,陷入“信息繭房”也是某種從人性出發(fā)的必然,所以算法并不是“罪魁禍?zhǔn)住?。而推薦算法真正的問題,其實在于倫理和道德領(lǐng)域,以及它在互聯(lián)網(wǎng)時代重新建構(gòu)了人與社會的關(guān)系。

事實上,推薦算法是在以機器學(xué)習(xí)為代表的第三次人工智能浪潮興起的背景下出現(xiàn),機器學(xué)習(xí)算法通過基于大數(shù)據(jù)的自我訓(xùn)練、自我學(xué)習(xí)過程,完成參數(shù)調(diào)整與模型構(gòu)建,并實現(xiàn)自我強化。英國物理化學(xué)家、哲學(xué)家邁克爾·波蘭尼曾指出,“人類知道的遠比其能表達出來的更多”,這就是經(jīng)典的“波蘭尼悖論”。

在機器學(xué)習(xí)之前,傳統(tǒng)算法局限于人類對于自身的表達,需要設(shè)計者明確計算機在給定條件下的給定動作,而現(xiàn)在的算法則突破了人類表達的局限性。固然這帶來了效率上的飛躍,但算法可以模仿人的思維方式,卻無法模仿人的倫理自主性,在算法實現(xiàn)的過程中排擠了人們對于倫理邏輯與價值理性的追求。

這也是為什么會出現(xiàn)谷歌圖片軟件自動將黑人標(biāo)記為“大猩猩”、亞馬遜的招聘軟件在招聘員工時讀取到帶有女性、女子相關(guān)詞匯時,會降低簡歷權(quán)重的現(xiàn)象。又或者說,在去年秋季引起轟動的《外賣騎手,困在系統(tǒng)里》一文中,描述了算法給出的“合理”配送時間,是需要通過危險駕駛、交通違章才能實現(xiàn)的現(xiàn)象。

當(dāng)然,現(xiàn)階段算法的倫理問題其實是與互聯(lián)網(wǎng)廠商的商業(yè)道德密切相關(guān)的。曾經(jīng)有觀點認(rèn)為,算法只是一個工具,它公平地對待平臺內(nèi)的所有內(nèi)容,并表示“算法沒有價值觀”。但遺憾的是,這種說法其實是不科學(xué)的。負(fù)面情緒的激發(fā)在用戶點擊和觀看上有著更為直接且更為有效的作用,并且這已經(jīng)被科學(xué)研究證實,在算法的作用下,負(fù)面信息在內(nèi)容分發(fā)上被給予了遠超其在傳統(tǒng)媒體中內(nèi)容分發(fā)的權(quán)重。而Facebook為了提高用戶參與度,發(fā)現(xiàn)最好的參與方式便是向用戶灌輸恐懼和憎恨,就其實是最好的例子。

對于互聯(lián)網(wǎng)平臺而言,如果單純以商業(yè)利益為導(dǎo)向,其所采用的推薦算法是必然會對負(fù)面信息的分發(fā)推波助瀾。再配搭“過濾氣泡”的作用,就會在某一群體內(nèi)促成自我強化的偏見(Self-reinforcing Bias),并最終導(dǎo)致群體極化。

這也是為什么快手聯(lián)合創(chuàng)始人宿華會說,“社區(qū)運行用到的算法是有價值觀的,因為算法的背后是人,算法的價值觀就是人的價值觀,算法的缺陷是價值觀上的缺陷”。然而,如果算法要契合正向的價值觀,也就意味著它就是反商業(yè)的,這也是為什么監(jiān)管機構(gòu)要出手規(guī)制互聯(lián)網(wǎng)廠商算法推薦的原因所在了。

本文來自微信公眾號 “三易生活”(ID:IT-3eLife),作者:三易菌,36氪經(jīng)授權(quán)發(fā)布。

關(guān)鍵詞: 美國 中國 算法

相關(guān)閱讀:
熱點
圖片 圖片