亚洲国产成人精品不卡青青草原,91最新在线播放,国产欧美综合精品一区二区,国产日韩精品一区二区在线观看播放,成人国产日本亚洲精品,秋霞日韩国产一欧美二日韩三,国产高清第一页

別讓“算法”成為“算計”

2024-02-05 11:19:58 來源:人民日報海外版
  超七成用戶表示曾被“算法”推薦服務困擾,認為“算法”潛藏風險
 
  別讓“算法”成為“算計”(“融”觀中國)
 
  ——透視“算法”系列報道之二
 
  你是否有過這樣的經歷:閱讀一條新聞,同類新聞便源源不斷推送過來;瀏覽一件產品,產品廣告就會接踵而至;甚至,不經意間聊到某話題,相關信息也會紛至沓來,手機好像無時無刻不在記錄著你的只言片語……這些都不是巧合,而是“算法”計算的結果。
 
  因為“計算”,用戶獲取信息成本大幅降低,網絡服務更加精準高效。然而,越來越多用戶擔心被“算計”,日益關注“信息繭房”“大數(shù)據(jù)殺熟”“誘導沉迷”等問題。“別讓‘算法’成為‘算計’”成為網民共同心聲。
 
  痛點
 
  “流量至上”引發(fā)亂象
 
  最近,北京市民王蘭遇到一件令人啼笑皆非的事情:兒子睿睿還不到10歲,手機卻頻繁收到各種相親信息。追根究底,原來是兒子前幾天誤點了一則相親廣告。這讓王蘭感到擔憂:“網絡對用戶信息的收集已到了無孔不入的程度。”
 
  大學生宋凡不久前下載了一款閱讀軟件。打開后,一篇標記著“您可能感興趣”的小說被推送至界面。“這不恰好是我喜歡的作者嗎?”他點開鏈接,一看就是一個多小時??赐旰螅到y(tǒng)又推薦了這篇小說的“番外”。不知不覺,他一連“刷”了幾個小時,連老師布置的課題都忘了寫。
 
  “這就是‘算法’的作用。”杭州某互聯(lián)網公司的算法工程師向陽介紹,“手機軟件可以隨時抓取用戶數(shù)據(jù),通過智能模型分析人們的行為、習慣和喜好,過濾掉用戶不感興趣的內容,推薦用戶感興趣的信息。”
 
  他透露,對一些商業(yè)平臺來說,使用“算法”的主要目的是提升流量,提高收益,至于推送的信息是優(yōu)質還是劣質、會否帶來網絡沉迷等問題,則不在考慮之列。“就像小孩喜歡吃糖,有些商家的唯一目標是盡可能賣更多糖給孩子,至于會不會影響健康,不是他們關心的。”
 
  這種“流量至上”的商業(yè)邏輯,促使一些網絡平臺借助“算法”頻繁推送用戶感興趣的同質化內容,更有甚者,以博人眼球的劣質低俗內容取悅用戶。久而久之,用戶接收信息的范圍就會變窄,渠道也變得單一,從而陷入人們常說的“信息繭房”。
 
  除了“信息繭房”,頻受詬病的還有“算法歧視”。所謂“算法歧視”,是指在“算法”設計和應用過程中,由于偏見、歧視性數(shù)據(jù)集或其他因素導致的“不公平結果”。
 
  家住石家莊的劉女士,孩子在北京上大學,她每次來京探望孩子都會入住校旁一家酒店。今年初,她通過某手機軟件預訂一個房間,價格每晚近800元。可她辦入住時發(fā)現(xiàn),有客人預定了同樣房型,價格只要600元。經過比對,兩人在同一手機軟件上看到的價格完全不一樣。
 
  “我還是這家酒店的白金卡客戶呢,非但沒有享受到優(yōu)惠,反而還被‘宰’了,孩子告訴我,這叫‘大數(shù)據(jù)殺熟’!”
 
  “大數(shù)據(jù)殺熟”是“算法歧視”的表現(xiàn)形式之一。指平臺利用“算法”進行用戶“畫像”, 如果用戶已是熟客,就不再需要低價吸引,同時,平臺可能通過搜集消費數(shù)據(jù)檢測到用戶消費能力,從而“定向”抬高價格。向陽表示,“算法歧視”一度甚囂塵上,買機票、打網約車甚至網絡購物,都會被“大數(shù)據(jù)殺熟”,后來有關部門強力監(jiān)管,這種現(xiàn)象才有所收斂,但目前仍在業(yè)界不同程度存在。
 
  難點
 
  “算法”違規(guī)不易評判
 
  有網友總結,“算法”推薦的劣質信息有三個特點:真假難辨、缺乏深度、價值導向錯亂。不少人認為,“價值導向錯亂”是規(guī)范“算法”的最大難點。
 
  王軍是一位自媒體人,最近打算寫一篇關于“年輕人該不該啃老”的話題。當他打開手機,搜索這個話題時,發(fā)現(xiàn)多數(shù)網友都不支持年輕人啃老,這與他的觀點非常一致。
 
  不料,有同事告訴他,現(xiàn)在多數(shù)年輕人都認為,“啃老沒什么問題,人生就是拿來享受的!”這讓王軍感到詫異,同事將手機拿到王軍眼前:“你看,滿屏都是支持啃老的觀點。”而當王軍也將自己的手機頁面展示給同事時,兩人只能面面相覷。
 
  “判斷用戶價值導向并非難事,有多種方法可以評價。比如,抓取用戶觀看某話題的停留時間、分析留言是正面還是負面、統(tǒng)計用戶點贊記錄等,都可以用來判定用戶觀點,然后依據(jù)‘內容相似度’和‘用戶相似度’,把最受認可的內容推薦到頁面上。”向陽進一步解釋,“算法”在某種程度上充當了內容“編輯”的角色,是否推送、推送給誰、推送多少,都是預先設定好的程序說了算。
 
  近年來,針對“算法”引發(fā)的亂象,監(jiān)管部門多措并舉,通過約談、處罰、整改、下架等手段大力凈化網絡風氣。然而,如何有效通過“算法”倡導正確導向的信息,仍是有待破解的命題。
 
  向陽表示,雖然“算法”作為一項技術是中性的,但其模型設計、數(shù)據(jù)分析等都離不開設計者的個人選擇,其主觀意識會潛移默化地嵌入“算法”系統(tǒng)。同時,由于“算法”設計具有較高的技術門檻,其設計過程有如一只黑箱,外界很難洞悉其中原理和邏輯,因此,也很難判定“算法”體現(xiàn)了哪種導向。
 
  向陽的說法不斷被現(xiàn)實印證。由于多數(shù)“算法”設計者不會將運算細節(jié)公之于眾,即使公開,也很難準確判定。由于缺乏專業(yè)技術知識,用戶在權益受到損害時,依法維權的成本較高。多起因“算法”引起的訴訟均沒有得到理想的判罰結果。
 
  “‘算法’推薦作為一種商業(yè)秘密和技術秘密,應用過程中又往往涉及社會公共利益,如何平衡、把握對‘算法’推薦法律規(guī)制的邊界,是面臨的一大難題。”北京大學法學院副院長薛軍認為,在司法以及行政理念上,需要將“算法”的運用作為“算法”運營者行為的延伸。無論運營者是否存在過錯、是否存在行政違法等,“算法”因素都應被納入追責的考量范圍。
 
  焦點
 
  凝聚合力規(guī)范“算法”
 
  隨著公眾對“算法”持續(xù)關注,加強“算法”規(guī)范的呼聲也越來越高。一項調查顯示,超過70%受訪者表示曾被“算法”推薦服務困擾,超過60%受訪者認為生活中普遍存在“大數(shù)據(jù)殺熟”。絕大多數(shù)用戶認為,“算法”推薦技術潛藏了窺探、泄露用戶個人隱私的重大風險。濫用“算法”的行為,侵害了消費者的知情權、選擇權和個人信息權益,也給網絡空間的傳播秩序帶來負面影響。
 
  在這個背景下,一些用戶希望關閉“算法”推薦功能,停止將個人信息分享給平臺使用。在有關部門督導下,各大網絡平臺都上線了關閉“算法”推薦的功能,將是否收集用戶偏好的選擇權交還用戶。
 
  然而,平臺個性化推薦存在關閉難等問題。上海市消保委曾對消費者常用的10款手機軟件開展為期8個月的專項測評,結果顯示,關閉個性化推薦最多需7步。
 
  記者登錄幾個下載排名靠前的主流手機軟件,目前關閉“算法”推薦功能的方式主要是通過“個人設置”來操作。操作步驟與此前調查結果一致,大多仍需要5—7步。記者隨機采訪了20名手機用戶,絕大多數(shù)表示并不知曉手機軟件還有關閉“算法”推薦的功能,只有1位用戶知道該功能并懂得具體操作。
 
  “這種現(xiàn)象反映了業(yè)界的矛盾心理,一方面不希望用戶大規(guī)模關閉‘算法’,另一方面也意識到,只有規(guī)范才能長遠。”向陽說,規(guī)范“算法”,需要社會各界發(fā)揮合力,尋找最大公約數(shù)。
 
  “有效治理‘算法’亂象,是構建安全清朗的網絡生態(tài)的必然要求。”中國政法大學副教授鄭玉雙表示,要健全“算法”的法律規(guī)制模式,破解“算法”的法律規(guī)制難題,實現(xiàn)算法善治。
 
  “對于‘算法’運用是否產生不良后果,要建立一種社會性的評議機制進行持續(xù)性的跟蹤研究。如果社會評議機制有充分的理由,認定特定‘算法’的運用導致不良后果,就應該啟動問責機制,要求相應的‘算法’運營者予以解釋與說明并作出優(yōu)化。”薛軍建議。(記者 盧澤華)
返回頂部