由一個極端案例引發(fā)的討論:當算法覺得你想死……
一個悲傷的故事,英國14歲少女 Molly Russell 在2017年令人意外的選擇了自殺,我們可能很難想象究竟會是什么樣的事情能讓一個涉世未深的小女孩走上絕路。
之后的發(fā)現(xiàn),在Molly自殺之前曾在網(wǎng)上搜尋關(guān)于自殺和自殘的圖片,這些圖片甚至通過一些她喜歡的社交平臺被推薦出來。即便是在 Molly 去世之后的幾個月里,Pinterest 依然在自動推送給她一些電子郵件,內(nèi)容也是關(guān)于自殘相關(guān)的圖片,甚至打開Molly 的Instagram,F(xiàn)eed流中也充斥著大量相關(guān)的內(nèi)容。
悲劇發(fā)生之后,Molly 的父親認為Instagram和Pinterest 是殺害他女兒的幫兇。
我始終堅持,技術(shù)無罪。但當算法認為你想死的時候,我們又該怎么辦?
Molly 的悲劇讓人有一種說不出來的無奈,甚至有些氣憤。據(jù)此衍生出一個新的論點——Instagram和Pinterest等社交平臺正在加劇年輕人“ 精神健康危機 ” 。英國青少年的自殺率是八年前的兩倍,社交媒體被認為是英國“自殺一代”崛起的一個原因。
Molly的去世,讓很多人注意到了所謂大數(shù)據(jù)、算法的問題。英國衛(wèi)生部長 Matt Hancock 表示,社交媒體需要清除這些極其負面的內(nèi)容,而不這樣做將會面臨重大訴訟。在此之前,Instagram的規(guī)則只是反對“美化”自殺和自殘,而現(xiàn)在已經(jīng)直接禁止。
但簡單的禁令并不能解決這些問題,社交平臺不僅僅會托管這些負面內(nèi)容,而且在推薦算法的指引下,這些內(nèi)容也最終會呈現(xiàn)給最容易受到影響的人。推薦是一種更主動的行為,而不只是單純的可獲得性。越來越多的學術(shù)文獻證實了這一點:無論是自殘、謠言、招募恐怖分子還是某種陰謀論,平臺所做的不僅僅是讓這些內(nèi)容容易被找到,因為算法的存在,社交平臺一定程度上有助于擴大這些內(nèi)容的傳播。
我們試圖去探索Instagram,Pinterest和Tumblr等如何向用戶推薦這些負面內(nèi)容,發(fā)現(xiàn)這些社交平臺針對自殺、自殘類的內(nèi)容有一些限定規(guī)則,通過屏蔽一些關(guān)鍵詞或者標簽來使用戶更難找到,但這些內(nèi)容仍然能是存在的,而且算法也會根據(jù)某種規(guī)則推薦出來。在Pinterest上被稱為“你可能喜歡的東西”,這些都是在算法驅(qū)動下根據(jù)用戶瀏覽習慣判斷用戶感興趣的內(nèi)容。對于企業(yè)來說,更喜歡稱之為“智能化推薦”、“個人化服務(wù)”等等,被視為是一種使用體驗的提升。
例如,當你搜索家裝靈感,很快在信息流中你會看到各種油漆樣本相關(guān)的圖片,還會進一步推薦業(yè)余室內(nèi)設(shè)計師。這意味著,當用戶越頻繁搜索自殺或者自殘等負面內(nèi)容時,算法更加會判斷你所喜歡的是這類東西,然后通過不同方式推薦給你。
正如Molly的父親發(fā)現(xiàn)的,社交平臺的推薦算法并沒有區(qū)別對待。社交平臺所展示“你可能喜歡的”內(nèi)容,可能它本身就違反了自己的預定的規(guī)則。
試想一下,如果你是那個試圖在社交平臺尋找自殘類型負面內(nèi)容的人,系統(tǒng)推薦算法在得知這種趨勢之后,反而為你推薦的是陽光積極的內(nèi)容,教你重塑健康的心理狀態(tài),算法建議的可能并不是你當時所想看到的內(nèi)容,但它會引導你走向一個比較正確的狀態(tài),或許這就是算法真正應該做的事情吧。
在現(xiàn)在的互聯(lián)網(wǎng)世界,很多人更愿意在社交平臺去傾訴或者發(fā)泄內(nèi)心的想法。社交媒體就會成為一個擺在他們面前的鏡子,這面鏡子能夠直接反映用戶的心理狀態(tài),還可以放大或者扭曲它。而這兩種截然不同的導向均取決于算法如何去引導,當算法覺得你想死,我們能更希望算法能做一個思想的引導者,而不是繼續(xù)把用戶帶到死神面前。
算法應當具備價值觀底線。
當然,這樣的前提是,社交平臺所設(shè)定的禁令規(guī)則是***的,那么算法建議所展示的僅僅提供用戶最可接受的內(nèi)容,而實際情況卻并非如此。
內(nèi)容審核非常困難,可接受和令人反感這兩種規(guī)則之間的界限可能很多時候都是模糊不清的。即便設(shè)立人工審核機制,大型社交平臺每天新發(fā)布的內(nèi)容有成千上萬條,審核者需要在幾秒鐘甚至更短的時間里判斷出是否影響用戶心理健康的,這樣的內(nèi)容實在太多,不僅僅是自殘類型,日復一日,總會有遺漏的內(nèi)容。
以Molly的悲劇為例,社交平臺的禁令不僅不夠完善,甚至還可能間接造成更多悲劇發(fā)生。很多試圖自殘或者有自殺傾向的人通過網(wǎng)絡(luò)找到了巨大的情感支持以及繼續(xù)生活下去的動力。通過建立小范圍的社交圈來互相抱團取暖,甚至最終走出陰霾。對于這些人來說,社交平臺更是唯一發(fā)出求助呼聲的渠道。一味的禁止會擠壓這些群體的存在,在缺乏同類之間的交流和接納感時,則會深陷自己的消極精神世界無法自拔最終導致悲劇發(fā)生。
所以,現(xiàn)在的問題不只是簡單的讓這些內(nèi)容消失。而是平臺需要更好地識別哪些內(nèi)容在什么時候更適合呈現(xiàn)給哪些群體,當搜索的內(nèi)容和算法推薦的內(nèi)容不同時,平臺還需判斷這些內(nèi)容是否對某個人有利的同時卻對整個公眾有潛在威脅。
我們沒有充分討論推薦系統(tǒng),也許是因為這些現(xiàn)在已經(jīng)非常普遍,也可能是因為大多數(shù)用戶不了解其工作方式。我們可能會嘲笑Facebook 推薦給我們已經(jīng)購買的亞馬遜產(chǎn)品,也許不喜歡Spotify 覺得我們喜歡悲傷的音樂,因為即便你只是有過一次特定的行為,算法就已經(jīng)開始以此為依據(jù)判斷你的興趣推薦更多的東西。
在《壓迫算法》中,Safiya Umoja Noble 批評谷歌在其搜索結(jié)果中放大了種族刻板印象;《Twitter and Tear Gas》的作者Zeynep Tufekci 強調(diào)了YouTube 放大陰謀理論和極端主義內(nèi)容的傾向,認為其推薦算法“以不斷增加風險的方式宣傳、推薦和傳播視頻”。
類似的探討越多越好,這些推薦內(nèi)容會對心理不那么健康的人帶來什么影響,人們看法有所不同。有人認為自殘的圖很容易看到,有人卻覺得很難遇到,而多次看到更是難上加難。
現(xiàn)在經(jīng)營者Instagram的Adam Mosseri承認,該平臺不是單純地“需要處理自殺和自殘問題”。Pinterest發(fā)言人表示:“我們現(xiàn)有規(guī)則已經(jīng)不允許任何鼓勵自我傷害的內(nèi)容。但是,我們知道這些政策是不夠的。我們剛剛進行了重大改進,以防止我們的算法在用戶的主頁Feed中推薦敏感內(nèi)容。我們將很快采用更主動的方式來檢測和刪除它,并為尋找它的人提供更多富有情感的支持。單靠我們自己不可能做到這一點,這就是我們與心理健康專家合作使我們的方法更有效的原因。“
但是,這些改變會變的越來越難。算法推薦已成為社交媒體將用戶留在自己平臺的的主要手段,它不太可能消失。這些算法經(jīng)過優(yōu)化以滿足個人用戶的需求,為集體利益優(yōu)化它們要困難得多。社交媒體公司還需要更多關(guān)于心理健康的知識,以更好地區(qū)分令人反感和有價值的內(nèi)容,并更好地認識到這些平臺可能對精神疾病患者造成的影響。這是Instagram 承諾的舉措,他們必須堅持到底。
人們不只是在尋找內(nèi)容,可能還在等一個答案甚至在尋找一個生活下去的動力。當算法認為一個人想死的時候,它至少應該學會告訴他:不,你不想。