AI倫理危機(jī)曝光:科技操縱與道德底線失守
道德、倫理和品格至關(guān)重要,壞人會造就惡劣的社會。AI文化,如同大型科技公司的文化,充斥著急功近利之徒,從而引發(fā)了AI倫理危機(jī)。
AI就像比特幣或區(qū)塊鏈一樣,是最新的潮流,它是騙子、詐騙犯和狡詐之徒認(rèn)為可以用來詐騙、欺詐的最新手段,它是最新吸引急功近利者的磁石。
這并不意味著在AI的深處,沒有能夠從根本上重塑社會和我們環(huán)境,使之變得更好的重要發(fā)展,這并不意味著沒有許多優(yōu)秀的科學(xué)家和開發(fā)人員致力于AI的研究。
這意味著那些重要的人——那些做決策的人——通常是騙子、詐騙犯和冷酷的狡詐之徒。用惡劣模式運(yùn)作的壞人會創(chuàng)造出惡劣的軟件,進(jìn)而造就惡劣的社會。
揭露AI倫理危機(jī):科技中的操縱與道德淪喪
現(xiàn)代AI就是廣告,它誕生于谷歌、臉書、微軟和亞馬遜等公司的廣告大師們之手。廣告從來就是關(guān)于謊言和針對弱勢人群以及所有人弱點(diǎn)的精準(zhǔn)投放,它不斷試探我們的弱點(diǎn)。
一位營銷人員曾向我吹噓:“最好的營銷是讓你買東西,而你卻不知道為什么?!盇I在這方面的操縱確實出類拔萃。擺脫了必須說真話的限制,它可以在數(shù)百萬種文字或圖像組合中搜索,找到能準(zhǔn)確觸發(fā)你購買反應(yīng)的組合。對于AI來說,真相就是銷售、轉(zhuǎn)化或皈依,無論是推銷政客還是假冒護(hù)膚霜。
多年來,我接觸過許多廣告策略背后的人。他們對自己的所作所為毫無愧疚。事實上,他們認(rèn)為這是正確的事情——把權(quán)力和金錢從那些不值得擁有的笨蛋手中奪走,因為他們是笨蛋,然后把這些金錢和權(quán)力交給更聰明、更強(qiáng)大的人。
不惜一切代價的增長:助長AI倫理危機(jī)
許多最惡劣的做法都源于對快速增長和不斷加速的貪婪需求。我們幾乎可以把所有的錯誤都?xì)w咎于增長至上教派,而在增長至上教派的鏡廳里,我們會發(fā)現(xiàn)優(yōu)生學(xué)的祭司們在低語他們神圣的信條。
正如蒂姆尼特·格布魯(Timnit Gebru)和埃米爾·P·托雷斯(émile P. Torres)在《First Monday》上所寫,“在過去激勵優(yōu)生學(xué)家們的許多同樣的歧視態(tài)度(如種族主義、仇外心理、階級歧視、健全主義主義和性別主義)在構(gòu)建AGI的運(yùn)動中仍然普遍存在,導(dǎo)致系統(tǒng)傷害邊緣化群體并集中權(quán)力,同時利用‘安全’和‘造福人類’的言辭來逃避責(zé)任。”
像格布魯這樣的有色女性往往被推到無法阻擋的列車前,她的Mastodon個人資料顯示,她“因提出工作場所的歧視問題并撰寫有關(guān)大型語言模型危險性的文章而被谷歌解雇”。解決AI倫理危機(jī)需要從價值觀上進(jìn)行根本性的改變。