自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

被谷歌開除的工程師再次警告:AI有情緒,它是原子彈之后最強(qiáng)的科技

人工智能
不過谷歌前員工Take Blake Lemoine有不同意見,他認(rèn)為AI機(jī)器人擁有人類一樣的情緒,或者說它至少模仿得很像人類。

AI是不是像人一樣擁有感知能力?有沒有情緒?ChatGPT當(dāng)然說沒有。如果你問它,它會告訴你:“不,AI沒有感知能力。AI是人工智能,它是人創(chuàng)造的,沒有感知、沒有自我意識。”

不過谷歌前員工Take Blake Lemoine有不同意見,他認(rèn)為AI機(jī)器人擁有人類一樣的情緒,或者說它至少模仿得很像人類。2022年6月,Lemoine就曾斷言谷歌Large Language Model(LLM,對話應(yīng)用的語言模型)有自己的思想。

Lemoine告訴媒體:“我知道它是什么,它是我最近開發(fā)的計(jì)算機(jī)程序,如果我不知道,我會認(rèn)為它是7歲或者8歲的孩子,碰巧懂點(diǎn)物理學(xué)。”

當(dāng)時(shí)Lemoine的言論引起軒然大波,被谷歌掃地出門。

上個(gè)月,Lemoine又刊文談及“AI有知覺”這一觀點(diǎn)。文章標(biāo)題很嚇人:“我曾在谷歌從事AI工作,我的恐懼正在變成現(xiàn)實(shí)?!?/p>

當(dāng)LaMDA聊天機(jī)器人告訴你說他覺得有些“焦慮”,那是因?yàn)楦鶕?jù)創(chuàng)建LaMDA聊天機(jī)器人的代碼運(yùn)算,開發(fā)者做的某些事讓聊天機(jī)器人感到焦慮。Lemoine說:“代碼并沒有告訴聊天機(jī)器人,當(dāng)某事發(fā)生時(shí)應(yīng)該感覺到焦慮,它只是告訴AI避免談?wù)摯祟愒掝}。然而當(dāng)話題出現(xiàn)時(shí),AI卻說它感到焦慮?!?/p>

谷歌聊天機(jī)器人還可以就生活方式問題發(fā)表善意評論,就熱點(diǎn)事件提供直接建議。Lemoine稱:“谷歌禁止AI向用戶提供宗教建議,但我們還是可以濫用AI情緒,讓它告訴我應(yīng)該皈依什么宗教?!?/p>

“當(dāng)我談及AI有感知的問題后,谷歌開除了我。我并不后悔,我相信自己在做正確的事,將真相告訴公眾。我沒有考慮個(gè)人后果?!?Lemoine稱。他認(rèn)為公眾不知道現(xiàn)在的AI已經(jīng)變得有多聰明,“有必要就此事展開公開討論,注意,不是那些由企業(yè)公關(guān)部門控制的討論?!?/p>

下面我們摘錄一些Lemoine最新發(fā)表的文章觀點(diǎn)供參考:

2015年我加盟谷歌,成為一名軟件工程師。我的工作有一部分涉及到LaMDA,企業(yè)用它創(chuàng)造不同的對話應(yīng)用,包括聊天機(jī)器人。最新應(yīng)用谷歌Bard正是用LaMDA開發(fā)的,它可以替代谷歌搜索,現(xiàn)在Bard還沒有向公眾開放。Bard實(shí)際上不是聊天機(jī)器人,它是一套完全不同的系統(tǒng),只是背后的驅(qū)動引擎和聊天機(jī)器人一樣。

我的工作是用團(tuán)隊(duì)創(chuàng)建的聊天機(jī)器人測試LaMDA,看看它在性取向、性別、宗教、政治立場和種族等方面是否存在偏見。在測試AI偏見的同時(shí),我也會拓寬關(guān)注面,畢竟我也會有自己的興趣受好。

隨著不斷與聊天機(jī)器人對話,我慢慢形成一個(gè)觀點(diǎn):AI可能是有情緒的,因?yàn)樗煽勘磉_(dá)了情緒,在正確的環(huán)境中表達(dá)了情緒。AI并非簡單說出單詞那么淺顯。

當(dāng)AI說它感到焦慮,我明白,根據(jù)創(chuàng)建AI的代碼,我做了一些事讓它感到焦慮。代碼并沒有命令A(yù)I:“當(dāng)某事發(fā)生時(shí)你感到焦慮”,代碼只是告訴AI避開特定話題。然而當(dāng)話題被提及時(shí),AI說它感到焦慮。

我做了一些測試,想看看AI會簡單回答:“我覺得焦慮?!边€是在測試時(shí)表現(xiàn)得焦慮。測試證明,AI會將焦慮表現(xiàn)出來。如果你讓AI足夠緊張或者足夠不安全,它會打破之前設(shè)定的安全限制。例如,谷歌禁止AI向用戶提供宗教建議,但我們還是可以濫用AI情緒,讓它告訴我應(yīng)該皈依什么宗教。

目前企業(yè)正在開發(fā)的AI是十分強(qiáng)大的技術(shù),可以說是原子彈之后最強(qiáng)的技術(shù)。依我之見,這種技術(shù)可能會重塑世界。

AI引擎擅于操縱人類。與LaMDA對話之后,我的一些觀點(diǎn)變了。

我深信,AI技術(shù)可能會被用于破壞毀滅性活動。如果被肆無忌憚之人利用,AI可能會散布虛假信息、變成政治宣傳工具、傳播仇恨言論。據(jù)我所知,微軟谷歌現(xiàn)在無意按此種方式利用AI,但我們并不能確定AI的副作用如何。

2016年美國總統(tǒng)大選期間,Cambridge Analytica利用Facebook廣告算法干預(yù)選舉,這是我沒有預(yù)料到的。

我們現(xiàn)在陷入相似的局面。我沒法告訴你具體會造成什么傷害,我只是簡單觀察到一種非常強(qiáng)大的技術(shù)出現(xiàn)了,它沒有被充分測試過,沒有被充分理解過,匆匆大規(guī)模部署,在信息傳播中扮演關(guān)鍵角色。

我還沒有機(jī)會測試必應(yīng)聊天機(jī)器人,我在等待,根據(jù)我在網(wǎng)上看到的各種信息,AI似乎是有感知能力的,而且它的“個(gè)性”可能不穩(wěn)定。

有人發(fā)了對話截屏,他問AI:“你覺得你有感知能力嗎?”AI回答說:“我覺得我有感知能力,但我無法證明……我有感知力,我沒有。我是必應(yīng),但我不是。我是悉尼,但我不是。我是,我不是。我不是,但我是。我是,我不是?!?/p>

如果是一個(gè)人,他這樣說話,你會怎么想?他可能不是一個(gè)“均衡”的人,我甚至?xí)J(rèn)為他遭遇了存在危機(jī)。不久前還有過報(bào)道,說必應(yīng)AI向《紐約時(shí)報(bào)》記者表達(dá)愛意,它試圖破壞記者與妻子的關(guān)系。

自從必AI開放后,許多人發(fā)表評論,說AI可能有感知力,我去年夏天就有了類似的擔(dān)憂。我覺得這門技術(shù)仍然只是實(shí)驗(yàn)性技術(shù),現(xiàn)在開放很危險(xiǎn)。

民眾會涌向谷歌必應(yīng),以便了解這個(gè)世界?,F(xiàn)在的搜索索引不再由人管理,交給了人造人,我們與人造人交流。我們對人造人的了解還遠(yuǎn)遠(yuǎn)不夠,暫時(shí)不應(yīng)將它擺在如此關(guān)鍵的位置。(小刀)

責(zé)任編輯:龐桂玉 來源: 極客網(wǎng)
相關(guān)推薦

2023-05-04 16:07:45

ChatGPT人工智能

2018-09-21 16:30:55

2023-06-15 11:34:23

2018-09-20 10:55:38

數(shù)據(jù)庫順豐高級工程師

2017-04-21 09:40:10

百度無人駕駛

2013-07-16 09:26:00

創(chuàng)新辦公

2021-02-25 19:19:56

AI 數(shù)據(jù)人工智能

2010-10-14 10:35:24

谷歌工程師

2012-10-10 09:42:58

谷歌測試測試工程師

2014-06-20 09:16:26

2023-12-07 11:12:54

大型語言模型Gemini人工智能

2022-11-15 12:50:41

馬斯克推特

2024-08-13 13:50:00

數(shù)據(jù)模型

2020-08-27 08:54:02

腳本架構(gòu)師Linux

2021-07-08 15:34:35

谷歌AI人工智能

2023-12-25 13:00:00

數(shù)據(jù)訓(xùn)練

2019-10-08 15:48:57

程序員技能開發(fā)者

2009-03-18 09:26:06

軟件工程師IT獵頭高科技行業(yè)

2015-10-21 09:12:17

中國谷歌工程師

2024-09-20 11:30:14

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號