自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

AIGC前行道路上的七個“減速帶”

人工智能
我們只能努力解決AI帶來的現(xiàn)實和道德困境。當(dāng)AI帶來的奇跡和夢想開始消退時,人們不能忽視阻礙AI發(fā)展的七個“減速帶”。

當(dāng)AI 聊天機器人破繭而出時,很多人感到驚喜或驚訝。

這些大型語言模型擅長自我學(xué)習(xí),并且能用各種語言和風(fēng)格與人類進(jìn)行交流。其生成的藝術(shù)模型幾乎可以生成人們能想到的任何事物;能夠回答人們可以提出各種問題,甚至越古怪越好;科學(xué)家們正在訓(xùn)練AI作曲、探索太空,以及執(zhí)行傳統(tǒng)上由人類完成的重復(fù)性任務(wù)(這讓很多人擔(dān)心他們的工作崗位會被替代)。

盡管取得了驚人的成果,但AI呈現(xiàn)出來的嚴(yán)重問題卻只是冰山一解。也許人們還沒有注意到,也許仍然處于敬畏的狀態(tài)。然而別無選擇,我們只能努力解決AI帶來的現(xiàn)實和道德困境。當(dāng)AI帶來的奇跡和夢想開始消退時,人們不能忽視阻礙AI發(fā)展的七個“減速帶”。

1、資源稀缺 

大多數(shù)大型AI模型依賴于大規(guī)模并行計算,這些計算可以通過GPU或TPU專用芯片來加速。充分發(fā)揮AI模型的潛力需要采用大量IT硬件,但成本高昂。

每家廠商及個人都希望采用更多的IT硬件,在過去的幾年,由于供不應(yīng)求,芯片和IT硬件的成本飆升。更糟糕的是,越來越多的人正在使用云計算服務(wù),導(dǎo)致云計算平臺容量擴展的速度難以滿足需求。

硬件并不是成功推出AI所需的唯一稀缺資源。運行大型AI模型還需要大量電力,但并不是每個國家或地區(qū)都能充分供應(yīng)。在地緣政治沖突和主要采用可再生能源電力的地區(qū),能夠以可預(yù)測的價格獲得足夠的電力是一項挑戰(zhàn)。為了彌補損失,一些云計算提供商正在提高某些地區(qū)的云服務(wù)價格。

2、AI倫理 

人類總是知道在某些場合避免爭論一些問題,然而AI需要學(xué)習(xí)如何在各種情況下處理此類問題。一些大型語言模型被編程為對提出的問題轉(zhuǎn)移話題或者拒絕回答,但一些用戶總是很執(zhí)著,當(dāng)這樣的用戶注意到AI在回避一些棘手的問題,例如引發(fā)種族或性別偏見的問題時,他們會立即尋找繞過這些護(hù)欄的方法進(jìn)行提問。

隨著時間的推移,AI數(shù)據(jù)偏差和數(shù)據(jù)不足是可以糾正的問題,但與此同時,惡作劇和濫用的可能性也是巨大的。雖然讓AI發(fā)表仇恨言論很糟糕,但當(dāng)人們開始使用AI來探索現(xiàn)實生活決策的道德含義時,就會變得更加復(fù)雜。 

3、AI勞動力待遇不平等 

許多AI項目依靠人類的反饋來指導(dǎo)它們的學(xué)習(xí)。通常情況下,一個大規(guī)模的AI項目需要大量的人員來構(gòu)建訓(xùn)練集,并隨著模型規(guī)模的增長調(diào)整大型語言模型的行為。對于許多項目來說,只有在貧窮國家向訓(xùn)練人員支付更低工資的情況下,才能在經(jīng)濟(jì)效益上可行。

這引發(fā)了人們對于AI公平和公正的深入辯論,但沒有人能夠為開發(fā)大型AI項目找到經(jīng)濟(jì)可行的解決方案。正如寶石行業(yè)人士并不考慮從事采礦這一棘手而危險的工作一樣,AI行業(yè)也沒有簡單可行的勞動力成本解決方案。

4、糟糕的反饋循環(huán) 

以虛假新聞和評論的形式出現(xiàn)的虛假信息已經(jīng)存在了一段時間,無論是處于政治考量還是獲取利潤目的,虛假信息總有市場生存空間。然而阻止不良行為者的AI算法異常復(fù)雜,需要大量維護(hù),大模型供應(yīng)商不見得會花大力氣來解決這個問題。 

可以想象一下,當(dāng)AI開始被用來制造虛假信息時會發(fā)生什么情況:一方面,虛假信息的數(shù)量將呈指數(shù)級增長;另一方面,有的AI系統(tǒng)很有可能會選擇假信息并將其反饋到訓(xùn)練語料庫中。如此,病毒式傳播的錯誤信息將會對人們的社交網(wǎng)絡(luò)帶來不利影響,糟糕的反饋循環(huán)可能會破壞知識和信息。

5、法律法規(guī) 

AI通過復(fù)制大量的文本和圖像來學(xué)習(xí)它們所知道的一切。在大多數(shù)情況下,創(chuàng)造這些數(shù)據(jù)的人類從未被告知,他們的成果可能被價值數(shù)十億美元的AI模型所盜用。

當(dāng)這些人的工作被AI取代時會發(fā)生什么?他們可能去找律師處理許可、版權(quán)和剽竊知識的問題。人們可能會通過訓(xùn)練AI學(xué)習(xí)相關(guān)的判例法規(guī),但是,可以在幾毫秒內(nèi)做出裁決的AI法官要比一個需要數(shù)年時間權(quán)衡問題的人類法官更可怕。

還有另外一種場景:當(dāng)AI錯誤地評價某一歷史事件或當(dāng)今流行文化時,可能只會令人反感,但不會直接傷害到任何人。但是當(dāng)AI說出一些貶損某人的話時,實際上成為了一種誹謗。很容易想象,如果AI誹謗某人時,假設(shè)這個人雇傭律師進(jìn)行訴訟,那么AI本身需承擔(dān)責(zé)任嗎?還是擁有它的公司承擔(dān)責(zé)任?

6、死亡與毀滅

現(xiàn)在好像并沒有顯著的例子表明,被壞人利用的AI就像科幻電影中的惡棍那樣邪惡。眾所周知,自動駕駛汽車和工廠的機器會犯錯,但到目前為止,似乎還沒有惡意事件發(fā)生。然而對于AI來說,人們似乎還不知道如何解釋它造成嚴(yán)重傷害或死亡的可能性,以至于AI威脅論始終縈繞在人們的耳邊。

7、期望值過高

人們通常認(rèn)為AI的思維方式可能和人類一樣,但這可能是錯誤的。真正的問題是,AI具有截然不同的智能形式,還沒有被人們理解。作為一個新物種,人們對AI的獨特優(yōu)勢和劣勢還有很多需要了解的地方。 

與此同時,AI也被人們的樂觀情緒所炒作和鼓舞,以至于它永遠(yuǎn)無法實現(xiàn)人們的夢想。只要是人們的想法和希望超越現(xiàn)實,那么AI領(lǐng)域的發(fā)展注定會讓人失望,這可能會極大地阻礙AI的持續(xù)發(fā)展。

責(zé)任編輯:龐桂玉 來源: 極客網(wǎng)
相關(guān)推薦

2019-02-27 17:40:45

安卓計算機學(xué)習(xí)

2024-01-29 15:44:20

人工智能GenAI

2010-06-30 15:38:55

2021-10-29 19:22:16

可觀察性IT基礎(chǔ)設(shè)施監(jiān)控

2023-09-20 10:26:40

AIGC大型語言模型

2019-03-10 16:25:54

人工智能坑洼車輛

2012-07-02 09:40:05

CRM云計算

2014-03-06 15:06:28

2018-12-06 13:13:55

多云數(shù)據(jù)中心安全性

2020-02-07 15:14:23

機器學(xué)習(xí)人工智能谷歌

2015-01-19 11:23:26

ABLOOMY

2015-06-01 15:35:52

2019-07-08 17:30:47

智能

2013-12-12 13:47:00

iOS 7應(yīng)用UI

2016-09-26 10:19:16

超融合Nutanix

2012-04-13 15:26:59

曙光Sugon

2023-11-17 08:01:30

Vite 5前端

2011-06-03 17:59:36

SEO

2016-12-26 08:50:52

AWS云計算Node.js框架

2015-07-07 10:20:49

虛擬化容器化docker部署
點贊
收藏

51CTO技術(shù)棧公眾號