自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

全網(wǎng)最詳細的AI大事記!

人工智能
2023年11月18日,OpenAI CEO山姆·奧特曼(Sam Altman)被開除,引發(fā)全網(wǎng)關(guān)注。22日,OpenAI官方推特宣布,Sam Altman回歸并重新?lián)蜲penAI CEO。

1942年,美國科幻小說家艾薩克·阿西莫夫(Isaac Asimov)在自己的短篇小說《Runaround(環(huán)舞)》中提出了影響深遠的“機器人三定律”:機器人不得傷害人類,或坐視人類受到傷害;除非違背第一定律,否則機器人必須服從人類命令;除非違背第一或第二定律,否則機器人必須保護自己。后來,這篇小說被合入1950年出版的短篇科幻小說集《I,Robot(我,機器人)》中。

1943年,美國神經(jīng)生理學(xué)家沃倫·麥卡洛克(Warren McCulloch)和數(shù)學(xué)家沃爾特·皮茨(Walter Pitts),基于人類大腦的神經(jīng)網(wǎng)絡(luò),發(fā)表了《A logical calculus of ideas immanent in nervous activity(神經(jīng)活動中內(nèi)在思想的邏輯演算)》論文,提出了一個形式神經(jīng)元的計算機模型,并將其取名為M-P(McCulloch&Pitts)模型。

1949年,唐納德·赫布(Donald O. Hebb)在自己的著作《The Organization of Behavior; a Neuropsychological Theory(行為的組織:一種神經(jīng)心理學(xué)理論)》中,描述了突觸可塑性的基本原理,對學(xué)習(xí)和記憶提供了生理學(xué)層面的新理解。赫布也憑此被譽為“神經(jīng)心理學(xué)與神經(jīng)網(wǎng)絡(luò)之父”。

1950年,阿蘭·圖靈在《Mind(心靈)》雜志上發(fā)表了重要論文《Computing Machinery and Intelligence(計算機器與智能)》,并提出了著名的圖靈測試。

圖片

阿蘭·圖靈

1950年,馬文·明斯基(Marvin Minsky)和鄧恩·埃德蒙(Dunn Edmund)構(gòu)建了第一臺神經(jīng)網(wǎng)絡(luò)計算機SNARC。

1950年,克勞德·香農(nóng)(Claude Shannon)發(fā)表論文《Programming a computer for playing chess(為下棋編程計算機)》”。香農(nóng)認為,總有一天,計算機會擊敗世界冠軍。這一年,他還發(fā)明了一種由機電繼電器電路控制的可以走迷宮的機械老鼠——忒修斯(Theseus)。

圖片

克勞德·香農(nóng)

1954年,Georgetown(喬治敦)大學(xué)和IBM合作,進行了一次名為“Georgetown Experiment”的實驗,成功地使用機器將60多個俄語句子翻譯成英文。這是機器翻譯和NLP(自然語言處理)的一次重要嘗試。

1955年9月,約翰·麥卡錫(John McCarthy)、馬文·明斯基、克勞德·香農(nóng)、納撒尼爾·羅切斯特(N. Rochester)四人,共同提出了一個關(guān)于機器智能的研究項目。在項目中,首次引入了“Artificial Intelligence”這個詞,也就是人工智能。

1955年,赫伯特·西蒙(Herbert A. Simon,也譯為司馬賀)和艾倫·紐維爾(Allen Newell)開發(fā)的一個名為“邏輯理論家(Logic Theorist)”的程序。“邏輯理論家”被認為是人類歷史上第一個人工智能程序。

1956年6月,在約翰·麥卡錫等人的召集下,著名的達特茅斯會議(Dartmouth workshop)在美國新罕布什爾州漢諾威鎮(zhèn)的達特茅斯學(xué)院召開。這場會議標(biāo)志著人工智能作為一個研究領(lǐng)域正式誕生。

圖片圖片

1957年,美國康奈爾大學(xué)的心理學(xué)家和計算機科學(xué)家弗蘭克·羅森布拉特(Frank Rosenblatt),在一臺IBM-704計算機上,模擬實現(xiàn)了一種他發(fā)明的叫“感知機 (Perceptron) ”的神經(jīng)網(wǎng)絡(luò)模型。

圖片

弗蘭克·羅森布拉特

1957年,赫伯特·西蒙等人在“邏輯理論家”的基礎(chǔ)上,又推出了通用問題解決器(General Problem Solver,GPS)。這是一個旨在模仿人類解決問題的程序。

1957年,卡內(nèi)基梅隆大學(xué)建立了世界上第一個人工智能研究實驗室。

1958年,約翰·麥卡錫正式發(fā)布了自己開發(fā)的人工智能編程語言——LISP(LIST PROCESSING,意思是"表處理")。后來的很多知名AI程序,都是基于LISP開發(fā)的。

圖片

約翰·麥卡錫(1927-2011)

1959年,美國發(fā)明家喬治·德沃爾(George Devol)與約瑟夫·英格伯格(Joseph Engelberger)發(fā)明了人類首臺工業(yè)機器人——Unimate。Unimate重達兩噸,安裝運行于通用汽車生產(chǎn)線,可以控制一個機械臂,搬運和堆疊熱壓鑄金屬件。

圖片

左圖為Unimate

右圖是約瑟夫·英格伯格(左)、喬治·德沃爾(右)


1959年,赫伯特·格蘭特(Herbert Gelernter)開發(fā)了幾何定理證明程序。

1959年,IBM科學(xué)家亞瑟·塞繆爾(Arthur Samuel)在自家首臺商用計算機IBM701上,成功編寫了一套西洋跳棋程序。這個程序具有“學(xué)習(xí)能力”,可以通過對大量棋局的分析,逐漸辨識出“好棋”和“壞棋”,從而提高自己的下棋水平。因為首次提出了“機器學(xué)習(xí)(Machine Learning)”的概念,亞瑟·塞繆爾被后人譽為“機器學(xué)習(xí)之父”。

圖片

亞瑟·塞繆爾(1901-1990)


1959年,約翰·麥卡錫和馬文·明斯基創(chuàng)立了麻省理工學(xué)院人工智能項目。

1961年,萊昂納德·莫里克(Leonard Merrick Uhr)和查爾斯·沃斯勒(Charles M Vossler)發(fā)表了題目為《A Pattern Recognition Program That Generates, Evaluates and Adjusts its Own Operators(生成、評估和調(diào)整其自身算子的模式識別程序)》的模式識別論文,描述了一種利用機器學(xué)習(xí)或自組織過程設(shè)計的模式識別程序的嘗試。

1963年,約翰·麥卡錫在斯坦福大學(xué)創(chuàng)立了人工智能實驗室。

1965年,英國數(shù)學(xué)家厄文·古德(Irving John Good)發(fā)表了一篇對人工智能未來可能對人類構(gòu)成威脅的文章,可以算“AI威脅論”的先驅(qū)。

1966年,美國麻省理工學(xué)院的約瑟夫·魏澤鮑姆(Joseph Weizenbaum),發(fā)明了世界上第一個聊天機器人——ELIZA。ELIZA 通過關(guān)鍵詞匹配規(guī)則對輸入進行分解,而后根據(jù)分解規(guī)則所對應(yīng)的重組規(guī)則來生成回復(fù),是現(xiàn)在Siri、小愛同學(xué)等問答交互工具的鼻祖。

圖片

魏澤鮑姆(坐者)正在與ELIZA對話


1966年,查理·羅森(Charlie Rosen)領(lǐng)導(dǎo)的美國斯坦福研究所(SRI),研發(fā)成功了首臺人工智能機器人——Shakey。它具備一定程度的人工智能,能夠自主進行感知、環(huán)境建模、行為規(guī)劃并執(zhí)行任務(wù)。

圖片

研究人員正在調(diào)測Shakey


1966年,美國計算機協(xié)會(ACM)設(shè)立圖靈獎(Turing Award),被稱為“計算機界的諾貝爾獎”。

1967年,托馬斯·卡沃(Thomas Cover)基于艾沃林·菲克斯(Evelyn Fix)和約瑟夫·霍德吉斯(Joseph Hodges)的研究,擴展提出了K最近鄰算法(k-nearest neighbors algorithm)。

1968年,美國科學(xué)家愛德華·費根鮑姆(Edward Feigenbaum)提出了第一個專家系統(tǒng)——DENDRAL,并對知識庫給出了初步的定義。這標(biāo)志著專家系統(tǒng)的誕生。DENDRAL面向的是化學(xué)行業(yè),可以幫助化學(xué)家判斷物質(zhì)的分子結(jié)構(gòu)。

圖片

愛德華·費根鮑姆(坐著的那位)


1969年,馬文·明斯基和西蒙·派珀特(Seymour Papert)發(fā)表著作《感知機: 計算幾何學(xué)導(dǎo)論》的書,對羅森布萊特的感知器提出了質(zhì)疑。這導(dǎo)致了神經(jīng)網(wǎng)絡(luò)研究十余年的中斷。

圖片

馬文·明斯基


1969年,馬文·明斯基為導(dǎo)演斯坦利·庫布里克(Stanley Kubrick)的電影《2001漫游太空》擔(dān)任顧問,塑造了片中超級智能計算機HAL9000的銀幕形象。

圖片

電影海報

1970年,麻省理工學(xué)院博士研究生特里·維諾格拉德(Terry Winograd)開發(fā)了早期自然語言理解程序SHRDLU。該程序可以部分理解語言,是"微型世界"項目的一部分。

1972年,柯爾麥倫納(Colmeraner)及其研究小組在法國馬賽大學(xué)提出邏輯編程語言PROLOG。

1972年,美國醫(yī)生兼科學(xué)家愛德華·H·肖特利夫(Edward H. Shortliffe)創(chuàng)建了可以幫助進行醫(yī)學(xué)診斷的專家系統(tǒng)——MYCIN。

圖片

愛德華·H·肖特利夫


1973年,政府部門對AI的資助開始大幅滑坡,AI研究進入了“AI寒冬(AI Winter)”。

1973年,數(shù)學(xué)家萊特希爾(Lighthill)向英國政府提交了一份關(guān)于人工智能的研究報告(著名的《萊特希爾報告》),對當(dāng)時的AI研究進行了嚴厲且猛烈的批評,認為其宏偉的目標(biāo)根本無法實現(xiàn),研究已經(jīng)徹底失敗。

1975年,馬文·明斯基在論文《A Framework for Representing Knowledge(知識表示的框架)》中,提出用于人工智能中的知識表示學(xué)習(xí)框架理論。

1977年,愛德華·費根鮑姆在第五屆國際人工智能聯(lián)合會議上,提出了“知識工程(Knowledge Engineering)”的概念,進一步推動了專家系統(tǒng)的普及。

1977年,中國著名數(shù)學(xué)家吳文俊院士在《中國科學(xué)》期刊發(fā)表了具有劃時代意義的科學(xué)論文——《初等幾何判定問題與機械化證明》,在國際上引起了巨大轟動。吳文俊院士所獨創(chuàng)的新方法在國際上被譽為“吳方法”。它能夠使人工智能自動并有效地證明幾何定理,也被應(yīng)用到其他數(shù)學(xué)領(lǐng)域。

圖片

吳文俊院士

1979年,美國國家標(biāo)準(zhǔn)技術(shù)研究所開始制定基于知識的推理系統(tǒng)規(guī)范語言(知識表示語言KRL)。

1979年,日本學(xué)者福島邦彥博士模仿生物的視覺皮層(visual cortex),開發(fā)了一種用于模式識別的神經(jīng)網(wǎng)絡(luò)模型Neocognitron(神經(jīng)認知機)。Neocognitron是第一個使用卷積和下采樣的神經(jīng)網(wǎng)絡(luò),也是現(xiàn)代卷積神經(jīng)網(wǎng)絡(luò)的雛形。

圖片

福島邦彥

1979年,斯坦福大學(xué)的漢斯·莫拉韋克(Hans Moravec)設(shè)計了斯坦??ㄜ嚕⊿tanford Cart)。這是一臺可以自主導(dǎo)航和避障的機器人。這是機器人領(lǐng)域的一個重要里程碑。

圖片

1980年,在美國的卡內(nèi)基梅隆大學(xué)(CMU)召開了第一屆機器學(xué)習(xí)國際研討會,標(biāo)志著機器學(xué)習(xí)研究的興起。

1980年,卡耐基梅隆大學(xué)研發(fā)的專家系統(tǒng)XCON(eXpertCONfigurer)正式商用,為當(dāng)時的計算機巨頭公司DEC每年省下數(shù)千萬美金。

1981年,理查德·保羅(Richard.P.Paul)出版了第一本機器人學(xué)課本《Robot Manipulator:Mathematics,Programmings and Control(機器人機械手:數(shù)學(xué)、編程與控制)》。

1981年,日本通商產(chǎn)業(yè)?。∕ITI)撥款8.5億美元,用以研發(fā)第五代計算機項目(FGCS)。FGCS的目標(biāo)是造出一臺人工智能計算機,能夠與人對話、翻譯語言、解釋圖像、完成推理。不久后,英國、美國紛紛響應(yīng),開始向信息技術(shù)領(lǐng)域的研究提供大量資金。

1981年,“窄AI(Narrow AI)”的概念誕生。相關(guān)研究不再尋求通用智能,而轉(zhuǎn)向了面向更小范圍的專業(yè)任務(wù)領(lǐng)域。

1982年,約翰·霍普菲爾德(John Hopfield)在自己的論文中重點介紹了Hopfield網(wǎng)絡(luò)模型(模型原型早期由其他科學(xué)家提出)。這是一種具有記憶和優(yōu)化功能的循環(huán)(遞歸)神經(jīng)網(wǎng)絡(luò)。

圖片

約翰·霍普菲爾德

1982年,戴維·馬爾(David Marr)發(fā)表代表作《視覺計算理論》,提出計算機視覺(Computer Vision)的概念,并構(gòu)建系統(tǒng)的視覺理論,對認知科學(xué)(CognitiveScience)產(chǎn)生了很深遠的影響。

1983年,通用電氣公司搞出了柴油電力機車維修專家系統(tǒng)(DELTA)。這個系統(tǒng)封裝了眾多GE資深現(xiàn)場服務(wù)工程師的知識和經(jīng)驗,能夠指導(dǎo)員工進行故障檢修和維護。

1983年,特倫斯·謝諾夫斯基(Terrence Sejnowski)和杰弗里·辛頓(Geoffrey Hinton)提出了“隱單元”的概念。1986年,他們提出了一種生成式隨機神經(jīng)網(wǎng)絡(luò)(generative stochastic neural network)——Boltzmann Machine(玻爾茲曼機)。

1983年,美國國防部高級研究計劃局(DARPA)通過“戰(zhàn)略計算促進會(Strategic Computing Initiative)”,重啟對高級計算和人工智能研究的資助。

1984年,美國數(shù)十家大公司聯(lián)合成立了微電子與計算機技術(shù)公司(MCC)。該公司發(fā)起了人工智能歷史上最大也是最具爭議性的項目Cyc(大百科全書)。

1986年,戴維·魯梅爾哈特(David Rumelhart)、杰弗里·辛頓(Geoffrey Hinton)和羅納德·威廉姆斯(Ronald Williams)等人共同發(fā)表了一篇名為《Learning representations by back-propagation errors(通過反向傳播算法的學(xué)習(xí)表征)》的論文。在論文中,他們提出了一種適用于多層感知器(MLP)的算法,叫做反向傳播算法(Backpropagation,簡稱BP算法)。BP算法不僅為多層神經(jīng)網(wǎng)絡(luò)的發(fā)展奠定了基礎(chǔ),也打破了馬文·明斯基當(dāng)年提出的“神經(jīng)網(wǎng)絡(luò)具有局限性”魔咒,意義非常重大。

1986年,澳大利亞計算機科學(xué)家羅斯·昆蘭(Ross Quinlan)提出ID3決策樹算法。

1987年,LISP機器市場在崩潰,AI領(lǐng)域進入了“第二個AI冬天”。

圖片

LISP系列主機


1988年:計算機科學(xué)家和哲學(xué)家猶大·伯爾(Judea Pearl)出版了著作《Probabilistic Reasoning in Intelligent Systems(智能系統(tǒng)中的概率推理)》。伯爾還發(fā)明了貝葉斯網(wǎng)絡(luò)。

1988年,貝爾實驗室的法國科學(xué)家楊立昆(Yann LeCun)等人,提出了卷積神經(jīng)網(wǎng)絡(luò)。這是一種專門用于處理圖像數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)模型。

圖片

Yann LeCun


1990年,澳大利亞科學(xué)家羅德尼·布魯克斯(Rodney Brooks)提出了“由下自上”的研究思路,開發(fā)能夠模擬人腦細胞運作方式的神經(jīng)網(wǎng)絡(luò),并學(xué)習(xí)新的行為。

1990年,美國認知科學(xué)家、心理語言學(xué)家杰弗里·艾爾曼(Jeffrey Elman)提出了首個遞歸神經(jīng)網(wǎng)絡(luò)——艾爾曼網(wǎng)絡(luò)模型。遞歸神經(jīng)網(wǎng)絡(luò)能夠在訓(xùn)練時維持數(shù)據(jù)本身的先后順序性質(zhì),非常適合于自然語言處理領(lǐng)域的應(yīng)用。

1992年,因為未能實現(xiàn)十年前提出的目標(biāo),日本終止了FGCS項目。

1993年,在花費近10億美元且遠未達到預(yù)期的情況下,DARPA結(jié)束了戰(zhàn)略計算計劃。

1995年,克里娜·柯爾特斯(Corinna Cortes)和弗拉基米爾·萬普尼克(Vladimir Vapnik)開發(fā)了支持向量機(Support Vector Machine,SVM)。支持向量機是一種映射和識別類似數(shù)據(jù)的系統(tǒng),可以視為在感知機基礎(chǔ)上的改進。

1995年,約阿夫·佛羅因德(Yoav Freund)和羅伯特·沙皮爾(Robert Schapire)提出了AdaBoost (Adaptive Boosting)算法。

1997年5月,IBM的計算機“深藍(DEEP BLUE)”以2勝1負3平的成績擊敗國際象棋世界冠軍加里·卡斯帕羅夫,震驚了全世界。

圖片

1997年,德國計算機科學(xué)家瑟普·霍克賴特(Sepp Hochreiter)及其導(dǎo)師于爾根·施密德胡伯(Jürgen Schmidhuber)開發(fā)了用于遞歸神經(jīng)網(wǎng)絡(luò)的LSTM(長短期記憶網(wǎng)絡(luò))。

1998年,Yann LeCun等人提出了一個用于手寫數(shù)字識別的卷積神經(jīng)網(wǎng)絡(luò)——LeNet,初步展示了神經(jīng)網(wǎng)絡(luò)在圖像識別領(lǐng)域的潛力。

2000年:本田發(fā)布了ASIMO,一種人工智能的人形機器人。

圖片

2001年,布雷曼(Leo Breiman)和阿黛爾·卡特勒(Adele Cutler)提出隨機森林(Random Forest)。

2003年,約書亞·班吉歐(Yoshua Bengio)發(fā)表一篇基于人工神經(jīng)網(wǎng)絡(luò)打造自然語言模型的論文《A Neural Probabilistic Language Model(一種神經(jīng)概率語言模型)》,提出了具有奠基意義的NNLM“神經(jīng)網(wǎng)絡(luò)語言模型”。他還提出了"詞向量"的概念。

2006年,多倫多大學(xué)的杰弗里·辛頓在Science期刊上,發(fā)表了重要的論文《Reducing the dimensionality of data with neural networks(用神經(jīng)網(wǎng)絡(luò)降低數(shù)據(jù)維數(shù))》,提出深度信念網(wǎng)絡(luò)(Deep Belief Networks,DBNs)。

圖片

杰弗里·辛頓


2006年,在斯坦福任教的華裔科學(xué)家李飛飛發(fā)起創(chuàng)建了ImageNet項目,號召民眾上傳圖像并標(biāo)注圖像內(nèi)容。2009年,ImageNet正式發(fā)布,包括了1400萬張圖片數(shù)據(jù),超過2萬個類別,為全球AI研究(神經(jīng)網(wǎng)絡(luò)訓(xùn)練)提供了強大支持。

圖片

李飛飛和ImageNet


2006年,谷歌公司推出了一種基于統(tǒng)計學(xué)習(xí)的語音識別技術(shù),該技術(shù)被廣泛應(yīng)用于語音助手、智能家居等領(lǐng)域。

2008年,谷歌在iPhone上發(fā)布了一款語音識別應(yīng)用,開啟了數(shù)字化語音助手(Siri、Alexa、Cortana)的浪潮。

2011年10月,蘋果推出語音助手Siri。

圖片

2011年,IBM的計算機沃森(Watson)在美國電視智力競賽節(jié)目“危險邊緣”中,擊敗兩位人類冠軍選手,展示出其在自然語言處理和知識推理方面的強大能力。

圖片

2012年,杰弗里·辛頓和他的學(xué)生伊利亞·蘇茨克沃(Ilya Sutskever)和亞歷克斯·克里切夫斯基(Alex Krizhevsky)參加了ImageNet大規(guī)模視覺識別挑戰(zhàn)賽。他們設(shè)計的深度神經(jīng)網(wǎng)絡(luò)模型AlexNet在這次競賽中以壓倒性優(yōu)勢獲得第一名,引起了業(yè)界轟動。

圖片

杰弗里·辛頓師徒三人


2012年,加拿大神經(jīng)學(xué)家團隊創(chuàng)造了一個具備簡單認知能力、有250萬個模擬“神經(jīng)元”的虛擬大腦Spaun,通過了最基本的智商測試。

2012年,谷歌“Google Brain”項目的研究人員吳恩達(Andrew Ng)、杰夫·迪恩(Jeff Dean)等人,搭建了一個神經(jīng)網(wǎng)絡(luò)(10億參數(shù)),用來訓(xùn)練對貓的識別。他們的訓(xùn)練數(shù)據(jù)是來自youtube的1000萬個貓臉圖片,用了1.6萬個CPU,整整訓(xùn)練了3天。

圖片

吳恩達


2012年7月,谷歌公司推出虛擬助手GoogleNow,即谷歌助手的前身。

2012年,谷歌公司正式發(fā)布谷歌知識圖譜Google Knowledge Graph。

2013年,辛頓師徒三人共同成立了一家名為DNNresearch的公司。后來,這家公司被谷歌以幾千萬美元的價格競購。

2013年,谷歌公司的托馬斯·米科洛夫(Tomas Mikolov)帶領(lǐng)研究團隊發(fā)表了論文《Efficient Estimation of Word Representations inVector Space(詞表示向量空間的有效估計)》,提出了Word2Vec。Word2Vec基于給定的語料庫,通過優(yōu)化后的訓(xùn)練模型,可以快速有效地將一個詞語表達成高維空間里的詞向量形式,為自然語言處理領(lǐng)域的應(yīng)用研究提供了新的工具。

2014年,谷歌公司收購了專注于深度學(xué)習(xí)和強化學(xué)習(xí)技術(shù)的人工智能公司——DeepMind公司。


2014年6月,一臺名為Eugene Goostman(尤金·古斯特曼)的聊天機器人通過了圖靈測試。

2014年,蒙特利爾大學(xué)博士生伊恩· 古德費洛(Ian Goodfellow),從博弈論中的“二人零和博弈”得到啟發(fā),提出了生成對抗網(wǎng)絡(luò)(GANs,Generative Adversarial Networks)。

圖片

伊恩· 古德費洛

2015年,Microsoft Research的何愷明(Kaiming He)等人提出的殘差網(wǎng)絡(luò)(ResNet),在ImageNet大規(guī)模視覺識別競賽中,獲得了圖像分類和物體識別的優(yōu)勝。

2015年1月,埃隆·馬斯克、斯蒂芬·霍金和史蒂夫·沃茲尼亞克等人在一封公開信上簽名,要求禁止開發(fā)人工智能武器。

2015年11月,谷歌公司開源了重要的深度學(xué)習(xí)框架Tensor Flow。

2015年12月,埃隆·馬斯克(Elon Musk)、薩姆·奧爾特曼(Sam Altman)、彼得·泰爾(Peter Thiel)、里德·霍夫曼(Reid Hoffman)等人在舊金山聯(lián)合成立了OpenAI公司。

圖片

2016年,谷歌提出聯(lián)邦學(xué)習(xí)方法,它在多個持有本地數(shù)據(jù)樣本的分散式邊緣設(shè)備或服務(wù)器上訓(xùn)練算法,而不交換其數(shù)據(jù)樣本。

2016年3月,DeepMind開發(fā)的人工智能圍棋程序AlphaGo(阿爾法狗),以4:1的總比分戰(zhàn)勝了世界圍棋冠軍李世石,震驚了全世界。

圖片

2016年2月,中國香港的漢森機器人公司(Hanson Robotics)推出了一款名為索菲亞(Sophia)的仿人機器人。它能通過圖像識別“看”東西,做出面部表情,并能使用人工智能進行交流。

2016年,微軟公司推出了小冰(Xiaoice)。這是一款利用自然語言處理和情感計算技術(shù)提供社交聊天服務(wù)的人工智能系統(tǒng)。

2017年1月,F(xiàn)acebook人工智能研究院開源了PyTorch。這是一個用于機器學(xué)習(xí)和深度學(xué)習(xí)的開源深度學(xué)習(xí)框架。

2017年5月,升級版的AlphaGo以3:0戰(zhàn)勝世界排名第一的中國圍棋棋手柯潔。

圖片

2017年10月18日,DeepMind團隊公布AlphaGo Zero。從空白狀態(tài)學(xué)起,只需3天就以100:0的戰(zhàn)績擊敗曾戰(zhàn)勝柯潔的AlphaGo系統(tǒng)。

2017年12月,Google機器翻譯團隊在行業(yè)頂級會議NIPS上,發(fā)表了重磅論文《Attention is all you need(你所需要的,就是注意力)》,提出只使用“自我注意力(Self Attention)”機制來訓(xùn)練自然語言模型——Transformer(轉(zhuǎn)換器、變壓器)。Transformer徹底改變了深度學(xué)習(xí)的發(fā)展方向。它不僅對序列到序列任務(wù)、機器翻譯和其它自然語言處理任務(wù)產(chǎn)生了深遠的影響,也為后來AIGC的崛起打下了堅實的基礎(chǔ)。

2018年5月,谷歌推出Google Duplex服務(wù),允許人工智能助手通過電話預(yù)約。

2018年6月,OpenAI發(fā)布了第一版的GPT系列模型——GPT-1。同時,他們還發(fā)表了論文《Improving Language Understanding by Generative Pre-training(通過生成式預(yù)訓(xùn)練改進語言理解)》。2019年和2020年,OpenAI接連發(fā)布了GPT-2和GPT-3。

2018年10月,谷歌發(fā)布了有3億參數(shù)的BERT(Bidirectional Encoder Representation from Transformers)模型,意思是“來自Transformers的雙向編碼表示”模型。

2019年,DeepMind公司開發(fā)了阿爾法星際爭霸(AlphaStar),這是一臺專門用于玩星際爭霸2游戲的人工智能系統(tǒng)。

圖片

2019年3月份,OpenAI正式宣布重組,成為一家"利潤上限(caped-profit)"的公司。7月,重組后的OpenAI拿到了微軟包括Azure云計算資源在內(nèi)的10億美金投資。微軟將作為"首選合作伙伴”,今后可獲得OpenAI技術(shù)成果的獨家授權(quán)。

2020年2月,微軟推出Turind Natural Language Generatio(T-NLG),這是一種生成式語言模型,是當(dāng)時最大的語言模型。

2020年6月,OpenAl發(fā)布了GPT-3語言模型。該模型通過預(yù)先訓(xùn)練的算法生成文本,并完成人類幾乎無法完成的語言任務(wù)。隨后,OpenAI發(fā)表了論文《Language Models are Few-Shot Learner》,闡述了大模型的各種新能力,而最重要的就是小樣本(few-shot)學(xué)習(xí)能力。

2020年6月,論文《Denoising Diffusion Probabilistic Models(去噪擴散概率模型,DDPM)》發(fā)表。這篇論文第一次把2015年誕生的Diffusion"擴散模型"用在了圖像生成上。不久之后,DDPM以及后續(xù)的Diffusion擴散模型就全面取代了GAN(生成式對抗網(wǎng)絡(luò)),成為了AI繪畫大模型的主流技術(shù)。

2020年11月30日,DeepMind公司宣布其研制的人工智能系統(tǒng)AlphaFold2可以精準(zhǔn)預(yù)測蛋白質(zhì)的3D結(jié)構(gòu),即解決了“蛋白質(zhì)折疊”問題,被認為是解決了生物領(lǐng)域50年來的重要難題,是人工智能的又一次巨大成功。

2021年1月,OpenAl發(fā)布了可從文本生成圖像的人工智能模型DALL-E。

2021年1月11日,谷歌公司發(fā)表論文《Switch Transformers:Scaling to Trillion Parameter Models with Simple and Efficient Sparsity》,提出了最新語言模型—Switch Transformer。這個模型以高達1.6萬億的參數(shù)量,成為歷史上首個萬億級語言模型。

2021年2月,Open AI開源了新的深度學(xué)習(xí)模型CLIP(Contrastive Language-Image Pre-Training)。同時,OpenAI還發(fā)布了自己基于CLIP的AI繪畫DALL-E 模型。

2021年6月30日,OpenAI和GitHub聯(lián)合發(fā)布了AI代碼補全工具GitHub Copilot。Copilot的AI技術(shù)核心正是OpenAI的新模型CodeX(隨后的8月份也對外發(fā)布了)。

2021年5月,谷歌公司引入了Language Model for Dialoque Applications(LaMDA)。這是一個大型語言模型,用于在對話中生成類似人類的反應(yīng)。

圖片

2021年10月,第一個開源的AI繪畫大模型Disco-Diffusion誕生。

2022年3月,OpenAI發(fā)布InstructGPT,同時發(fā)表論文《Training language models to follow instructions with human feedback(訓(xùn)練語言模型以遵循帶有人類反饋的指令)》。

2022年3月,AI繪畫工具Midjourney問世,創(chuàng)始人是David Holz(戴維·霍爾茲)。

2022年4月,OpenAI發(fā)布了AI繪畫大模型DALL-E 2。

2022年7月,DeepMind破解了幾乎所有已知的蛋白質(zhì)結(jié)構(gòu),其AlphaFold算法數(shù)據(jù)庫里包含了2億種已知蛋白質(zhì)結(jié)構(gòu)。

2022年8月,Stability AI開源了Stable Diffusion繪畫大模型的源代碼。這是一款基于文本描述生成圖像的文本到圖像工具。

2022年11月,OpenAI發(fā)布了基于GPT模型的人工智能對話應(yīng)用服務(wù)——ChatGPT(也可以理解為GPT-3.5),徹底引爆了全世界。

圖片

2023年1月,微軟宣布對OpenAl進行多年期巨額投資,數(shù)十億美元。

2023年2月7日,谷歌公司發(fā)布了由LaMDA提供支持的聊天機器人Bard。

2023年2月25日,Meta公司發(fā)布LLaMA模型并開源。7月19日,Meta公司發(fā)布了人工智能模型LLaMA 2的開源商用版本。

2023年3月15日,OpenAI發(fā)布了GPT-4。

2023年3月16日,百度發(fā)布文心一言。

2023年5月11日,谷歌正式開放超級AI大模型PaLM2。

2023年6月,英偉達市值突破1萬億美元。美股“七巨頭”(Magnificent 7,分別是:谷歌母公司Alphabet、亞馬遜、蘋果、Meta、微軟、英偉達和特斯拉)的股價開始不斷攀升。

2023年11月,首份人工智能監(jiān)管聲明《布萊切利宣言》發(fā)布。

2023年11月18日,OpenAI CEO山姆·奧特曼(Sam Altman)被開除,引發(fā)全網(wǎng)關(guān)注。22日,OpenAI官方推特宣布,Sam Altman回歸并重新?lián)蜲penAI CEO。

圖片

2023年12月6日,谷歌公司發(fā)布多模態(tài)大模型Gemini 1.0(雙子星)。

圖片

2024年2月15日,OpenAI發(fā)布人工智能文生視頻大模型Sora。

圖片

2024年5月14日,OpenAI舉行春季發(fā)布會,推出新旗艦?zāi)P虶PT-4o。

2024年7月23日,Meta發(fā)布LLAMA 3.1 405B開源人工智能模型。


(截止日期:2024年7月29日)



參考文獻:

1、《人工智能簡史》,尼克;

2、《人工智能發(fā)展簡史》孫凌云、孟辰燁、李澤?。?/span>

3、《人工智能 60 年技術(shù)簡史》,李理;

4、《深度學(xué)習(xí)簡史》,Keith D. Foote;

5、《人工智能發(fā)展史(從起步到磅礴)以及浪潮階段》,CSDN;

6、《從零啟程——人工智能簡史》,知乎;

7、《四張圖片道清AI大模型的發(fā)展史》,阿里云;

8、《GPT的背后,從命運多舛到顛覆世界,人工神經(jīng)網(wǎng)絡(luò)的跌宕80年》,孫睿晨;

9、百度百科、維基百科等。


責(zé)任編輯:武曉燕 來源: 鮮棗課堂
相關(guān)推薦

2009-03-31 18:52:07

2012-12-27 14:33:45

阿里云云計算

2010-10-21 16:13:26

2010-01-27 14:19:08

2014-12-29 09:30:16

SDN

2015-01-06 10:25:53

Android

2017-01-03 10:22:34

2012-01-04 09:36:43

2019-01-04 08:22:40

2015-04-08 11:33:42

2009-04-03 09:25:32

2009-01-03 18:41:03

LinuxSSDEMC

2010-01-14 19:44:33

云計算IBM大事記

2022-01-04 13:18:46

通信5G數(shù)據(jù)

2016-01-08 13:27:33

私有云OpenStack

2009-01-06 09:34:42

.NET2008Silverlight

2019-03-24 12:11:47

AI 數(shù)據(jù)人工智能

2018-02-05 00:25:05

2019-01-04 05:50:10

網(wǎng)絡(luò)安全信息泄露網(wǎng)絡(luò)攻擊

2023-12-12 11:23:37

點贊
收藏

51CTO技術(shù)棧公眾號