自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

騰訊云答治茜:騰訊云國內(nèi)率先推出CDN智能計算服務(wù)

企業(yè)動態(tài)
4月12日消息,在今天舉辦的2017亞太CDN峰會上,騰訊云互聯(lián)網(wǎng)行業(yè)總經(jīng)理答治茜作了題為《CDN的智能計算時代》主題演講。

4月12日消息,在今天舉辦的2017亞太CDN峰會上,騰訊云互聯(lián)網(wǎng)行業(yè)總經(jīng)理答治茜作了題為《CDN的智能計算時代》主題演講。答治茜認為,隨著人工智能時代的到來,CDN亟需進行技術(shù)的快速變革,在價格戰(zhàn)之后,CDN行業(yè)將進入技術(shù)差異化競爭時代,他認為CDN將全面進入智能計算時代,騰訊云已經(jīng)在這方面率先進行嘗試。

[[188325]]

圖為:騰訊云互聯(lián)網(wǎng)行業(yè)總經(jīng)理答治茜

2016年騰訊云在亞太CDN峰會上提出了云+CDN的概念,騰訊云認為CDN不再是單純的在做內(nèi)容緩存、分發(fā)一些職責(zé),答治茜認為未來一定是云和CDN融合發(fā)展的時代。他表示,去年騰訊云提云+CDN概念的時候也是看到了行業(yè)這一趨勢,雖然從騰訊云過往的判斷來看,未來一定是融合,一定是云和CDN融合發(fā)展的時代,但究竟概念該怎么去做、該怎么落地。騰訊云這一年沿著這條道路堅定不移的做一些探索。

今年騰訊云也帶來了一些在云+CDN方面的嘗試和思考,并且在觀察去年熱點事件中得到一些結(jié)論,我們認為CDN將會進入智能計算時代:

***是隨著直播的發(fā)展,騰訊云過往CDN單純流量的分發(fā)類已經(jīng)遠遠不能滿足直播的需求,比如假如說現(xiàn)在有十萬個主播的話,對數(shù)據(jù)中心資源的需求將會比過去大好多倍,大概有上千臺的服務(wù)器需要做類似于轉(zhuǎn)碼、截圖、錄制、鑒黃等等這樣一些計算的需求。隨著未來應(yīng)用中類似于互動直播場景的出現(xiàn),大量的轉(zhuǎn)碼需求也隨之出現(xiàn),不僅僅是過往流量業(yè)務(wù)的不斷增長,而是隨著流量業(yè)務(wù)的蓬勃發(fā)展,相應(yīng)也帶出了很大量的計算類的需求。

第二是隨著AI基礎(chǔ)算法的完備和完善,在圖像、音頻和自然語言處理這方面的夯實,騰訊云看到AI的實際應(yīng)用場景也在為企業(yè)的服務(wù),包括也進入了終端消費者的場景。從過往一年的歷史來看,騰訊云在AI這塊的市場份額、規(guī)模同時增長了大概5-6倍,在AI增長的同時也帶來了大量的計算類的需求。

從整個行業(yè)發(fā)展的熱點和趨勢來看,隨著上層應(yīng)用的越來越多、越來越完備,下面計算類不僅產(chǎn)生了大量的需求,在帶寬類的需求產(chǎn)生的同時,計算的資源生產(chǎn)也非常非常大,呈指數(shù)型的爆發(fā)增長。這種計算資源的增長引來的矛盾是什么呢?

行業(yè)的發(fā)展對計算資源的苛求會越來越旺盛,但同一時間CDN的整個網(wǎng)絡(luò)和基礎(chǔ)設(shè)施的計算資源是有大量冗余的。如何解決矛盾,云企業(yè)怎樣調(diào)和這兩者之間的均衡度,騰訊云在這一年里做了很多嘗試:

1․ 視頻直播

視頻直播整個行業(yè)的做法都是由邊緣節(jié)點接入,流量回歸到數(shù)據(jù)中心,在數(shù)據(jù)中心里完成推流、轉(zhuǎn)碼和截圖的過程,***分發(fā)到觀眾。目前騰訊云做了一些優(yōu)化,現(xiàn)在的模式變成了主播產(chǎn)生的數(shù)據(jù),舉個典型的場景,比如同城直播場景。騰訊云現(xiàn)在的做法是主播產(chǎn)生的數(shù)據(jù)接入邊緣節(jié)點之后直接做推流和轉(zhuǎn)碼的工作,把原來數(shù)據(jù)中心里邊重的操作下沉到邊緣節(jié)點去,這樣做帶來的好處有兩點:首先,邊緣節(jié)點和數(shù)據(jù)中心之間的穿越流量將會變的比這種模式顯而易見的會下降很多。其次、過往騰訊云一直提現(xiàn)在行業(yè)的趨勢對于計算資源的苛求會越來越明顯,同時CDN的網(wǎng)絡(luò)沉淀了大量的沉睡的計算資源,這種做法可以讓騰訊云可以同時滿足成本的下降,穿越流量的下降,數(shù)據(jù)中心資源在合理范圍內(nèi),同時邊緣節(jié)點的沉睡資源也可以喚醒。

2․ 智能鑒黃

騰訊云每天大概有超過十億次的鑒黃的請求,過往騰訊云對待鑒黃的請求基本上是用戶在用戶端產(chǎn)生UGC的內(nèi)容,內(nèi)容直接推到數(shù)據(jù)中心做計算類鑒黃。過往的模式帶來的問題有幾個,首先用戶產(chǎn)生的UGC內(nèi)容中,99%的內(nèi)容都是正常內(nèi)容,只有1%的內(nèi)容是違規(guī)內(nèi)容,騰訊云因為這種極少量的不正常內(nèi)容要消耗大量的資源做計算。其次,對于大部分的正常內(nèi)容,騰訊云要做出判斷只是需要非常輕量級的計算就可以了。所以過往騰訊云把所有的請求都推到數(shù)據(jù)中心去做,現(xiàn)在進行了優(yōu)化,基本上是分兩層,***層是在邊緣節(jié)點做極速的鑒黃模型旨在回答,騰訊云準確的告知這一定是個正常內(nèi)容,90%對話請求已經(jīng)被處理。當騰訊云在邊緣節(jié)點上判斷不出來的時候,才會把可疑的內(nèi)容推到數(shù)據(jù)中心里去極優(yōu)鑒黃模型,做更深度的計算。騰訊云有運營的數(shù)據(jù)表明,通過這樣優(yōu)化之后會把90%的請求都擋在邊緣節(jié)點去完成。

3․ 智能物聯(lián)

騰訊云認為未來有幾個最熱的潮流,除了大數(shù)據(jù),除了AI,還有正在發(fā)生的熱點:萬物互聯(lián)。在萬物互聯(lián)的時代,騰訊云CDN應(yīng)該做什么樣的準備?答治茜講了騰訊云的考量。

現(xiàn)在或者未來,萬物互聯(lián)的時代有可能聯(lián)到數(shù)據(jù)中心的終端是百億級的,到萬物互聯(lián)的時代,作為個體有十個設(shè)備,到智能家庭的設(shè)備數(shù)字可能是幾百億級別。百億級的設(shè)備并不會實時的產(chǎn)生有效數(shù)據(jù),而是有大量的空閑連接和空閑設(shè)備,這種大量的空閑連接和空閑設(shè)備完全回到數(shù)據(jù)中心,路由層面是解決不了的。但是CDN天生可以做這樣場景的應(yīng)對,因為CDN本身是分散的,幾百個節(jié)點,每個節(jié)點都可以去接入和管理設(shè)備的連接。連接上來之后把有用的、真正產(chǎn)生價值的數(shù)據(jù)合并了匯聚之后再送給數(shù)據(jù)中心,這一點CDN是有天然的應(yīng)對百億級物聯(lián)設(shè)備連接挑戰(zhàn)。

騰訊云一直在探討CDN是純的緩存或者流量的業(yè)務(wù),這是上層的應(yīng)用決定的。那時候無論web1.0、2.0還是PC時代還是移動互聯(lián)網(wǎng)時代,對內(nèi)容的獲取都希望有更好的體驗。未來無論是物聯(lián)的時代、AI時代,整個場景都發(fā)生變化了,大家不僅是對流量的訴求、不僅是對速度的訴求,而是有大量的設(shè)備、大量學(xué)習(xí)的任務(wù)、大量計算的任務(wù)。

答治茜認為,未來有三大類特征的計算會搬遷或者會移動到邊緣計算上來。

1․ 有區(qū)域性計算特征的,直播里的轉(zhuǎn)碼或者錄制有區(qū)域性計算特征的計算場景,更適合用邊緣網(wǎng)絡(luò)去完成和解決。

2․ 跟深度學(xué)習(xí)相關(guān)的,但是不依賴于大量的歷史陳舊數(shù)據(jù),只依賴于深度計算學(xué)習(xí)到的一些模型數(shù)據(jù),比如鑒黃場景。

3․ 萬物互聯(lián)時代對上百億級連接的處理,對空閑連接的分散,對無效請求的過濾,這樣一些場景會移動到邊緣節(jié)點上來。

答治茜認為,單純的數(shù)據(jù)中心的發(fā)展、單純CDN的發(fā)展已經(jīng)遠遠不能滿足行業(yè)對于計算、對于傳輸、對于海量的連接、對于海量請求的處理的需求,未來一定是云和CDN的協(xié)同發(fā)展,或者說CDN就是云計算的一部分。

責(zé)任編輯:xiejuan 來源: 51CTO
相關(guān)推薦

2016-04-28 14:03:39

騰訊云計算CDN

2016-12-16 11:32:44

2015-01-06 16:17:49

騰訊云Docker開源

2017-02-21 10:41:55

騰訊云Intel

2017-04-26 14:15:35

騰訊云

2016-09-29 17:56:51

騰訊云微信智能語音

2010-05-09 23:22:26

云計算騰訊

2013-11-13 11:31:33

騰訊云云計算宕機

2017-04-26 15:07:56

騰訊云

2019-12-11 18:38:56

騰訊云數(shù)據(jù)智能

2021-03-10 18:33:34

騰訊云原生開源

2015-03-27 09:52:06

騰訊CDN/CDN

2015-01-05 14:13:44

騰訊云車管所

2017-03-15 12:03:31

騰訊云25G網(wǎng)卡云服務(wù)器

2017-01-20 14:41:33

騰訊云

2016-03-30 10:03:50

2014-10-30 14:08:36

2015-01-06 15:24:39

騰訊云
點贊
收藏

51CTO技術(shù)棧公眾號