自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

Transformer拿下CV頂會(huì)大獎(jiǎng),微軟亞研獲ICCV 2021最佳論文

新聞
ICCV 2021 全部獎(jiǎng)項(xiàng)已經(jīng)公布,來(lái)自微軟亞洲研究院的研究者獲得 ICCV 2021 馬爾獎(jiǎng)(最佳論文);最佳學(xué)生論文獎(jiǎng)由蘇黎世聯(lián)邦理工學(xué)院、微軟研究者獲得。

  [[428694]]

10 月 11 日 - 10 月 17 日,原定于加拿大蒙特利爾舉辦的計(jì)算機(jī)視覺(jué)領(lǐng)域三大頂會(huì)之一——ICCV 2021,正在線(xiàn)上舉行。今天,大會(huì)全部獎(jiǎng)項(xiàng)已經(jīng)公布。

6 月中旬,ICCV 2021 官方公布了論文評(píng)審結(jié)果。據(jù)統(tǒng)計(jì),大會(huì)共接收了 6236 篇有效論文投稿,在首輪 desk reject 之后還有 6152 篇。

Transformer拿下CV頂會(huì)大獎(jiǎng),微軟亞研獲ICCV 2021最佳論文

7 月下旬,大會(huì)放出了接收論文列表,共有 1617 篇被接收,其中包括 210 篇 Oral 和 1412 篇 Poster 論文,接收率約為 25.9%。相較于 2019 年的 25%,ICCV 2021 的接收率略有上升。

在所有被接收的論文中,來(lái)自中國(guó)的論文數(shù)量占比最高,達(dá)到了 43.2%,約為第二位美國(guó)(23.6%)的兩倍。

Transformer拿下CV頂會(huì)大獎(jiǎng),微軟亞研獲ICCV 2021最佳論文

從接收論文的主題領(lǐng)域分布來(lái)看,前三位分別是:遷移 / 小樣本 / 無(wú)監(jiān)督學(xué)習(xí)、圖像與視頻合成、識(shí)別與分類(lèi)。

Transformer拿下CV頂會(huì)大獎(jiǎng),微軟亞研獲ICCV 2021最佳論文

在所有投稿中,各個(gè)主題領(lǐng)域的接收率如何?ICCV 官方也進(jìn)行了詳細(xì)的統(tǒng)計(jì):

Transformer拿下CV頂會(huì)大獎(jiǎng),微軟亞研獲ICCV 2021最佳論文

接下來(lái),介紹一下本屆大會(huì)的獲獎(jiǎng)信息。

最佳論文 - 馬爾獎(jiǎng)

來(lái)自微軟亞洲研究院的研究者獲得 ICCV 2021 馬爾獎(jiǎng)(最佳論文)。論文作者主要包括來(lái)自中國(guó)科學(xué)技術(shù)大學(xué)的劉澤、西安交通大學(xué)的林宇桐、微軟的曹越等人。

在 Swin Transformer 論文公開(kāi)沒(méi)多久之后,微軟官方就在 GitHub 上開(kāi)源了代碼和預(yù)訓(xùn)練模型,涵蓋圖像分類(lèi)、目標(biāo)檢測(cè)以及語(yǔ)義分割任務(wù)。目前,該項(xiàng)目已收獲 4600 星。

  • 獲獎(jiǎng)?wù)撐模篠win Transformer: Hierarchical Vision Transformer using Shifted Windows
  • 作者機(jī)構(gòu):微軟亞洲研究院
  • 論文地址:https://arxiv.org/pdf/2103.14030.pdf
  • 項(xiàng)目地址:https://github.com/microsoft/Swin-Transformer
Transformer拿下CV頂會(huì)大獎(jiǎng),微軟亞研獲ICCV 2021最佳論文

本文提出了一種新的 vision Transformer,即 Swin Transformer,它可以作為計(jì)算機(jī)視覺(jué)的通用骨干。相比之前的 ViT 模型,Swin Transformer 做出了以下兩點(diǎn)改進(jìn):

其一,引入 CNN 中常用的層次化構(gòu)建方式構(gòu)建分層 Transformer;

其二,引入局部性(locality)思想,對(duì)無(wú)重合的窗口區(qū)域內(nèi)進(jìn)行自注意力計(jì)算。

首先來(lái)看 Swin Transformer 的整體工作流,下圖 3a 為 Swin Transformer 的整體架構(gòu),圖 3b 為兩個(gè)連續(xù)的 Swin Transformer 塊。

Transformer拿下CV頂會(huì)大獎(jiǎng),微軟亞研獲ICCV 2021最佳論文

該研究的亮點(diǎn)在于利用移動(dòng)窗口對(duì)分層 Transformer 的表征進(jìn)行計(jì)算。通過(guò)將自注意力計(jì)算限制在不重疊的局部串口,同時(shí)允許跨窗口連接。這種分層結(jié)構(gòu)可以靈活地在不同尺度上建模,并具有圖像大小的線(xiàn)性計(jì)算復(fù)雜度。下圖 2 為在 Swin Transformer 架構(gòu)中利用移動(dòng)窗口計(jì)算自注意力的工作流:

Transformer拿下CV頂會(huì)大獎(jiǎng),微軟亞研獲ICCV 2021最佳論文

模型本身具有的特性使其在一系列視覺(jué)任務(wù)上都實(shí)現(xiàn)了頗具競(jìng)爭(zhēng)力的性能表現(xiàn)。其中,在 ImageNet-1K 數(shù)據(jù)集上實(shí)現(xiàn)了 86.4% 的圖像分類(lèi)準(zhǔn)確率、在 COCO test-dev 數(shù)據(jù)集上實(shí)現(xiàn)了 58.7% 的目標(biāo)檢測(cè) box AP 和 51.1% 的 mask AP。目前在 COCO minival 和 COCO test-dev 兩個(gè)數(shù)據(jù)集上,Swin-L(Swin Transformer 的變體)在目標(biāo)檢測(cè)和實(shí)例分割任務(wù)中均實(shí)現(xiàn)了 SOTA。

Transformer拿下CV頂會(huì)大獎(jiǎng),微軟亞研獲ICCV 2021最佳論文

此外,在 ADE20K val 和 ADE20K 數(shù)據(jù)集上,Swin-L 也在語(yǔ)義分割任務(wù)中實(shí)現(xiàn)了 SOTA。

最佳學(xué)生論文獎(jiǎng)

  • 獲獎(jiǎng)?wù)撐模篜ixel-Perfect Structure-from-Motion with Featuremetric Refinement
  • 作者機(jī)構(gòu):蘇黎世聯(lián)邦理工學(xué)院、微軟
  • 論文地址:https://arxiv.org/pdf/2108.08291.pdf
  • 項(xiàng)目地址:github.com/cvg/pixel-perfect-sfm (http://github.com/cvg/pixel-perfect-sfm)
Transformer拿下CV頂會(huì)大獎(jiǎng),微軟亞研獲ICCV 2021最佳論文

論文摘要:在多個(gè)視圖中尋找可重復(fù)的局部特征是稀疏 3D 重建的基礎(chǔ)。經(jīng)典的圖像匹配范式一次性檢測(cè)每個(gè)圖像的全部關(guān)鍵點(diǎn)(keypoint),這可能會(huì)產(chǎn)生定位不佳的特征,使得最終生成的幾何形狀出現(xiàn)較大錯(cuò)誤。研究者通過(guò)直接對(duì)齊來(lái)自多個(gè)視圖的低級(jí)圖像信息來(lái)細(xì)化運(yùn)動(dòng)恢復(fù)結(jié)構(gòu)(structure-from-motion,SFM)的兩個(gè)關(guān)鍵步驟:首先在任何幾何估計(jì)之前調(diào)整初始關(guān)鍵點(diǎn)位置,然后細(xì)化點(diǎn)和相機(jī)姿態(tài)作為一個(gè)后處理。這種改進(jìn)對(duì)大的檢測(cè)噪聲和外觀變化具有穩(wěn)健性,因?yàn)樗谏窠?jīng)網(wǎng)絡(luò)預(yù)測(cè)的密集特征優(yōu)化了特征度量誤差。這顯著提高了相機(jī)姿態(tài)和場(chǎng)景幾何的準(zhǔn)確性,并適用于各種關(guān)鍵點(diǎn)檢測(cè)器、具有挑戰(zhàn)性的觀看條件和現(xiàn)成的(off-the-shelf)深度特征。該系統(tǒng)可以輕松擴(kuò)展到大型圖像集合,從而實(shí)現(xiàn)像素完美的大規(guī)模眾包定位。該方法現(xiàn)已封裝為 SfM 軟件 COLMAP 的附加組件。

細(xì)化幾何原本是一種局部操作,但該研究表明局部密集像素可以起到較大的作用。SfM 通常盡可能早地丟棄圖像信息,該研究借助直接對(duì)齊用幾個(gè)步驟替代了 SfM。下圖 2 是該方法的概覽:

Transformer拿下CV頂會(huì)大獎(jiǎng),微軟亞研獲ICCV 2021最佳論文

最佳論文榮譽(yù)提名獎(jiǎng)

今年有四篇論文獲得 ICCV 2021 最佳論文榮譽(yù)提名獎(jiǎng)。

  • 論文 1:Mip-NeRF: A Multiscale Representation for Anti-Aliasing Neural Radiance Fields
  • 作者機(jī)構(gòu):谷歌、加州大學(xué)伯克利分校
  • 論文地址:https://arxiv.org/pdf/2103.13415.pdf
Transformer拿下CV頂會(huì)大獎(jiǎng),微軟亞研獲ICCV 2021最佳論文

論文摘要:NeRF(neural radiance fields)使用的渲染過(guò)程以每像素單個(gè)光線(xiàn)對(duì)場(chǎng)景進(jìn)行采樣,因此當(dāng)訓(xùn)練或測(cè)試圖像以不同分辨率觀察場(chǎng)景內(nèi)容時(shí),可能會(huì)產(chǎn)生過(guò)度模糊的渲染。該研究提出了 mip-NeRF,它以連續(xù)值的比例表示場(chǎng)景。他們通過(guò)高效地渲染消除反鋸齒圓錐錐體( anti-aliased conical frustums)取代光線(xiàn),mip NeRF 減少了混疊瑕疵(aliasing artifacts),并顯著提高了其表示精細(xì)細(xì)節(jié)的能力,同時(shí)比 NeRF 快 7%,而大小僅為 NeRF 的一半。

與 NeRF 相比,mip NeRF 在數(shù)據(jù)集上降低了 17% 的平均錯(cuò)誤率,在具有挑戰(zhàn)性的多尺度變體上降低了 60% 的平均錯(cuò)誤率。此外,Mip NeRF 還能夠在多尺度數(shù)據(jù)集上與超采樣 NeRF 的精度相匹配,同時(shí)速度快 22 倍。

  • 論文 2:OpenGAN: Open-Set Recognition via Open Data Generation
  • 作者機(jī)構(gòu):卡內(nèi)基梅隆大學(xué)
  • 論文地址:https://arxiv.org/pdf/2104.02939.pdf
Transformer拿下CV頂會(huì)大獎(jiǎng),微軟亞研獲ICCV 2021最佳論文

論文摘要:真實(shí)世界的機(jī)器學(xué)習(xí)系統(tǒng)需要分析新的測(cè)試數(shù)據(jù),而這些測(cè)試數(shù)據(jù)與訓(xùn)練數(shù)據(jù)不同。在 K-way 分類(lèi)中,這被清晰地表述為開(kāi)集識(shí)別,其核心是區(qū)分 K 個(gè)閉集類(lèi)之外的開(kāi)集數(shù)據(jù)的能力。關(guān)于開(kāi)集的鑒別,有兩種思想:1) 利用離群(outlier)數(shù)據(jù)作為開(kāi)集,對(duì)開(kāi) - 閉(open-vs-closed)二進(jìn)制鑒別器分別進(jìn)行鑒別學(xué)習(xí);2) 使用 GAN 對(duì)閉集數(shù)據(jù)分布進(jìn)行無(wú)監(jiān)督學(xué)習(xí),并將其鑒別器作為開(kāi)集似然函數(shù)。然而,前者不能很好地泛化到不同的開(kāi)放測(cè)試數(shù)據(jù),而后者由于 GAN 的訓(xùn)練不穩(wěn)定效果不佳。

該研究提出了 OpenGAN,它通過(guò)將每種方法與幾種技術(shù)見(jiàn)解相結(jié)合來(lái)解決每種方法的局限性。首先,他們展示了在一些真實(shí)的離群數(shù)據(jù)上,精心選擇的 GAN 鑒別器已經(jīng)達(dá)到了 SOTA 水平。其次,該研究用對(duì)抗性合成的假數(shù)據(jù)擴(kuò)充可用的真實(shí)開(kāi)集示例集。第三,也是最重要的,該研究在 K-way 網(wǎng)絡(luò)計(jì)算的特征上可以構(gòu)建鑒別器。大量實(shí)驗(yàn)表明,OpenGAN 顯著優(yōu)于先前的開(kāi)集方法。

  • 論文 3:Viewing Graph Solvability via Cycle Consistency
  • 作者機(jī)構(gòu):特倫托大學(xué)等
  • 論文地址:https://openaccess.thecvf.com/content/ICCV2021/papers/Arrigoni_Viewing_Graph_Solvability_via_Cycle_Consistency_ICCV_2021_paper.pdf
Transformer拿下CV頂會(huì)大獎(jiǎng),微軟亞研獲ICCV 2021最佳論文

論文摘要:在運(yùn)動(dòng)恢復(fù)結(jié)構(gòu)(structure-from-motion,SFM)中,視圖圖(viewing graph)是一種頂點(diǎn)與相機(jī)對(duì)應(yīng)、邊代表基本矩陣的圖。該研究提供了一種新的公式和算法,用于確定視圖圖是否可解(即它唯一地確定一組投影相機(jī))。已知的理論條件要么不能完全描述所有視圖圖的可解性,要么涉及求解含大量未知數(shù)的多項(xiàng)式方程組而非常難以計(jì)算。該論文的主要成果是提出一種利用循環(huán)一致性來(lái)減少未知數(shù)的方法。該研究通過(guò)以下 3 種方法來(lái)進(jìn)一步理解可解性:(i) 完成對(duì)最多 9 個(gè)節(jié)點(diǎn)的所有先前未定最小圖的分類(lèi);(ii) 將實(shí)際可解性測(cè)試擴(kuò)展到具有最多 90 個(gè)節(jié)點(diǎn)的最小圖;(iii) 通過(guò)證明有限可解性不等于可解性明確回答了一個(gè)開(kāi)放型研究問(wèn)題。最后,該研究以一個(gè)真實(shí)數(shù)據(jù)的實(shí)驗(yàn)表明在實(shí)際情況中出現(xiàn)了無(wú)解的圖。

  • 論文 4:Common Objects in 3D: Large-Scale Learning and Evaluation of Real-life 3D Category Reconstruction
  • 作者機(jī)構(gòu):Facebook AI 研究院、倫敦大學(xué)學(xué)院
  • 論文地址:https://arxiv.org/pdf/2109.00512.pdf
Transformer拿下CV頂會(huì)大獎(jiǎng),微軟亞研獲ICCV 2021最佳論文

論文摘要:由于缺乏真實(shí)的以類(lèi)別為中心的 3D 標(biāo)注數(shù)據(jù),傳統(tǒng)的 3D 物體類(lèi)別學(xué)習(xí)方法,主要是在合成數(shù)據(jù)集上進(jìn)行訓(xùn)練和評(píng)估。該研究的主要目標(biāo)是通過(guò)收集與現(xiàn)有合成數(shù)據(jù)類(lèi)似的真實(shí)世界數(shù)據(jù)來(lái)促進(jìn)該領(lǐng)域的進(jìn)展。因此,這項(xiàng)工作的主要貢獻(xiàn)是一個(gè)名為「Common Objects in 3D」的大規(guī)模數(shù)據(jù)集,,其中含有真實(shí)的多視角物體類(lèi)別圖像,并附有相機(jī)姿態(tài)和 3D 點(diǎn)云標(biāo)注真值。該數(shù)據(jù)集包含來(lái)自近 19,000 個(gè)視頻的 150 萬(wàn)幀捕獲了 50 個(gè) MS-COCO 類(lèi)別的物體,因此它在類(lèi)別和物體的數(shù)量方面都比其他數(shù)據(jù)集具有明顯優(yōu)勢(shì)。研究者利用這個(gè)新數(shù)據(jù)集對(duì)幾種新視圖合成和以類(lèi)別為中心的 3D 重建方法進(jìn)行了大規(guī)模評(píng)估。此外,該研究還貢獻(xiàn)了 NerFormer——一種新穎的神經(jīng)渲染方法,利用強(qiáng)大的 Transformer 來(lái)重建僅給定少量視圖的物體。

PAMI TC 獎(jiǎng)

今年 ICCV 上的 PAMI 獎(jiǎng)依舊包括四大獎(jiǎng)項(xiàng),分別是 Helmholtz 獎(jiǎng)、Everingham 獎(jiǎng)、Azriel Rosenfeld 終身成就獎(jiǎng)和杰出研究者獎(jiǎng)。

PAMI 是 IEEE 旗下的期刊,是模式識(shí)別和機(jī)器學(xué)習(xí)領(lǐng)域最重要的學(xué)術(shù)性匯刊之一,有著很高的影響因子和排名。

Helmholtz 獎(jiǎng)

Helmholtz 獎(jiǎng)項(xiàng)名稱(chēng)來(lái)源于 19 世紀(jì)的物理、生理學(xué)家 Hermann von Helmholtz,旨在獎(jiǎng)勵(lì)對(duì)計(jì)算機(jī)視覺(jué)領(lǐng)域做出重要貢獻(xiàn)的工作,頒發(fā)對(duì)象是十年前對(duì)計(jì)算機(jī)視覺(jué)領(lǐng)域產(chǎn)生重大影響的論文。

Transformer拿下CV頂會(huì)大獎(jiǎng),微軟亞研獲ICCV 2021最佳論文

今年共有 3 篇論文獲得了 Helmholtz 獎(jiǎng),分別是:

  • 論文 1:《ORB: An efficient alternative to SIFT or SURF》
  • 論文鏈接:https://ieeexplore.ieee.org/document/6126544
  • 論文 2:《HMDB: A large video database for human motion recognition》
  • 論文鏈接:https://ieeexplore.ieee.org/document/6126543
  • 論文 3:《DTAM: Dense tracking and mapping in real-time》
  • 論文鏈接:https://ieeexplore.ieee.org/document/6126513

Everingham 獎(jiǎng)

Everingham 獎(jiǎng)的設(shè)立初衷是紀(jì)念計(jì)算機(jī)視覺(jué)領(lǐng)域?qū)<?Mark Everingham 并激勵(lì)后來(lái)者在計(jì)算機(jī)視覺(jué)領(lǐng)域做出更多貢獻(xiàn)。頒獎(jiǎng)對(duì)象包括為計(jì)算機(jī)視覺(jué)社區(qū)其他成員做出巨大貢獻(xiàn)的無(wú)私研究者或研究團(tuán)隊(duì)。

本次獲得 Everingham 獎(jiǎng)項(xiàng)的分別是 Detectron 目標(biāo)檢測(cè)和分割軟件團(tuán)隊(duì)和 KITTI 視覺(jué)基準(zhǔn)團(tuán)隊(duì)。

Transformer拿下CV頂會(huì)大獎(jiǎng),微軟亞研獲ICCV 2021最佳論文

Detectron 目標(biāo)檢測(cè)和分割軟件團(tuán)隊(duì)成員包括 Ross Girshick, Yuxin Wu, llija Radosavovic, Alexander Kirillov, Georgia Gkioxari,Francisco Massa,Wan-Yen Lo,Piotr Dollar, 何愷明和其他開(kāi)源貢獻(xiàn)者。

Transformer拿下CV頂會(huì)大獎(jiǎng),微軟亞研獲ICCV 2021最佳論文

KITTI 視覺(jué)基準(zhǔn)團(tuán)隊(duì)成員包括 Andreas Geiger, Philip Lenz, Christoph Stiller, Raquel Urtasun 等。

Azriel Rosenfeld 終身成就獎(jiǎng)

Azriel Rosenfeld 終身成就獎(jiǎng)是為了紀(jì)念已故的計(jì)算機(jī)科學(xué)家和數(shù)學(xué)家 Azriel Rosenfeld 教授,旨在表彰在長(zhǎng)期職業(yè)生涯中為計(jì)算機(jī)視覺(jué)領(lǐng)域作出突出貢獻(xiàn)的杰出研究者。

今年的 Azriel Rosenfeld 終身成就獎(jiǎng)?lì)C給了 UC 伯克利電氣工程與計(jì)算機(jī)科學(xué)系 NEC 特聘教授 Ruzena Bajcsy。

Transformer拿下CV頂會(huì)大獎(jiǎng),微軟亞研獲ICCV 2021最佳論文

Ruzena Bajcsy 在斯坦福大學(xué)獲得了計(jì)算機(jī)科學(xué)博士學(xué)位。從 1972 年到 2001 年,Ruzena Bajcsy 是賓夕法尼亞大學(xué)計(jì)算機(jī)與信息科學(xué)系的教授,并于 1978 年建立了通用機(jī)器人、自動(dòng)化、傳感和感知 (GRASP) 實(shí)驗(yàn)室。28 年間,她一直從事機(jī)器人研究,包括計(jì)算機(jī)視覺(jué)、觸覺(jué)感知以及一般的系統(tǒng)識(shí)別問(wèn)題。

在加入 UC 伯克利之前,她是美國(guó)國(guó)家科學(xué)基金會(huì)計(jì)算機(jī)與信息科學(xué)與工程理事會(huì)的負(fù)責(zé)人(1999-2001 年)。

Ruzena Bajcsy 美國(guó)國(guó)家工程院 (1997) 和美國(guó)國(guó)家醫(yī)學(xué)科學(xué)院 (1995) 的成員,以及 ACM Fellow 和 AAAI Fellow。2002 年 11 月,她被《探索》雜志評(píng)為 50 位最重要的女性之一。由于在機(jī)器人和自動(dòng)化領(lǐng)域的貢獻(xiàn),Ruzena Bajcsy 獲得了本杰明富蘭克林計(jì)算機(jī)和認(rèn)知科學(xué)獎(jiǎng)?wù)拢?009 年)和 IEEE 機(jī)器人與自動(dòng)化獎(jiǎng)(2013 年)。

杰出研究者獎(jiǎng)

基于主要研究貢獻(xiàn)及對(duì)其他研究的激發(fā)影響等考量原則,杰出研究者獎(jiǎng)旨在獎(jiǎng)勵(lì)對(duì)計(jì)算機(jī)視覺(jué)發(fā)展作出重大貢獻(xiàn)的研究者。

今年的杰出研究者獎(jiǎng)獲得者為 Pietro Perona 和 Cordelia Schmid。

Transformer拿下CV頂會(huì)大獎(jiǎng),微軟亞研獲ICCV 2021最佳論文

Pietro Perona 是加州理工學(xué)院教授,他以計(jì)算機(jī)視覺(jué)領(lǐng)域的研究成果著名,同時(shí)也是加州理工學(xué)院計(jì)算機(jī)視覺(jué)小組的負(fù)責(zé)人。

Cordelia Schmid 是法國(guó)國(guó)家信息與自動(dòng)化研究所(INRIA)的 THOTH 項(xiàng)目組負(fù)責(zé)人。她在 2012 年入選 IEEE Fellow,以表彰其在大規(guī)模圖像檢索、分類(lèi)和目標(biāo)檢測(cè)方面的貢獻(xiàn)。2020 年,Cordelia Schmid 獲得了 Milner 獎(jiǎng)。

 

 

 

責(zé)任編輯:張燕妮 來(lái)源: 機(jī)器之心Pro
相關(guān)推薦

2021-09-02 10:15:50

計(jì)算平臺(tái)MaxCompute 阿里云

2021-08-17 14:47:31

架構(gòu)模型數(shù)據(jù)

2023-10-05 12:28:41

AI論文

2024-06-19 11:47:10

2010-07-13 17:30:00

微軟Azure

2023-04-03 09:56:22

模型系統(tǒng)

2021-07-24 10:09:00

計(jì)算機(jī)AI 技術(shù)

2023-09-01 14:49:09

AI微軟

2022-12-19 14:39:29

機(jī)器人論文

2011-11-03 09:29:35

華為Small Cell

2021-08-13 14:54:16

開(kāi)源技術(shù) 開(kāi)發(fā)

2024-12-04 12:10:40

2021-07-19 15:02:48

機(jī)器人人工智能算法

2013-10-31 11:19:09

微軟語(yǔ)音翻譯手語(yǔ)翻譯

2015-07-16 16:07:16

聯(lián)絡(luò)中心最佳全媒體解決方案大獎(jiǎng)華為

2023-12-03 23:01:49

算法研究

2023-06-20 09:27:09

微軟研究

2024-07-17 16:12:22

2021-08-17 14:57:01

數(shù)據(jù)論文 技術(shù)

2024-11-15 14:00:00

AI論文
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)