自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

首個人體動捕基模型面世!SMPLer-X:橫掃七大榜單

人工智能 新聞
最近,來自南洋理工大學(xué)S-Lab、商湯科技、上海人工智能實驗室、東京大學(xué)和IDEA研究院的研究人員首次提出針對人體全身姿態(tài)與體型估計任務(wù)的動捕大模型SMPLer-X。

人體全身姿態(tài)與體型估計(EHPS, Expressive Human Pose and Shape estimation)雖然目前已經(jīng)取得了非常大研究進(jìn)展,但當(dāng)下最先進(jìn)的方法仍然受限于有限的訓(xùn)練數(shù)據(jù)集。

最近,來自南洋理工大學(xué)S-Lab、商湯科技、上海人工智能實驗室、東京大學(xué)和IDEA研究院的研究人員首次提出針對人體全身姿態(tài)與體型估計任務(wù)的動捕大模型SMPLer-X。該工作使用來自不同數(shù)據(jù)源的多達(dá)450萬個實例對模型進(jìn)行訓(xùn)練,在7個關(guān)鍵榜單上均刷新了最佳性能。

SMPLer-X除了常見的身體動作捕捉,還能輸出面部和手部動作,甚至對體型做出估計。

圖片

論文鏈接:https://arxiv.org/abs/2309.17448

項目主頁:https://caizhongang.github.io/projects/SMPLer-X/

憑借大量數(shù)據(jù)和大型模型,SMPLer-X在各種測試和榜單中表現(xiàn)出強大的性能,即使在沒有見過的環(huán)境中也具有出色的通用性:

1. 在數(shù)據(jù)擴展方面,研究人員對32個3D人體數(shù)據(jù)集進(jìn)行了系統(tǒng)的評估與分析,為模型訓(xùn)練提供參考;

2. 在模型縮放方面,利用視覺大模型來研究該任務(wù)中增大模型參數(shù)量帶來的性能提升;

3. 通過微調(diào)策略可以將SMPLer-X通用大模型轉(zhuǎn)變?yōu)閷S么竽P停蛊淠軌驅(qū)崿F(xiàn)進(jìn)一步的性能提升。

總而言之,SMPLer-X探索了數(shù)據(jù)縮放與模型縮放(圖1),對32個學(xué)術(shù)數(shù)據(jù)集進(jìn)行排名,并在其450萬個實例上完成了訓(xùn)練,在7個關(guān)鍵榜單(如AGORA、UBody、EgoBody和EHF)上均刷新了最佳性能。

Figure 1 增大數(shù)據(jù)量和模型參數(shù)量在降低關(guān)鍵榜單(AGORA、UBody、EgoBody、3DPW 和 EHF)的平均主要誤差(MPE)方面都是有效的

現(xiàn)有3D人體數(shù)據(jù)集的泛化性研究

研究人員對32個學(xué)術(shù)數(shù)據(jù)集進(jìn)行了排名:為了衡量每個數(shù)據(jù)集的性能,需要使用該數(shù)據(jù)集訓(xùn)練一個模型,并在五個評估數(shù)據(jù)集上評估模型:AGORA、UBody、EgoBody、3DPW和EHF。

表中還計算了平均主要誤差(Mean Primary Error, MPE),以便于在各個數(shù)據(jù)集之間進(jìn)行簡單比較。

從數(shù)據(jù)集泛化性研究中得到的啟示

從大量數(shù)據(jù)集的分析(圖3)中,可以得出以下四點結(jié)論:

1. 關(guān)于單一數(shù)據(jù)集的數(shù)據(jù)量,10萬個實例數(shù)量級的數(shù)據(jù)集用于模型訓(xùn)練可以得到較高的性價比;

2. 關(guān)于數(shù)據(jù)集的采集場景,In-the-wild數(shù)據(jù)集效果最好,如果只能室內(nèi)采集,需要避免單一場景以提升訓(xùn)練效果;

3. 關(guān)于數(shù)據(jù)集的采集,數(shù)據(jù)集排名前三中有兩個是生成數(shù)據(jù)集,生成數(shù)據(jù)近年來展現(xiàn)出了強大的性能。

4. 關(guān)于數(shù)據(jù)集的標(biāo)注,偽標(biāo)簽的數(shù)據(jù)集在訓(xùn)練中也發(fā)揮了至關(guān)重要的作用。

動捕大模型的訓(xùn)練與微調(diào)

當(dāng)前最先進(jìn)的方法通常只使用少數(shù)幾個數(shù)據(jù)集(例如,MSCOCO、MPII和Human3.6M)進(jìn)行訓(xùn)練,而這篇文章中探討使用了更多數(shù)據(jù)集。

在始終優(yōu)先考慮排名較高的數(shù)據(jù)集的前提下使用了四種數(shù)據(jù)量:作為訓(xùn)練集的5、10、20和32個數(shù)據(jù)集,總大小為75萬、150萬、300萬和450萬實例。

除此之外,研究人員也展示了低成本的微調(diào)策略來將通用大模型適應(yīng)到特定場景。

上表中展示了部分主要測試,如AGORA測試集(表3)、AGORA驗證集(表4)、EHF(表5)、UBody(表6)、EgoBody-EgoSet(表7)。

此外,研究人員還在ARCTIC和DNA-Rendering兩個測試集上評估了動捕大模型的泛化性。

研究人員希望SMPLer-X能帶來超出算法設(shè)計的啟發(fā),并為學(xué)術(shù)社區(qū)提供強大的全身人體動捕大模型。

代碼和預(yù)訓(xùn)練模型都已開源,更多詳情請訪問項目主頁:https://caizhongang.github.io/projects/SMPLer-X/

結(jié)果展示

圖片

圖片

圖片

圖片

圖片

圖片

圖片

圖片

責(zé)任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2009-12-01 14:35:06

Linux忠告

2021-06-22 15:56:24

人工智能深度語言開源

2018-09-10 06:00:12

2023-11-09 14:38:28

2018-04-11 14:13:29

物聯(lián)網(wǎng)信息技術(shù)互聯(lián)網(wǎng)

2012-08-06 10:34:26

JavaScript框架

2023-10-04 09:29:58

2015-07-08 08:51:11

SDN

2010-08-09 14:37:00

認(rèn)證證書

2012-08-06 10:51:40

JavaScript

2015-03-20 15:34:35

戴爾云計算DELL

2020-12-18 10:35:27

IT技術(shù)領(lǐng)導(dǎo)者

2020-12-22 09:55:55

IT首席信息官CIO

2022-05-23 08:09:42

物聯(lián)網(wǎng)IOT

2018-09-27 11:48:51

2010-07-05 11:24:11

常用UML圖

2017-10-13 00:55:11

DevOps持續(xù)交付IT

2011-10-31 15:06:08

云計算

2021-12-02 06:02:51

物聯(lián)網(wǎng)IOT物聯(lián)網(wǎng)技術(shù)

2013-12-19 10:10:58

交互設(shè)計費茨法則席克定律
點贊
收藏

51CTO技術(shù)棧公眾號