自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

開源:深度學(xué)習(xí)模型和姿態(tài)估計(jì)代碼開源代碼推薦,人工智能教程

人工智能 深度學(xué)習(xí)
開源:深度學(xué)習(xí)模型和姿態(tài)估計(jì)代碼開源代碼推薦,人工智能教程(趣說人工智能編譯,來源modelzoo)。姿態(tài)估計(jì)的任務(wù)旨在將RGB圖像或視頻的人像素映射到人體的3D表面

開源:深度學(xué)習(xí)模型和姿態(tài)估計(jì)代碼開源代碼推薦,人工智能教程(趣說人工智能編譯,來源modelzoo)。姿態(tài)估計(jì)的任務(wù)旨在將RGB圖像或視頻的人像素映射到人體的3D表面。姿態(tài)估計(jì)是一個(gè)多任務(wù)任務(wù),并涉及其他幾個(gè)問題:物體檢測(cè),姿態(tài)估計(jì),分割等。姿態(tài)估計(jì)的應(yīng)用包括需要超越簡(jiǎn)單地標(biāo)定位的問題,如圖形,增強(qiáng)現(xiàn)實(shí)(AR)或人機(jī)交互(HCI)。姿態(tài)估計(jì)還涉及基于3D的物體識(shí)別的許多方面。在這篇文章中,我們分享了幾種開源深度學(xué)習(xí)模型和代碼進(jìn)行姿態(tài)估計(jì)。如果我們遺漏了您認(rèn)為值得分享的實(shí)現(xiàn),請(qǐng)將其留在下面的評(píng)論中。

DensePose

開源:深度學(xué)習(xí)模型和姿態(tài)估計(jì)代碼開源代碼推薦,人工智能教程

GitHub | 數(shù)據(jù)集

開源:深度學(xué)習(xí)模型和姿態(tài)估計(jì)代碼開源代碼推薦,人工智能教程(趣說人工智能編譯,來源modelzoo)。這篇文章的靈感來自Facebook Research,他在上周 早些時(shí)候發(fā)布了DensePose的代碼,模型和數(shù)據(jù)集。Facebook分享了DensePose-COCO,這是一款用于人體姿勢(shì)估計(jì)的大型地面真實(shí)數(shù)據(jù)集。該數(shù)據(jù)集由在50K COCO(上下文中的通用對(duì)象) 圖像上手動(dòng)注釋的圖像到表面對(duì)應(yīng)關(guān)系組成。這是深度學(xué)習(xí)研究人員非常全面的資源。它為姿態(tài)估計(jì),零件分割等任務(wù)提供了良好的數(shù)據(jù)來源。

DensePose論文提出了DensePose-RCNN,它是Mask-RCNN的一種變體,用于以每秒多幀的速度在每個(gè)人類區(qū)域內(nèi)密集回歸特定部分的UV坐標(biāo)。它基于DenseReg。該模型的目標(biāo)是確定每個(gè)像素的表面位置以及其 所屬部分的相應(yīng)2D 參數(shù)。

DensePose采用Mask-RCNN的體系結(jié)構(gòu)以及特征金字塔網(wǎng)絡(luò)(FPN)功能和ROI對(duì)齊池。此外,他們?cè)赗OI池中引入全卷積網(wǎng)絡(luò)。有關(guān)更深入的技術(shù)細(xì)節(jié),請(qǐng)查閱DensePose論文。

OpenPose

GitHub | 數(shù)據(jù)集

開源:深度學(xué)習(xí)模型和姿態(tài)估計(jì)代碼開源代碼推薦,人工智能教程(趣說人工智能編譯,來源modelzoo)。OpenPose是一個(gè)實(shí)時(shí)多人關(guān)鍵點(diǎn)檢測(cè)庫(kù),用于CMU感知計(jì)算實(shí)驗(yàn)室的身體,臉部和手部評(píng)估。OpenPose提供二維和三維多人關(guān)鍵點(diǎn)檢測(cè),以及用于估計(jì)域特定參數(shù)的校準(zhǔn)工具箱。OpenPose允許各種輸入:圖像,視頻,攝像頭,IP攝像頭等。它還以各種格式生成輸出:圖像和關(guān)鍵點(diǎn)(PNG,JPG,AVI),以可讀格式(JSON,XML,YML)保存關(guān)鍵點(diǎn),甚至作為數(shù)組類。輸入和輸出參數(shù)也可以調(diào)整以適應(yīng)各種需求。

OpenPose提供了C ++ API,可以在CPU和GPU上工作 - 包括與AMD圖形卡兼容的版本。

實(shí)時(shí)多人姿態(tài)估計(jì)

GitHub

開源:深度學(xué)習(xí)模型和姿態(tài)估計(jì)代碼開源代碼推薦,人工智能教程(趣說人工智能編譯,來源modelzoo)。該實(shí)現(xiàn)與OpenPose高度相關(guān),并且在各種框架中提供了與實(shí)現(xiàn)相關(guān)的模型。本文的作者提出 了一種實(shí)時(shí)多人姿態(tài)估計(jì)的自下而上方法,而不使用任何人檢測(cè)器。該方法使用非參數(shù)表示(我們稱之為部分相似性字段(PAF))來學(xué)習(xí)將身體部位與圖像中的個(gè)體相關(guān)聯(lián)。有關(guān)實(shí)施和理論的更多技術(shù)細(xì)節(jié),請(qǐng)參閱論文。這種方法的***特點(diǎn)之一就是已經(jīng)在許多不同的框架中實(shí)現(xiàn),并且代碼和模型隨時(shí)可用于您的選擇框架:

  • OpenPose C ++庫(kù)
  • TensorFlow實(shí)現(xiàn)
  • Keras實(shí)現(xiàn)一和二
  • PyTorch實(shí)現(xiàn)一, 二,三
  • MXNet實(shí)現(xiàn)

AlphaPose

[[234401]]

GitHub

開源:深度學(xué)習(xí)模型和姿態(tài)估計(jì)代碼開源代碼推薦,人工智能教程(趣說人工智能編譯,來源modelzoo)。Alpha Pose 是一個(gè)準(zhǔn)確的多人姿勢(shì)估計(jì)器,并聲稱是***個(gè)開源系統(tǒng)。AlphaPose對(duì)圖像,視頻或圖像列表執(zhí)行姿態(tài)估計(jì)和姿態(tài)跟蹤。它產(chǎn)生各種輸出,包括以PNG,JPEG和AVI格式的關(guān)鍵點(diǎn)顯示的圖像,以及JSON格式的關(guān)鍵點(diǎn)輸出,使其成為更多以應(yīng)用程序?yàn)橹攸c(diǎn)的優(yōu)秀工具。

目前,有一個(gè)TensorFlow實(shí)現(xiàn) 和一個(gè)PyTorch實(shí)現(xiàn)。AlphaPose使用區(qū)域多人姿勢(shì)估計(jì)(RMPE)框架來在存在不準(zhǔn)確的人體邊框時(shí)促進(jìn)姿態(tài)估計(jì)。有三個(gè)組成部分:對(duì)稱空間變換網(wǎng)絡(luò)(SSTN),參數(shù)姿態(tài)非***抑制(NMS)和姿態(tài)引導(dǎo)建議生成器(PGPG)。有關(guān)更多技術(shù)細(xì)節(jié),請(qǐng)參閱該論文。

人體姿勢(shì)估計(jì)

網(wǎng)站 | GitHub | 數(shù)據(jù)集 | ArtTrack紙 | 更深的紙張

開源:深度學(xué)習(xí)模型和姿態(tài)估計(jì)代碼開源代碼推薦,人工智能教程(趣說人工智能編譯,來源modelzoo)。這個(gè)代碼庫(kù)提供了一個(gè)TensorFlow實(shí)現(xiàn)的人體姿態(tài)估計(jì)算法,在 ArtTrack 和 DeeperCut 論文中介紹。訓(xùn)練的模型利用MPII人體姿態(tài)數(shù)據(jù)庫(kù),這是豐富的圖像集合,用于評(píng)估 明確的人體姿勢(shì)估計(jì)。這個(gè)項(xiàng)目考慮了在現(xiàn)實(shí)世界的圖像中多人的關(guān)聯(lián)人類姿勢(shì)估計(jì)的任務(wù)。他們的方法解決了檢測(cè)和姿態(tài)估計(jì)的任務(wù),這與先前 檢測(cè)人員并隨后估計(jì)他們的身體姿勢(shì)的方法不同。在其實(shí)現(xiàn)中使用基于CNN的部分檢測(cè)器和 整數(shù)線性程序。有關(guān)更多技術(shù)細(xì)節(jié),請(qǐng)參閱 ArtTrack 和 DeeperCut 論文。

DeepPose

開源:深度學(xué)習(xí)模型和姿態(tài)估計(jì)代碼開源代碼推薦,人工智能教程(趣說人工智能編譯,來源modelzoo)。DeepPose是從2014年開始的相對(duì)較老的論文,提出了一種基于深度神經(jīng)網(wǎng)絡(luò)(DNN)的人體姿態(tài)估計(jì)方法,該方法被制定為針對(duì)身體關(guān)節(jié)的基于DNN的回歸問題。它以一種整體的方式推理姿勢(shì),并且具有簡(jiǎn)單而強(qiáng)大的表述。DeepPose似乎沒有在線提供官方實(shí)施。但是,已經(jīng)努力復(fù)制其結(jié)果:

  • Chainer實(shí)施
  • TensorFlow實(shí)現(xiàn)

DeepPose很有趣,因?yàn)樗侨祟愖藨B(tài)估計(jì)的***個(gè)深度學(xué)習(xí)應(yīng)用,并且在開始時(shí)達(dá)到了***進(jìn)的結(jié)果,為許多其他更新的實(shí)現(xiàn)提供了基準(zhǔn)。

姿態(tài)估計(jì)是計(jì)算機(jī)視覺社區(qū)中日益流行的問題。隨著 Facebook Research 等新型姿態(tài)估計(jì)數(shù)據(jù)集(如 DensePose-COCO)的發(fā)布,現(xiàn)在在這方面存在更多工作資源。在我看來,有很多方向可以進(jìn)行姿態(tài)估計(jì),而這些資源的發(fā)布肯定會(huì)激起該領(lǐng)域的新興趣。希望很快我們會(huì)看到許多新的創(chuàng)新想法和實(shí)施。

責(zé)任編輯:龐桂玉 來源: 今日頭條
相關(guān)推薦

2022-07-25 17:48:37

AI開源代碼

2023-05-22 08:00:00

深度學(xué)習(xí)機(jī)器學(xué)習(xí)人工智能

2018-02-28 11:39:04

Python人工智能機(jī)器學(xué)習(xí)

2021-07-16 09:00:00

深度學(xué)習(xí)機(jī)器學(xué)習(xí)開發(fā)

2023-08-28 11:07:15

機(jī)器學(xué)習(xí)AI

2021-04-16 09:53:45

人工智能機(jī)器學(xué)習(xí)深度學(xué)習(xí)

2016-09-20 09:13:08

開源智能工具

2018-12-28 09:00:00

人工智能機(jī)器學(xué)習(xí)開源框架

2023-05-18 17:28:31

開源人工智能

2010-07-29 11:20:49

Flex源代碼

2017-03-18 16:28:40

人工智能機(jī)器學(xué)習(xí)深度學(xué)習(xí)

2021-02-26 10:02:13

人工智能深度學(xué)習(xí)機(jī)器學(xué)習(xí)

2014-12-09 12:35:11

人工智能機(jī)器學(xué)習(xí)開源項(xiàng)目

2023-07-06 10:15:09

開源語(yǔ)言模型AI生成式AI

2021-03-30 13:45:00

人工智能

2022-11-25 07:35:57

PyTorchPython學(xué)習(xí)框架

2021-12-01 22:55:45

人工智能機(jī)器學(xué)習(xí)深度學(xué)習(xí)

2024-02-20 16:14:36

人工智能開源AI

2016-02-26 09:43:42

雅虎人工智能開源

2018-07-11 11:27:26

人工智能深度學(xué)習(xí)機(jī)器學(xué)習(xí)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)