AR/AI必攻的實時光補償算法,太平洋未來科技能否把握科技創(chuàng)新風口?
在Google 、 Apple 和BAT等國際、國內(nèi)大頭,都在AR/AI領域擲出大手筆或深度注資的熱潮遠景下,光場算法作為涵蓋三大產(chǎn)業(yè)中姿態(tài)、捕捉、編解碼、壓縮、分析、分發(fā)、顯示等整套技術環(huán)節(jié)體系中***層也最核心的技術,只有真正將基礎打好,從核心抓起,才能賦能多元技術沖破壁壘,率先把握自主科研創(chuàng)新風口。
作為一家集成光場、圖像識別、姿態(tài)分析、運動追蹤等于一體全球化人工智能算法科研公司——太平洋未來科技,從2016年成立之初,就已深耕基底,跨越多數(shù)人復制少數(shù)的“有人區(qū)”,開辟了一條穩(wěn)扎穩(wěn)打的“無人區(qū)”:一方面為研發(fā)者及應用開發(fā)公司提供一整套綜合全面且高度融合的***深度計算機算法研發(fā)系統(tǒng);另一方面,主攻底層核心實時光補償算法,完善其夯實基礎,方才使得其技術研發(fā)系統(tǒng)精確而完整,在自主創(chuàng)新科研產(chǎn)業(yè)布局風口站穩(wěn)腳跟。
化繁為簡 潛心科研方制勝
所謂光場,是指整個三維空間內(nèi)所有光線的集合??臻g中每個點的光場都可以定義為5D函數(shù),每條射線的方向均由5D全光函數(shù)發(fā)射,其波長和角度作為附加變量,每一個光場的建立都是***的向量集合,每個方向都有一個影響點,長度與其輻射成正比,而人的2只眼睛在接受光線位置和方向不同時,會產(chǎn)生雙目視差、移動視差、聚焦模糊和遮擋深淺等現(xiàn)象,只有將外部世界的完整光場信息實時、無損地復現(xiàn),才能實時再現(xiàn)人眼所見的視界。

太平洋未來科技 AMreal Engine 實時光補償算法原理
基于以上原理及復現(xiàn)場景的真實性考慮,太平洋未來科技通過80臺單反相機收集光場環(huán)境與物體之間的關系,從而建立光場,他們自主研發(fā)的實時光補償算法——AMreal Engine,從5D全光功能中,提取適當?shù)?D貼片,通過單個圖像合集來確定光照,將光的顏色、光的強弱及光的方向,在三維空間里完整投射呈現(xiàn)。此實時光場補償算法不僅特別適用于移動單目、雙目設備(如手機、平板及主流穿戴設備)及主流U3D渲染引擎;同時為開發(fā)者們解決了開發(fā)難度大、硬件匹配度高、生成速率慢等種種困難,提供從現(xiàn)實到虛擬再到現(xiàn)實的閉環(huán)沉浸空間,大大降低高質(zhì)量光場內(nèi)容的制作門檻。
打破光場算法現(xiàn)狀 革新科研產(chǎn)業(yè)布局
目前,市面上的光場算法,均只能呈現(xiàn)虛擬光與虛擬光之間的關系,光場引擎亦沒有辦法實時判斷主光源,無法讓虛擬物體與真實環(huán)境融合,或者需要昂貴的硬件、感光器去來收集光場,不能滿足人眼不同深度的對焦沉浸感。

Google ARcore、Apple ARkit 光場和華為AR Engine:
虛擬物體僅根據(jù)實際光照發(fā)生亮度變化,不能判斷光源及實時追蹤互動(球的影子始終未變)

太平洋未來科技 AMreal Engine實時光補償算法:
實時判斷光源,虛擬物體實時與真實環(huán)境光互動補償
Google和Apple等巨頭均把光場列主要功能之一,但均無法做到實時檢測光源,讓虛擬光看起來更接近現(xiàn)實人眼所看到的世界,而太平洋未來科技實時光補償算法,在不需要昂貴成本的情況下,便能模擬實際光束融入現(xiàn)實空間中的情景,完整記錄光場信息,在實時捕捉真實世界的完整光場信息的同時,進行不失真的虛擬構(gòu)建,無需復雜的、多模組化的攝像頭,亦能完成實時同步的光場效果。 “目前,此實時光補償算法已經(jīng)提供給相關合作伙伴進行技術評估、使用,SDK也即將上線。”太平洋未來科技創(chuàng)始人兼CEO李建億日前談到。
太平洋未來科技低硬件成本、高效、便捷的實時光補償算法不僅驅(qū)動AR/AI產(chǎn)業(yè)底層技術革新,也將滲透到虛擬電商、影視制作、3D設計、工業(yè)監(jiān)測、航空、教育、醫(yī)療、文旅、博覽等各個領域,期待穩(wěn)扎行業(yè)先行者為科技創(chuàng)新核心技術發(fā)展加速。