蘋果的五大系統(tǒng)、五大支柱
北京時(shí)間2019年6月4日凌晨10點(diǎn),在圣何塞市中心的McEnery Convention Center,蘋果WWDC 2019全球開發(fā)者大會最值得關(guān)注的Keynote環(huán)節(jié)正式開幕。
在這一環(huán)節(jié)中,除了硬件層面的Mac Pro和Pro Display XDR的發(fā)布值得關(guān)注,蘋果也發(fā)布了一系列面向開發(fā)者的開發(fā)工具,比如說如ARKit 3、RealityKit、CoreML 3、SiriKit等。
這些開發(fā)者工具有什么亮點(diǎn)?雷鋒網(wǎng)將帶你一探究竟。
AR:功能更加多樣化
縱觀前兩年的WWDC大會,蘋果對AR的重視只增不減;在WWDC2019上,蘋果除了升級了ARKit,還公布了一個(gè)新的高級AR框架RealityKit以及一個(gè)能夠輕松創(chuàng)建AR體驗(yàn)的新應(yīng)用程序Reality Composer。
ARKit是在2017年推出的,是蘋果進(jìn)軍AR的第一步;2018年,蘋果將其升級為ARKi t2,主要進(jìn)行了兩項(xiàng)更新:與Pixar合作的新的文件格式USDZ和多人共享AR。如今,ARKit再次升級,迎來了ARKit 3。
ARKit 3引入了實(shí)時(shí)人體遮擋,它能夠知道人和AR對象的位置,對場景進(jìn)行適當(dāng)?shù)卣趽?。不僅如此,它還能夠通過動作捕捉,跟蹤人類的動作,作為AR場景的輸入。同時(shí),通過ARKit 3,設(shè)備的前后兩個(gè)攝像頭現(xiàn)在可以同時(shí)使用,因此,用戶的面部表情也可以成為AR體驗(yàn)的一部分。
除了能夠同時(shí)使用兩個(gè)攝像頭,多面部跟蹤和多人之間的實(shí)時(shí)協(xié)作會話也是ARKit 3的亮點(diǎn)所在,這能夠讓用戶擁有更多樣化的AR體驗(yàn)。
ARKit 3是在原有的ARKit基礎(chǔ)上進(jìn)行的升級;不同于ARKit 3,今年首次公布的RealityKit和RealityComposer顯得更為新穎。
RealityKit是一個(gè)全新的高級框架,具有真實(shí)感渲染、相機(jī)效果、動畫、物理等功能,是專門為增強(qiáng)現(xiàn)實(shí)而構(gòu)建的。它能夠?yàn)槎嗳薃R應(yīng)用程序處理網(wǎng)絡(luò),這意味著開發(fā)人員不需要是網(wǎng)絡(luò)工程師就能夠開發(fā)共享AR體驗(yàn)。
Reality Composer是一個(gè)新的開發(fā)程序,它不僅面向iOS,還能夠在macOS中使用。這個(gè)工具讓開發(fā)人員能夠可視化地創(chuàng)建AR場景,并且能夠在場景中添加移動、縮放和旋轉(zhuǎn)等動畫。不僅如此,開發(fā)人員還能夠?qū)赢嬤M(jìn)行設(shè)置:當(dāng)用戶輕擊對象、用戶接近對象、或是激活其他觸發(fā)器時(shí)執(zhí)行操作。
CoreML 3:支持高級神經(jīng)網(wǎng)絡(luò)
在WWDC2019上,蘋果介紹了CoreML 3,這是蘋果機(jī)器學(xué)習(xí)模型框架的最新版本。
CoreML是能在蘋果產(chǎn)品上使用的高性能機(jī)器學(xué)習(xí)框架,能幫助開發(fā)者快速地將多種機(jī)器學(xué)習(xí)模型融合到App中。它在2017年推出,2018年升級為CoreML 2,處理速度提升了30%。
而如今,CoreML升級為CoreML 3,CoreML 3將首次為設(shè)備上的機(jī)器學(xué)習(xí)提供培訓(xùn)。由于模型可以使用設(shè)備上的用戶數(shù)據(jù)進(jìn)行更新,因此CoreML 3能夠幫助模型在不損害隱私的情況下與用戶行為保持相關(guān)。
不僅如此,CoreML 3還支持高級神經(jīng)網(wǎng)絡(luò),支持超過100種層類型,這讓它在圖像、聲音識別上有更好的表現(xiàn)。另外,它能夠無縫地利用CPU、GPU和神經(jīng)引擎去提供最大的性能和效率。
SiriKit:更好的應(yīng)用擴(kuò)展
Siri是蘋果最先推出的AI應(yīng)用,也是世界上最受歡迎的語音智能助手之一;在WWDC2019上,Siri也得到了升級。
一個(gè)最為直觀的改變是,蘋果在iOS13中采用了Neural Text-to-Speech(TTS)技術(shù),讓Siri的語音聽起來更加自然,這也標(biāo)志著Siri不再借重人類語音樣本而發(fā)聲。
Siri與AirPods的結(jié)合也是亮點(diǎn)之一。例如,當(dāng)用戶收到短信時(shí),可以讓Siri在AirPods中直接讀出來,不僅如此,你還能夠利用AirPods快速回復(fù)短信。
此外,Siri在HomePod上的體驗(yàn)也得到了大幅提升,顯得更加個(gè)性化;比如說,HomePod可以識別家庭的不同用戶,而當(dāng)不同用戶的手機(jī)靠近HomePod時(shí),它就能夠得知該用戶喜歡的播客和音樂。
值得注意的是,在今年的WWDC大會上,蘋果推出了SiriKit。SiriKit包含Intents和IntentsUI框架,開發(fā)者可以用它們來實(shí)現(xiàn)應(yīng)用擴(kuò)展;而應(yīng)用程序一旦采用SiriKit,即使應(yīng)用程序本身沒有運(yùn)行,也能夠通過Siri實(shí)現(xiàn)應(yīng)用擴(kuò)展。
HomeKit:加強(qiáng)隱私保護(hù)力度
HomeKit是蘋果在2015年推出的智能家居框架,它內(nèi)置于iOS8中,用于與用戶家中連接的附件進(jìn)行通信和控制。
在本次WWDC中,蘋果主要強(qiáng)調(diào)HomeKit對用戶隱私的保護(hù)力度。比如說,蘋果首次推出了HomeKit Secure Video,它能夠分析本地的智能家庭設(shè)備(比如安全攝像頭)的視頻,然后再將其加密,上傳到iCloud。
和HomeKit Secure Video一樣首次亮相的還有獲得一系列第三方支持的HomeKit路由器,這個(gè)路由器能夠?qū)⒃O(shè)備隔離開,以防止整個(gè)網(wǎng)絡(luò)受到攻擊。
據(jù)了解,HomeKit路由器提供的保護(hù)隱私的安全措施遠(yuǎn)遠(yuǎn)超出了家庭安全攝像頭的范圍,它的自動防火墻能夠與HomeKit配件進(jìn)行連接,只要其中一個(gè)配件遭受到入侵,入侵者就沒有辦法訪問其他設(shè)備,阻止了個(gè)人信息泄露。
SwiftUI:從一百行代碼到十幾行
在本次的全球開發(fā)者大會上,蘋果發(fā)布了基于開發(fā)語言Swift建立的框架——SwiftUI。
Swift是蘋果于2014年WWDC發(fā)布的新開發(fā)語言,可與Objective-C共同運(yùn)行于macOS和iOS平臺,用于搭建基于蘋果平臺的應(yīng)用程序。Swift的設(shè)計(jì)以安全為出發(fā)點(diǎn),以避免各種常見的編程錯誤類別;2015年,蘋果將Swift開源。
本次蘋果發(fā)布的SwiftUI正是基于Swift語言,它使用一組工具和API,可在所有的蘋果平臺上提供一套統(tǒng)一的UI框架,當(dāng)然也可以用于watchOS、tvOS、macOS等蘋果旗下的多個(gè)操作系統(tǒng),它具有自動支持動態(tài)類型、暗黑模式、本地化和可訪問性的特點(diǎn)。
舉例來說,新的SwiftUI編程框架擁有全新的交互式開發(fā)人員體驗(yàn),跟隨開發(fā)人員的更改,模擬設(shè)備上的預(yù)覽會立即更新。
比如說,SwiftUI使用圖形模塊放入代碼段,在擴(kuò)展時(shí)添加行,下拉菜單使開發(fā)人員更容易更改參數(shù)。只需單擊一下,開發(fā)人員就可以切換到模擬器,應(yīng)用程序幾乎可以立即移動到實(shí)際硬件。
在發(fā)布會上,蘋果的Craig Federighi也演示了如何將一百行代碼簡化為大約十幾行,大大減少了開發(fā)者的開發(fā)流程。
值得一提的是,SwiftUI還與其他API集成,如ARKit;同時(shí),它也針對某些從左到右來輸入的語言進(jìn)行了專門的優(yōu)化——當(dāng)然了,SwiftUI也原生支持暗黑模式。
總結(jié)
從本次大會上發(fā)布的開發(fā)套件來看,蘋果主要著力于兩個(gè)方面,一是注重在AR與AI方面的技術(shù)生態(tài)開發(fā),二是側(cè)重在蘋果生態(tài)下的跨系統(tǒng)開發(fā)體驗(yàn),并完整地覆蓋旗下的macOS、watchOS、iOS、tvOS和iPadOS等操作系統(tǒng)。
這不僅帶來了更好的用戶體驗(yàn),而且讓蘋果操作系統(tǒng)生態(tài)的每一個(gè)部分之間的聯(lián)系都更加緊密,從而更具吸引力。
可以說,通過這一次的WWDC,我們已經(jīng)隱約看到整個(gè)蘋果應(yīng)用生態(tài)的未來。