開發(fā)者所需要知道的iOS 11 SDK新特性
年紀大了過了能熬夜看 WWDC 的時代了,但是還是在小小寶的哭鬧和媽媽大人換尿布的催促中起了個大早。于是算趁著“熱乎”把 WWDC 2017 的 Keynote 看完了。和往年差不多,雖然 WWDC 是一個開發(fā)者會議,但是 Keynote 并不是專門針對我們開發(fā)者的,它還承擔(dān)了公司狀況說明,新品發(fā)布等功能。作為技術(shù)人員,可能接下來的 session 會更有意義。要用一句話來評價今年 Keynote 所展現(xiàn)出來的內(nèi)容的話,就是小步革新。大的技術(shù)方面可以說只有 ARKit 可堪研究,但是我們還是看到了類似跨 app 拖拽,新的 Files 應(yīng)用這樣進一步突破 iOS 原有桎梏的更新 (iMessage 轉(zhuǎn)賬什么的就不提了,我大天朝威武,移動支付領(lǐng)域領(lǐng)先世界至少三年)。iOS 11,特別是配合新的硬件,相信會給用戶帶來不錯的體驗。
作為 iOS 開發(fā)者,和往年一樣,我整理了一下在可能需要關(guān)注的地方。
新增框架
新加入 SDK 的大的框架有兩個,分別是負責(zé)簡化和集成機器學(xué)習(xí)的 Core ML 和用來創(chuàng)建增強現(xiàn)實 (AR) 應(yīng)用的 ARKit。
Core ML
自從 AlphaGo 出現(xiàn)以來,深度學(xué)習(xí)毫無疑問成了行業(yè)熱點。而 Google 也在去年就轉(zhuǎn)變 Mobile-first 到 AI-first 的戰(zhàn)略??梢哉f一線的互聯(lián)網(wǎng)企業(yè)幾乎都在押寶 AI,目前看來機器學(xué)習(xí),特別是深度學(xué)習(xí)是最有希望的一條道路。
如果你不是很熟悉機器學(xué)習(xí)的話,我想我可以在這里“僭越”地做一些簡介。你可以先把機器學(xué)習(xí)的模型看作一個黑盒函數(shù),你給定一些輸入 (可能是一段文字,或者一張圖片),這個函數(shù)會給出特定的輸出 (比如這段文字中的人名地名,或者圖片中出現(xiàn)的商店名牌等)。一開始這個模型可能非常粗糙,完全不能給出正確的結(jié)果,但是你可以使用大量已有的數(shù)據(jù)和正確的結(jié)果,來對模型進行訓(xùn)練,甚至改進。在所使用的模型足夠優(yōu)化,以及訓(xùn)練量足夠大的情況下,這個黑盒模型將不僅對訓(xùn)練數(shù)據(jù)有較高的準確率,也往往能對未知的實際輸入給出正確的返回。這樣的模型就是一個訓(xùn)練好的可以實際使用的模型。
對機器學(xué)習(xí)模型的訓(xùn)練是一項很重的工作,Core ML 所扮演的角色更多的是將已經(jīng)訓(xùn)練好的模型轉(zhuǎn)換為 iOS 可以理解的形式,并且將新的數(shù)據(jù)“喂給”模型,獲取輸出。抽象問題和創(chuàng)建模型雖然并不難,但是對模型的改進和訓(xùn)練可以說是值得研究一輩子的事情,這篇文章的讀者可能也不太會對此感冒。好在 Apple 提供了一系列的工具用來將各類機器學(xué)習(xí)模型轉(zhuǎn)換為 Core ML 可以理解的形式。籍此,你就可以輕松地在你的 iOS app 里使用前人訓(xùn)練出的模型。這在以前可能會需要你自己去尋找模型,然后寫一些 C++ 的代碼來跨平臺調(diào)用,而且難以利用 iOS 設(shè)備的 GPU 性能和 Metal (除非你自己寫一些 shader 來進行矩陣運算)。Core ML 將使用模型的門檻降低了很多。
Core ML 在背后驅(qū)動了 iOS 的視覺識別的 Vision 框架和 Foundation 中的語義分析相關(guān) API。普通開發(fā)者可以從這些高層的 API 中直接獲益,比如人臉圖片或者文字識別等。這部分內(nèi)容在以前版本的 SDK 中也存在,不過在 iOS 11 SDK 中它們被集中到了新的框架中,并將一些更具體和底層的控制開放出來。比如你可以使用 Vision 中的高層接口,但是同時指定底層所使用的模型。這給 iOS 的計算機視覺帶來了新的可能。
Google 或者 Samsung 在 Android AI 上的努力,大多是在自帶的應(yīng)用中集成服務(wù)。相比起來,Apple 基于對自己生態(tài)和硬件的控制,將更多的選擇權(quán)交給了第三方開發(fā)者。
ARKit
Keynote 上的 AR 的演示可以說是唯一的亮點了。iOS SDK 11 中 Apple 給開發(fā)者,特別是 AR 相關(guān)的開發(fā)者帶來了一個很棒的禮物,那就是 ARKit。AR 可以說并非什么新技術(shù),像是 Pokémon Go 這樣的游戲也驗證了 AR 在游戲上的潛力。不過除了 IP 和新鮮感之外,個人認為 Pokémon Go 并沒有資格代表 AR 技術(shù)的潛力?,F(xiàn)場的演示像我們展示了一種可能,粗略看來,ARKit 利用單鏡頭和陀螺儀,在對平面的識別和虛擬物體的穩(wěn)定上做得相當出色。幾乎可以肯定,那么不做最早,只做***的 Apple 似乎在這一刻回到了舞臺上
ARKit 極大降低了普通開發(fā)者玩 AR 的門檻,也是 Apple 現(xiàn)階段用來抗衡 VR 的選項。可以暢想一下更多類似 Pokémon Go 的 AR 游戲 (結(jié)合實境的虛擬寵物什么的大概是最容易想到的) 能在 ARKit 和 SceneKit 的幫助下面世,甚至在 iPad Pro 現(xiàn)有技能上做像是 AR 電影這樣能全方位展示的多媒體可能也不再是單純的夢想。
而與之相應(yīng)的,是一套并不很復(fù)雜的 API。涉及的 View 幾乎是作為 SceneKit 的延伸,再加上在真實世界的定為也已經(jīng)由系統(tǒng)幫助處理,開發(fā)者需要做的大抵就是將虛擬物體放在屏幕的合適位置,并讓物體之間互動。而利用 Core ML 來對相機內(nèi)的實際物體進行識別和交互,可以說也讓各類特效的相機或者攝影 app 充滿了想像空間。
Xcode
編輯器和編譯器
速度就是生命,而開發(fā)者的生命都浪費在了等待編譯上。Swift 自問世以來就備受好評,但是緩慢的編譯速度,時有時無的語法提示,無法進行重構(gòu)等工具鏈上的欠缺成為了最重要的黑點。Xcode 9 中編輯器進行了重寫,支持了對 Swift 代碼的重構(gòu) (雖然還很基礎(chǔ)),將 VCS 提到了更重要的位置,并添加了 GitHub 集成,可以進行同局域網(wǎng)的無線部署和調(diào)試。
新的編譯系統(tǒng)是使用 Swift 重寫的,在進行了一些對比以后,編譯速度確實有了不小的提升。雖然不知道是不是由于換成了 Swift 4,不過正在做的公司項目的總編譯時間從原來的三分半縮短到了兩分鐘半左右,可以說相當明顯了。
Xcode 9 中的索引系統(tǒng)也使用了新的引擎,據(jù)稱在大型項目中搜索***可以達到 50 倍的速度。不過可能由于筆者所參加的項目不夠大,這一點體會不太明顯。項目里的 Swift 代碼依然面臨失色的情況。這可能是索引系統(tǒng)和編譯系統(tǒng)沒有能很好協(xié)同造成的,畢竟還是 beta 版本的軟件,也許應(yīng)該多給 Xcode 團隊一些時間 (雖然可能到***也就這樣了)。
由于 Swift 4 編譯器也提供了 Swift 3 的兼容 (在 Build Setting 中設(shè)置 Swift 版本即可),所以如果沒有什么意外的話,我可能會在之后的日常開發(fā)中使用 Xcode 9 beta,然后在打包和發(fā)布時再切回 Xcode 8 了。畢竟每次完整編譯節(jié)省一分半鐘的時間,還是一件很誘人的事情。
這次的 beta 版本質(zhì)量出人意料地好,也許是因為這一兩年來都是小幅革新式的改良,讓 Apple 的軟件團隊有相對充足的時間進行開發(fā)的結(jié)果?總之,Xcode 9 beta 現(xiàn)在已經(jīng)能很好地工作了。
Named Color
這是個人很喜歡的一個變化。現(xiàn)在你可以在 xcassets 里添加顏色,然后在代碼或者 IB 中引用這個顏色了。大概是這樣的:
像是使用 IB 來構(gòu)建 UI 的時候,一個很頭疼的事情就是設(shè)計師表示我們要不換個主題色。你很可能需要到處尋找這個顏色進行替換。但是現(xiàn)在你只需要在 xcassets 里改一下,就能反應(yīng)到 IB 中的所有地方了。
其他值得注意的變更
剩下的都是些小變化了,簡單瀏覽了下,把我覺得值得一提的列舉出來,并附上參考的鏈接。
- 拖拽 - 很標準的一套 iOS API,不出意外地,iOS 系統(tǒng)幫助我們處理了絕大部分工作,開發(fā)者幾乎只需要處理結(jié)果。UITextView 和 UITextField 原生支持拖拽,UICollectionView 和 UITableView 的拖拽有一系列專用的 delegate 來表明拖拽的發(fā)生和結(jié)束。而你也可以對任意 UIView 子類定義拖拽行為。和 mac 上的拖拽不同,iOS 的拖拽充分尊重了多點觸控的屏幕,所以可能你需要對一次多個的拖拽行為做些特別處理。
- FileProvider 和 FileProviderUI - 提供一套類似 Files app 的界面,讓你可以獲取用戶設(shè)備上或者云端的文件。相信會成為以后文檔相關(guān)類 app 的標配。
- 不再支持 32 位 app - 雖然在 beta 1 中依然可以運行 32 位 app,但是 Apple 明確指出了將在后續(xù)的 iOS 11 beta 中取消支持。所以如果你想讓自己的程序運行在 iOS 11 的設(shè)備上,進行 64 位的重新編譯是必須步驟。
- DeviceCheck - 每天要用廣告 ID 追蹤用戶的開發(fā)者現(xiàn)在有了更好地選擇 (當然前提是用來做正經(jīng)事兒)。DeviceCheck 允許你通過你的服務(wù)器與 Apple 服務(wù)器通訊,并為單個設(shè)備設(shè)置兩個 bit 的數(shù)據(jù)。簡單說,你在設(shè)備上用 DeviceCheck API 生成一個 token,然后將這個 token 發(fā)給自己的服務(wù)器,再由自己的服務(wù)器與 Apple 的 API 進行通訊,來更新或者查詢該設(shè)備的值。這兩個 bit 的數(shù)據(jù)用來追蹤用戶比如是否已經(jīng)領(lǐng)取獎勵這類信息。
- PDFKit - 這是一個在 macOS 上已經(jīng)長期存在的框架,但卻在 iOS 上姍姍來遲。你可以使用這個框架顯示和操作 pdf 文件。
- IdentityLookup - 可以自己開發(fā)一個 app extension 來攔截系統(tǒng) SMS 和 MMS 的信息。系統(tǒng)的信息 app 在接到未知的人的短信時,會詢問所有開啟的過濾擴展,如果擴展表示該消息應(yīng)當被攔截,那么這則信息將不會傳遞給你。擴展有機會訪問到事先指定的 server 來進行判斷 (所以說你可以光明正大地獲取用戶短信內(nèi)容了,不過當然考慮到隱私,這些訪問都是匿名加密的,Apple 也禁止這類擴展在 container 里進行寫入)。
- Core NFC - 在 iPhone 7 和 iPhone 7 Plus 上提供基礎(chǔ)的近場通訊讀取功能??雌饋砗?promising,只要你有合適的 NFC 標簽,手機就可以進行讀取。但是考慮到無法后臺常駐,實用性就打了折扣。不過筆者不是很熟這塊,也許能有更合適的場景也未可知。
- Auto Fill - 從 iCloud Keychain 中獲取密碼,然后自動填充的功能現(xiàn)在開放給第三方開發(fā)者了。UITextInputTraits 的 textContentType 中添加了 username 和 password,對適合的 text view 或者 text field 的 content type 進行配置,就可以在要求輸入用戶名密碼時獲取鍵盤上方的自動填充,幫助用戶快速登錄。
暫時先這么多,我之后如果發(fā)現(xiàn)什么有意思的事情再逐漸補充。如果你覺得還有什么值得一提的變化,也歡迎在評論里留言,我也會添加進去。