自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

華為在手機上,率先實現(xiàn)本地端自然語言搜圖功能

移動開發(fā)
在手機上用自然語言搜本地相冊圖片,業(yè)界首個移動端多模態(tài)語義檢索引擎,改變了我們的手機使用體驗。

習慣了搜索引擎的我們,在手機上找本地文件的時候往往卻束手無策:如今每個人的智能手機上,存上千張照片已是常態(tài),有時候想找某張具體的照片就像大海撈針。

不過在今年華為的 P60 系列發(fā)布會上出現(xiàn)了這樣一項功能 —— 智慧搜圖,基于多模態(tài)大模型技術在端側輕量化應用,手機上第一次有了自然語言圖片搜索能力。既然是自然語言,就意味著在找圖這件事上可以對手機講人話了。

如果記不得想找的照片是何時何地拍攝的,只大概記得照片中出現(xiàn)的人或物怎么辦?只要把能想到的幾個詞寫到搜索框里,智慧搜索就能給你找到:

圖片

或者用語音喚醒小藝用一句話形容想要找的照片內容,比如搜索「去年在長白山滑雪的照片」,就可以直接找到手機里所有那次去玩的照片:

圖片

再進一步,你也可以搜索「騎自行車的人」、「戶外的聚會」等描述性的概念。

相比以前基于標簽的照片搜索方式,智慧搜圖可以讓手機更加「聰明」,響應速度更快,輸出結果更高效。結合多模態(tài)語義模型技術,華為的智慧搜圖在云端對上億級圖文數(shù)據(jù)進行了預訓練,對更通用化的語義擁有了理解能力。更重要的是,模型部署在端側,搜索計算是在本地完成的,進一步保護隱私安全。

這不禁讓人懷疑,華為的手機是不是已經(jīng)有了破除圖形驗證碼的能力?

圖片

手機自然語言搜圖,為啥這么難?

以前在很多手機上,你可以通過輸入時間、人物、地點等關鍵詞找到想要的特定照片。這是通過 AI 算法識別圖片類型和文字,以及地理信息等文件固有標簽來實現(xiàn)的,不過一般來說,它們只能識別出有限的類別。

在使用「常規(guī)」方法時,你需要通過短標簽及其組合進行搜索,例如「風景」、「貓」、「食物」等等,手機支持的短標簽數(shù)量有限,只能滿足你的一小部分意圖,大部分時候還是需要手動去相冊里翻找,效率很低。

圖片圖片

標簽都給你打好了,但選擇的種類有限。

這并不奇怪,因為在它的后端頂多是簡單的圖像識別模型,搜索的自由度趨近于無,當然也不能理解人的意圖。在使用這樣的系統(tǒng)時,有時候結果會變成讓我們猜模型到底能識別哪些標簽。

要想實現(xiàn)「智慧搜圖」,AI 模型需要能同時理解自然語言與圖像兩種模態(tài)的數(shù)據(jù),而在手機上,我們還需要使用一系列壓縮算法盡可能利用有限的算力,并從工程角度盡量加快推理速度。

具體而言,先不管部署到手機端的困難,要想實現(xiàn)對圖片和文本的語義級理解,讓手機自己「看懂照片」,我們需要經(jīng)歷一段三步走的過程。

圖片圖片

物理世界產(chǎn)生的非結構化數(shù)據(jù)如圖片、語音和文本,在 AI 算法中會被轉化為結構化的多維向量,向量標識出關系,檢索就是在計算向量之間的距離,通常距離越近相似度就越高。

構建智慧的搜圖技術,首先需要訓練多模態(tài)語義模型,通過對比學習令相同語義的文字與圖片距離特別近,不同語義的數(shù)據(jù)距離特別遠,從而把自然語言及圖片等多模態(tài)數(shù)據(jù)轉換成相同語義空間下的向量;其次,我們需要使用該多模態(tài)模型編碼被檢索的圖片;最后當我們輸入一句話時,手機就會通過檢索系統(tǒng)快速地定位與內容相匹配的圖片了。

在整個語義搜圖的過程中,首要的挑戰(zhàn)是如何更好地將語義相同的圖片與文字匹配起來。多模態(tài)模型需要編碼用戶的個人圖片,最好是將模型部署在手機端側,而部署到手機端,就意味著必須對多模態(tài)模型進行壓縮與加速,這里將需要大量的工程實踐。

業(yè)界首個手機端多模態(tài)語義模型

這個「智慧搜圖」的背后,是華為通過輕量化的多模態(tài)語義模型,讓手機可以高效理解自然語言和照片含義,實現(xiàn)了業(yè)界首個可端側部署的輕量化多模態(tài)語義模型。相比傳統(tǒng)打標簽的方式,它的體驗可是要好太多了。我們不再需要猜測圖片的標簽,直接輸入自然語言就能檢索到對應的圖片。毫不夸張地說,它讓手機本地搜圖,從難用跳到了好用。

基礎:多模態(tài)模型

在人工智能領域里,Transformer 是個里程碑式的技術,它既催生了 ChatGPT 這樣的 NLP 技術突破,也在視覺領域上擁有非常不錯的效果。通過 Transformer 對文本與圖片同時進行表征,再通過弱監(jiān)督對比學習拉近相同語義的圖片與文字,拉遠不同語義的圖片與文字,我們就能獲得一個不錯的多模態(tài)模型。

這其中的重點在于對比學習,如下圖所示,常規(guī)的對比學習方法會將圖片與文本分別編碼為不同的向量,并將該向量映射到聯(lián)合多模態(tài)語義空間之中。因為不同模態(tài)的數(shù)據(jù)表示之間可能存在差異,無法進行直接的比較,因此先將不同模態(tài)的數(shù)據(jù)映射到同一個多模態(tài)空間,從而有利于后續(xù)的模型訓練。

圖片圖片

選自 arxiv: 2102.12092。

在多模態(tài)的對比學習中,其目標函數(shù)即讓正樣本對(上圖藍框部分,I1T1、I2T2... )相似度很高,負樣本對(上圖白框部分)相似度很低。通過這種訓練,自然語言天然就能和圖像匹配上,不同模態(tài)的數(shù)據(jù)就能對齊。

為了提升模態(tài)間的對齊效果,華為通過提高正樣本的相關性,并在算法層面對負樣本去噪,再借助更大、更高質量的數(shù)據(jù)源,提升模型表征的準確性,從而提升語義搜索的準確性和召回率。與以往基于有限的標簽集合給圖片打標簽,再通過標簽來進行搜索的方式相比,基于語義表征進行搜索的方式能大幅提升圖片檢索的靈活性。

優(yōu)化:模型的極致壓縮

多模態(tài)是當前非常熱門的 AI 研究領域,但除了華為的「智慧搜圖」,還沒有人能把整個推理過程都部署到手機端。其中的工程難點,顯然在于如何將多模態(tài)模型在效果基本無損失的情況下,壓縮到能在手機等邊緣設備上運行。

在這里,也許我們需要考慮整個模型架構的參數(shù)效率,優(yōu)化模型結構以在最小的計算量上達到最優(yōu)的效果。例如卷積神經(jīng)網(wǎng)絡中 EfficientNet,Transformer 類模型中的 Multi Query Attention,它們都嘗試優(yōu)化模型結構以令參數(shù)效率達到更優(yōu)?!钢腔鬯褕D」也一樣,通過優(yōu)化多模態(tài)模型架構,使得整體訓練能獲得更好的效果。

除了技術上的更新,部署到移動端更大的挑戰(zhàn)還是在工程上。與平常我們在 GPU 上訓練與推理模型不同,移動端缺少便捷高效的算子實現(xiàn),優(yōu)化起來也困難重重。舉例來說,手機端的 CPU 芯片基本是精簡指令集 Arm 架構的,那么機器學習編譯器在做優(yōu)化時就需要考慮很多指令層面并行處理,來最大程度利用有限的計算力。

針對底層硬件的優(yōu)化適配,華為將模型的海量矩陣乘法分解到手機端 CPU 與 NPU 等設備上,并通過圖算融合等方式構建出能在手機端高效運行的底層算子,進而支持整個模型的高效推理。

總結來說,華為「智慧搜圖」輕量化模型通過更多的數(shù)據(jù)、更優(yōu)的算法等補償性設計及一些模型輕量化技術,首次將多模態(tài)模型部署到手機端,從而提供更好的圖搜體驗。

實用:向量檢索引擎

我們期望通過圖片信息、時空維度等不同線索,快速找到與心中期待相符的圖片,而圖片與自然語言請求都是多模態(tài)語義空間的向量。因此,華為面向端側場景自研輕量級向量檢索引擎,支持對海量數(shù)據(jù)進行向量索引構建,且支持時空(時間、地點)語義一站式融合檢索,可以便捷、高效地通過 Query 語義特征找出匹配的照片。

圖片

上圖是一個簡單的向量檢索引擎,假設移動端多模態(tài)模型已經(jīng)將相冊內的圖片編碼為一條條向量,并持久化存儲到「Vector Database」中。每當用戶有需要搜索的請求,該請求將通過「Embedding Model」,即多模態(tài)模型中的文本 Encoder 部分,將文本編碼為一條向量,該向量會從向量數(shù)據(jù)庫中搜索以找到一批最接近的圖像。

為了在移動端獲得更好的搜圖效果,華為自研的輕量化向量檢索引擎做了一系列創(chuàng)新與優(yōu)化。

在構建索引時,如果采用云側常用的離線定期全量構建的方式,將會顯著的增加功耗開銷,因此華為在手機端采用增量實時寫入的方式。并且出于可靠性目的,增量寫入的數(shù)據(jù)會持久化到索引中。

同時,為了提高索引加載和檢索的效率,索引的格式也是特別定制的,語義向量檢索將地點、時間等信息作為索引的一部分,在檢索時可以快速實現(xiàn)條件過濾,并返回與查詢語句最相關的結果。只要關鍵字落在時間、地點等常見搜索條件,索引格式創(chuàng)新帶來的加速,相比純數(shù)據(jù)庫檢索,能快十多倍。

但定制化的索引格式也會帶來一些困難,即新寫入的索引數(shù)據(jù)不一定都保存在索引的尾部。例如在故宮新拍了一張照片,那么該照片向量的索引,需要插到同地點的那一部分索引當中,也就導致之前所有的索引都需要覆蓋重寫一遍。尤其是數(shù)據(jù)越來越多,如果我有十萬張圖片,難道每次拍一張照,十萬多條索引都需要重寫一遍?

在這里,華為再次找到了創(chuàng)新解法,其采用索引分段及壓縮合并兩種方式進行優(yōu)化,索引分段能顯著降低單次插入索引時間,通過定期進行壓縮合并,完成已刪除數(shù)據(jù)占用內存 / 磁盤資源的回收,達到了顯著降低資源開銷的目的。

一系列優(yōu)化后,智慧搜圖的能力也不僅限于高配置的旗艦級手機。除目前的 P60 系列和 Mate X3 之外,更多設備未來也會隨 HarmonyOS 3.1 的升級陸續(xù)獲得這樣的能力。

智慧搜索:打造 HarmonyOS 生態(tài)的系統(tǒng)級入口

當然,最新的 HarmonyOS 3.1 版中,智慧搜圖只是眾多新能力的一小部分。光是搜索上,華為就帶來了不少黑科技。

除了智慧搜圖之外,華為智慧搜索將不斷跨越不同 App、端側設備、云端和本地的邊界,實現(xiàn)真正意義上的全局搜索,結合華為長期實踐的「軟硬芯云一體化」能力,讓端側預置 AI 模型實現(xiàn)毫秒級響應速度,消除跨終端聯(lián)動的延遲感,實現(xiàn)「多臺設備合體」的搜索體驗。

現(xiàn)在是以 App 為主的移動互聯(lián)網(wǎng)時代,搜索有很大一部分已從網(wǎng)頁轉移到了更封閉的 App 上,華為智慧搜索卻可以做到從一站式的入口獲取全局內容,打破信息孤島。

圖片

在打通所有邊界之后,華為還通過 AI 技術實現(xiàn)了高效率的服務流轉和更聰明的「意圖搜索」能力。讓搜索引擎理解人的意圖,提供最合適的智慧服務,手機上的搜索框再也不是簡單的查詢工具。

還記得四年前華為在開發(fā)者大會上發(fā)布的初版 HarmonyOS 嗎?當時 HarmonyOS 的定義是一個全場景分布式系統(tǒng),現(xiàn)在的 HarmonyOS 已經(jīng)發(fā)展出了豐富的生態(tài),下一步要做的則是統(tǒng)一:通過系統(tǒng)級能力的提升做到一個框架,掌控全局。

這種整合落到搜索上,就是無感知的大范圍能力調用和響應,華為內部將其稱為「全搜」能力。智慧搜索或將成為 HarmonyOS 生態(tài)的系統(tǒng)級入口,帶來遠超搜索框定義的功能與服務。

當需求不再被設備和形式所限制,一切以人為中心,這才是萬物互聯(lián)時代該有的樣子。這也讓我們對下一個 HarmonyOS 的產(chǎn)品,充滿了期待。

責任編輯:張燕妮 來源: 機器之心
相關推薦

2024-08-07 10:39:47

ChatGPT自然語言企業(yè)數(shù)據(jù)

2021-05-13 07:17:13

Snownlp自然語言處理庫

2021-04-21 10:22:56

Python 開發(fā)編程語言

2009-11-25 14:31:43

PHP自然語言倒序

2020-04-24 10:53:08

自然語言處理NLP是人工智能

2024-02-05 14:18:07

自然語言處理

2011-10-21 10:26:51

Howdy明信片

2021-05-17 09:00:00

自然語言人工智能技術

2017-10-19 17:05:58

深度學習自然語言

2021-05-18 07:15:37

Python

2024-04-24 11:38:46

語言模型NLP人工智能

2011-01-24 15:04:01

Windows Pho

2023-05-14 23:42:58

ChatGPTOpenAI自然語言

2009-11-25 14:25:14

PHP自然語言排序

2023-08-07 08:41:45

自然語言模型因果推理

2012-05-15 11:27:33

搜道秀

2023-08-04 10:18:15

2012-12-26 10:29:02

2013-07-16 10:08:51

MIT編程語言

2021-03-26 11:02:20

Python自然語言API
點贊
收藏

51CTO技術棧公眾號