諾獎得主哈薩比斯新作登Nature,AlphaQubit解碼出更可靠量子計算機
今天凌晨,新晉諾貝爾化學獎得主、DeepMind 創(chuàng)始人哈薩比斯參與撰寫的新論文登上了 Nature,主題是如何更準確地識別并糾正量子計算機內部的錯誤。
我們知道,量子計算機有潛力徹底改變藥物發(fā)現、材料設計和基礎物理學。不過前提是:我們得讓它們可靠地工作。
雖然對于傳統(tǒng)計算機花費數十億年才能解決的某些問題,量子計算機在幾小時內就可以搞定。然而,量子計算機比傳統(tǒng)計算機更容易受到噪聲的影響。如果想要量子計算機更可靠,尤其是在大規(guī)模情況下,則需要更準確地識別和糾正內部的錯誤。
因此,谷歌 DeepMind 聯合谷歌量子 AI 團隊發(fā)表了一篇論文,推出了 AI 解碼器 AlphaQubit,它能夠以 SOTA 準確性識別并糾正量子計算的錯誤。據介紹,這項工作匯集了谷歌 DeepMind 的機器學習知識和谷歌量子 AI 的糾錯專業(yè)知識,從而加速構建可靠量子計算機的進程。
兩支團隊表示,準確識別量子計算機錯誤是促使它們能夠大規(guī)模執(zhí)行長時間計算的關鍵一步,將為科學突破和更多新領域的發(fā)現打開大門。
Nature 論文的標題為《Learning High-accuracy Error Decoding for Quantum Processors》,即《學習量子處理器的高準確性錯誤解碼》。
- Nature 地址:https://www.nature.com/articles/s41586-024-08148-8
谷歌 CEO 桑達爾?皮查伊表示,「AlphaQubit 使用了 Transformers 解碼量子計算機,從而達到量子糾錯準確性新 SOTA。這是 AI + 量子計算的激動人心的交集。」
我們接下來看 AlphaQubit 的技術細節(jié)和實驗結果。
量子計算糾錯的原理
量子計算機利用最小尺度上物質的獨特屬性,例如疊加和糾纏,以比傳統(tǒng)計算機少得多的步驟解決某些類型的復雜問題。該技術依賴于量子比特,它們可以利用量子干涉篩選大量可能性以找到答案。
不過,量子比特的自然量子態(tài)很脆弱,可能受到各種因素的干擾,包括硬件中的微觀缺陷、熱量、振動、電磁干擾甚至宇宙射線,可以說無處不在。
量子糾錯通過使用冗余提供了一種解決方案:將多個量子比特分組為單個邏輯量子比特,并定期進行一致性檢查。AlphaQubit 解碼器通過利用這些一致性檢查來識別邏輯量子比特中的錯誤,從而保留量子信息,并進行糾錯。
如下動圖展示了邊長為 3(碼距離)的量子比特網格中 9 個物理量子比特(小灰色圓圈)如何形成邏輯量子比特。
其中,在每個步驟中,另外 8 個量子比特在每個時間步驟執(zhí)行一致性檢查(正方形和半圓形區(qū)域,失敗時為藍色和品紅色,否則為灰色),以通知神經網絡解碼器(AlphaQubit)。在實驗結束時,AlphaQubit 確定發(fā)生了哪些錯誤。
谷歌構建了一個神經網絡解碼器
AlphaQubit 是一個基于神經網絡的解碼器,基于 Transformers 構建,而該架構也是當今許多大型語言模型的基礎。
下圖為 AlphaQubit 的糾錯和訓練流程。a 為表面碼的一輪糾錯。b 為解碼訓練階段。預訓練樣本要么來自數據無關的 SI1000 噪聲模型,要么來自使用 p_ij 或 XEB 方法從實驗數據得出的誤差模型。
AlphaQubit 使用一致性檢查(consistency checks)作為輸入,旨在預測邏輯量子比特在實驗結束時的狀態(tài)是否與初始準備狀態(tài)發(fā)生了翻轉。通過一致性檢查,可以識別并糾正計算過程中出現的錯誤,確保邏輯量子比特狀態(tài)保持正確。
最終,AlphaQubit 可以報告其預測的置信度,從而有助于提高整體量子處理器的性能。
實驗及結果
實驗測試了 AlphaQubit 對量子處理器 Sycamore 中的邏輯量子比特的保護效果。谷歌使用量子模擬器在各種設置中生成了數億個示例。然后,通過為 AlphaQubit 提供來自特定 Sycamore 處理器的數千個實驗樣本,針對特定解碼任務對其進行微調。
在對 Sycamore 量子處理器的新數據進行測試時,AlphaQubit 在準確率方面設立了新的標準。在規(guī)模最大的 Sycamore 實驗中,AlphaQubit 的錯誤率比張量網絡方法低 6%。此外,AlphaQubit 的錯誤率比相關匹配方法低 30%。
在 Sycamore 量子處理器的實驗中,解碼準確性因實驗規(guī)模而異。對于小規(guī)模實驗(距離 3,對應 17 個物理量子比特)和大規(guī)模實驗(距離 5,對應 49 個物理量子比特),AlphaQubit 的解碼準確性均優(yōu)于其他方法。
具體而言,AlphaQubit 的表現超過了張量網絡(TN)方法,后者在大規(guī)模實驗中難以擴展。同時,AlphaQubit 也優(yōu)于相關匹配方法,盡管該方法在準確性和擴展性方面表現良好,但在解碼準確性上仍不及 AlphaQubit。
在一系列實驗中,解碼器 AlphaQubit 犯的錯誤最少。
良好的泛化能力
為了評估 AlphaQubit 在更大規(guī)模且錯誤率更低的量子計算機上的適應性,研究人員使用模擬的量子系統(tǒng)數據對其進行了訓練,規(guī)模達到 241 個量子比特,超出了 Sycamore 平臺的現有能力。
結果顯示,AlphaQubit 的性能優(yōu)于現有的主要算法解碼器,表明其在未來中型量子設備上也將具備良好的適用性。
在不同規(guī)模的實驗中,即從距離 3(17 個量子比特)到距離 11(241 個量子比特)的實驗中,AlphaQubit 的解碼準確性始終優(yōu)于相關匹配方法。需要注意的是,張量網絡解碼器由于在大規(guī)模實驗中運行速度過慢,未在此圖中顯示。
最后,該系統(tǒng)還展示了一些高級功能,例如能夠接收和報告輸入和輸出的置信度。這些信息豐富的界面有助于進一步提高量子處理器的性能。
當谷歌研究員在包含多達 25 輪糾錯的樣本上訓練 AlphaQubit 時,它在多達 100,000 輪的模擬實驗中保持了良好的性能,表明它能夠泛化到訓練數據之外的場景。
邁向更實用的量子計算
AlphaQubit 在利用機器學習進行量子誤差糾錯方面取得了重要的里程碑。但谷歌表示他們仍然面臨速度和可擴展性方面的重大挑戰(zhàn)。
例如,在一個快速的超導量子處理器中,每秒需要進行上百萬次一致性檢查。雖然 AlphaQubit 在準確識別錯誤方面表現出色,但目前還無法實時糾正超導處理器中的錯誤。谷歌還需要找到更高效的數據訓練方法,用于支持基于 AI 的解碼器。
目前,谷歌正在結合機器學習和量子誤差糾錯的前沿技術,努力克服這些挑戰(zhàn),為實現可靠的量子計算機鋪平道路,這些技術將有能力解決世界上一些最復雜的問題。