Google AI 變革:量子計算更接近現實應用

Ai

谷歌的AI突破將量子計算推向現實應用的更近一步

研究人員開發了一種由AI驅動的技術,以穩定量子狀態,這一突破可能使量子計算變得實用。

谷歌研究人員最近發現了一種新技術,這可能最終使量子計算在現實生活中變得可行,他們利用人工智能來解決科學上最持久的挑戰之一:實現更穩定的量子狀態。

在《自然》期刊發表的一篇研究論文中,谷歌Deepmind的科學家們解釋了他們的新AI系統AlphaQubit在糾正長期困擾量子計算機的持續錯誤方面取得了顯著成功。

“量子計算機有潛力徹底改變藥物發現、材料設計和基本物理學——前提是我們能讓它們可靠地運作,”谷歌的公告中提到。然而,沒有任何東西是完美的:量子系統極其脆弱。即使是最輕微的環境干擾——例如熱量、振動、電磁場或甚至宇宙射線——都可能擾亂其微妙的量子狀態,導致錯誤,使計算不可靠。

一篇三月的研究論文強調了這一挑戰:量子計算機在實際應用中需要的錯誤率僅為每一兆次操作中的一次錯誤(10^-12)。然而,目前的硬件錯誤率在10^-3到10^-2之間,使得錯誤修正變得至關重要。

“某些問題,傳統計算機需要數十億年才能解決,而量子計算機只需幾小時,”谷歌表示。“然而,這些新處理器比傳統處理器更容易受到噪聲的干擾。”

“如果我們想提高量子計算機的可靠性,尤其是在大規模應用時,我們需要準確識別和修正這些錯誤。”

谷歌的新AI系統AlphaQubit旨在解決這一問題。該AI系統採用了一種複雜的神經網絡架構,在識別和修正量子錯誤方面顯示出前所未有的準確性,在大規模實驗中顯示出比之前最佳方法少6%的錯誤,並比傳統技術少30%的錯誤。

它在從17個量子比特到241個量子比特的量子系統中保持了高準確性,這表明該方法能擴展到實用量子計算所需的更大系統。

背後的運作

AlphaQubit採用兩階段的方法來實現其高準確性。

該系統首先在模擬的量子噪聲數據上進行訓練,學習量子錯誤的一般模式,然後利用有限的實驗數據適應真實的量子硬件。

這一方法使AlphaQubit能夠處理複雜的現實世界量子噪聲影響,包括量子比特之間的交叉干擾、漏電(當量子比特退出其計算狀態時)以及不同類型錯誤之間的微妙相關性。

但不要過於興奮;你不會很快在車庫裡擁有一台量子計算機。

儘管其準確性很高,AlphaQubit在實際應用之前仍面臨重大挑戰。“在快速超導量子處理器中,每次一致性檢查每秒需測量一百萬次,”研究人員指出。“雖然AlphaQubit在準確識別錯誤方面表現出色,但在超導處理器中實時修正錯誤仍然太慢。”

“在更大的代碼距離上進行訓練更具挑戰性,因為示例更為複雜,並且在較大距離下樣本效率似乎較低,”Deepmind的一位發言人告訴Decrypt。“這一點很重要,因為錯誤率隨著代碼距離呈指數增長,因此我們預計需要解決更大的距離,以獲得大型深度量子電路所需的超低錯誤率,以達到容錯計算的要求。”

研究人員正專注於速度優化、可擴展性和集成等關鍵領域進行未來發展。

AI與量子計算形成了相輔相成的關係,提升了彼此的潛力。“我們預計AI/ML和量子計算將繼續作為計算的互補方法。AI可以應用於其他領域,以支持容錯量子計算機的開發,例如校準和編譯或算法設計,”該發言人告訴Decrypt,“同時,人們也在研究量子機器學習應用於量子數據,以及更具推測性的量子機器學習算法在傳統數據上的應用。”

這一融合可能代表了計算科學的一個關鍵轉折點。隨著量子計算機通過AI輔助的錯誤修正變得更加可靠,它們可能反過來幫助開發更複雜的AI系統,形成一個強大的技術進步反饋循環。

實用量子計算的時代,長久以來的承諾終於可能變得更近一步——儘管還不至於讓人擔心機器人末日的來臨。

這篇文章揭示了量子計算領域的一個重要進展,特別是透過AI技術的協助來解決量子錯誤問題。量子計算的潛力無疑是巨大的,但其實現的挑戰依然艱巨。AI的介入不僅能提高量子計算的可靠性,還可能促進AI本身的發展,形成一個良性循環。這種技術的交互作用,可能在未來的數據處理和計算領域帶來革命性的變化,值得我們密切關注。

以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *