
圖片來源@視覺中國
文 | 陳根
當前,量子時代正在加速到來。量子領域中,最為人們所關注的就是顛覆經典計算的量子計算。作為一種依照量子力學理論進行的新型計算,量子計算能夠利用量子的狀態重疊和相互糾纏來產生巨大的計算能力。
當然,正如經典計算一樣,量子計算想要運行,也需要遵循一定的算法——就像普通算法是用來支持普通計算機解決問題的程序一樣,量子算法是為超高速量子計算機設計的算法。量子算法不僅成全了量子計算機的無限潛力,也為人工智能帶來了新的發展可能。
量子計算機也是可以計算的
基于量子疊加態最讓人們期待的應用,就是運算功能超級強大的量子計算機。
在量子計算出現以前,經典計算機采用二進制的“位”(用“0”或“1”表示)作為信息存儲單位,進而實現各種運算。而經典計算運算過程則是經由對存儲器所存數據的操作來實施的。并且,經典計算機無論其存儲器有多少位,一次只能存儲一個數據,對其實施一次操作只能變換一個數據。因此,在運算時,必須連續實施多次操作,這就是串行計算模式。
與經典計算機不同,量子計算機的信息單元是量子位。量子位最大的特點就是其可以處于“0”和“1”的疊加態,即一個量子位可以同時存儲“0”和“1”兩個數據,而傳統計算機只能存儲其中一個數據。比如一個兩位存儲器,量子存儲器可同時存儲“00”“01”“10”“11”四個數據,而傳統存儲器只能存儲其中一個數據。
也就是說,n位量子存儲器可同時存儲2n個數據,它的存儲能力將是傳統存儲器的2n倍。因此,一臺由10個量子位組成的量子計算機,其運算能力就相當于1024位的傳統計算機。而對于一臺由250個量子位組成的量子計算機(n=250),它能存儲的數據將比宇宙中所有原子的數目還要多。
換言之,即使把宇宙中所有原子都用來造成一臺傳統的經典計算機,也比不上一臺250位的量子計算機。
不過,一直以來,以怎樣的方式才能把這些量子位連接起來,怎樣為量子計算機編寫程序,以及怎樣編譯它的輸出信號,都是實現量子計算機超強運算能力的嚴峻挑戰。直到1994年,貝爾實驗室的彼得·肖爾(Peter Shor)提出了一種量子算法,能有效地分解大數,把分解的難度從指數級降到了多項式。
彼得·肖爾從理論上展示了量子計算機能夠把質因數分解問題的求解,從指數時間降到多項式時間。目前通用的計算機加密方案——RSA加密,利用的就是質因數分解的時間復雜性:用目前最快的算法對一個大整數進行質因數分解,需要花費的時間都在數年以上。但通過彼得·肖爾的算法,一臺量子比特數足夠多的量子計算機,能夠“輕易”破解RSA模型下的任何大整數。彼得·肖爾因此榮獲1999 年理論計算機科學的最高獎——哥德爾獎。
根據彼得·肖爾的測算,分解一個250位的大數,傳統計算機用今天最有效的算法,再讓全球所有計算機聯合工作,也需要幾百萬年。而量子計算機只需幾分鐘。量子計算機分解250位數時,進行的是10的500次方的并行計算。這是量子領域一個革命性的突破,這意味著,量子計算機也是可以進行計算的,并由此引發了大量的量子計算和信息方面的研究工作。
在彼得·肖爾開發出第一個量子算法不久后,1996年,貝爾實驗室的洛弗·格羅弗(Lov Grover)也稱他們發現了一種可以有效搜索排序的數據庫的算法。該算法能夠在非結構化數據中進行閃電般的搜索。普通搜索算法花費的時間通常與要搜索的項目數n成正比,而格羅弗算法復雜度僅為n的負二次方。因此,如果將數據大小變為原來的100倍,普通算法執行搜索所需時間也會變為100倍,而格羅弗算法只需要原來所需時間的10倍。
當量子算法結合人工智能
自Peter Shor發表第一個量子算法(分解大數質因子量子算法)以來,數學家和計算機科學家們就已經開發出其他量子算法來解決經典計算機難以解決的問題。在這幾十種量子算法中,許多都比我們所知道的最有效的經典算法快幾個數量級。當然,這些算法只有在它們所處的獨特量子環境中才能實現。
實際上,量子計算領域的一些最重要的工作就是創建模擬各種量子系統的算法,這些系統從激光技術到化工醫學無所不包。這些量子算法將在很大程度上超過類似的經典計算,而為量子計算機賦予超強的計算能力。
目前,進行分子模擬的經典算法僅限于它可以模擬的分子類型,這些算法通常只限于自旋軌道少于70個的分子,并且,由于且模擬的復雜性增長得非常快,以至于變得越來越難以處理。
而一個量子比特就能足夠有效地代表這些軌道中的一個,一個只有100個量子比特的量子計算機將能夠進行經典計算機望塵莫及的分子模擬。這些模擬可能揭示各種以前未知的化合物,并為各種疾病提供新的治療方法。
從深度優先搜索(depth-first search)到絕熱優化(adiabatic optimisation),量子算法應用廣闊,而且在不斷進步。當這些算法真正投入使用,商業、行政、醫學、工程等領域一些最令人沮喪的,棘手的,指數級的問題都將迎刃而解。
量子算法除了為量子計算機的無限潛力,也為人工智能帶來了新的發展可能。基于量子的疊加和糾纏等原理,使得量子算法非常適于解決人工智能和機器學習中核心的優化(Optimization)過程類問題,所以從2018年開始,以谷歌為代表的企業紛紛開始投入量子人工智能,特別是與深度學習相結合的領域。
在量子算法和人工智能結合的領域里,具有代表性的成果包括Google公司在2020年提出的Tensorflow Quantum(TFQ)框架。TFQ是一種量子-經典混合機器學習的開放源代碼庫,允許研發人員在設計、訓練和測試混合量子經典模型時,可以模擬量子處理器的算法,在最終聯機時,還可以在真實量子處理器上運行這些模型的量子部分。TFQ可用于量子分類、量子控制和量子近似優化等功能。
可以說,人工智能和機器學習是量子算法發展的關鍵。人工智能想要快速獲取“智慧”,只要通過量子算法和人工智能的結合,讓它在人類社會中迅速學習,在尋找最優解的問題上,只需幾個月時間就能超越人類。
IBM的理論工作已經證明,即使僅訪問經典數據,我們也可以在某些受監督的機器學習應用程序中實現指數級加速。
QC Ware QC Ware開發了兩種類型的數據加載器,即并行數據加載器和優化數據加載器,它們都將經典數據轉換為量子狀態以用于機器學習應用,而且還可以使用一種優化的距離估計算法。
Matthias Troyer(微軟)提出一個普遍的觀點,為避免“輸入瓶頸”,我們應該著眼于“小數據,大計算”。比如,CQC成立了一個團隊來研究量子自然語言處理的相關問題。Hartmut Neven(Google)則發明了另一種獨特但微妙的量子機器運行原理。
雖然量子算法許諾了人們無限美好的計算前景,不過,當前,量子算法的執行仍然缺乏可用的量子硬件——這些算法所缺乏的是與之相對應的,具有足夠量子比特的,足夠強大的量子計算機。這些硬件挑戰本質上是技術性的,而且克服這些困難的途徑也是明確的。但是,如果量子機器學習要成為量子計算機的“殺手級應用”,那么,這些困難必須被克服,這些困難也終將被克服。(本文首發鈦媒體APP)

