• <xmp id="om0om">
  • <table id="om0om"><noscript id="om0om"></noscript></table>
  • 模擬/建模/設計

    利用 NVIDIA GPU 實現量子動力學系統模擬

    量子動力學描述了遵守量子力學定律的物體如何與其周圍環境相互作用,從而實現對物質行為的預測。準確的量子動力學模擬為新材料、太陽能電池、電池、傳感器和許多其他尖端技術的開發提供信息。它們也是設計和構建有用的 量子計算機 (包括設計新型量子位、提高門保真度和執行設備校準)的關鍵工具。

    在實踐中,模擬量子系統極具挑戰性。動力學模擬的標準步驟包括準備量子態,在時間上演變,然后測量系統的某些屬性,例如系統的平均能量或其能量級別之間的過渡概率。在實踐中,這意味著要解決由薛定方程或林布萊德主方程控制的微分方程。多體量子系統由指數級大的希爾伯特空間表示,這使得傳統模擬方法難以解決精確解。

    為了克服這個問題,我們使用了巧妙的近似值和數值方法。我們面臨的挑戰是找到計算效率較高的近似值方法,同時保持較高的準確性。像張量網絡這樣的技術可以高效計算大規模量子系統的動力學,但難以處理高度糾結的系統。我們需要新的工具來擴展模擬技術的范圍,并探索更有趣和更相關的系統。

    柏林自由大學的研究人員 Jens Eisert 和 Steven Thomson 使用 NVIDIA GPUs 開發和測試了一種用于模擬量子動力學的強大新方法。他們的文章 《使用流方程揭示量子動力學》(Unravelling Quantum Dynamics Using Flow Equations),最近在《自然物理學》雜志上發表,提供了一種強大的新 GPU 加速方法來模擬這些系統。

    簡化的動力學模擬?

    Jens 和 Steven 攻克了使用 流方程方法 模擬量子系統的挑戰。流方程方法將描述量子系統的哈密頓矩陣 H 對角化,而不是取一個量子狀態并使其隨時間演變。這是通過對初始 H 應用大量無窮小的單元變換(U^{\dagger}HU,其中 U?是單元矩陣)來實現的。

    完整的單位變換是虛擬流時間變量 l 上的時間有序積分。當 l?從 0 到無窮大時,時間有序積分可確保每個步驟都與哈密頓量的時間演變相對應。事實證明,可以使用 GPU 高效并行執行此數值任務,從而提供一種易于處理的系統動力學模擬方法。

    流方程的主要優點是,模擬不受糾纏程度的限制,而是受數值程序所需的準確性的限制。這意味著誤差是一種數學截斷,其限制遠低于所謂的“糾纏屏障”,并且可以在需要更高的準確性時進行系統改進。

    第二個優勢是,二維或三維系統可以很容易地“展開”為一維表示,并通過流方程求解(圖 1)。模擬多維系統的能力對于現實世界的量子應用至關重要,因為現實世界通常需要考慮多個維度。

    On the left: a 2D lattice. On the right: a 1D chain. Image shows that a 2D system can be formulated as a 1D problem.
    圖 1. 兩維量子格系統“展開”為一維鏈的示例,具有非局部交互作用。 圖像改編自 Unravelling Quantum Dynamics Using Flow Equations

    遺憾的是,流方程并不是模擬量子動力學的萬靈藥。當初始 Hamiltonian 具有幾乎相同能量的多個狀態時,它們難以收斂,而這在一些非常有趣的情況下是常見的。這促使 Jens 和 Steven 提出了使用 所謂的 scrambling transforms 的創新想法。使用這些變換對初始 Hamiltonian 進行額外的變換“scramble”有助于消除否則會阻礙對角線化過程的退化(圖 2)。

    Two different approaches to solving a Rubik's Cube puzzle, the Standard Approach and the Scrambling Transforms Approach. The Scrambling Transforms Approach improves convergence of flow equations.
    圖 2. 對初始哈密頓量進行雜亂運算可以改善收斂到最終解。 圖像改編自使用流方程揭示量子動力學(Unravelling Quantum Dynamics Using Flow Equations)

    支持 GPU 的大規模動態模擬?

    使用流動方程技術的研究主要是分析性的,利用筆和紙找到避免繁瑣計算的巧妙方法。2023 年,Steven 和他的同事 Marco Schirò發表了基礎工作,將這種前景廣闊的技術轉變為一種功能強大且更可靠的數值方法,可以利用 NVIDIA GPU 的優勢。有關詳細信息,請參閱 準周期多體局域系統中運動的局部積分

    該方法非常適合并行化,因為底層的許多矩陣和張量乘法可以高效地拆分成許多較小的運算。單個 NVIDIA GPU(例如 Steven 使用的 NVIDIA RTX A5000)在數萬個核心上運行運算,與即使是最好的多核 CPU 相比,速度也大幅提升。

    即使僅考慮相對較小的系統和有限的 GPU 資源,CPU 和 GPU 之間的計算差距也會迅速擴大(圖 3)。在 CPU 上運行需要 2 小時以上的 24 次粒子模擬,在單個 NVIDIA GTX 1660Ti GPU 上可以在 15 分鐘內完成。使用 NVIDIA H100 Tensor Core 等更強大的數據中心級 GPU,預計會有更高的加速,這可以緩解內存瓶頸。

    Graph showing that flow equation computations are greatly accelerated with GPUs.
    圖 3. 在流動方程模擬中,GPU 的速度比 CPU 快了很多(對于 L = 24 粒子,速度提升了 8 倍以上)。圖片來源:Steven J. Thomson 和 Marco Schiro

    GPU 提供的加速使流動方程技術能夠應用于更大規模的 2D 系統,從而為量子物質的數值模擬開辟了新的前沿。

    Steven Thomson 表示:“GPU 對于這項工作的成功至關重要,我們專門開發了數值技術,以充分利用它們的優勢。如果沒有 GPU,我們的模擬運行時間將延長數十倍或數百倍。這不僅會花費不合理的時間,而且由于運行如此長時間的模擬所需的能源,還會帶來巨大的環境成本。”

    量子動力學的新維度?

    未來的研究將探索更大型 2D 和 3D 系統的流方程模擬,利用多節點 GPU 系統進一步突破量子動力學模擬的極限。通過在 Jens 和 Steven 奠定的基礎上進一步發展,研究人員將能夠模擬比以往更廣泛的量子系統,從而補充現有方法(如張量網絡)的優勢和劣勢。

    開始加速您的研究?

    這項開創性工作之所以能夠實現,部分原因在于 NVIDIA 學術資助計劃 ,該計劃允許研究人員免費使用 NVIDIA 計算資源,以進一步推進其工作。我們鼓勵專注于生成式 AI 和大語言模型 (LLM)、模擬和建模 (包括量子計算)、數據科學、圖形和視覺以及邊緣 AI 的研究人員 申請

    如需詳細了解與量子計算和模擬相關的 NVIDIA 計畫,包括用于開發大規模量子應用的 CUDA-Q 等工具,請訪問 NVIDIA Quantum

    ?

    0

    標簽

    人人超碰97caoporen国产