[ 目次 ]  [ Q&A ]
SS研HPCフォーラム2006「次世代HPC技術が拓く大規模科学技術計算」

Lattice QCDにおける Petaflopsコンピューティング

■講演      PDF版 PDF file (25KB)

プレゼンテーション資料 PDF file (2.04MB)
写真 写真
筑波大学計算科学研究センター
宇川 彰
アブストラクト
 Lattice QCDは湯川秀樹に始まる素粒子の強い相互作用の基礎理論であり、Capability computingの極限例として、コンピュータ開発を含めてHPC分野の一つのドライバとなって来た。Lattice QCDの特徴をサイエンスとコンピューティングの両面から概観した後に、Pflopsクラスのシステムにより切り拓かれる世界を展望し、さらに米欧など世界各国とのコンペティションとコラボレーションを通じて形成されつつある VO(Virtual Organization)に触れる。



1.はじめに
 Lattice QCDは湯川秀樹に始まる素粒子の強い相互作用の基礎理論であり、Capability computingの極限例として、コンピュータ開発を含めてHPC分野の一つのドライバとなって来た。Lattice QCDの特徴をサイエンスとコンピューティングの両面から概観した後に、Pflopsクラスのシステムにより切り拓かれる世界を展望し、さらに米欧など世界各国とのコンペティションとコラボレーションを通じて形成されつつある VO(Virtual Organization)に触れる。
2.素粒子標準模型と Lattice QCD
 素粒子物理学は、自然を構成する基本要素は何かとの問いを追求する学問である。20世紀を通じての多大の努力により、現在までに、6種類のクォークと 6種類のレプトンを構成要素とし、強い相互作用・電磁相互作用・弱い相互作用の三つの知られた相互作用を記述する体系が「素粒子標準模型」として確立しつつある。QCD(量子色力学)は、この体系の中で、強い相互作用を記述する基礎理論である。
 自然界の物質が、「標準模型」に基づいてどのように理解できるかは、宇宙の歴史と密接に結びついている。宇宙は 140億年前のビッグバンにより誕生したが、その直後は超高温・超高密度の状態にあり、クォークやレプトンはプラズマ状態にあったと考えられている。このような状態から、どのようにして陽子や中性子などのハドロンが形成され、さらにそれらが反応して様々の元素を生成して行ったかは、我々の宇宙の成り立ちを理解することに直接関係する興味深い問題であり、QCDの研究の最大の課題でもある。
3. 計算の観点から見たLattice QCD

 QCDは 4次元時空の各点に定義されたクォーク場とグルオン場を基本変数とする、無限次元の非線形・強結合の力学系であり、解析的方法では解くことは困難である。Lattice QCDは、時空を 4次元離散格子で置き換え、格子点にのみ場の変数を定義した理論体系である。この形式を用いればモンテカルロシミュレーションにより数値的に QCDを解いてその予言を抽出することができる。
 QCDの相互作用は近接的であるので、4次元の物理格子を部分格子に分割し、各部分格子を計算ノードに割り当てる方法で並列化が可能である。通信は隣接ノードにしか発生しない。従って、高度なスケーラビリティを持つ問題の典型例と言える。
 Lattice QCDにおいて物理量はファインマンの経路積分により与えられる。この形式では、物理量は"作用"と呼ばれるクォーク場とグルオン場の関数を重みとして、格子上の全てのクォーク場とグルオン場に関する超多重積分平均により定まる。従って、モンテカルロ積分法が有効である。
 基本的なアルゴリズムは、HMC法(Hybrid Monte Carlo法)と呼ばれ、作用をエネルギー関数とみなした分子動力学法によりグルオン場のサンプルを生成し、これをメトロポリス法により採用・棄却して、目標とするモンテカルロサンプルの分布を生成する。
 HMCを始めとする Lattice QCD計算全般でコアとなるのは、クォークの作用を定める"クォーク行列"と呼ばれる大次元疎行列を係数とする連立一次方程式の求解である。CG法を始めとする反復法が用いられる。並列計算を行う場合の反復法一回あたりの、計算ノードあたりの計算量と通信量は正確な評価が可能である。一般に計算ノードの演算性能:メモリ性能:通信性能が高い水準で良くバランスしていないと、高い実効性能を実現できない特徴を持っている。計算量も膨大であり、これらが Capability computingの典型例となる理由となっている。
4. Lattice QCDとスーパーコンピュータ
 Lattice QCDは 1974年に定式化されたが、モンテカルロシミュレーションは 1981年から始まった。最初の計算は Vaxを用いた feasibiliy studyとでも言うべきものであった。1980年代を通じてベクトル型スーパーコンピュータの発展と共に急速な進歩を遂げ、我が国においても日立、富士通、NEC 三社のスーパーコンピュータが活躍した。1990年代前半になると、QCDシミュレーションを念頭に置いて開発された 10Gflopsクラスの超並列型コンピュータが活躍を始めた。米国のコロンビア・マシン(N. Christ等)、GF11(D. Weingarten)、イタリアの APE(G. Parisi等)、日本の QCDPAX(岩崎洋一・星野力等)などである。1990年代後半には、500Gflopsクラスの超並列機CP-PACS(日本)と QCDSP(米国)が開発され、エポックメイキングな計算が行われた。2000年台に入ると、QCDSPは 10Tflopsの性能を持つ QCDOCへと発展した。IBMは QCDOCから出発して低消費電力・高密度実装を特長とする超並列機 BlueGene/Lを開発した。これが現在の HPC上位を席巻していることは周知のことである。QCDOCに対抗して、日本(PACS-CS)、イタリア(ApeNext)においても 10Tflopsクラスのマシンが開発され、Lattice QCDは 10Tflopsスケールの計算が日常的に行われる時代に突入している。
 このような発展を通じて、Lattice QCDは超並列型計算機による Capability computingの先頭を走る分野であったと言える。このことを反映して、Top500リストあるいは Gordon Bell Prizeには Lattice QCDに関係したシステムがしばしば登場している。
5. エポックメイキングな計算
 Lattice QCDには 1981年からの歴史があり、その中でエポックメイキングな計算が幾つか行われて、研究の発展の区切りとなってきた。クェンチ近似によるハドロンの質量スペクトルの精密計算(1998年 CP-PACS)はその一つである。連続極限を含む全てのステップを実行して最終結果を数%精度で求めることの出来た最初の例である。
 K中間子が二つのπ中間子に崩壊する反応振幅は、CP非保存(物質と反物質の非対称性)を理解する上で鍵となる物理量であるが、極めて複雑且つ高度な計算である。1980年代からの度重なる失敗の後に、2003年に初めてクェンチ近似が成功(QCDOC及びCP-PACS)したが、実験結果とは符号すら一致しない結果となった。Lattice QCDのグランドチャレンジとなっている。
 2000年前後からは、クォークの動的効果を取り入れた計算が進歩を始めている。自然界には 3種類の軽いクォーク(up, down, strange)があり、これらについては動的効果が特に重要である。米国の MILC Collaborationを中心とする計算では、米国・英国の多くの研究者が協力して様々な物理量を求め、クェンチ近似では実験値とのずれが 10%にも及ぶところが、動的クォークを取り入れると誤差数%の範囲で全て実験値と一致することが示された。
 同様な計算は、異なる作用を用いて日本(筑波‐KEK)においても追求されており、中間子スペクトルの数%精度での計算と実験の一致の検証、クォーク質量の評価が行われ、従来実験の解析に用いられてきた現象論的値に比べ約50%程度軽い値が得られている。
6. Pflops computing と Lattice QCD
 Lattice QCD計算の現状を一言で要約すれば、ハドロンの一体問題、即ち陽子や中性子などの 1個 1個のハドロンの性質をクォーク・グルオンの第一原理から解き明かすことが、漸く可能となったと言える。即ち、1個のハドロンを入れるのに十分なサイズの格子(3fm程度以上のサイズ)と、自然界のクォークに対応する軽い質量の動的クォークを用いた計算が、ここ数ヵ年で実現の見込みがついた。この背後には、最近のアルゴリズムの発展(領域分割法やマルチタイムステップ法の HMCへの適用)による計算の高速化と、10Tflopsクラスの計算が日常的に可能となった計算リソースの充実がある。
 このような状況に立って、Pflops計算が目標とすべきは、ハドロン多体系の計算である。これには、様々の原子核の存在や宇宙の元素合成を支配する核子間ポテンシャルの計算や、ハドロン相からクォーク・グルオン・プラズマ相への相転移や、クォーク・グルオン・プラズマ相の物理的性質の計算などがある。これらは、宇宙の歴史の中で、現在の宇宙の成り立ちを決める重要な過程である。同時に、世界的な規模で進められている高エネルギー加速器実験(RHIC, J-PARC, LHC)の重要な目標でもあり、理論・実験・計算が協力しあって進む自然の研究の最先端なのである。
7. Lattice QCDと国際協力
 Lattice QCDでは、その時代時代のトップマシンを使って、数ヶ月から数ヵ年にわたる計算が行われる。グルオン場の配位のモンテカルロサンプルが数千から数万個生成され、これが基本データとなる。実際、グルオン場の配位ファイルがあれば、その上では様々の物理量を二次解析により求めることができる。その意味でグルオン場の配位は Lattice QCDの基本データである。
 膨大な計算が必要であるために、グルオンの配位を生成することの可能な計算リソースを持つ拠点は世界的に見ても 10ヶ所程度に過ぎない。従って、グルオン場の配位を蓄積し、国際的に公開・共有して二次解析を可能とすれば、研究の推進には大きな意味がある。
 このような考えを動機として、Lattice dataの国際的なデータグリッドを構築し、それを通じて国際的な Lattice QCDの研究と協力の体制を作ろうとする動きが International Lattice Data Grid(ILDG)として 2003年以来行われている。グルオン配位を記述するための XMLによるメタデータ国際標準 QCDml、データを蓄積する際に用いるファイルフォーマットの国際標準、さらにはグルオン配位を検索しダウンロードするためのインターフェースの国際標準が 2004年から 2005年にかけて制定され、各国で拠点サイトの形成とミドルウェアの実装、グルオン配位データの蓄積が進められている。
 我が国では、ILDGに対応する国内データグリッドとして JLDGを構築することが 2005年秋に筑波大・KEK・京大・広島大で合意され、ILDGとのゲートウェイとして Lattice QCD Archive(LQA)が構築運用されている。
8.まとめ
 サイエンスとしての Lattice QCDは、素粒子・原子核から宇宙の進化と物質の起源を解き明かす基礎物理学の重要課題である。1980年代からのマシン開発と計算の双方の努力の結果、現在、一体問題(素粒子)が漸く解決の見込みがつき、多体問題(原子核から宇宙へ)への展開が喫緊の課題となっている。
 計算科学としての Lattice QCDは、近接相互作用する場の量子力学系として、並列計算に極めて高いスケーラビリティを持つ問題であり、従来から Capability computingの代表例であったが、次のステップにおいても Pflopsスケールを超える計算を必要としている分野である。
 国際的には、Lattice QCDは、コンピュータ開発と研究の両面で、従来から非常に厳しい競争のある分野である。近年はそれと並行して、ILDGを通じて国際協力の動きが活発であり、将来的な国際的研究環境の基盤になると考えられる。

[ 目次 ]  [ Q&A ]

All Rights Reserved, Copyright©サイエンティフィック・システム研究会 2006