[目次]
「話題提供」 共通テーマ:高速ネットワーク

アトラス実験とグリッド・コンピューティング
〜世界規模のデータ解析環境の構築〜


森田洋平氏

高エネルギー加速器研究機構計算科学センター 森田 洋平
youhei.morita@kek.jp


     欧州合同原子核共同機関(CERN)では、ヒッグス機構の解明や超対称性理論などの検証をめざして、重心系エネルギー14TeVの陽子・陽子衝突を行うアトラス実験が 2006年に開始されます。これは日本を始めとする世界33ヶ国による国際共同プロジェクトで、各国の研究者が競い合ってデータの解析を行います。アトラス実験では年間数千テラバイト(数ペタバイト)におよぶ実験データが生成され、世界各地の地域解析センターをギガビット級ネットワークで接続して、膨大な量の実験データの解析を共同で進めます。アトラス実験の日本における地域解析センターは東京大学の素粒子物理国際研究センター(ICEPP)に設置される予定ですが、高エネルギー加速器研究機構(KEK)の計算科学センターでは、超高速ネットワークを用いて実験データを広域分散処理するための技術研究を行なっています。
     ネットワーク上の広域分散処理技術に関しては、ここ数年、グリッド・コンピューティングというキーワードのもとで標準化の機運が急速に高まってきました。高エネルギー物理学実験の分野でもグリッド・コンピューティングを積極的に活用するため、CERNを中心とした EU DataGridや、米国のPPDG (Particle Physics Data Grid), GriPhyN (Grid Physics Network)などの研究開発プロジェクトが急ピッチで進められています。日本でも産業技術総合研究所や東京工業大学を中心としたグリッドコンピューティングの研究者と、KEKとICEPPの高エネルギー実験の研究者による共同研究が始まりました。 アトラス実験のような大規模な高エネルギー実験では、数千人規模の研究者が世界中に分散した計算機資源にアクセスするための広域認証機構の確立や、数千台規模のCPUと、ペタバイト規模のストレージシステムを効率的に運用するための大規模クラスターの設計技術、さらに数百ミリ秒におよぶ遅延時間を持つ国際間ネットワークにおいて、ギガビット級の帯域をどのように活用していくか、などの克服するべき技術的課題があります。

    OHP資料(PDF:6565KB)

[目次]