丸紅グループのIT基盤を構築した技術力で実現する企業セキュリティ対策。 ソリューションとサービスはこちら

宇宙の謎を解き明かす「エクサバイト」の領域へ ~東京大学 素粒子物理国際研究センターが挑む、次世代ストレージ基盤の刷新~

スイス・ジュネーブ郊外、地下約100メートルに敷設された全長約27キロメートルの巨大な加速器「LHC」。世界最高エネルギーで陽子同士を衝突させ、宇宙誕生直後の状態を再現するこの国際プロジェクトの最前線に、日本から深く関わっている研究機関がある。東京大学 素粒子物理国際研究センター(ICEPP)だ。ノーベル物理学賞を受賞した小柴昌俊特別栄誉教授を初代施設長として設立された同センターは、現在、欧州合同原子核研究機関(CERN)で実施されている「ATLAS実験」のなかで、膨大な実験データの解析・管理を担っている。

取り扱うデータ量はすでに「エクサバイト(100万テラバイト)」という想像を絶する領域に達している。さらに、2040年頃まで続く長大な実験計画の中で飛躍的に増大する。この巨大なデータの荒波を乗り越え、宇宙の成り立ちという究極の問いに答えるため、ICEPPは今回、丸紅I-DIGIOグループからサーバー・ストレージを調達し、システムを刷新した。本稿では、素粒子物理国際研究センター 准教授 博士(理学)の澤田 龍 氏にお話を伺い、物理学の最先端を支えるインフラの要件と、システムが切り拓く未来の展望を明らかにする。

導入の経緯

1. 世界最先端の素粒子物理を研究する東京大学 素粒子物理国際研究センター

東京大学 素粒子物理国際研究センター(ICEPP)の使命は明確だ。物質を構成する最小単位である「素粒子」を研究し、この世界の基本法則を解き明かすことにある。同センターは、日本の素粒子物理学研究を牽引する中核拠点であり、その歴史は常に世界の最先端と共にある。

同センターの最大の特徴は、「実験」に主眼を置いている点だ。特に、国際的な枠組みでの活動が中心となっており、スイスのCERNにおけるATLAS実験は、同センターにとって最も重要な活動の柱となっている。

CERNのLHC(大型陽子衝突型加速器)は、世界で唯一、最高エネルギーで陽子と陽子を衝突させることができる装置である。ここで得られる衝突データは、宇宙誕生から1兆分の1秒後という極限状態の情報を内包している。ICEPPは、この世界最高の実験環境から生み出されるデータを解析し、物理学の地平を広げるための国際的な拠点としての役割を果たしている。

また、同センターは物理学の未来を見据え、量子コンピューターの実用化研究にも着手している。「素粒子自体が量子ですから、素粒子の反応は量子力学的な確率で記述されます。量子コンピューターのアイデアが出てきた段階で、物理学者のリチャード・ファインマンが、自然界の物理現象を正しく計算するには従来型のコンピューターではなく量子コンピューターが必要だと言っていました。それは40年以上前の話ですが、我々もテクノロジーの発展を素粒子の計算に用いることを目指し、実用化のための研究を行っています」と澤田准教授はいう。

このように、伝統的な実験物理と最先端の計算科学を融合させることで、宇宙の真理へ多角的にアプローチしているのが、ICEPPという組織の本質である。

2. エクサ級のデータの入出力を自在に処理できるネットワークとサーバーの必要性

素粒子実験が直面する最大の壁は、データの規模そのものである。ATLAS実験で取り扱うデータ量は、現在すでに「1エクサバイト」規模に達している。これは1,000ペタバイトに相当する膨大な量であり、一般的な企業のデータ保持量とは文字通り桁が違う。

澤田准教授は、「データ量が膨大で、現在ATLAS実験全体で取り扱っているデータ量は1エクサバイト以上になります。そのデータ量は一つの計算機施設で管理するには大きすぎます」と、その規模感と管理の困難さに言及する。

この膨大なデータを処理するために構築されているのが、「WLCG(Worldwide LHC Computing Grid)」と呼ばれる世界規模の計算機グリッドである。世界中の大学や研究所の計算機施設(サイト)を専用の学術ネットワークで繋ぎ、全体で一つの巨大なシステムとして機能させる仕組みだ。

それぞれのサイトは単にデータを保存するだけでなく、世界中の研究者がアクセスし、データをやり取りしながら複雑な計算プロセスを走らせるための高い入出力性能が求められる。しかも、ここで扱うデータボリュームは、全体としてはエクサバイト級という膨大なものだ。東京大学にあるICEPPの計算機施設は、このWLCGにおける重要なサイトの一つである。これほどの規模のデータを自在に操るためには、単なる「箱」としてのサーバーではなく、グローバルなネットワークの一部として極めて高いスループットを維持できるものである必要があったのである。

2040年を見据え、増大し続ける研究データを支障なく活用できるサーバーへ

3. 増大し続ける実験データに耐えられるサーバーをできるだけ省スペースで

データの増大は、現在進行形の事態である。しかもその速度は、今後さらに加速することが確定している。刷新の背景には、2040年頃まで続く長大な実験計画を見据えた、冷静な計算があった。

「この実験自体はもう15年ぐらいから行われていまして、この後も2040年頃まで行われます。その間、データを溜め続けるわけですが、同じスピードで溜め続けるのではありません。陽子のビームの強度、つまり陽子の数をどんどん上げていくことで、ある時間に取られるデータ量も増えていくのです。2040年頃には、現在あるデータ量の10倍ぐらいにはなってくる計算です」と澤田准教授はいう。

増え続けるデータを収容し続けるには、物理的なインフラの限界という現実的な問題が立ちはだかる。ICEPPが直面した課題は、サーバーを設置する物理的なスペース、すなわちサーバーラックの台数には厳格な制約があるという点だった。

「場所としては、すでに決まったラックの台数、面積しか基本的には使えません。その中でストレージの容量をなるべく増やす必要があります。スペース的にはもうハードディスクの台数を増やすことは難しく、ハードディスク単体の容量をより増やすという方向になります。想定としては、だんだん増やしていかないと間に合わない。1年で10%から20%程度の割合で増やしていく必要があります」とのことだ。

物理的なスペースを広げられない以上、システム全体の集積率を高めるしかない。今回の刷新も、そのような制約のなかで選定されました。今後も、省スペースでありながら将来の約10倍増というデータ量に耐えうる構成、あるいは高密度な格納能力をいかに実現するかが、選定における極めて重要な指標となります。

4. ただ溜めるだけでなく、世界中で活用できるようデータの入出力に対応できる必要性

ICEPPのストレージシステムに求められるのは、決して「死蔵されるデータ」を置くための場所ではない。そのデータは、常に世界中の研究者によって「アクティブ」に利用され、時には過去に遡って解析され直す性格を持つ。

「データをただ溜めておくわけではありません。そのデータをもう一回解析するのです。一回解析したらおしまいではなく、最近では機械学習を取り入れるなど、解析の仕方が進化しています。計算スピードではなく、より詳しく科学的な知見を得るための手法が発展しているため、過去に取ったデータも新しい手法で再解析します。再解析によって、以前は見つからなかった何かが発見される可能性があるのです」と澤田准教授。

この「再解析」のプロセスにおいて、データの入出力性能がボトルネックになることは許されない。また、ICEPPは自らも膨大なシミュレーションデータを生成し、それを世界へ供給する役割も担っている。

「シミュレーションデータは我々が東京で作り出しますが、それはまた海外の他のサイトで使われたりもします。データの出入りが常にあるのです。そのため、十分なデータの入出力ができるストレージである必要があります。例えば1台に何十個もハードディスクを詰め込んだ大型ストレージもありますが、それは入出力があまりない用途に適したものです。我々に必要なのは、個々のストレージが十分な通信・入出力を行えるシステムなのです」と澤田准教授はいう。

さらに、ハードウェアに対する要求ポイントについては次のように話す。

「WLCGに参加しているサイトでは、共通のソフトウェア的なデータ管理枠組みがあります。そのため、ストレージシステム自体が特別なサービスを提供する必要はありません。高機能である必要はなく、基本的なRAIDストレージであり、Linuxサーバーとして安定して動作し、ファイルの読み出しができる。その上で、コストは安い方が嬉しい。シンプルで、信頼性が高く、データ入出力が十分であること。それがポイントです」とのことだ。物理学の最先端を支えるのは、華美な機能ではなく、データの海を自在に泳ぎ切るための強靭な「足腰」としての入出力性能なのである。

信頼性の高さと、データ入出力が支障なく実行できる高性能サーバーの重要性

5. スペースの限られたサーバー室に、必要十分な容量を格納

今回の刷新では、合計80台近い新しいストレージが導入された。限られた面積を最大限活用し、高密度な容量確保に成功したが、最大の難所はほぼ「無停止」での切り替えだった。澤田准教授によれば、「世界中で研究が進んでいるため、サービスを長期間止めるわけにはいきません。膨大な過去データを移行しながら、刻々と届く新しいデータも処理し続ける必要があるのです」とのこと。

WLCGには年間稼働率に関する取り決めが存在する。「調達の条件として、ダウンタイムを最小化する緻密な移行計画を求めました。通常運転しながらバックグラウンドでデータを移し、最後に差分だけを短時間で移す形です。機器のポート数も、移行時の負荷に耐えうるスペックを条件としました」と澤田准教授は続ける。

新システムは稼働から約4ヶ月、期待通りの安定性を見せており、この点については「稼働状況には完全に満足しています。ユーザーである研究者も、サーバーが変わったことを意識せずに研究を継続できています。何ら支障なく、次世代の基盤へと移行できたということです」と評価する。

6. 素粒子を手掛かりにした、さらなる研究・実験へのチャレンジに向けて、より重要性を高めるサーバー・ストレージ

システム刷新を終え、研究は「ヒッグス粒子」の性質解明や「暗黒物質(ダークマター)」の発見という未知のフェーズへ向かう。
「次に目指すのは、ヒッグス粒子同士が反応する『自己相互作用』の解明です。宇宙誕生直後に何が起き、なぜ物質が消えずに残ったのかという謎に迫ります。また、宇宙にある重力の源の大部分でありながら未だ正体不明の暗黒物質の候補となる素粒子を、LHCの衝突実験で作り出し、捉えたいと考えています」と澤田准教授。

しかし、これらは極めて稀な現象であり、膨大な試行回数を必要とする。「解析手法を工夫し、天文学的な量のデータを解析することで、確率が低い現象を捉えようとしています。その成否を分けるのは、強靭なサーバー・ストレージです。ロマンのある研究ですが、それを支えるのはあくまで堅牢なインフラなのです」と、サーバー・ストレージの重要性に言及した。

――このほど、素粒子物理国際研究センターが導入したのは、Infortrendの「EonStor DS3000」である。このEonStor DS3000は、可用性が高いSANストレージで、高性能でありながら、適切な価格を実現しているという点が評価され、多くの企業や大学の研究機関などでも導入されている。

データ量が増え続けることに頭を悩ます企業や研究機関などにとって、高性能ストレージの導入は、効果的な解決策になるに違いない。