[海外動向]

【Innovation World 2013】世界有数の研究機関CERNの実験施設を支える最新技術とは

2013年10月30日(水)五味 明子(ITジャーナリスト/IT Leaders編集委員)

欧州原子核研究機構(CERN)は実験の正確性を担保するために、膨大なデバイス/センサーを監視してインシデントに対処する仕組みを整えている。そこではどんなテクノロジーや製品が採用されているのか。Software AGの年次カンファレンス「Innovation World 2013」の会場で、すべてを知るアーキテクトに話を聞いた。  



─Ehcacheに加え、TerracottaのBigMemoryも使われていますが、使ってみての率直な感想や、実感しているメリットを教えていただけるでしょうか。

ブラガー氏: CERNでは非常に多くのJavaアプリケーションが稼働しています。しかしJavaの性質上、ヒープメモリーのサイズやガベージコレクタによる制限を受けるので、パフォーマンスが著しく劣化する状態になりやすい。たとえば重要な実験の最中に温度センサーに異常が発生した場合、その状況をリアルタイムに把握できなければ大きなインシデントにつながります。我々のポリシーは「すべてのアプリケーションにリアルタイムなデータをデリバーする」です。その実現のためにはJavaアプリケーションのパフォーマンス劣化を防がなくてはいけない。インメモリーソリューションのBigMemoryを選択した理由はそこにあります。

BigMemoryは"オフヒープ(off-heap)"と呼ばれる、ガベージコレクタのサイクルに影響されないメモリー領域をアロケートすることが可能です。これによりインメモリーで扱えるデータ量が増え、アプリケーションのパフォーマンスも大幅に改善させることができます。一般的なディスクアクセスに比べ、BigMemoryを使うことで100倍以上のパフォーマンス向上につながっていると自負しています。

─EhchacheにBigMemoryを組み合わせることで、よりリアルタイムなモニタリングが可能になるわけですね。TIMのキャッシュにはどのくらいのデータがストアされているのでしょう?

ブラガー氏: だいたい2万ぐらいのオブジェクトが常時ストアされています。古いキャッシュを追い出して新しいキャッシュを追加していく際のポリシーも3つ(使用されていないオブジェクトを古い順に追い出すLRU、使用頻度が低いオブジェクトを順に追い出すLFU、最初にキャッシュされたオブジェクトを順に追い出すFIFO)から選ぶことができるのもEhcacheのメリットですね。

─バックエンドのデータベースには何を使っているのでしょうか。

ブラガー氏: Oracle Databaseです。ただし、近い将来はヒストリックデータのバックアップもインメモリーに移行することも検討しています。TIMが扱っているのはスタティックで変化の少ないデータではなく、ダイナミックなものなので、インメモリーデータベースとの相性も良いはずです。(現在Terracottaと契約している)BigMemoryのライセンス数をもう少し増やすか、またはNoSQLを採用することを検討しています。

─インメモリーソリューションというと、個人的にSAP HANAが思い浮かぶのですが、HANAが選択肢に上がるようなことはない?

ブラガー氏: CERNのITインフラは基本的にオープンであることを掲げています。プロプライエタリ製品を使うことももちろんありますが、できるだけオープンなシステムでありたいというのはどの部署でも共通した理念です。したがって、何か新しくシステムを構築するときはまずオープンソースのプロダクトでトライすることがほとんどです。もちろんコストを考慮してオープンソースを優先的に選んでいるということもあります。CERNはNPOの研究機関なので、コストという側面を無視することはできないので。

EhcacheはTerracottaが開発元とはいえ、オープンソースで開発が進められていますし、我々ユーザーのフィードバックも反映されています。また、BigMemoryはオープンソースではありませんが、フリーのエディションが用意されていますし、スモールスタートから始めやすい。これはCERNが採用する製品に共通した傾向です。

─Terracottaが2011年、Software AGに買収されたことでEhcacheやBigMemoryのサポートなどに何か影響はありましたか。

ブラガー氏: 特にないですね。買収されたといってもTerracottaは現在も1つの企業体として独立採算を保っていますし、Ehcacheもオープンソースとして変わらない活動が続いています。少なくとも悪影響は何もありません。

個人的にはSoftware AGによるTerracotta買収はポジティブな変化として好意的に捉えています。お話してきたように、CERNは非常に多くのデータソースを抱えているので、Software AGの"Big Fast Data"に関する戦略は非常に興味深いですね。今回のカンファレンスではAPAMAに触れる機会があったのですが、この製品はTIMやC2MONと組み合わせると面白いかもしれないと思いました。特にデータの統計に威力を発揮しそうですね。

─世界最高水準の研究機関であるCERNは、World Wide Webの誕生にも関わるなど、IT技術の発展にも大きく貢献しています。そうした場所で働くアーキテクトとして、ますます増え続けるデータに対して、どのようなアプローチを取ろうと思っていらっしゃいますか。

ブラガー氏: CERNが扱う総データ量は年間25ペタバイトほどです。今後はもっと増えるでしょう。そしてこうしたデータエクスプロージョン(爆発)は我々のようなアーキテクトにはチャレンジであることは確かです。データのストアも大変になるし、データを分析するアプリケーションにもさまざまな機能が求められる。インメモリーソリューションはそうしたデータエクスプロージョンに対する1つの答えだと思います。

今後、CERNのような施設でもテクノロジそのものがデイリーサービスとしてデリバーされることが一般的になるのではないでしょうか。いわゆる"IT-as-a-Service"という状態ですね。そう考えると、個人的にはクラウドとグリッドの普及が重要なキーになってくると思っています。いずれにしろコンピューティングの新しい時代が来ているということは強く実感しています。アーキテクトとしてはチャレンジですが、エキサイティングな時代でもありますね。

写真 CERNでTIMのリードアーキテクトを務めるマティアス・ブラガー(Matthias Braeger)氏
 

この記事の続きをお読みいただくには、
会員登録(無料)が必要です
  • 1
  • 2
  • 3
関連記事

トピックス

[Sponsored]

【Innovation World 2013】世界有数の研究機関CERNの実験施設を支える最新技術とは [ 3/3 ] 欧州原子核研究機構(CERN)は実験の正確性を担保するために、膨大なデバイス/センサーを監視してインシデントに対処する仕組みを整えている。そこではどんなテクノロジーや製品が採用されているのか。Software AGの年次カンファレンス「Innovation World 2013」の会場で、すべてを知るアーキテクトに話を聞いた。  

PAGE TOP