システム需要の増減に柔軟に対応し、セキュリティの向上や運用コストを削減できる──それを実現するシステム基盤の姿の一つとして、関心を集め始めているのが「インターナル(企業内)クラウドコンピューティング」だ。仮想化技術とブレードサーバーなどを活用し、社内のコンピュータ資源を”クラウド化“する。この方向の必然性と現時点における実用性を明らかにする(本誌)。
多くのITリーダーの方々にとって今や、仮想化技術は馴染みのある技術になりつつあるはずだ。具体的にはVMwareやXenServer、Windows Server 2008 Hyper-Vといった仮想化ソフトを使ったシステム基盤である。かつて大型汎用機に限られていた仮想マシン(VM)をより気軽に構築できるようになり、サーバー台数の削減や運用性向上を目的にしたサーバー統合を実践できるようになった。だが仮想化技術のメリットは、それだけではない。
「クラウド・コンピューティング」─。2008年、一気に広まったITキーワードの一つだ。コンピュータ資源やネットワーク資源をインターネットの”向こう側”に任せ、ハードウェアや時にはミドルウェアさえも気にせずに、システムを構築できる。データセンターに用意した数多くのPCサーバーを仮想化技術によって一つであるかのように見せ、ハードウェア資源を気にせずにシステムを開発したり運用したりできる(図1)。
まだ実用には遠い技術に思われるかも知れないが、仮想化技術を利用すればクラウド・コンピューティングとほぼ同等の利点があるコンピューティング環境を自社内に構築できる。すなわち“インターナル・クラウド(企業内クラウド)”である。
筆者らは、2年以上前の2006年秋に仮想化、そしてクラウドに関わる技術の可能性を捉え、2007年1月に「日立ソフトSecureOnline」というクラウドセンターを立ち上げた。これ自体は、一般企業やIT企業にクラウド環境を月額課金で提供するサービス用のセンターだが、社内でも当然、活用している。
本レポートではこの時の経験をもとに、企業内の新しいIT基盤としてクラウド・コンピューティングがどう役立つのか、その可能性を明らかにしたい。新しいITインフラが2009年以降、企業の情報システム基盤を大きく変えるポテンシャルを持つことを把握していただけるはずだ。
20世紀はスケールアップの時代
インターナル・クラウドは決して突飛でも、不可思議な技術でもない。それを理解していただくために、歴史をざっと振り返っておこう。
企業が情報処理業務にコンピュータを盛んに利用するようになったのは約50年前の1960年頃のこと。拡大する需要に応えるべく1964年には、メインフレーム(汎用大型計算機)である「IBM System/360」が登場した。360はハードウェアのアーキテクチャを統一すると同時に、本格的なオペレーティングシステム「OS/360」を搭載し、さまざまなアプリケーションを実行できる、当時としては画期的なコンピュータだった。
ところがユーザーの要求が多様になるに従い、それに応えるために絶えず性能を強化する必要に迫られた。結果として1台のメインフレームは、アーキテクチャ上の互換性を保ちながら性能を上げていくようになった。「スケールアップ」と呼ばれるものである(図2)。
System/360では、仮想マシン(VM)技術も導入された。ただし本格的に利用されるようになったのは、1970年に登場したSystem/370において、仮想記憶が完全サポートされてからだ。
そうなるとさらなるCPU性能、メモリーアドレス空間が求められるようになる。1983年に登場したSystem/370-XAでは、メモリーアドレス空間が24ビットから31ビットに拡張され、1990年にはハードウェアの性能をさらに高めたESA/390(通称、S/390)が登場した。2000年のzSeries(後にSystem z)では、メモリーアドレス空間は64ビットにまで拡張されている。
このようにIBMはユーザーの要望に応えるためにほぼ10年単位でメインフレームをスケールアップさせており、このことから「20世紀はスケールアップの時代だった」と位置づけられる(図3)。当然のことだが、これは日立製作所や富士通、NECといった、国産コンピュータメーカーの機種も同じである。
スケールアップから分散処理へ
一方、ユーザー企業では情報システム部門が中心になって、計画的にメインフレームをスケールアップし、さまざまなアプリケーションを稼働させてきた。しかし高価なメインフレームを何台も導入できないといった予算の制限や、システム要員の不足から爆発的な情報化ニーズに応えられない事態が生じた。いわゆる“バックログ問題”である。
こうした中、1982年に米Sun MicrosystemsがOSにUNIXを採用したコンピュータの販売を開始。メインフレームとは異なり、オープンかつ手軽に利用できるUNIX機は、現場部門の中核的なサーバーとして幅広く普及した。情報処理をメインフレームだけでこなす集中処理から、メインフレームやUNIXサーバーに処理を分担する、分散処理の到来である。
1984年、IBMはCPUにIntel 80286を、OSにマイクロソフトMS-DOSを採用したIBM PC/AT(現在のPCの原型)を発売した。こちらはメインフレームのグリーン端末を置き換えるとともに、いわゆるオフィスオートメーションの起爆剤になった。1993年のWindows 3.1や、1995年のWindows 95の登場で1人1台の時代をもたらしたもした。
分散処理がもたらしたコスト負担
1996年にはパソコンをサーバー機として使えるようにするOS、Windows NT Server 4.0がリリースされ、UNIXサーバーに取って代わる勢いで部門サーバーとして広く使われ始めた。この結果、分散処理が加速。大企業では事業所や営業所に数台、合計すると数千台、中堅企業でも数十台から数百台のPCサーバーが社内に溢れることになった(図4)。
結果として、UNIXサーバーやPCサーバーを使った分散処理は、ここ数年、大きな問題をもたらすようになった。
導入時点ではあまり意識されなかった問題に、OSのサポート切れがある。1996年に販売されたWindows NT Server 4.0はMicrosoftのWebページによれば、2004年から段階的にサポート範囲が限定された。2000年に発売された後継のWindows 2000 Serverも、2005年から段階的にサポートが終了している。さらに2003年発売のWindows Server 2003も、Windows Server 2008の発売でやがてサポート切れを迎える。
サーバー・ハードウェアのサポート問題も悩ましい。サーバーベンダーにとっては複数バージョンのOSの動作を保証するのはかなり厳しいため、最近のPCサーバーでは、Windows NT Server 4.0やWindows 2000 Serverの動作を保証していないケースがほとんどだ。
そうなるとMicrosoftがサポート期間を延長しても、ユーザーが現在保有しているサーバーが壊れてしまえば、それを修理しない限り、システムを復旧できない。ユーザーがリスクを負って、旧OSを稼働させる場合は別にして、昔のOSを稼働させられるサーバーは手に入らないのである(図5)。
会員登録(無料)が必要です
- 1
- 2
- 3
- 4
- 次へ >
- ERP導入企業は34.8%、経営改革や業績管理に活用する動きも─ERP研究推進フォーラム/IT Leaders共同調査(2013/02/07)
- ツールの効果的活用で機能品質高め─テスト工程のあり方を見つめ直す(2013/01/29)
- IaaSを利用する際、これだけは押さえておきたいセキュリティのツボ(2012/10/18)
- これからIT部門が育てるべき人材像とは(2012/08/24)
- ベテラン社員に技術やノウハウが偏在、情報システム部門の技能継承が課題に(2012/07/19)
プライベートクラウド / VMware / Hyper-V / ITインフラ / 日立ソリューションズ