オープン化の波は、ハードウェアにも押し寄せている。2011年4月、Facebookが自社のデータセンター設備をつまびらかにしたのを端緒に、ベストプラクティスに基づきハードウェアの標準仕様を策定しようという機運が高まった。すでに、エンジニアが草の根レベルで議論を重ねた成果が現れはじめた。
ソフトウェアの分野では、オブジェクト指向やSOAの普及によって、異なる製品間の移植性や相互運用性が実現されてきた。さらにWebAPIが公開されるようになり、データ交換も一段と進化しつつある。
ところが、ハードウェアの分野は旧態依然としたままだ。命令セットや通信プロトコルなどの要素技術に関しては業界標準があるものの、完成品のレベルでの互換性はまだ確保されておらず、各社独自の仕様を固持しているのが実情である。例えば、サーバーの同一マザーボード上にIntelチップとAMDチップを混在させることはできない。電源ユニットのサイズもまちまちである。ディスクドライブを収容するシャーシの形状も、メーカーによって異なる。
ハードウェアの集積であるデータセンターも然り。近年のクラウドブームに乗り、データセンターやクラウドサービス事業者はデータセンターの新増築に巨額を投資している(表1)が、その仕様は事業者ごとにばらばら。各社各様のラックを並べ、サーバーを装填して構成している。設計や運用の詳細は秘密に閉ざされている。そうした現状にくさびを打ち込んだのがFacebookである。
運用開始 | ベンダー | 所在地 | データセンターの床面積 | 建設費 |
---|---|---|---|---|
2007 | アイオワ州 | 1万350m² | 9億ドル | |
Apple | ノースカロライナ州 | 45万m² | 10億ドル | |
2009 | Microsoft | アイルランド | 2万7000m² | 5億ドル |
2011 | オレゴン州 | 2万9970m² | 2億1000万ドル | |
建設中 | Apple | オレゴン州 | 3万1400m² | 6800万ドル |
同社は米国に3つ、スウェーデンに1つのデータセンターを運用している。それらの総床面積は16万8000平方メートル。総消費電力は90メガワットに上る。10億人に上るユーザーの書き込みや画像を預かる同社にとって、データセンターは事業の根幹である一方で、最大のコスト要因でもある。
会員登録(無料)が必要です
- 1
- 2
- 次へ >
- 現地レポート─新型コロナで一変したシリコンバレーの経済・社会・生活(2020/04/06)
- 2017年のITトレンドを占う5つのキーワード(2017/01/13)
- スタートアップの結末、ベンチャービジネスは必ずしも成功せず(2016/08/08)
- サービスエコノミーはシェアリングからトラストへ、非正規雇用の”オンライン・ギグエコノミー”が拡大(2016/06/14)
- シリコンバレーはバブルから安定成長へ?! ベンチャー投資は全米の4割強を占めるも伸びは前年比7.5%増(2016/05/06)