データの重複個所を検出して排除する「重複排除」技術に注目が集まる。バックアップのみならず本番環境でもデータが爆発的に増えているからだ。専用ソフトウェアやアプライアンスなど、重複排除機能を実装する製品の最新動向を追った。
「転ばぬ先の杖」。企業システムにおけるデータのバックアップは、こう表現される。ただし、情報爆発の言葉通りに企業が扱うデータの量は増加の一途をたどっている。重い体を支えるには「杖」にも工夫が欠かせない。
膨大なデータを効率的にバックアップする手法として脚光を浴びている技術が「重複排除」である。詳しくは後述するが、データを数KB単位に細分化し、同じものを抽出して徹底的に取り除くのが基本的な仕組みだ。限られたディスク(あるいはテープライブラリ)の容量を有効活用する上で、要注目の技術だ。
ファイル単位の限界を超える
重複排除の仕組みを解説する前に、これまで一般的だったバックアップの方法を整理しておこう。
膨大なデータを毎日フルバックアップするのは、それに要する時間やハード資産の兼ね合いから非現実的だ。実際には、休業日の日曜日にフルバックアップを実行。それを起点として平日は、日々増えた(変更のあった)分のデータだけを新規にバックアップするという週次サイクルを回す企業が多い。ここには「差分バックアップ」と「増分バックアップ」がある。
この記事の続きをお読みいただくには、
会員登録(無料)が必要です
会員登録(無料)が必要です
バックナンバー
- メガネ型ウェアラブルデバイス(製品編)-2015年に新製品が続々登場(2015/04/27)
- メインフレーム最新事情(国産編) 外部連携や災害対策を強化(2013/09/17)
- メインフレーム最新事情(海外編) クラウド対応やモバイル連携を加速(2013/09/17)
- データ分析をカジュアルにする低価格クラウドDWH(2013/08/02)
- 極小サーバーをぎっしり詰め込み 用途特化で“非仮想化”の強みを訴求(2013/07/23)