WO2006123416A1 - ディスク故障復旧方法及びディスクアレイ装置 - Google Patents

ディスク故障復旧方法及びディスクアレイ装置 Download PDF

Info

Publication number
WO2006123416A1
WO2006123416A1 PCT/JP2005/009188 JP2005009188W WO2006123416A1 WO 2006123416 A1 WO2006123416 A1 WO 2006123416A1 JP 2005009188 W JP2005009188 W JP 2005009188W WO 2006123416 A1 WO2006123416 A1 WO 2006123416A1
Authority
WO
WIPO (PCT)
Prior art keywords
disk
data
spare
updated
array device
Prior art date
Application number
PCT/JP2005/009188
Other languages
English (en)
French (fr)
Inventor
Tatsuya Kobayashi
Original Assignee
Fujitsu Limited
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Limited filed Critical Fujitsu Limited
Priority to PCT/JP2005/009188 priority Critical patent/WO2006123416A1/ja
Priority to JP2007516171A priority patent/JPWO2006123416A1/ja
Publication of WO2006123416A1 publication Critical patent/WO2006123416A1/ja
Priority to US11/979,738 priority patent/US20080178040A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/08Error detection or correction by redundancy in data representation, e.g. by using checking codes
    • G06F11/10Adding special bits or symbols to the coded information, e.g. parity check, casting out 9's or 11's
    • G06F11/1076Parity data used in redundant arrays of independent storages, e.g. in RAID systems
    • G06F11/1088Reconstruction on already foreseen single or plurality of spare disks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/1658Data re-synchronization of a redundant component, or initial sync of replacement, additional or spare unit
    • G06F11/1662Data re-synchronization of a redundant component, or initial sync of replacement, additional or spare unit the resynchronized component or unit being a persistent storage device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2094Redundant storage or storage space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2211/00Indexing scheme relating to details of data-processing equipment not covered by groups G06F3/00 - G06F13/00
    • G06F2211/10Indexing scheme relating to G06F11/10
    • G06F2211/1002Indexing scheme relating to G06F11/1076
    • G06F2211/1059Parity-single bit-RAID5, i.e. RAID 5 implementations

Definitions

  • the present invention relates to a method for recovering from a disk failure in a disk array device.
  • a disk array consisting of a large number of storage disks connected to a network server distributes data to multiple hard disks, that is, magnetic disk units, to ensure performance and fault tolerance at the same time.
  • RAID is a technology for managing hard disks, and is classified and defined at several levels according to how data is allocated to magnetic disks and how data is redundant or multiplexed. RAID has the following levels, for example.
  • RAID0 divides data into block units and distributes the data over a plurality of disks to record the data. RAID0 is also called “striving” because the data is arranged in strips across the disks. Access can be made faster because distributed data can be accessed concurrently in parallel.
  • RAID1 writes data to two disks at the same time, and is also called “mirroring". Although the access speed is not improved, data loss or system shutdown due to disk failure will not occur.
  • RAID0 + 1 is a combination of RAID0 and RAID1 using at least four disks, and it can be realized by combining data duplication by RAID1 and speeding up of RAID0.
  • RAID4 is a RAID0 striving that has a function to regenerate data by tracking a dedicated disk that stores NORITY data.
  • RAID5 is used to avoid concentration of input / output to the NORIT disk in RAID4.
  • disk A1 and disk A2 which are RAID 1 pairs. If disk A1, for example, of disk A1 and disk A2 that are a pair of RAID1 in which the same data is stored fails, data is copied from disk A2 to a spare disk, that is, hot spare B (Fig. 1 (a)). The failed disk A1 is replaced with a new disk A1 ', and the data is transferred from the spare disk B to which data has been transferred to the new disk A1' (Fig. 1 (b)). As a result, disks A1 'and A2 form a RAID1 pair (Fig. L (c)).
  • Patent Document 1 Japanese Patent Laid-Open No. 3-1111928
  • Patent Document 2 Japanese Patent Laid-Open No. 9-282106
  • the present invention provides a disk array device failure disk recovery method capable of reducing the processing time for reconfiguring R AID without changing the disk position in RAID. Objective.
  • a disk failure recovery method when a disk of the disk array device according to the first aspect of the present invention fails is described as follows.
  • the first spare disk that has been rebuilt is disconnected from the disk array device, and the data to be updated before the first spare disk that has been previously disconnected is connected to the disk array device.
  • writing to the other disk storing a disk area of data to be updated by a bitmap, and connecting the rebuilt first spare disk to the disk array device at the location of the failed disk. It is characterized by.
  • the update data is further rebined from the redundant disk to the first spare disk with reference to the bitmap.
  • the update data written to the other disk can be rebuilt to the second spare disk.
  • the first spare disk is connected to the disk array device, and the update data is referred to the bitmap to the second spare disk card.
  • the first spare disk may be rebuilt.
  • a second aspect of the present invention stores a redundant disk array, a first spare disk that rebuilds data of a failed disk in the redundant disk array, and the rebuilt data. And a bitmap for storing a disk area of data to be updated on the first spare disk when the first spare disk is disconnected.
  • FIG. 1 (a) to (c) are diagrams showing a conventional disk failure recovery method.
  • FIG. 2 is a diagram showing a disk array system embodying the present invention.
  • FIG. 3 is a diagram showing an operation flow of the embodiment of the present invention.
  • FIG. 4 (a) to (d) are diagrams showing an embodiment in which the present invention is applied to RAID1.
  • FIG. 5 (a) to (c) are diagrams showing an embodiment in which the present invention is applied to RAID5.
  • a disk array device (RAID) has a housing that detachably accommodates a large number of hard disks, and a failed disk can be removed from the housing and replaced.
  • FIG. 2 shows an example of a disk array system including a disk array device to which the present invention is applied.
  • the disk array device 10 includes, for example, a drive enclosure 20 that accommodates a large number of exchangeable disks 21 that are magnetic disks, and a controller enclosure 30 that accommodates a controller module 31 for controlling the disks.
  • the controller 'module is formed of a board with CPU32 and memory 34.
  • a maintenance terminal 40 connected via a LAN is provided.
  • the maintenance terminal 40 also has the power of a general personal computer, and its display 41 can be displayed graphically for maintenance and inspection of the disk array, and various operations can be performed by clicking the displayed operation buttons.
  • each disk can be made in a state where it can be exchanged by separating the disk array device.
  • the position of the failed disk can be displayed on the display 41 in red, for example.
  • One embodiment of the present invention relates to a method for recovering a failure of a certain disk in a disk array system as shown in FIG.
  • FIG. 3 is a flow showing an outline of the embodiment of the present invention. If one disk constituting the RAID fails in step S1, the data of the failed disk is rebuilt to the first spare disk in step S2 using the data of the other disks constituting the RAID. For example, in RAID1, the data on another disk is copied to the first spare disk. Also, In RAID5, the data of the failed disk is rebuilt to the first spare disk using the data and parity data of other disks.
  • step S3 when rebuilding of data to the first spare disk is completed, the first spare disk is disconnected from the disk array device.
  • step S4 If there is data to be updated while the first spare disk is disconnected, in step S4, the data to be updated is written to another disk, and the area of the data to be updated is a bitmap. Is stored and managed. Subsequently, in step S5, the data written and updated on the other disk is further rebuilt on the second spare disk.
  • step S6 the first spare disk is replaced with a failed disk, and is incorporated into the disk array device at the position where the failed disk was placed.
  • step S7 it is determined whether another disk has failed. If the other disk is normal, in step S8, the other disk is used, the bitmap is referenced, and only the updated data is rebuilt to the built-in first spare disk. If it is determined in step S7 that the other disk is abnormal, in step S9, the second spare disk is used, and only the updated data is rebuilt to the first spare disk by referring to the bit map. .
  • FIGS. 4 (a) to (d) schematically show the first embodiment applied to RAID1, in which disks A1 and A2 are shown among a number of hard disk pairs constituting RAI D1. Disks B and C are shown as spare disks or hot spares.
  • the disk A1 and the disk A2 constitute a RAID 1 pair, and the same data is written to both.
  • data is copied from the normal disk A2 to the spare disk B, as shown in Fig. 1 (b).
  • RAID 1 redundancy is rebuilt. This operation is generally called rebuilding, but RAID1 is data copying to a spare disk.
  • a copy back process for returning to the original state is performed.
  • the disk B that has been migrated is physically moved to the position where the disk A1 was inserted and inserted instead of the disk A1 (FIG. 1 (c)). By doing this, it is not necessary to change the physical position of the disks that make up the RAID, and it is not necessary to copy the disk B force using a new disk A1, so the time can be shortened.
  • the bit map is a disk update area management table arranged on the memory 35 provided in the controller module 31 of the disk array device 10 of FIG.
  • a bitmap the entire disk is divided into areas of a predetermined size (for example, 8 kbytes), and if data is updated even in a part of the area, the bit value is set with the entire area of the predetermined size as the update area Store with (0 Z1).
  • the initial value of the bit of the bitmap is set to “0”, and the bit value is set to “1” with the area including the location where the data update has been performed as the update area.
  • a bitmap that manages an 8 kbyte area with one bit is approximately 4.7 Mbytes, and a 300 Gbyte area can be managed.
  • Disk B force After replacing disk A1 and being installed in the disk array device, refer to the bit map and copy the bit value area, that is, the part where the data was updated, from disk A2 to disk B. To do. Set the bit to 0 for the area where the copy is complete. When all update areas have been processed, bitmap management is terminated and RAID1 is reconfigured ( Figure 4 (c)). As a result, disk B has exactly the same data as disk A2.
  • the spare disk C is used in preparation for the case where the disk A2 fails. While the disk B is disconnected from the disk array device and installed at the position where the disk A1 was, an update area including update data is created. Written. When the disk B is disconnected from the disk array device, the bitmap management is activated as described above, and the data to be updated is written to the disk A2, and at the same time, the update area including the update data is stored by the bitmap. Remembered. Thereafter, the update area is copied to disk C using disk A2 and the bitmap. If disk A2 fails and cannot be used after disk B is installed in the disk array device, copy the disk C power to disk B by referring to the bitmap for the update area. The In this way, the reliability can be further improved.
  • Reading from the bit 0 area also reads the disk B force, and reading from the bit 1 area force reads from the disk C.
  • a new disk D is inserted into the original disk B position to form a spare disk.
  • the new disk D can be used as a spare disk in parallel without waiting for the completion of the copyback process to disk B.
  • disk B and A2 are paired to return to the previous RAID1 configuration.
  • FIGs. 5 (a) to (c) schematically show a second embodiment in which the present invention is applied to RAID5.
  • RAID5 is composed of disks Al, A2, and A3, and B and C are provided as hot spares.
  • RAID5 the disks Al, A2, and A3 are subjected to a striping process, and data and parity data are stored in a distributed manner.
  • the disk B is also disconnected from the disk array device by an instruction from the maintenance terminal 40.
  • bitmaps start using disk C, another hot spare.
  • the initial value of the bit of the bitmap is set to 0, and the bit is set to 1 in the data updated area.
  • the area managed by 1 bit of the bitmap is 8 kbytes, if any part of the target 8 kbytes is updated, all the 8 kbyte areas are set as update areas.
  • disks A2 and A3 Write and set the target bit on the bitmap to 1.
  • rebuild processing is performed on spare disk C using the NORITY data from disks A2 and A3.
  • the disk B is incorporated into the disk array device, if the disk A2 or the disk A3 cannot be used due to a failure, the disk C can be used.
  • the update area to be written to disk B has been rebuilt on disk C, so it can be copied from disk C to disk B with reference to the bit map. In this way, the reliability of RAID can be further increased.
  • disk A2 fails, connect disk B to the disk array device and complete the rebuild of the update area using disk C before completing disk A2, A3, or B. If you need to write to or read from, do as follows
  • a new disk D is inserted into the place where the disk B was originally used to make a spare disk D.
  • a new disk D can be inserted without waiting for completion of the rebuild process to disk B.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Techniques For Improving Reliability Of Storages (AREA)

Abstract

 ディスクが故障すると、他のディスクを用いて故障したディスクのデータを第1の予備ディスクにリビルドする。リビルドが終了すると、第1の予備ディスクをディスクアレイ装置から切り離す。第1の予備ディスクが切り離されている間の更新すべきデータは、他のディスクに書き込まれ、ビットマップにより管理される。第1の予備ディスクが故障したディスクの位置でディスクアレイ装置に接続した後、更新データのみを他のディスクを用いて、第1の予備ディスクにリビルドする。

Description

ディスク故障復旧方法及びディスクアレイ装置
技術分野
[0001] 本発明は、ディスクアレイ装置のディスクの故障を復旧する方法に関する。
背景技術
[0002] ネットワークのサーバに接続される多数のストレージディスクからなるディスクアレイ は、データを複数のハードディスクすなわち磁気ディスク装置に分散することで、性能 と耐障害性を同時に確保するようにしており、 RAID (Redundant Array of
Independent Disks)とも呼ばれている。
[0003] RAIDは、ハードディスクを管理する技術であって、磁気ディスクへのデータの割り 振り方やデータの冗長化すなわち多重化の方法によって、 、くつかのレベルに分類 され定義されている。 RAIDには、例えば次のようなレベルがある。
[0004] RAID0は、データをブロック単位に分割し、複数のディスクにわたって分散してデ ータを記録するもので、ディスクをまたがってデータが帯状に配置されることから「スト ライビング」とも呼ばれる。 分散されたデータに同時に並行してアクセスできるため、 アクセスが高速になる。
[0005] RAID1は、データを 2台のディスクに同時に書き込むもので、「ミラーリング」とも呼 ばれる。アクセス速度は向上しないが、ディスク故障に起因するデータの損失やシス テムの停止を起こさない。
[0006] RAID0+ 1は、少なくとも 4台のディスクを用いて、 RAID0と RAID1を組み合わせ るもので、 RAID1によるデータの二重化と、 RAID0の高速化を合わせて実現できる
[0007] RAID4は、 RAID0のストライビングに、ノ リティデータを格納する専用ディスクを追 カロしてデータを再生成する機能を持たせたものである。
[0008] RAID5は、 RAID4におけるノ リティディスクへの入出力の集中を回避するために
、 ノ リティデータをすベてのディスクに分散して配置するものである。
[0009] RAID1を例にとり、ディスク故障が起こった場合の従来採用されている復旧方法を 、図 l(a)〜(c)を参照して説明する。 RAID 1のペアであるディスク A1とディスク A2に は同じデータが格納されている。同じデータが格納された RAID1のペアであるディス ク A1とディスク A2のうち例えばディスク A1が故障すると、ディスク A2から予備ディス クすなわちホットスペア Bにデータをコピーする(図 1 (a) )。故障したディスク A1を新 規ディスク A1 'に交換して、データを移行した予備ディスク Bカゝら新規ディスク A1 'に データを移行する(図 1 (b) )。その結果ディスク A1 'と A2が RAID1のペアとなる(図 l (c) )。
[0010] しかしながら、従来の処理では、データのコピーを 2回(ディスク A2からディスク B、 ディスク B力 ディスク ΑΙ ' )実行することになり、処理時間がかかってしまう。また近年 、ディスクアレイ装置に搭載されるハードディスク容量は、例えば 3. 5インチのハード ディスクで 300GBの容量があるように、大容量化している。したがって、大容量のデ ータを移行させるための処理時間も増大している。また、データ移行中は、ホストに対 する入出力のレスポンス低下、及び二重故障の危機が増大する。したがって、従来 に増してデータ移行時間の短縮が求められている。
[0011] ハードディスク故障時の処理時間を短縮するために、予備ディスク Βへデータ移行 が完了した時点で、そのままディスク Α2とディスク Βとを RAIDのペアとすることが提 案されている(特許文献 1参照)。しカゝしながら、 RAIDのペアを構成するディスクの物 理的な位置がずれてしまうので、後々どのディスクがペアになっているかわ力りにくく なり、管理上の問題があった。なお、故障が起きた場合保守作業者によって保守用 磁気ディスクをシステムに接続して、この保守用磁気ディスクを故障したディスクとを 入れ替えることが提案されている(特許文献 2参照)が、保守用磁気ディスクには、故 障したディスクからデータを複写し、複写時にエラーを検出した場合その論理ボリュ ーム番号と二重化情報を参照して故障して!/ヽな ヽディスクからデータを複写するもの である。
特許文献 1:特開平 3 - 111928号公報
特許文献 2:特開平 9 - 282106号公報
発明の開示
発明が解決しょうとする課題 [0012] 本発明は、上記問題点に鑑み、 RAIDにおけるディスクの位置を変えることなぐ R AIDを再構成する処理時間を短縮することができるディスクアレイ装置の故障ディス ク復旧方法を提供することを目的とする。
課題を解決するための手段
[0013] 上記課題を解決するために、本発明の第 1の態様であるディスクアレイ装置のディ スクが故障した場合のディスク故障復旧方法は、他のディスク力ゝら第 1の予備ディスク にデータをリビルドし、前記リビルドされた第 1の予備ディスクを前記ディスクアレイ装 置カゝら切り離し、前切り離された前記第 1の予備ディスクが前記ディスクアレイ装置に 接続されるまでに更新すべきデータを、前記他のディスクに書き込むとともに、ビット マップにより更新すべきデータのディスク領域を記憶し、前記リビルドされた第 1の予 備ディスクを前記故障したディスクの配置位置で前記ディスクアレイ装置に接続する ことを特徴とする。
[0014] また、前記第 1の予備ディスクを前記ディスクアレイ装置に接続した後、さらに前記 更新データを、前記ビットマップを参照して、前記冗他のディスクから前記第 1の予備 ディスクにリビノレドするようにしてもよ 、。
[0015] さらに、前記更新すべきデータを前記他のディスクに書き込む場合、さらに前記他 のディスクに書き込まれた更新データを第 2の予備ディスクにリビルドすることもできる
[0016] さらに、前記他のディスクが故障した場合には、前記第 1の予備ディスクを前記ディ スクアレイ装置に接続した、前記更新データを前記ビットマップを参照して前記第 2の 予備ディスクカゝら前記第 1の予備ディスクにリビルドするようにしてもよい。
[0017] 本発明の第 2の態様は、冗長化ディスクアレイと、前記冗長化ディスクアレイのうち の故障したディスクのデータをリビルドする第 1の予備ディスクと、前記リビルドしたデ ータを格納する第 1の予備ディスクが装置力 切り離されているときに前記第 1の予備 ディスクの更新すべきデータのディスク領域を記憶するビットマップとを備えることを特 徴とする。
発明の効果
[0018] 本発明は、上記のように構成したので、 RAIDにおけるディスクの位置を変えること なぐ RAIDを再構成する処理時間を短縮することができる。
図面の簡単な説明
[0019] [図 1] (a)〜(c)は、従来のディスク故障の復旧方法を示す図である。
[図 2]本発明を実施するディスクアレイシステムを示す図である。
[図 3]本発明の実施形態の動作のフローを示す図である。
[図 4] (a)〜 (d)は、本発明を RAID1に適用した実施形態を示す図である。
[図 5] (a)〜 (c)は、本発明を RAID5に適用した実施形態を示す図である。
発明を実施するための最良の形態
[0020] ディスクアレイ装置 (RAID)は、多数のハードディスクを揷脱可能に収容した筐体を 有し、故障の起きたディスクは筐体から取り出して交換可能となっている。図 2に、本 発明が適用されるディスクアレイ装置を含むディスクアレイシステムの一例を示す。
[0021] ディスクアレイ装置 10は、例えば磁気ディスクであるディスク 21を交換可能に多数 収容するドライブ'ェンクロージャ 20と、ディスクを制御するコントローラ 'モジュール 3 1を収容したコントローラ'ェンクロージャ 30からなる。コントローラ 'モジュールは、 CP U32とメモリ 34と備えるボードで形成されている。さらに LANで接続された保守端末 40を備える。保守端末 40は、一般的なパーソナルコンピュータ力もなり、そのディス プレイ 41には、ディスクアレイの保守点検のためのグラフィック表示が可能で、表示さ れる操作ボタンをクリックすることにより各種の操作ができる。例えば、各ディスクをデ イスクアレイ装置力も切り離して交換可能な状態にすることができる。またディスプレイ 41には故障ディスクの位置を例えば赤色で表示することもできる。故障ディスクを取り 替える場合は、保守端末力 の指示により、故障ディスクをディスクアレイ装置力 切 り離して、オペレータが手作業で取り替えることになる。
[0022] 本発明の一実施形態は、図 2に示すようなディスクアレイシステムにおいて、あるデ イスクが故障した際に、その故障を復旧する方法に関する。
[0023] 図 3は、本発明の実施形態の概要を示すフローである。ステップ S1で、 RAIDを構 成する一つのディスクが故障すると、ステップ S2では、 RAIDを構成する他のディスク のデータを用いて、故障したディスクのデータを第 1の予備ディスクにリビルドする。 例えば RAID1では、他のディスクのデータを第 1の予備ディスクにコピーする。また、 RAID5では、他の複数のディスクのデータとパリティデータとを用いて、故障したディ スクのデータを第 1の予備ディスクにリビルドする。
[0024] ステップ S3では、第 1の予備ディスクへのデータのリビルドが完了すると、第 1の予 備ディスクをディスクアレイ装置力 切り離す。
[0025] 第 1の予備ディスクが切り離されている間に更新すべきデータがあれば、ステップ S 4で、更新すべきデータは他のディスクへ書き込まれるとともに、更新すべきデータの 領域がビットマップにより記憶され管理される。引き続き、ステップ S5で、他のディスク に書き込まれ更新されたデータはさらに、第 2の予備ディスクにリビルドされる。
[0026] ステップ S6で、第 1の予備ディスクを故障したディスクと交換して、故障したディスク の配置してあった位置でディスクアレイ装置に組み込む。
[0027] ステップ S7では、他のディスクが故障しているか否かが判断される。他のディスクが 正常であれば、ステップ S8で、他のディスクを使用し、ビットマップを参照して、更新 データのみを、組み込まれた第 1の予備ディスクにリビルドする。ステップ S7で、他の ディスクが異常であると判断されると、ステップ S9で、第 2の予備ディスクを使用し、ビ ットマップを参照して、更新データのみを、第 1の予備ディスクにリビルドする。
[0028] このようにすると、 RAIDのディスク配置を変更することなぐ故障したディスクを短時 間で復旧することができる。
[0029] 以下、図 4、 5を参照して、本発明を RAID1及び 5に適用した実施の形態を説明す る。
[0030] 図 4 (a)〜(d)は、 RAID1に適用する第 1の実施形態を模式的に示すもので、 RAI D1を構成する多数のハードディスクのペアのうち、ディスク A1と A2が示され、予備 ディスクすなわちホットスペアとしてディスク Bと Cとが示されている。
[0031] 図 4 (a)に示すように、故障が起きる前は、ディスク A1とディスク A2とが RAID 1のぺ ァを構成し、両方に同じデータが書き込まれている。ディスク A1が故障すると、図 1 ( b)に示すように、予備ディスク Bに正常なディスク A2からデータをコピーしてデータ移 行を行なう。データ移行が終了すると、ディスク A2とディスク Bとによりデータが二重 化され、 RAID 1の冗長性が再構築される。この作業は、一般にはリビルド処理といわ れるが、 RAID1では、予備ディスクへのデータコピーである。 [0032] 次に、元の状態に戻すコピーバック処理を行なう。本実施形態では、データ移行が 終了したディスク Bを、ディスク A1が挿入されていた位置に物理的に移動して、ディ スク A1に換えて挿入する(図 1 (c) )。このよう〖こすると、 RAIDを構成するディスクの 物理的位置を変えな 、で済み、また新たなディスク A1,を用いてディスク B力もコピー する必要がな 、ので、時間を短縮することができる。
[0033] ただし、本実施形態のコピーバック処理では、ディスク Bがー且ディスクアレイ装置 力 切り離されるので、切り離されたディスク Bがディスク A1のあった位置に組み込ま れるまでは、ディスク Bに入力すべき更新データが送られてきても、更新データをディ スク Bに書き込むことはできない。したがって、ディスク Bが、ディスクアレイ装置力 切 り離されると同時に、更新データのビットマップ管理と予備ディスク Cの使用が開始さ れる。
[0034] ビットマップとは、図 2のディスクアレイ装置 10のコントローラ 'モジュール 31に備わ るメモリ 35上に配置されたディスク更新領域管理テーブルである。ビットマップでは、 ディスク全体は所定の大きさの領域 (例えば、 8kバイト)に分割され、その領域の一部 でもデータの更新があれば、所定の大きさの領域全体を更新領域としてビットの値 (0 Z1)で記憶する。本実施形態では、ビットマップのビットの初期値は" 0"とし、データ 更新があった箇所を含む領域を更新領域としてビットの値を" 1"に設定する。
[0035] すなわち、 1ビットで 8kバイトの領域を管理するビットマップは、対象とする 8kバイト の一部でも更新されると、当該 8kバイトの領域すベてを更新領域とする。 1ビットで 8k バイトの領域を管理するビットマップは、約 4. 7Mバイトで、 300Gバイトの領域を管 理することができる。
[0036] ディスク Bが切り離されているときに更新すべきデータがあれば、ディスク A2に書き 込み、ビットマップ上の更新領域のビットを 1とする。次いで、更新データの存在する 領域 (本例では 8kバイト)について、ディスク A2から予備ディスク Cにコピーしてリビ ルド処理を行なう。
[0037] ディスク B力 ディスク A1に置き換わって、ディスクアレイ装置に組み込まれた後、ビ ットマップを参照して、ビットの値力 の領域すなわちデータ更新のあった部分を、 ディスク A2からディスク Bにコピーする。コピーが完了した領域にはビットを 0に設定し て、すべての更新領域の処理が完了したらビットマップ管理を終了して、 RAID1が 再構成される(図 4 (c) )。その結果ディスク Bはディスク A2とまったく同じデータを有 すること〖こなる。
[0038] ディスク Bを抜いて力も挿入するまで例えば 1分力かったとすると、この間の更新分 すなわち差分のみをコピーすればよいので、従来のように新たなディスク A1 'にディ スク Bのデータをすベてコピーするのに比べて大幅に処理時間を短縮することができ る。
[0039] ここで、ディスク Bが挿入されて、ディスク Bにすベての更新領域がコピーされるまで に、ディスク A2あるいは Bに対して書き込みある!/、は読み込みの処理が必要となった 場合には、次のように行う。
[0040] (1) ビットマップ上でビットの値が 0の領域 (ディスク Bが切り離されて 、たときに更新 されなかった領域)への書き込みは、ディスク A2と Bの両方に書き、ビットは 0のままと する。
[0041] (2) ビットの値力^の領域 (ディスク Bが切り離されていたときに更新された領域で、 まだディスク Bにコピーバックされて!/、な!/、領域))への書き込みは、まずディスク A2 に更新データを書き込み、次いで更新領域 8Kバイトについて、ディスク Bにデータの コピーを行った後、ビットを 0に設定する。
[0042] (3) 読み出しに関しては、ビットマップにおけるその領域の値が 0か 1に関係なぐデ イスク A2から読み出す。読み出し領域のビットの値を判断せずに読み出すことになる ので高速な読み出しが可能である。
[0043] 予備ディスク Cは、ディスク A2が故障した場合に備えて用いられるもので、ディスク Bをディスクアレイ装置力 切り離し、ディスク A1のあった位置に組み込む間、更新デ ータを含む更新領域が書き込まれる。ディスク Bがディスクアレイ装置カゝら切り離され ると、前述のように、ビットマップ管理が作動し、更新すべきデータは、ディスク A2に 書き込まれると同時に、ビットマップにより更新データを含む更新領域が記憶される。 その後ディスク Cには、ディスク A2とビットマップを利用して更新領域がコピーされる。 ディスク Bをディスクアレイ装置に組み込んだ後、ディスク A2が故障して使用できな ヽ 場合、更新領域について、ビットマップを参照してディスク C力もディスク Bにコピーす る。このようにすれば、さらに信頼性を高めることができる。
[0044] ディスク Cを用いてディスク Bに更新領域をコピーしている間に、ディスク A2あるい は Bに対して書き込みある 、は読み込みの処理が必要となった場合には、次のように 行う。
[0045] (1) ビットマップ上ビット 0の領域への書き込みは、ディスク Bのみへ書く。ビットは 0 のままとする。
[0046] (2) ビットマップ上ビット 1の領域への書き込みは、まずディスク Cへ書き、対象領域 8Kバイトについてリビルド処理によりディスク Bにデータコピーを行い、ビットを 0に設 定する。
[0047] (3) ビット 0の領域からの読み出しは、ディスク B力も読み出し、ビット 1の領域力もの 読み出しは、ディスク Cから読み出す。
[0048] 最後に、図 4 (d)に示すように、もともとのディスク Bの位置に新規ディスク Dを挿入し て予備ディスクとする。なお、新規ディスク Dを予備ディスクとすることは、ディスク Bへ のコピーバック処理の完了を待たなくても、並行してできる。このようにして、ディスク B と A2をペアにして、以前のような RAID1の構成に戻る。
[0049] 図 5(a)〜 (c)に、本発明を RAID5に適用した第 2の実施形態を模式的に示す。デ イスク Al、 A2及び A3で、 RAID5が構成され、ホットスペアとして Bと Cを備える。
[0050] RAID5では、ディスク Al、 A2、 A3ともに、ストライビング処理がなされ、データ及 びパリティデータは分散して格納されて 、る。
[0051] ディスク A1が故障すると、ディスク A2とディスク A3から、ディスク A1のデータを再 構成して予備ディスク Bにリビルドする(図 2 (a) )。
[0052] 次に、保守端末 40からの指示によりディスクアレイ装置力もディスク Bを切り離す。
同時にビットマップの管理を開始するとともに、もう 1つのホットスペアであるディスク C の使用を開始する。ビットマップのビットの初期値は 0とし、データ更新された領域で ビットを 1に設定する。前述のように、ビットマップの 1ビットで管理する領域が 8kバイト とすると、対象とする 8kバイトの一部でも更新されると、当該 8kバイト領域すベてを更 新領域とする。
[0053] ディスク Bが切り離されているときに更新すべきデータがあれば、ディスク A2、 A3に 書き込み、ビットマップ上の対象ビットを 1とする。次いで、更新領域 8kバイトについて 、ディスク A2, A3からノ リティデータを利用して予備ディスク Cにリビルド処理を行な
[0054] ディスク Bを A1の位置に挿入して使用可能状態になると、ビットマップ上でビットが 1 である領域について、リビルド処理によりディスク A2、 A3からディスク Bへデータをリ ビルドする。リビルドが終了した領域については、ビットマップ値を 0に設定する。
[0055] ディスク Bがディスク A1に置き換わって、ディスク A2と A3からディスク Bに対して行 なわれる更新領域のリビルド処理の途中で、ディスクアレイに対して書き込みある!/ヽ は読み出しの要求があった場合には、次のように行なわれる。
[0056] (1)ビットマップ上のビット 0の領域 (ディスク Bが切り離されて 、たときに更新されなか つた領域)への書き込みは、ディスク A2、 A3とディスク Bのすべてに書き込む。ビット は 0のままとし、変更しない。
[0057] (2)ビットマップ上のビット 1の領域 (ディスク Bが切り離されて 、たときに更新された領 域で、まだディスク Bにリビルドされていない領域)への書き込みは、まずディスク A2、 A3へ書き込み、書き込みが終了した後、対象領域 (8kバイト)についてディスク Bにリ ビルド処理を行なう。リビルド処理が完了すると、ビットを 0に設定する。
[0058] (3)読み出しは、ビットマップのビットの値に関係なぐディスク A2と A3から読み出す
[0059] すべての更新領域の処理が完了したら、ビットマップ管理を終了して、ディスク A1 の位置に挿入されたディスク B1とディスク A2、 A3とで RAID5が再構築される。なお 、ディスク Cはホットスペアに戻る。
[0060] 次に、ディスク Bをディスクアレイ装置に組み込んだ後、ディスク A2又はディスク A3 が故障して使用できない場合、ディスク Cを利用することができる。すなわち、ディスク Bに書き込むべき更新領域については、ディスク Cにリビルドされているので、ビットマ ップを参照してディスク Cからディスク Bにコピーすることができる。このようにして、さら に RAIDの信頼性を高めることができる。
[0061] 例えばディスク A2が故障した場合、ディスク Bをディスクアレイ装置に接続して、デ イスク Cを利用する更新領域のリビルドを完了するまでに、ディスク A2、 A3あるいは B に対して書き込みあるいは読み込みの処理が必要となった場合には、次のように行う
[0062] (1)ビットマップ上のビット 0の領域への書き込みは、ディスク A3とディスク Bのみへ書 き込む。、ビットは 0のままとする。
[0063] (2)ビットマップ上のビット 1の領域への書き込みは、まずディスク A3とディスク Cへ書 き込み、書き込みが終了した後、対象領域 (8kバイト)についてディスク Bにリビルド処 理を行なう。リビルド処理が完了すると、ビットを 0に設定する。
[0064] (3)ビットマップ上のビット 0の領域からの読み出しは、ディスク A3とディスク Bと力も読 み出す。
[0065] (4)ビットマップ上のビット 1の領域からの読み出しは、ディスク A3とディスク Cから読 み出す。
[0066] 最後に、ディスク Bがもとあった場所に、新たなディスク Dを挿入して予備ディスク D とする。なお、当然のことながら、ディスク Bが切り離された後は、ディスク Bへのリビル ド処理の完了を待たずに新たなディスク Dを挿入することができる。
[0067] 以上、実施形態として、 RAID1と RAID5を説明した力 その他のレベルの RAID に対しても本発明が適用可能であることはいうまでもない。

Claims

請求の範囲
[1] ディスクアレイ装置のディスクが故障した場合のディスク故障復旧方法であって、 他のディスク力 第 1の予備ディスクにデータをリビルドし、
前記リビルドされた第 1の予備ディスクを前記ディスクアレイ装置カゝら切り離し、 前切り離された前記第 1の予備ディスクが前記ディスクアレイ装置に接続されるまで に更新すべきデータを、前記他のディスクに書き込むとともに、ビットマップにより更新 すべきデータのディスク領域を記憶し、
前記リビルドされた第 1の予備ディスクを前記故障したディスクの配置位置で前記デ イスクアレイ装置に接続する
ことを特徴とするディスク故障復旧方法。
[2] 前記第 1の予備ディスクを前記ディスクアレイ装置に接続した後、さらに前記更新デ ータを、前記ビットマップを参照して、前記他のディスク力も前記第 1の予備ディスクに リビルドすることを特徴とする請求項 1に記載のディスク故障復旧方法。
[3] 前記更新すべきデータを前記他のディスクに書き込み、ビットマップにより更新すベ きデータの領域を記憶した後、さらに前記他のディスクに書き込まれた更新データを 第 2の予備ディスクにリビルドすることを特徴とする請求項 1に記載のディスク故障復 旧方法。
[4] 前記他のディスクが故障した場合には、前記第 1の予備ディスクを前記ディスクァレ ィ装置に接続した後、前記更新データを前記ビットマップを参照して前記第 2の予備 ディスク力も前記第 1の予備ディスクにリビルドすることを特徴とする請求項 1に記載の ディスク故障復旧方法。
[5] 冗長化ディスクアレイと、
前記冗長化ディスクアレイのうちの故障したディスクのデータを、他のディスクのデ ータを用いてリビルドする第 1の予備ディスクと、
前記リビルドしたデータを格納する第 1の予備ディスクが装置力 切り離されている ときに前記第 1の予備ディスクのデータを更新すべき領域を記憶するビットマップと を備えることを特徴とするディスクアレイ装置。
[6] 前記他のディスクは、第 1の予備ディスクが装置力 切り離されているときに、更新 すべきデータを書き込むことを特徴とする請求項 5に記載のディスクアレイ装置。 前記第 1の予備ディスクが装置力も切り離されているときに、前記第 1の予備ディス クの更新すべきデータを含む領域を前記他のディスク力 リビルドする第 2の予備デ イスクを備えることを特徴とする請求項 6に記載のディスクアレイ装置。
PCT/JP2005/009188 2005-05-19 2005-05-19 ディスク故障復旧方法及びディスクアレイ装置 WO2006123416A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2005/009188 WO2006123416A1 (ja) 2005-05-19 2005-05-19 ディスク故障復旧方法及びディスクアレイ装置
JP2007516171A JPWO2006123416A1 (ja) 2005-05-19 2005-05-19 ディスク故障復旧方法及びディスクアレイ装置
US11/979,738 US20080178040A1 (en) 2005-05-19 2007-11-07 Disk failure restoration method and disk array apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2005/009188 WO2006123416A1 (ja) 2005-05-19 2005-05-19 ディスク故障復旧方法及びディスクアレイ装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US11/979,738 Continuation US20080178040A1 (en) 2005-05-19 2007-11-07 Disk failure restoration method and disk array apparatus

Publications (1)

Publication Number Publication Date
WO2006123416A1 true WO2006123416A1 (ja) 2006-11-23

Family

ID=37431000

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/009188 WO2006123416A1 (ja) 2005-05-19 2005-05-19 ディスク故障復旧方法及びディスクアレイ装置

Country Status (3)

Country Link
US (1) US20080178040A1 (ja)
JP (1) JPWO2006123416A1 (ja)
WO (1) WO2006123416A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008217202A (ja) * 2007-03-01 2008-09-18 Nec Corp ディスクアレイ装置及びファームウェア更新方法
JP2009043054A (ja) * 2007-08-09 2009-02-26 Hitachi Ltd ストレージシステム及びバックアップ方法
JP2009151677A (ja) * 2007-12-21 2009-07-09 Fujitsu Ltd ストレージ制御装置、ストレージ制御プログラムおよびストレージ制御方法
JP2013196481A (ja) * 2012-03-21 2013-09-30 Nec Corp キャッシュ装置、情報処理システム、および、キャッシュ方法
JP2014067313A (ja) * 2012-09-26 2014-04-17 Fujitsu Ltd ストレージ制御装置、ストレージ制御方法、およびストレージ制御プログラム

Families Citing this family (137)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7647526B1 (en) * 2006-12-06 2010-01-12 Netapp, Inc. Reducing reconstruct input/output operations in storage systems
JP2009026240A (ja) * 2007-07-23 2009-02-05 Hitachi Ltd 記憶制御システムおよび記憶制御方法
US8006128B2 (en) * 2008-07-31 2011-08-23 Datadirect Networks, Inc. Prioritized rebuilding of a storage device
US11614893B2 (en) 2010-09-15 2023-03-28 Pure Storage, Inc. Optimizing storage device access based on latency
US11275509B1 (en) 2010-09-15 2022-03-15 Pure Storage, Inc. Intelligently sizing high latency I/O requests in a storage environment
US8589655B2 (en) 2010-09-15 2013-11-19 Pure Storage, Inc. Scheduling of I/O in an SSD environment
US8732426B2 (en) 2010-09-15 2014-05-20 Pure Storage, Inc. Scheduling of reactive I/O operations in a storage environment
US8589625B2 (en) 2010-09-15 2013-11-19 Pure Storage, Inc. Scheduling of reconstructive I/O read operations in a storage environment
US8468318B2 (en) 2010-09-15 2013-06-18 Pure Storage Inc. Scheduling of I/O writes in a storage environment
US8775868B2 (en) 2010-09-28 2014-07-08 Pure Storage, Inc. Adaptive RAID for an SSD environment
US9244769B2 (en) 2010-09-28 2016-01-26 Pure Storage, Inc. Offset protection data in a RAID array
WO2012145916A1 (zh) * 2011-04-29 2012-11-01 北京中天安泰信息科技有限公司 数据安全存储方法及装置
US11636031B2 (en) 2011-08-11 2023-04-25 Pure Storage, Inc. Optimized inline deduplication
US8589640B2 (en) 2011-10-14 2013-11-19 Pure Storage, Inc. Method for maintaining multiple fingerprint tables in a deduplicating storage system
US8719540B1 (en) 2012-03-15 2014-05-06 Pure Storage, Inc. Fractal layout of data blocks across multiple devices
WO2014002160A1 (ja) * 2012-06-25 2014-01-03 富士通株式会社 ストレージ制御装置、ストレージ制御方法およびストレージ制御プログラム
US10623386B1 (en) 2012-09-26 2020-04-14 Pure Storage, Inc. Secret sharing data protection in a storage system
US11032259B1 (en) 2012-09-26 2021-06-08 Pure Storage, Inc. Data protection in a storage system
US8745415B2 (en) 2012-09-26 2014-06-03 Pure Storage, Inc. Multi-drive cooperation to generate an encryption key
US20140149787A1 (en) * 2012-11-29 2014-05-29 Lsi Corporation Method and system for copyback completion with a failed drive
US10908835B1 (en) 2013-01-10 2021-02-02 Pure Storage, Inc. Reversing deletion of a virtual machine
US11768623B2 (en) 2013-01-10 2023-09-26 Pure Storage, Inc. Optimizing generalized transfers between storage systems
US11733908B2 (en) 2013-01-10 2023-08-22 Pure Storage, Inc. Delaying deletion of a dataset
US9063967B2 (en) 2013-01-10 2015-06-23 Pure Storage, Inc. Performing copies in a storage system
CN103970481B (zh) * 2013-01-29 2017-03-01 国际商业机器公司 重建存储器阵列的方法和装置
CN103389918A (zh) * 2013-07-24 2013-11-13 北京鲸鲨软件科技有限公司 一种适用于raid系统中假性故障的修复方法
US10263770B2 (en) 2013-11-06 2019-04-16 Pure Storage, Inc. Data protection in a storage system using external secrets
US11128448B1 (en) 2013-11-06 2021-09-21 Pure Storage, Inc. Quorum-aware secret sharing
US10365858B2 (en) 2013-11-06 2019-07-30 Pure Storage, Inc. Thin provisioning in a storage device
US9516016B2 (en) 2013-11-11 2016-12-06 Pure Storage, Inc. Storage array password management
US9208086B1 (en) 2014-01-09 2015-12-08 Pure Storage, Inc. Using frequency domain to prioritize storage of metadata in a cache
US10656864B2 (en) 2014-03-20 2020-05-19 Pure Storage, Inc. Data replication within a flash storage array
US9513820B1 (en) 2014-04-07 2016-12-06 Pure Storage, Inc. Dynamically controlling temporary compromise on data redundancy
CN105095030B (zh) * 2014-05-22 2019-05-28 中兴通讯股份有限公司 基于Hadoop的硬盘损坏处理方法及装置
US9779268B1 (en) 2014-06-03 2017-10-03 Pure Storage, Inc. Utilizing a non-repeating identifier to encrypt data
US11399063B2 (en) 2014-06-04 2022-07-26 Pure Storage, Inc. Network authentication for a storage system
US9218244B1 (en) 2014-06-04 2015-12-22 Pure Storage, Inc. Rebuilding data across storage nodes
US10496556B1 (en) 2014-06-25 2019-12-03 Pure Storage, Inc. Dynamic data protection within a flash storage system
US9218407B1 (en) 2014-06-25 2015-12-22 Pure Storage, Inc. Replication and intermediate read-write state for mediums
US10296469B1 (en) 2014-07-24 2019-05-21 Pure Storage, Inc. Access control in a flash storage system
US9558069B2 (en) 2014-08-07 2017-01-31 Pure Storage, Inc. Failure mapping in a storage array
US9495255B2 (en) 2014-08-07 2016-11-15 Pure Storage, Inc. Error recovery in a storage cluster
US9864761B1 (en) 2014-08-08 2018-01-09 Pure Storage, Inc. Read optimization operations in a storage system
US10430079B2 (en) 2014-09-08 2019-10-01 Pure Storage, Inc. Adjusting storage capacity in a computing system
US10164841B2 (en) 2014-10-02 2018-12-25 Pure Storage, Inc. Cloud assist for storage systems
US10430282B2 (en) 2014-10-07 2019-10-01 Pure Storage, Inc. Optimizing replication by distinguishing user and system write activity
US9489132B2 (en) 2014-10-07 2016-11-08 Pure Storage, Inc. Utilizing unmapped and unknown states in a replicated storage system
US9727485B1 (en) 2014-11-24 2017-08-08 Pure Storage, Inc. Metadata rewrite and flatten optimization
US9773007B1 (en) 2014-12-01 2017-09-26 Pure Storage, Inc. Performance improvements in a storage system
US9552248B2 (en) 2014-12-11 2017-01-24 Pure Storage, Inc. Cloud alert to replica
US9588842B1 (en) 2014-12-11 2017-03-07 Pure Storage, Inc. Drive rebuild
US9864769B2 (en) 2014-12-12 2018-01-09 Pure Storage, Inc. Storing data utilizing repeating pattern detection
US10545987B2 (en) 2014-12-19 2020-01-28 Pure Storage, Inc. Replication to the cloud
US9569357B1 (en) 2015-01-08 2017-02-14 Pure Storage, Inc. Managing compressed data in a storage system
US10296354B1 (en) 2015-01-21 2019-05-21 Pure Storage, Inc. Optimized boot operations within a flash storage array
US11947968B2 (en) 2015-01-21 2024-04-02 Pure Storage, Inc. Efficient use of zone in a storage device
US9710165B1 (en) 2015-02-18 2017-07-18 Pure Storage, Inc. Identifying volume candidates for space reclamation
US10082985B2 (en) 2015-03-27 2018-09-25 Pure Storage, Inc. Data striping across storage nodes that are assigned to multiple logical arrays
US10178169B2 (en) 2015-04-09 2019-01-08 Pure Storage, Inc. Point to point based backend communication layer for storage processing
US10140149B1 (en) 2015-05-19 2018-11-27 Pure Storage, Inc. Transactional commits with hardware assists in remote memory
US10310740B2 (en) 2015-06-23 2019-06-04 Pure Storage, Inc. Aligning memory access operations to a geometry of a storage device
US9547441B1 (en) 2015-06-23 2017-01-17 Pure Storage, Inc. Exposing a geometry of a storage device
US10467096B2 (en) 2015-07-31 2019-11-05 Pure Storage, Inc. Securely storing data in a dispersed storage network
US11269884B2 (en) 2015-09-04 2022-03-08 Pure Storage, Inc. Dynamically resizable structures for approximate membership queries
KR20170028825A (ko) 2015-09-04 2017-03-14 퓨어 스토리지, 아이앤씨. 압축된 인덱스들을 사용한 해시 테이블들에서의 메모리 효율적인 스토리지 및 탐색
US11341136B2 (en) 2015-09-04 2022-05-24 Pure Storage, Inc. Dynamically resizable structures for approximate membership queries
US9823876B2 (en) * 2015-09-29 2017-11-21 Seagate Technology Llc Nondisruptive device replacement using progressive background copyback operation
US9843453B2 (en) 2015-10-23 2017-12-12 Pure Storage, Inc. Authorizing I/O commands with I/O tokens
US10452297B1 (en) 2016-05-02 2019-10-22 Pure Storage, Inc. Generating and optimizing summary index levels in a deduplication storage system
US10133503B1 (en) 2016-05-02 2018-11-20 Pure Storage, Inc. Selecting a deduplication process based on a difference between performance metrics
US10203903B2 (en) 2016-07-26 2019-02-12 Pure Storage, Inc. Geometry based, space aware shelf/writegroup evacuation
US10191662B2 (en) 2016-10-04 2019-01-29 Pure Storage, Inc. Dynamic allocation of segments in a flash storage system
US10613974B2 (en) 2016-10-04 2020-04-07 Pure Storage, Inc. Peer-to-peer non-volatile random-access memory
US10162523B2 (en) 2016-10-04 2018-12-25 Pure Storage, Inc. Migrating data between volumes using virtual copy operation
US10756816B1 (en) 2016-10-04 2020-08-25 Pure Storage, Inc. Optimized fibre channel and non-volatile memory express access
US10481798B2 (en) 2016-10-28 2019-11-19 Pure Storage, Inc. Efficient flash management for multiple controllers
US10185505B1 (en) 2016-10-28 2019-01-22 Pure Storage, Inc. Reading a portion of data to replicate a volume based on sequence numbers
US10359942B2 (en) 2016-10-31 2019-07-23 Pure Storage, Inc. Deduplication aware scalable content placement
US10452290B2 (en) 2016-12-19 2019-10-22 Pure Storage, Inc. Block consolidation in a direct-mapped flash storage system
US11550481B2 (en) 2016-12-19 2023-01-10 Pure Storage, Inc. Efficiently writing data in a zoned drive storage system
US11093146B2 (en) 2017-01-12 2021-08-17 Pure Storage, Inc. Automatic load rebalancing of a write group
US10528488B1 (en) 2017-03-30 2020-01-07 Pure Storage, Inc. Efficient name coding
US11403019B2 (en) 2017-04-21 2022-08-02 Pure Storage, Inc. Deduplication-aware per-tenant encryption
US10944671B2 (en) 2017-04-27 2021-03-09 Pure Storage, Inc. Efficient data forwarding in a networked device
US10402266B1 (en) 2017-07-31 2019-09-03 Pure Storage, Inc. Redundant array of independent disks in a direct-mapped flash storage system
US10831935B2 (en) 2017-08-31 2020-11-10 Pure Storage, Inc. Encryption management with host-side data reduction
US10776202B1 (en) 2017-09-22 2020-09-15 Pure Storage, Inc. Drive, blade, or data shard decommission via RAID geometry shrinkage
US10789211B1 (en) 2017-10-04 2020-09-29 Pure Storage, Inc. Feature-based deduplication
US10884919B2 (en) 2017-10-31 2021-01-05 Pure Storage, Inc. Memory management in a storage system
US10860475B1 (en) 2017-11-17 2020-12-08 Pure Storage, Inc. Hybrid flash translation layer
US10929031B2 (en) 2017-12-21 2021-02-23 Pure Storage, Inc. Maximizing data reduction in a partially encrypted volume
US11010233B1 (en) 2018-01-18 2021-05-18 Pure Storage, Inc Hardware-based system monitoring
US10970395B1 (en) 2018-01-18 2021-04-06 Pure Storage, Inc Security threat monitoring for a storage system
US11144638B1 (en) 2018-01-18 2021-10-12 Pure Storage, Inc. Method for storage system detection and alerting on potential malicious action
US10467527B1 (en) 2018-01-31 2019-11-05 Pure Storage, Inc. Method and apparatus for artificial intelligence acceleration
US11036596B1 (en) 2018-02-18 2021-06-15 Pure Storage, Inc. System for delaying acknowledgements on open NAND locations until durability has been confirmed
US11494109B1 (en) 2018-02-22 2022-11-08 Pure Storage, Inc. Erase block trimming for heterogenous flash memory storage devices
US11934322B1 (en) 2018-04-05 2024-03-19 Pure Storage, Inc. Multiple encryption keys on storage drives
US11385792B2 (en) 2018-04-27 2022-07-12 Pure Storage, Inc. High availability controller pair transitioning
US10678433B1 (en) 2018-04-27 2020-06-09 Pure Storage, Inc. Resource-preserving system upgrade
US10678436B1 (en) 2018-05-29 2020-06-09 Pure Storage, Inc. Using a PID controller to opportunistically compress more data during garbage collection
US11436023B2 (en) 2018-05-31 2022-09-06 Pure Storage, Inc. Mechanism for updating host file system and flash translation layer based on underlying NAND technology
US10776046B1 (en) 2018-06-08 2020-09-15 Pure Storage, Inc. Optimized non-uniform memory access
US11281577B1 (en) 2018-06-19 2022-03-22 Pure Storage, Inc. Garbage collection tuning for low drive wear
US11869586B2 (en) 2018-07-11 2024-01-09 Pure Storage, Inc. Increased data protection by recovering data from partially-failed solid-state devices
US11194759B2 (en) 2018-09-06 2021-12-07 Pure Storage, Inc. Optimizing local data relocation operations of a storage device of a storage system
US11133076B2 (en) 2018-09-06 2021-09-28 Pure Storage, Inc. Efficient relocation of data between storage devices of a storage system
US10846216B2 (en) 2018-10-25 2020-11-24 Pure Storage, Inc. Scalable garbage collection
US11113409B2 (en) 2018-10-26 2021-09-07 Pure Storage, Inc. Efficient rekey in a transparent decrypting storage array
US11194473B1 (en) 2019-01-23 2021-12-07 Pure Storage, Inc. Programming frequently read data to low latency portions of a solid-state storage array
US11588633B1 (en) 2019-03-15 2023-02-21 Pure Storage, Inc. Decommissioning keys in a decryption storage system
US11334254B2 (en) 2019-03-29 2022-05-17 Pure Storage, Inc. Reliability based flash page sizing
US11775189B2 (en) 2019-04-03 2023-10-03 Pure Storage, Inc. Segment level heterogeneity
US11397674B1 (en) 2019-04-03 2022-07-26 Pure Storage, Inc. Optimizing garbage collection across heterogeneous flash devices
US10990480B1 (en) 2019-04-05 2021-04-27 Pure Storage, Inc. Performance of RAID rebuild operations by a storage group controller of a storage system
US11099986B2 (en) 2019-04-12 2021-08-24 Pure Storage, Inc. Efficient transfer of memory contents
US11487665B2 (en) 2019-06-05 2022-11-01 Pure Storage, Inc. Tiered caching of data in a storage system
US11281394B2 (en) 2019-06-24 2022-03-22 Pure Storage, Inc. Replication across partitioning schemes in a distributed storage system
US10929046B2 (en) 2019-07-09 2021-02-23 Pure Storage, Inc. Identifying and relocating hot data to a cache determined with read velocity based on a threshold stored at a storage device
US11422751B2 (en) 2019-07-18 2022-08-23 Pure Storage, Inc. Creating a virtual storage system
US11086713B1 (en) 2019-07-23 2021-08-10 Pure Storage, Inc. Optimized end-to-end integrity storage system
US11963321B2 (en) 2019-09-11 2024-04-16 Pure Storage, Inc. Low profile latching mechanism
US11403043B2 (en) 2019-10-15 2022-08-02 Pure Storage, Inc. Efficient data compression by grouping similar data within a data segment
US11341236B2 (en) 2019-11-22 2022-05-24 Pure Storage, Inc. Traffic-based detection of a security threat to a storage system
US11720692B2 (en) 2019-11-22 2023-08-08 Pure Storage, Inc. Hardware token based management of recovery datasets for a storage system
US11645162B2 (en) 2019-11-22 2023-05-09 Pure Storage, Inc. Recovery point determination for data restoration in a storage system
US11687418B2 (en) 2019-11-22 2023-06-27 Pure Storage, Inc. Automatic generation of recovery plans specific to individual storage elements
US11941116B2 (en) 2019-11-22 2024-03-26 Pure Storage, Inc. Ransomware-based data protection parameter modification
US11657155B2 (en) 2019-11-22 2023-05-23 Pure Storage, Inc Snapshot delta metric based determination of a possible ransomware attack against data maintained by a storage system
US11651075B2 (en) 2019-11-22 2023-05-16 Pure Storage, Inc. Extensible attack monitoring by a storage system
US11615185B2 (en) 2019-11-22 2023-03-28 Pure Storage, Inc. Multi-layer security threat detection for a storage system
US11500788B2 (en) 2019-11-22 2022-11-15 Pure Storage, Inc. Logical address based authorization of operations with respect to a storage system
US11520907B1 (en) 2019-11-22 2022-12-06 Pure Storage, Inc. Storage system snapshot retention based on encrypted data
US11625481B2 (en) 2019-11-22 2023-04-11 Pure Storage, Inc. Selective throttling of operations potentially related to a security threat to a storage system
US11675898B2 (en) 2019-11-22 2023-06-13 Pure Storage, Inc. Recovery dataset management for security threat monitoring
US11720714B2 (en) 2019-11-22 2023-08-08 Pure Storage, Inc. Inter-I/O relationship based detection of a security threat to a storage system
US11755751B2 (en) 2019-11-22 2023-09-12 Pure Storage, Inc. Modify access restrictions in response to a possible attack against data stored by a storage system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11338648A (ja) * 1998-02-26 1999-12-10 Nec Corp ディスクアレイ装置、そのエラ―制御方法、ならびにその制御プログラムを記録した記録媒体

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08234930A (ja) * 1995-02-24 1996-09-13 Nec Corp 磁気ディスクアレイ保守方式
JP2000330729A (ja) * 1999-05-18 2000-11-30 Toshiba Corp オンラインバックアップ機能を持つディスクアレイシステム
US6820211B2 (en) * 2001-06-28 2004-11-16 International Business Machines Corporation System and method for servicing requests to a storage array
JP2003085019A (ja) * 2001-09-07 2003-03-20 Toshiba Corp ディスク管理装置、ディスク管理方法及びディスク管理プログラム
JP2003288176A (ja) * 2003-03-07 2003-10-10 Hitachi Ltd 記憶装置システム
JP2005099995A (ja) * 2003-09-24 2005-04-14 Fujitsu Ltd 磁気ディスク装置のディスク共有方法及びシステム
US7409582B2 (en) * 2004-05-06 2008-08-05 International Business Machines Corporation Low cost raid with seamless disk failure recovery
US7143308B2 (en) * 2005-01-14 2006-11-28 Charlie Tseng Apparatus, system, and method for differential rebuilding of a reactivated offline RAID member disk
US20070180292A1 (en) * 2006-01-31 2007-08-02 Bhugra Kern S Differential rebuild in a storage environment
US7624300B2 (en) * 2006-12-18 2009-11-24 Emc Corporation Managing storage stability

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11338648A (ja) * 1998-02-26 1999-12-10 Nec Corp ディスクアレイ装置、そのエラ―制御方法、ならびにその制御プログラムを記録した記録媒体

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008217202A (ja) * 2007-03-01 2008-09-18 Nec Corp ディスクアレイ装置及びファームウェア更新方法
JP2009043054A (ja) * 2007-08-09 2009-02-26 Hitachi Ltd ストレージシステム及びバックアップ方法
JP2009151677A (ja) * 2007-12-21 2009-07-09 Fujitsu Ltd ストレージ制御装置、ストレージ制御プログラムおよびストレージ制御方法
JP2013196481A (ja) * 2012-03-21 2013-09-30 Nec Corp キャッシュ装置、情報処理システム、および、キャッシュ方法
JP2014067313A (ja) * 2012-09-26 2014-04-17 Fujitsu Ltd ストレージ制御装置、ストレージ制御方法、およびストレージ制御プログラム

Also Published As

Publication number Publication date
US20080178040A1 (en) 2008-07-24
JPWO2006123416A1 (ja) 2008-12-25

Similar Documents

Publication Publication Date Title
WO2006123416A1 (ja) ディスク故障復旧方法及びディスクアレイ装置
US6883112B2 (en) Storage device, backup and fault tolerant redundant method and computer program code of plurality storage devices
US5875457A (en) Fault-tolerant preservation of data integrity during dynamic raid set expansion
US7506187B2 (en) Methods, apparatus and controllers for a raid storage system
JP5285610B2 (ja) グローバルホットスペアディスクが存在するときに、故障したドライブを復元、及びコピーバックする最適化された方法
US7143308B2 (en) Apparatus, system, and method for differential rebuilding of a reactivated offline RAID member disk
JP3742494B2 (ja) 大容量記憶装置
US7529965B2 (en) Program, storage control method, and storage system
JP5285611B2 (ja) グローバルホットスペアディスクが存在するときに、切断されたドライブを復元、及びコピーバックする最適化された方法
WO2001040925A1 (fr) Batterie de disques et procede d'extension de sa capacite
JP3573032B2 (ja) ディスクアレイ装置
JP4457019B2 (ja) 情報処理システム及び一次ストレージ装置
JP4454299B2 (ja) ディスクアレイ装置及びディスクアレイ装置の保守方法
JPH11184643A (ja) ディスクアレイ装置の管理方法及びプログラムを記録した機械読み取り可能な記録媒体
JP2000200157A (ja) ディスクアレイ装置およびディスクアレイ装置におけるデ―タ復旧方法
JP2006260376A (ja) ストレージ装置およびメディアエラー回復方法
US7287182B2 (en) Method and apparatus for copying data of disk drive in disk array system
JP3597349B2 (ja) 記憶サブシステムおよびその障害回復方法
JP4398596B2 (ja) ディスクアレイ装置
JP2005166016A (ja) ディスクアレイ装置
JP6957845B2 (ja) ストレージ制御装置及びストレージ装置
JPH06266508A (ja) ディスクアレイ制御方法
US20050071380A1 (en) Apparatus and method to coordinate multiple data storage and retrieval systems
US20090063770A1 (en) Storage control apparatus, storage control program, and storage control method
JP2001195205A (ja) データ蓄積システムのデータ復旧方法及びそのプログラムを記録した媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2007516171

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Country of ref document: DE

NENP Non-entry into the national phase

Ref country code: RU

WWW Wipo information: withdrawn in national office

Country of ref document: RU

122 Ep: pct application non-entry in european phase

Ref document number: 05741603

Country of ref document: EP

Kind code of ref document: A1