完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>
標簽 > RAID
磁盤陣列是由很多價格較便宜的磁盤,組合成一個容量巨大的磁盤組,利用個別磁盤提供數據所產生加成效果提升整個磁盤系統效能。
磁盤陣列(Redundant Arrays of Independent Disks,RAID),有“獨立磁盤構成的具有冗余能力的陣列”之意。
磁盤陣列是由很多價格較便宜的磁盤,組合成一個容量巨大的磁盤組,利用個別磁盤提供數據所產生加成效果提升整個磁盤系統效能。利用這項技術,將數據切割成許多區段,分別存放在各個硬盤上。
磁盤陣列還能利用同位檢查(Parity Check)的觀念,在數組中任意一個硬盤故障時,仍可讀出數據,在數據重構時,將數據經計算后重新置入新硬盤中。分類
磁盤陣列其樣式有三種,一是外接式磁盤陣列柜、二是內接式磁盤陣列卡,三是利用軟件來仿真。
磁盤陣列(Redundant Arrays of Independent Disks,RAID),有“獨立磁盤構成的具有冗余能力的陣列”之意。
磁盤陣列是由很多價格較便宜的磁盤,組合成一個容量巨大的磁盤組,利用個別磁盤提供數據所產生加成效果提升整個磁盤系統效能。利用這項技術,將數據切割成許多區段,分別存放在各個硬盤上。
磁盤陣列還能利用同位檢查(Parity Check)的觀念,在數組中任意一個硬盤故障時,仍可讀出數據,在數據重構時,將數據經計算后重新置入新硬盤中。分類
磁盤陣列其樣式有三種,一是外接式磁盤陣列柜、二是內接式磁盤陣列卡,三是利用軟件來仿真。
外接式磁盤陣列柜最常被使用大型服務器上,具可熱交換(Hot Swap)的特性,不過這類產品的價格都很貴。
內接式磁盤陣列卡,因為價格便宜,但需要較高的安裝技術,適合技術人員使用操作。硬件陣列能夠提供在線擴容、動態修改陣列級別、自動數據恢復、驅動器漫游、超高速緩沖等功能。它能提供性能、數據保護、可靠性、可用性和可管理性的解決方案。陣列卡專用的處理單元來進行操作。
利用軟件仿真的方式,是指通過網絡操作系統自身提供的磁盤管理功能將連接的普通SCSI卡上的多塊硬盤配置成邏輯盤,組成陣列。軟件陣列可以提供數據冗余功能,但是磁盤子系統的性能會有所降低,有的降低幅度還比較大,達30%左右。因此會拖累機器的速度,不適合大數據流量的服務器。
原理
磁盤陣列作為獨立系統在主機外直連或通過網絡與主機相連。磁盤陣列有多個端口可以被不同主機或不同端口連接。一個主機連接陣列的不同端口可提升傳輸速度。
和當時PC用單磁盤內部集成緩存一樣,在磁盤陣列內部為加快與主機交互速度,都帶有一定量的緩沖存儲器。主機與磁盤陣列的緩存交互,緩存與具體的磁盤交互數據。
在應用中,有部分常用的數據是需要經常讀取的,磁盤陣列根據內部的算法,查找出這些經常讀取的數據,存儲在緩存中,加快主機讀取這些數據的速度,而對于其他緩存中沒有的數據,主機要讀取,則由陣列從磁盤上直接讀取傳輸給主機。對于主機寫入的數據,只寫在緩存中,主機可以立即完成寫操作。然后由緩存再慢慢寫入磁盤。
優缺點
優點
提高傳輸速率。RAID通過在多個磁盤上同時存儲和讀取數據來大幅提高存儲系統的數據吞吐量(Throughput)。在RAID中,可以讓很多磁盤驅動器同時傳輸數據,而這些磁盤驅動器在邏輯上又是一個磁盤驅動器,所以使用RAID可以達到單個磁盤驅動器幾倍、幾十倍甚至上百倍的速率。這也是RAID最初想要解決的問題。因為當時CPU的速度增長很快,而磁盤驅動器的數據傳輸速率無法大幅提高,所以需要有一種方案解決二者之間的矛盾。RAID最后成功了。
通過數據校驗提供容錯功能。普通磁盤驅動器無法提供容錯功能,如果不包括寫在磁盤上的CRC(循環冗余校驗)碼的話。RAID容錯是建立在每個磁盤驅動器的硬件容錯功能之上的,所以它提供更高的安全性。在很多RAID模式中都有較為完備的相互校驗/恢復的措施,甚至是直接相互的鏡像備份,從而大大提高了RAID系統的容錯度,提高了系統的穩定冗余性。
缺點
RAID0沒有冗余功能,如果一個磁盤(物理)損壞,則所有的數據都無法使用。RAID1磁盤的利用率最高只能達到50%(使用兩塊盤的情況下),是所有RAID級別中最低的。RAID0+1以理解為是RAID 0和RAID 1的折中方案。RAID 0+1可以為系統提供數據安全保障,但保障程度要比 Mirror低而磁盤空間利用率要比Mirror高。
RAID級別
1、RAID 0
RAID 0是最早出現的RAID模式,即Data Stripping數據分條技術。RAID 0是組建磁盤陣列中最簡單的一種形式,只需要2塊以上的硬盤即可,成本低,可以提高整個磁盤的性能和吞吐量。RAID 0沒有提供冗余或錯誤修復能力,但實現成本是最低的。
RAID 0最簡單的實現方式就是把N塊同樣的硬盤用硬件的形式通過智能磁盤控制器或用操作系統中的磁盤驅動程序以軟件的方式串聯在一起創建一個大的卷集。在使用中電腦數據依次寫入到各塊硬盤中,它的最大優點就是可以整倍的提高硬盤的容量。如使用了三塊80GB的硬盤組建成RAID 0模式,那么磁盤容量就會是240GB。其速度方面,各單獨一塊硬盤的速度完全相同。最大的缺點在于任何一塊硬盤出現故障,整個系統將會受到破壞,可靠性僅為單獨一塊硬盤的1/N。
為了解決這一問題,便出現了RAID 0的另一種模式。即在N塊硬盤上選擇合理的帶區來創建帶區集。其原理就是將原先順序寫入的數據被分散到所有的四塊硬盤中同時進行讀寫。四塊硬盤的并行操作使同一時間內磁盤讀寫的速度提升了4倍。
在創建帶區集時,合理的選擇帶區的大小非常重要。如果帶區過大,可能一塊磁盤上的帶區空間就可以滿足大部分的I/O操作,使數據的讀寫仍然只局限在少數的一、兩塊硬盤上,不能充分的發揮出并行操作的優勢。另一方面,如果帶區過小,任何I/O指令都可能引發大量的讀寫操作,占用過多的控制器總線帶寬。因此,在創建帶區集時,我們應當根據實際應用的需要,慎重的選擇帶區的大小。
帶區集雖然可以把數據均勻的分配到所有的磁盤上進行讀寫。但如果我們把所有的硬盤都連接到一個控制器上的話,可能會帶來潛在的危害。這是因為當我們頻繁進行讀寫操作時,很容易使控制器或總線的負荷 超載。為了避免出現上述問題,建議用戶可以使用多個磁盤控制器。最好解決方法還是為每一塊硬盤都配備一個專門的磁盤控制器。
雖然RAID 0可以提供更多的空間和更好的性能,但是整個系統是非常不可靠的,如果出現故障,無法進行任何補救。所以,RAID 0一般只是在那些對數據安全性要求不高的情況下才被人們使用。
2、RAID 1
RA
ID 1稱為磁盤鏡像,原理是把一個磁盤的數據鏡像到另一個磁盤上,也就是說數據在寫入一塊磁盤的同時,會在另一塊閑置的磁盤上生成鏡像文件,在不影響性能情況下最大限度的保證系統的可靠性和可修復性上,只要系統中任何一對鏡像盤中至少有一塊磁盤可以使用,甚至可以在一半數量的硬盤出現問題時系統都可以正常運行,當一塊硬盤失效時,系統會忽略該硬盤,轉而使用剩余的鏡像盤讀寫數據,具備很好的磁盤冗余能力。雖然這樣對數據來講絕對安全,但是成本也會明顯增加,磁盤利用率為50%,以四塊80GB容量的硬盤來講,可利用的磁盤空間僅為160GB。另外,出現硬盤故障的RAID系統不再可靠,應當及時的更換損壞的硬盤,否則剩余的鏡像盤也出現問題,那么整個系統就會崩潰。更換新盤后原有數據會需要很長時間同步鏡像,外界對數據的訪問不會受到影響,只是這時整個系統的性能有所下降。因此,RAID 1多用在保存關鍵性的重要數據的場合。
RAID 1主要是通過二次讀寫實現磁盤鏡像,所以磁盤控制器的負載也相當大,尤其是在需要頻繁寫入數據的環境中。為了避免出現性能瓶頸,使用多個磁盤控制器就顯得很有必要。
3、RAID0+1
從RAID 0+1名稱上我們便可以看出是RAID0與RAID1的結合體。在我們單獨使用RAID 1也會出現類似單獨使用RAID 0那樣的問題,即在同一時間內只能向一塊磁盤寫入數據,不能充分利用所有的資源。為了解決這一問題,我們可以在磁盤鏡像中建立帶區集。因為這種配置方式綜合了帶區集和鏡像的優勢,所以被稱為RAID 0+1。把RAID0和RAID1技術結合起來,數據除分布在多個盤上外,每個盤都有其物理鏡像盤,提供全冗余能力,允許一個以下磁盤故障,而不影響數據可用性,并具有快速讀/寫能力。RAID0+1要在磁盤鏡像中建立帶區集至少4個硬盤。
4、RAID: LSI MegaRAID、Nytro和Syncro
MegaRAID、Nytro和Syncro都是LSI 針對RAID而推出的解決方案,并且一直在創造更新。
LSI MegaRAID的主要定位是保護數據,通過高性能、高可靠的RAID控制器功能,為數據提供高級別的保護。LSI MegaRAID在業界有口皆碑。
LSI Nytro的主要定位是數據加速,它充分利用當今備受追捧的閃存技術,極大地提高數據I/O速度。LSI Nytro包括三個系列:LSI Nytro WarpDrive加速卡、LSI Nytro XD 應用加速存儲解決方案和LSI Nytro MegaRAID 應用加速卡。Nytro MegaRAID主要用于DAS環境,Nytro WarpDrive加速卡主要用于SAN和NAS環境,Nytro XD解決方案由Nytro WarpDrive加速卡和Nytro XD 智能高速緩存軟件兩部分構成。
LSI Syncro的定位主要用于數據共享,提高系統的可用性、可擴展性,降低成本。
LSI通過MegaRAID提供基本的可靠性保障;通過Nytro實現加速;通過Syncro突破容量瓶頸,讓價格低廉的存儲解決方案可以大規模擴展,并且進一步提高可靠性。5、RAID2:帶海明碼校驗
從概念上講,RAID 2 同RAID 3類似, 兩者都是將數據條塊化分布于不同的硬盤上, 條塊單位為位或字節。然而RAID 2 使用一定的編碼技術來提供錯誤檢查及恢復。這種編碼技術需要多個磁盤存放檢查及恢復信息,使得RAID 2技術實施更復雜。因此,在商業環境中很少使用。下圖左邊的各個磁盤上是數據的各個位,由一個數據不同的位運算得到的海明校驗碼可以保存另一組磁盤上。由于海明碼的特點,它可以在數據發生錯誤的情況下將錯誤校正,以保證輸出的正確。它的數據傳送速率相當高,如果希望達到比較理想的速度,那最好提高保存校驗碼ECC碼的硬盤,對于控制器的設計來說,它又比RAID3,4或5要簡單。沒有免費的午餐,這里也一樣,要利用海明碼,必須要付出數據冗余的代價。輸出數據的速率與驅動器組中速度最慢的相等。
6 、RAID3:帶奇偶校驗碼的并行傳送
這種校驗碼與RAID2不同,只能查錯不能糾錯。它訪問數據時一次處理一個帶區,這樣可以提高讀取和寫入速度。校驗碼在寫入數據時產生并保存在另一個磁盤上。需要實現時用戶必須要有三個以上的驅動器,寫入速率與讀出速率都很高,因為校驗位比較少,因此計算時間相對而言比較少。用軟件實現RAID控制將是十分困難的,控制器的實現也不是很容易。它主要用于圖形(包括動畫)等要求吞吐率比較高的場合。不同于RAID 2,RAID 3使用單塊磁盤存放奇偶校驗信息。如果一塊磁盤失效,奇偶盤及其他數據盤可以重新產生數據。 如果奇偶盤失效,則不影響數據使用。RAID 3對于大量的連續數據可提供很好的傳輸率,但對于隨機數據,奇偶盤會成為寫操作的瓶頸。
7、RAID4:帶奇偶校驗碼的獨立磁盤結構
RAID4和RAID3很象,不同的是,它對數據的訪問是按數據塊進行的,也就是按磁盤進行的,每次是一個盤。在圖上可以這么看,RAID3是一次一橫條,而RAID4一次一豎條。它的特點和RAID3也挺象,不過在失敗恢復時,它的難度可要比RAID3大得多了,控制器的設計難度也要大許多,而且訪問數據的效率不怎么好。
8、RAID5:分布式奇偶校驗的獨立磁盤結構
從它的示意圖上可以看到,它的奇偶校驗碼存在于所有磁盤上,其中的p0代表第0帶區的奇偶校驗值,其它的意思也相同。RAID5的讀出效率很高,寫入效率一般,塊式的集體訪問效率不錯。因為奇偶校驗碼在不同的磁盤上,所以提高了可靠性。但是它對數據傳輸的并行性解決不好,而且控制器的設計也相當困難。RAID 3 與RAID 5相比,重要的區別在于RAID 3每進行一次數據傳輸,需涉及到所有的陣列盤。而對于RAID 5來說,大部分數據傳輸只對一塊磁盤操作,可進行并行操作。在RAID 5中有“寫損失”,即每一次寫操作,將產生四個實際的讀/寫操作,其中兩次讀舊的數據及奇偶信息,兩次寫新的數據及奇偶信息。
9、RAID6:帶有兩種分布存儲的奇偶校驗碼的獨立磁盤結構
名字很長,但是如果看到圖,大家立刻會明白是為什么,請注意p0代表第0帶區的奇偶校驗值,而pA代表數據塊A的奇偶校驗值。它是對RAID5的擴展,主要是用于要求數據絕對不能出錯的場合。當然了,由于引入了第二種奇偶校驗值,所以需要N+2個磁盤,同時對控制器的設計變得十分復雜,寫入速度也不好,用于計算奇偶校驗值和驗證數據正確性所花費的時間比較多,造成了不必須的負載。我想除了軍隊沒有人用得起這種東西。
10、RAID7:優化的高速數據傳送磁盤結構
RAID7所有的I/O傳送均是同步進行的,可以分別控制,這樣提高了系統的并行性,提高系統訪問數據的速度;每個磁盤都帶有高速緩沖存儲器,實時操作系統可以使用任何實時操作芯片,達到不同實時系統的需要。允許使用SNMP協議進行管理和監視,可以對校驗區指定獨立的傳送信道以提高效率。可以連接多臺主機,因為加入高速緩沖存儲器,當多用戶訪問系統時,訪問時間幾乎接近于0。由于采用并行結構,因此數據訪問效率大大提高。需要注意的是它引入了一個高速緩沖存儲器,這有利有弊,因為一旦系統斷電,在高速緩沖存儲器內的數據就會全部丟失,因此需要和UPS一起工作。當然了,這么快的東西,價格也非常昂貴。
11、RAID10:高可靠性與高效磁盤結構
這種結構無非是一個帶區結構加一個鏡象結構,因為兩種結構各有優缺點,因此可以相互補充,達到既高效又高速的目的。大家可以結合兩種結構的優點和缺點來理解這種新結構。這種新結構的價格高,可擴充性不好。主要用于數據容量不大,但要求速度和差錯控制的數據庫中。
12、RAID53:高效數據傳送磁盤結構
越到后面的結構就是對前面結構的一種重復和再利用,這種結構就是RAID3和帶區結構的統一,因此它速度比較快,也有容錯功能。但價格十分高,不易于實現。這是因為所有的數據必須經過帶區和按位存儲兩種方法,在考慮到效率的情況下,要求這些磁盤同步真是不容易。
RAID技術的應用
DAS--direct access storage device直接訪問存儲設備DAS是磁盤存儲設備的術語,以前被用在大、中型機上。使用在PC機上還包括硬盤設備DAS的最新形式是RAID。“直接訪問”指訪問所有數據的時間是相同的。NAS--Network Attached Storage網絡附加存儲設備一種特殊目的的服務器,它具有嵌入式的軟件系統,可以通過網絡對個種的系統平臺提供文件共享服務。SAN--Storage Area Networks存儲區域網一種高速的專用網絡,用于建立服務器、磁盤陣列和磁帶庫之間的一種直接聯接。它如同擴展的存儲器總線,將專用的集線器、交換器以及網關或橋路互相連接在一起。SAN常使用光纖通道。一個SAN可以是本地的或者是遠程的,也可以是共享的或者是專用的。SAN打破了存儲器與服務器之間的束縛,允許獨立地選擇最佳的存儲器或者是最佳的服務器,從而提高可擴性和靈活性。
混合RAID混合RAID是一種冗余存儲解決方案,采用高容量低成本的SATA或者高性能SAS硬盤與低延遲高IOPs的固態盤,再加上SSD感知的RAID控制卡。
在混合RAID中,讀取操作在更高速的SSD中進行,而出于冗余考慮,寫入操作則在SSD和HDD中進行。混合RAID適合于數據等級較低的應用,例如互聯網網關、文件服務器或者虛擬機
[3] 混合RAID 的好處是什么?
混合RAID陣列的性能遠遠超過標準HDD RAID陣列,而且成本比純SSD RAID陣列更低。相比純HDD RAID陣列,混合陣列加速IOPS并降低延遲,使數據中心和云計算環境能夠托管更多用戶,每秒鐘在每臺服務器上執行更多交易,減少了支持任何特定工作負載所需的服務器數量。除了服務器數量縮減會減少數據中心服務器的占地空間之外,在財務上體現出的好處就是降低了采購額外服務器所需的資本開支,以及供電、冷卻與維護相關的運營開支。
混合RAID解決方案
從硬件的角度看,搭建一個混合RAID解決方案可以使用任何容量的SSD和HDD(不過SSD和HDD的數量必須相同)。如果這個RAID陣列使用容量不同的驅動器,那么驅動器容量就是更小的那個。例如, 一個RAID 1 使用1個128GB SSD和2TB HDD,那么邏輯設備就是128GB。一個RAID 10使用2個128GB SSD和2個2TB HDD,邏輯設備就是256GB。剩下的HDD容量可用于存儲。
不過,從應用的角度看,因為大多數軟件并不能識別出采用兩種有著不同特點的存儲的可能性。為了充分利用混合RAID,必須部署一種具有智能存儲處理能力、SSD感知的RAID控制卡。Adaptec 6系列、5Z系列、5系列、2系列和Q系列控制卡經過最新的固件升級之后, 可以很好地利用剩余容量,自動創建一個混合RAID陣列,將1個或者多個SSD與相同數量的HDD做成RAID 1或者RAID 10陣列。這個混合RAID陣列對于操作系統和所有運行中的應用都是透明的。此外,Adaptec控制卡通過向HDD和SSD的寫入、100%從SSD讀取,提供了最高的混合陣列性能(見右圖Adaptec混合RAID解決方案)。
Adaptec混合RAID陣列提供了比標準HDD陣列更高的IOPs性能,同時寫I/O性能也沒有降級,見下圖-IOMeter原始性能。
一些應用甚至看到了通過Adaptec混合RAID獲得的少量性能優勢,并且混合RAID 1速度比單個SSD更快,見下圖-AS SSD應用性能。
軟 RAID 和硬 RAID 各有什么優劣?
Raid 1+0 軟硬raid 差別不大,甚至硬raid控制器的吞吐量不如x86的系統,從而吞吐量會比不上軟Raid。
Raid 5,6則是硬raid完勝。why?
(當然這個前提不包括Solaris ZFS文件系統,以及使用Linux 3.09之后的內核的相關系統)
簡單通過Raid5來進行比較。Raid 5基本原理是異或運算來實現。
XOR (0, 1) = 1
XOR (1, 0) = 1
XOR (0, 0) = 0
XOR (1, 1) = 0
硬盤1 硬盤2 硬盤3
| 101 | 010 | 011 |
XOR (101, 010, 011) = 100
過程如下:
XOR (101,010) = 111 , XOR (111, 011) = 100
校驗盤P
| 101 | 010 | 011 | 100 |
| 101 | 掛了 | 011 | 100 |
還原010
XOR (101, 011, 100) = 010
當然實際過程比這個要復雜的多的多。
Raid 5讀寫數據流程是,讀寫也是基于Raid stripe size, 相當于是一個數據快是Raid最小基礎單元。像人體細胞一樣。
Raid5 寫一份數據,需要下列操作,普通硬盤只要1次寫操作。
控制器讀取舊的數據塊,
讀取舊的校驗塊。
并和新計算出來的進行比對,如果有修改,則要改寫舊塊為新塊(數據快和校驗塊)。
如果只是同等內容修改,沒有用到新的塊。就到此為止了。
簡單的例子是,我新建一個文本文檔,只有一個字符A,沒有空格,空行,tab。我修改A為B,然后保存,文件大小是不變的。如果我把A改成兩個字母“AB”,再保存。相當于申請新的空間來保存另外一個字符B。(此例子只能用來理解,不能代表100%Raid控制器和文件系統是這樣存儲數據)
如果有追加的數據
則還要寫入新的數據塊和新的校驗塊。這一段參考wiki,但是它沒有寫出追加和修改的區別,我這里寫出來了。
所謂硬件Raid控制器也是一套私有系統,自己的CPU,內存,以及存儲數據的單元。只是很小,根據LSI的文檔,同一代高中低端的芯片也是這樣劃分的。根據CPU,內存頻率,當然也有軟件算法升級和以及某些功能license。其實和intel,nvidia沒啥區別。
注意cache的速度比硬盤快很多。100倍或更多。當然和硬件有關。
硬件raid控制器優勢,有電池或者SLC的SSD來對cache進行保護。(不清楚有沒有無良廠商使用MLC的),相當于給你的臺式機內存加裝電池,或者類似win7的關機休眠功能,關機后,內存仍可以得到供電。重新開機后,打開的程序都還在。所以有了電池或者SSD作為cahce,所以硬件raid控制器可以把上述Raid5頻繁讀寫操作往cache里面塞,主要針對讀寫量不連續磁盤塊的寫操作和以及校驗操作,如果夠大的話,會預讀一部分校驗數據到緩存里面。順序讀寫磁盤速度是可以接受的(相對來說,極少磁盤額外尋道時間)。所以,我寫10次校驗數據不連續的寫操作,可能都是寫到帶電池的高速緩存中,同樣連續的寫操作,cache會保存校驗數據,但是個人覺得連續寫操作不經過cache效率會更高。
同樣,軟raid,控制調度是OS內核,Xeon E5 E7怎么都比Power 800要牛B的多吧,注意注意,高速cache不是內存哦。因為你的服務器內存木有電池哦,所以軟Raid則會使用同步IO操作(帶fsync, O_SYNC標志的操作)。結果就是相當于沒有內存,因為每次要等磁盤確認響應,相當于你把你的硬Raid控制器調整為write through模式。相當于你的Raid沒有那塊高速cache。
于是,校驗寫一次,雖然經過內存,但是kernel要求要求軟raid驅動給一個數據寫入的確認,軟raid驅動會把這個請求仍給硬盤,要求我(軟raid驅動)剛才寫入1,2,3,4號盤的數據是不是都寫入了。如果寫入了給一個確認。它會等到最后才執行完的那塊硬盤給出確認后,再回復kernel,啊,數據寫完了。
廢話這么多,硬件raid可以在高速緩存中合并非連續寫和校驗寫為連續的寫操作。
軟件raid則要確認每一次數據和校驗寫是否都寫入到磁盤上去了,還要額外附加一些讀操作,7200或者15000的磁頭要轉啊轉,延時啊。
所以軟Raid用來做Raid 1+0 或者Raid 1是和硬件Raid沒有太多區別,可能性能會更好。
但是用來做有校驗的Raid 4,5,6. 則會導致寫性能瓶頸。
當然如果你做Raid4,校驗盤用一塊同容量SSD來替代,也是不錯的。哈哈。
在來一個例子理解,比如軟raid要出差,目前在帝都北京,但是明天要去武漢,后天又要回北京,最后還要去深圳,去完了還要返回北京,客戶都約好了,不能改時間。
但是硬raid比較靈活,提前和客戶排好了班,先去深圳,再去武漢,最后回北京。
雖然OS自己有自己的IO調度隊列,但是被fsync,O_SYNC這種同步IO標志限制了,沒辦法必須寫到此盤,因為沒有帶電池的內存。(不帶電存儲的高速cache)
但是Linux 3.09之后,情況不是這樣了,3.09引入dm-cache,3.10引入bcache
簡單而言,就是可以使用一個block device塊設備,作為另一個塊設備的write back cache。
也就是說,我用一塊高速SSD + 若干的硬盤做軟raid,也有高速寫cache了。
硬件raid慢慢要失去優勢了。后續我也看好btrfs加入raid5,6的支持,當然在沒有raid7,8出現的情況下。
之前還提到了Sun的存儲,Sun有一個系列Sun ZFS Storage
為什么Sun的SAN存儲都是軟Raid + SSD,就可以實現和硬Raid匹敵的速度呢?
因為ZFS里面或者說Solaris內核里面,早就實現了linux 3.10的bcache的功能。
所以SUN真是先驅者。確認了用更廉價的硬件是可以搭建出和硬件raid匹敵的硬件。
本人非硬件驅動,電子電路工程師,少部分只是看程序YY的答案,回答難免有誤。
歡迎大嬸指正。
RAID(Redundant Array of Independent Disks,獨立磁盤冗余陣列)是一種將多個硬盤驅動器組合成一個邏輯單元的數據存儲...
簡單易用的ICY DOCK硬RAID硬盤盒 RAID常見問題教程
RAID(RedundantArrayofIndependentDisks,獨立磁盤冗余陣列)是服務器存儲中常用的一種技術,它通過組合多個物理硬盤來提高...
服務器數據恢復—從數據恢復的角度討論RAID磁盤陣列的存儲安全問題
出于盡可能避免數據災難的設計初衷,RAID解決了3個問題:容量問題、IO性能問題、存儲安全(冗余)問題。從數據恢復的角度討論RAID的存儲安全問題。
服務器數據恢復—XenServer中VPS不可用的數據恢復案例
服務器數據恢復環境: 某品牌720服務器搭配該品牌某型號RAID卡,使用4塊STAT硬盤組建了一組RAID10陣列。服務器上部署XenServer虛擬...
RAID(Redundant Array of Independent Disks,獨立磁盤冗余陣列)在大數據分析中的應用主要體現在提高存儲系統的性能、...
在現代數據中心和企業級存儲解決方案中,RAID技術扮演著至關重要的角色。它通過將多個物理磁盤組合成一個邏輯單元,提供了數據冗余、性能提升和容錯能力。RA...
在現代數據存儲領域,RAID技術已經成為提高數據可靠性、可用性和性能的關鍵技術之一。RAID通過將多個物理磁盤組合成一個邏輯單元,提供了數據冗余和性能優...
在現代數據管理中,數據保護是至關重要的一環。RAID和備份是兩種常見的數據保護技術,它們各自有著獨特的優勢和應用場景。 一、RAID的基本概念和優勢 R...
RAID(Redundant Array of Independent Disks,獨立磁盤冗余陣列)是一種將多個硬盤驅動器組合成一個邏輯單元的數據存儲...
服務器數據恢復—raid磁盤亮紅色,分區無法識別的數據恢復案例
存儲中有一組由3塊SAS硬盤組建的raid。上層win server操作系統層面劃分了3個分區,數據庫存放在D分區,備份存放在E分區。 RAID中一塊...
服務器數據恢復—raid硬盤壞道導致服務器操作系統文件錯誤的數據恢復案例
一臺ibm x3850服務器,有一組由5塊硬盤組建的raid5磁盤陣列,上層是Redhat Linux操作系統,部署了一個oracle數據庫。 rai...
編輯推薦廠商產品技術軟件/工具OS/語言教程專題
電機控制 | DSP | 氮化鎵 | 功率放大器 | ChatGPT | 自動駕駛 | TI | 瑞薩電子 |
BLDC | PLC | 碳化硅 | 二極管 | OpenAI | 元宇宙 | 安森美 | ADI |
無刷電機 | FOC | IGBT | 逆變器 | 文心一言 | 5G | 英飛凌 | 羅姆 |
直流電機 | PID | MOSFET | 傳感器 | 人工智能 | 物聯網 | NXP | 賽靈思 |
步進電機 | SPWM | 充電樁 | IPM | 機器視覺 | 無人機 | 三菱電機 | ST |
伺服電機 | SVPWM | 光伏發電 | UPS | AR | 智能電網 | 國民技術 | Microchip |
開關電源 | 步進電機 | 無線充電 | LabVIEW | EMC | PLC | OLED | 單片機 |
5G | m2m | DSP | MCU | ASIC | CPU | ROM | DRAM |
NB-IoT | LoRa | Zigbee | NFC | 藍牙 | RFID | Wi-Fi | SIGFOX |
Type-C | USB | 以太網 | 仿真器 | RISC | RAM | 寄存器 | GPU |
語音識別 | 萬用表 | CPLD | 耦合 | 電路仿真 | 電容濾波 | 保護電路 | 看門狗 |
CAN | CSI | DSI | DVI | Ethernet | HDMI | I2C | RS-485 |
SDI | nas | DMA | HomeKit | 閾值電壓 | UART | 機器學習 | TensorFlow |
Arduino | BeagleBone | 樹莓派 | STM32 | MSP430 | EFM32 | ARM mbed | EDA |
示波器 | LPC | imx8 | PSoC | Altium Designer | Allegro | Mentor | Pads |
OrCAD | Cadence | AutoCAD | 華秋DFM | Keil | MATLAB | MPLAB | Quartus |
C++ | Java | Python | JavaScript | node.js | RISC-V | verilog | Tensorflow |
Android | iOS | linux | RTOS | FreeRTOS | LiteOS | RT-THread | uCOS |
DuerOS | Brillo | Windows11 | HarmonyOS |