全球儲存網路產業協會 ScaleIO 軟體定義儲存 SNIA

軟體定義儲存深度動手玩 ScaleIO功能實測(上)

2017-07-20
EMC ScaleIO這幾年不斷地演進改善,已能滿足複雜的企業流程需求,而且其效能校調設計出許多配套方式,可結合現有架構來達到效能最佳化。本文將透過實作來示範其中Elasticity、Self-healing兩項實測。

如果部署好ScaleIO,卻沒有好好善用它,那實在是很可惜。今年戴爾(Dell)EMC World 2017又宣布推出3.0版,ScaleIO一連串更新動作就是要更貼近企業需求。這裡將介紹ScaleIO多種保護機制包含Self-healing和Data Protection,甚至是維護時不可缺少的QoS等,讓大家玩ScaleIO玩出心得,一步一步變身專家。

ScaleIO功能集合介紹

應用標準的全球儲存網路產業協會(SNIA)公布了軟體定義式儲存(以下簡稱SDS)的工作草案,定義出軟體可以提供儲存資源的政策管理,並能選用重複資料刪除、遠端複製、精簡配置(Thin Provisioning)、快照與備份等進階延伸功能等等。

SNIA歸納出SDS方案應具有十種特性(http://www.ithome.com.tw/tech/90713),其實可以發現ScaleIO已經滿足不少項目,而為了成為主流的SDS,還必須包括以下大構面才能因應企業級的應用,以下整理常見構面條件:

Scalability

橫向擴充(Scale Out)是SDS的精髓所在,可以因應系統計算規模隨需求擴增。

Self-healing

自主能力(Self-healing)透過Rebuild、Rebalance達到系統高可用性。現今的需求萬變,當ScaleIO面臨擴充或節點毀損或是硬碟增減時,Rebalance就會啟動,系統會分散所有的資料,使每個儲存單元都是平均存量。另外,如果是節點變少呢?反之亦然,也會做平均的動作使儲存量一致。更明確一點,啟用Rebuild有以下情況:SDS系統毀損或是硬體損壞(包括伺服器、儲存媒介、網路卡等),皆意謂當ScaleIO環境中的任一個節點出現問題,系統要確保Data Protection維持資料兩份副本(two-copy),因此會將故障節點內的資料全部複製一份至正常的儲存節點內。

Elasticity

彈性(Elasticity)也是SDS重要一項特性,打破傳統Storage的框架,可以選擇任何支援x86 Server與多樣的儲存媒體,讓公司購買或維護Storage Array不再受限於固定品牌或特定的硬碟型態。若了解ScaleIO Self-healing,它能協助完成維護的工作,可以自由地調整系統,不論新增或移除伺服器或任何儲存媒介,Rebuild、Rebalance都能夠背景處理,服務不中斷。

Performance

傳統的Storage會搭載兩個Controller,承載所有的I/O,ScaleIO可將I/O分流至所有伺服器,某種程度上也是拜Rebalance所賜,資料越分散使得平行處理效能更高。

讀完基本的構面後,再結合ScaleIO功能歸納成表1,其中ScaleIO功能或許會與其他構面相疊,不過這裡還是盡量分類出來。(因為Scalability屬Scale Out概念,亦即節點規模隨需求擴增,ScaleIO能支援至1,000節點,表1就不將Scalability列入其中)

表1 SDS構面與ScaleIO功能對照表

ScaleIO功能實作/證明彈性篇

說到彈性,系統要能適時新增或移除硬碟與伺服器(或稱節點),因應不同需求來調度系統資源,這也是SDS的精髓所在。當系統管理者面對各種不同需求時,要適時調整儲存設備,此情況在傳統上可能須添購或擴充設備,亦可能受限於規格,在此ScaleIO可允許在系統上彈性地增減硬體裝置。

Add/Remove SDS、新增和移除硬碟與伺服器(節點數)

傳統儲存設備採RAID保護,常遇到硬碟壞掉更換Swap硬碟,透過同位元資料(Parity Data)回算資料達到保護功能。而ScaleIO不用RAID保護,它的特點是依據目前的副本數(Copies)平均分散在各個節點,更進一步分散各顆儲存媒體。由圖1可證明ScaleIO演算法高端之處,資料非常平均。先看各個節點存量IP為10.20.146.214~217分別使用空間的57%至58%,而硬碟的存放量也是平穩地在57%至58%區間。


▲圖1 ScaleIO資料分散示意圖。

新增和移除硬碟與伺服器(節點數)

實測示範移除Device,步驟雖少但過程中希望大家比較前後差異,故逐步實作:


追蹤我們Featrue us

本站使用cookie及相關技術分析來改善使用者體驗。瞭解更多

我知道了!