為了推動 IT 基礎架構國產化轉型,不少用戶都使用 SmartX 超融合和分布式存儲構建信創云基礎設施。其中,信創硬件的選型與配置往往是用戶在規劃與部署環節關注的重點:國產 CPU/存儲怎么選?哪個系列/型號的性價比最高?如何基于信創硬件構建高性能資源池?……
本文,我們將結合實踐經驗與測試數據,為用戶提供基于 SmartX 產品的信創服務器、服務器部件(包括 CPU、SSD、HDD、RAID、網卡等)和交換機硬件的選型與配置建議。最后,我們將針對包括高性能資源池在內的 4 種業務場景,為用戶提供信創硬件的整體配置方案參考。
如何基于 SmartX 超融合和分布式存儲構建信創云平臺
SmartX 以超融合軟件 SMTX OS 為核心,提供自研、解耦、生產就緒的超融合信創云基礎設施產品組合。欲深入了解 SmartX 超融合信創云基礎設施解決方案,請閱讀:一文了解超融合信創云基礎設施。
SmartX 超融合信創云基礎設施
SmartX 超融合軟件 SMTX OS 可以直接安裝在搭載了海光、鯤鵬或者飛騰芯片平臺的信創通用服務器上,存儲網絡可以使用 10GbE、25GbE、100GbE 高速以太網網絡互聯,同時支持 RDMA 協議。
在整體網絡方面,推薦使用典型的 SMTX OS 網絡架構部署。該網絡架構中從 OVS、物理網卡、交換機實現了管理網絡、存儲網絡和虛擬機業務網絡的完全隔離,運維復雜度低,且安全合規。
同時,針對部分用戶存算分離部署的需求,SmartX 也支持用戶基于自主研發的分布式塊存儲軟件 SMTX ZBS 構建信創分布式存儲資源池。
基于 SMTX ZBS 構建信創云平臺
SMTX ZBS 分布式塊存儲支持獨立部署,支持的服務器、存儲網絡和整體網絡架構與基于 SMTX OS 的部署方案一致。區別在于,SMTX ZBS 不提供虛擬化服務,只提供分布式存儲服務,因此對于 CPU、內存的需求可進一步降低。目前,SMTX ZBS 支持 iSCSI、NVMe over RDMA(RoCE v2)和 NVMe over TCP 協議,支持 VMware vSphere/KVM 虛擬化平臺、OpenStack 云平臺、Kubernetes 容器云平臺、物理機等多種平臺。
SmartX 超融合與分布式存儲的的信創硬件選型建議
服務器整機選型
對于服務器整機,得益于 SmartX 超融合與分布式存儲軟硬件解耦的優勢,用戶可選擇 SmartX 與服務器廠商聯合認證服務器,或者采用一體機進行軟硬件一體化的形式進行交付,同時也可以根據信創云平臺建設的需求,自行準備滿足 SmartX 硬件兼容性列表(HCL)兼容要求的服務器以及硬件,SmartX 產品采用純軟件的方式進行交付。
- 一體機形式交付:目前,SmartX 超融合與分布式存儲已與海光與鯤鵬主流國產 CPU 的部分產品進行了深度適配,用戶不用擔心適配、調優等操作,開箱即可使用。
- 信創服務器自行選配:SmartX 超融合與分布式存儲適配浪潮、中科可控、紫光恒越、聯想、H3C、超聚變、Huawei TaiShan、神州鯤泰、華鯤振宇、寶德、五舟、百信恒山等國內主流品牌中的信創通用服務器,涵蓋海光、鯤鵬以及飛騰芯片構架硬件,支持用戶使用已有或自行采購的服務器靈活配置。用戶還可使用不同品牌的服務器搭建異構超融合/分布式存儲集群,便于擴容和持續推進數字化轉型。欲深入了解服務器利舊方案與用戶實踐,請閱讀:4 個超融合利舊用戶實踐,揭秘如何以更低成本實現架構轉型。
信創服務器整機適配概覽(部分)
服務器部件選型
信創服務器部件選型主要參考部件目前信創服務器的整體硬件性能較 Intel、AMD 等傳統 x86 平臺存在一定的差異,各零部件品牌和型號眾多,因此用戶在服務器部件選型時(CPU、內存、SSD、HDD、RAID 卡、網卡)可以參考如下建議*。
*注:對于部分部件,信創產品可滿足大多數使用場景,但在一些對性能與延時要求較高的信創場景,國外品牌產品仍為常見使用,且可通過信創驗收,因此列出供讀者參考。
CPU 選型參考
使用 SMTX OS 構建高性能集群時,建議選擇海光 3 代 7390 或 7380 CPU,或鯤鵬 920 64 核 CPU 2 路標準服務器,用于承載 CPU 敏感型應用,如數據庫、核心應用、高性能前端、數據分析、高性能計算等。
這里海光和鯤鵬 CPU 最大的區別是,海光 CPU 具備完整的 x86 指令集,且支持開啟超線程,能夠分發的虛擬核更多;而鯤鵬 CPU 由于其自身不支持超線程,為了實現最佳實踐,建議使用 64 核。
使用 SMTX ZBS 構建高性能集群時,由于分布式塊存儲集群不對外提供計算虛擬化服務,資源占用量更低,因此用戶可選擇海光三號 5380 / 5390 兩款主頻相對較高的 CPU 或鯤鵬 920 32/48 核 CPU 單路服務器,即可滿足高性能存儲的 CPU 需求,同時降低 CPU 硬件成本。
內存選型參考
內存的選型比較簡單,為了保證信創資源池場景下的整體性能,建議在規劃時對每個業務系統使用的內存資源做適量增加(留出余額),同時建議用戶先確認服務器內存的當前容量和最大擴容量,這樣后續業務量增長,內存也方便隨之擴展。
SSD 選型參考
- Boot 盤我們推薦使用 2 塊容量 ≧ 480GB 的企業級 SSD 做硬件 RAID 1,以確保可靠性、使用壽命和啟動速度。目前 SmartX 支持絕大多數市場上主流的 RAID 卡或 M.2 Raid 卡來對 Boot 盤構建硬件 RAID 1。
- 緩存盤/數據盤我們推薦使用不少于 4 塊的企業級讀寫混合型(DWPD ≧ 3)SATA / SAS / NVMe SSD 作為緩存盤,進行分層部署,此時緩存盤與數據盤的配比比例應在 10% 以上。如用于構建高性能資源池,推薦使用 NVMe 全閃,并采用不分層的部署方式。
以上建議均適用于 SMTX OS 和 SMTX ZBS。
下圖表展示了部分 SmartX 兼容適配的主流品牌和主流型號 SSD,標綠的為推薦型號(讀寫混合型,壽命更長,PCIe 4.0 起步)。當然,用戶也可以選擇讀取密集型 SSD,但此類 SSD 在長時間的高負載、大塊 I/O 場景下可能會出現增加延遲或者帶寬降低等影響集群整體性能情況,需要用戶結合實際情況考慮。
HDD 選型參考
目前,SMTX OS 和 SMTX ZBS 均支持主流品牌、主流規格的 512n / 512e 格式的 HDD(僅列舉市場中常見 HDD 尺寸規格以及容量節點)。
HDD 的選擇主要集中在 2.5 英寸 SAS 機械盤和 3.5 英寸 SATA 機械盤上。從使用性能上來講,在緩存盤不擊穿的情況下,2.5 英寸 SAS 機械盤和 3.5 英寸 SATA 機械盤的使用效果沒有太大區別,業務系統也沒有明顯的感知。不過在生產環境中(尤其是混閃架構),如果硬盤需要更換,硬盤上存放的持久化數據越多,重構時間越長,這時 2.5 英寸 SAS 機械盤重構速度就會比 3.5 英寸 SATA 機械盤要快。如果存儲資源使用量很大,需要使用 3.5 英寸盤,用戶也可以有很多種選擇,但結合可維護性與成本考慮,建議用戶使用 10TB 及以下容量的 3.5 英寸盤。
總結一下,根據最佳實踐經驗,推薦集群服務器配置 2.5 英寸 SAS HDD,對硬件成本敏感或對性能不敏感的業務系統(如日志歸檔、鏡像歸檔等場景),可以考慮使用單盤 10TB 及以下容量的 SATA HDD。
存儲控制器選型參考
- Boot 盤推薦使用兩張 M.2 SSD 并通過 RAID 套件組硬件 RAID 1。若無法滿足上述最佳方案,則可通過使用獨占一塊支持硬件 RAID 1 的存儲控制器與兩張后置 SATA SSD 組成硬件 RAID 1 以保證 Boot 盤的高可用。
- SSD 緩存盤/全閃數據盤推薦獨占使用 1 塊或多塊支持 JBOD 模式的存儲控制器。選用存儲控制器時建議通道數大于等于磁盤數,以獲得更好的整體性能。另外,使用 NVMe?高速閃存介質做為緩存盤或全閃數據盤時,通常會配置 NVMe CPU 直通卡(Switch / Retimer)以獲得更好的 NVMe 的支持性, NVMe SSD 無需額外的存儲控制器。
網卡選型參考
網卡適配概覽
- Intel
- i350
- 基于 82599 芯片 OEM 品牌?
- X500 系列 X520/X540/X550
- X700 系列 X722/XL710/X710
- E810
- Mellanox
- CX-3
- CX-4
- CX-5
- Solarflare
- X2、8000
- Broadcom/HP/QLogic
- 中興
- I-210/NS-212
- H3C
- 530F/560F/620F
- Huawei
- TM210
- TM280
- 中科可控/紫光恒越/寶德/聯想/天宮/百信恒山/五舟
- 以 OEM Intel/Mellanox 為主
高性能集群推薦
SMTX OS 和 SMTX ZBS 在網卡層面也適配了眾多市面主流品牌的主流型號網卡和網卡芯片,如 Intel、Mellanox、Solarflare、Broadcom、中興、H3C、Huawei 等。在構建高性能資源池時,推薦選用支持 SR-IOV、RDMA 的網卡,如果要啟用 RDMA 模式建議選用Mellanox CX-5 網卡。
- RDMA
- Mellanox CX-5 25GbE
- SR-IOV
- Intel X722
- Mellanox CX-4/5?
- Solarflare X2、8000
交換機選型
使用 SmartX 超融合和分布式存儲,推薦使用典型網絡拓撲架構進行網絡規劃,存儲網絡、管理網絡、虛擬機業務網絡/存儲接入網絡推薦選擇支持 MLAG 高可用組網特性的數據中心級交換機,以獲得更好的網絡質量。
存儲網絡推薦使用 10GbE 及以上的以太網交換機。如使用 NVMe 作緩存盤,或使用 SATA 全閃磁盤,推薦使用 25GbE 以太網交換機;如要構建高性能集群,建議使用支持 RDMA L3 流控的交換機。
存儲接入網絡通常在分布式塊存儲分離部署場景中使用,建議采用 10GbE 及以上以太網交換機。如果接入端(虛擬化、物理服務器、OpenStack、Kubernetes 容器平臺)希望使用RDMA 特性,推薦使用 25GbE 及更高速率且支持 RDMA L3 流控的以太網交換機。
管理網絡使用千兆網絡即可滿足網絡要求,如要獲得更好的網絡體驗,管理網絡也可以使用 10GbE 或更高速的以太網交換機。
虛擬機業務網絡對交換機沒有具體的限制和要求,通常根據業務系統負載進行選擇。如果現有千兆網絡能滿足業務系統需求,使用千兆網絡也是可以的,如要獲得更好的網絡服務質量,推薦使用 10GbE 及以上以太網交接機。
另外,我們為用戶提供一組信創交換機 RDMA 打流測試數據作為參考。目前 RDMA 在以太網網絡上的主流傳輸方式是 RoCEv2,該協議是基于無連接服務的 UDP 協議,相比面向連接服務的 TCP 協議,UDP 協議傳輸速度更快、CPU 資源占用更少,但傳輸質量是不可靠的。RDMA 接收方網卡發現丟包時,會丟棄后續接收到的數據包,發送方需要重發之后的所有數據包,這會導致性能大幅下降。所以要想 RDMA 發揮出其性能,需要為其搭建一套不丟包的無損網絡環境。
通俗的說,如果要構建 RDMA 無損網絡,就需要流量控制和擁塞管理等流控機制,以確保RDMA 網絡的服務質量。如圖中 RDMA 打流測試為例,同一紅框內左右兩端網絡流量數據誤差越小,表示 RDMA 網絡質量越好。
RDMA 交換機打流測試數據
(注:在國產交換機 RDMA 打流測試過程中,使用的是同一套 SmartX 超融合集群。)
從以上數據可以看出,華為、H3C 的信創交換機對 RDMA 場景的支持能力較強,完全能夠滿足構建高性能資源池的要求。
典型應用場景配置實踐
場景一:要求“高性能、低延時”的重要業務系統
對于各種具有高性能、低延時需求的重要業務系統,如交易類業務系統、中間業務系統、數據庫等,建議用戶構建 NVMe 全閃資源池。整套架構的信創硬件配置,我們結合上述分析整理了以下方案,供用戶參考。
場景二:性能敏感型業務系統
對于對性能相對敏感的業務系統,如重要業務系統的開發測試場景、數據分析業務、生產等,建議用戶構建 NVMe + SATA SSD 分層全閃高性能資源池。整套架構的信創硬件配置可參考以下方案。
場景三:一般生產業務系統
對于一般生產業務系統、開發測試環境、一般業務系統容災/備份等場景,建議用戶構建 SATA SSD + SAS HDD 混閃分層存儲資源池。整套架構的信創硬件配置可參考以下方案。
場景四:一般業務系統
對于邊緣業務系統、管理類業務系統、一般開發測試環境、歸檔存儲類等,建議用戶構建 SATA SSD + SATA HDD 混閃存儲資源池。整套架構的信創硬件配置可參考以下方案。