專利名稱::一種基于n×n陳列結(jié)構(gòu)的云系統(tǒng)平臺的制作方法
技術(shù)領(lǐng)域:
:本發(fā)明涉及云計算與云存儲技術(shù),尤其涉及一種基于ηΧη陳列結(jié)構(gòu)的云系統(tǒng)平臺。
背景技術(shù):
:一般的私有云或者公有云系統(tǒng),在物理上一般采用共享交換機模式;云存儲采用集中存儲模式,這些結(jié)構(gòu)的缺點是交換機的總帶寬系統(tǒng)的功能制約性影響較大,同時,交換機故障還會導致整個云系統(tǒng)崩潰;同樣,集中存儲模式中,存儲控制卡故障必將導致系統(tǒng)崩潰,這種系統(tǒng)的修復時間很長,并且價格很貴。隨著云計算和云存儲開源軟件的大量普及,原有的單服務(wù)器系統(tǒng)向云端遷移成為必然,如何構(gòu)建與之對應(yīng)的“云”和云存儲軟件相適應(yīng)的環(huán)境,成為研究的熱點;由于云計算和云存儲環(huán)境中應(yīng)用軟件大量使用網(wǎng)絡(luò)帶寬,如何組織網(wǎng)絡(luò)系統(tǒng)結(jié)構(gòu)、云存儲軟件系統(tǒng)構(gòu)架,使系統(tǒng)在虛擬化后對IO和網(wǎng)絡(luò)影響減到最小、提高系統(tǒng)的網(wǎng)絡(luò)吞吐量、可靠性、可維護性、安全性。此外,以太網(wǎng)結(jié)構(gòu)的最大問題是信號的碰撞問題以及由此引起的在網(wǎng)絡(luò)忙時的系統(tǒng)不穩(wěn)定和難以提供可靠的實時服務(wù);隨著千兆以太網(wǎng)的大規(guī)模普及,對應(yīng)的交換機和網(wǎng)卡的性價比非常低廉,性能非常穩(wěn)定和可靠,在1個機柜內(nèi)的節(jié)點通過節(jié)點與節(jié)點鏈接構(gòu)建集群在技術(shù)上已經(jīng)成熟。因此,結(jié)合以上分析,需要對現(xiàn)有技術(shù)進行有效更新。
發(fā)明內(nèi)容針對以上缺陷,本發(fā)明提供一種基于ηΧη陳列結(jié)構(gòu)的云系統(tǒng)平臺,其采用網(wǎng)卡直接相連、利用本地存儲(DAQ實現(xiàn)大容量的在線高速存儲、并且在每個節(jié)點配置USB2.0或者3.0接口和對應(yīng)的硬盤作為后備存儲、采用RAIDlO的NAS作為遠程備份存儲、具備六層系統(tǒng)框架結(jié)構(gòu),以解決現(xiàn)有技術(shù)的諸多不足。為實現(xiàn)上述目的,本發(fā)明采用以下技術(shù)方案一種基于ηΧη陳列結(jié)構(gòu)的云系統(tǒng)平臺,對于硬件框架結(jié)構(gòu)的實施主要包括以下(1)首先,直接通過網(wǎng)卡直連方式進行節(jié)點內(nèi)服務(wù)器可靠通信,在系統(tǒng)應(yīng)用層網(wǎng)絡(luò)通信采用UDP直接通信,在應(yīng)用層可靠性設(shè)計時利用其它η-1個節(jié)點進行并行計算或者通信,在復制文件時,先在本地節(jié)點把文件切塊為η等分,然后通過多進程技術(shù)利用η條路由把文件從任何個節(jié)點copy到其它節(jié)點,并且采用RIAD5類型的海明校驗技術(shù),這些檢驗塊在不同的節(jié)點中;(2)然后,選擇服務(wù)器安裝LINUX操作系統(tǒng),并且做root用戶的互信,服務(wù)器之間的文件傳輸直接通過SCP命令進行;(3)同時,需要每個服務(wù)器建立一個/UL0C/IP地址/disk+邏輯磁盤編號的文件夾,通過SAMBA協(xié)議訪問對應(yīng)的物理機器磁盤文件,使用CIFS文件系統(tǒng)的主要目的使是1inux和windows都可訪問,并且是通過網(wǎng)絡(luò)點到點通信訪問的,CIFS協(xié)議的開銷基本可以忽略不計;另外,若用戶需要使用邏輯上只有一個目錄的云存儲,通過點到點通信結(jié)構(gòu)配置M00SEFS文件系統(tǒng)或者配置為ISCSI設(shè)備,利用0PENFIRE在ISCIS層實現(xiàn)從設(shè)備層對存儲資源的邏輯上統(tǒng)一的訪問;或者在LINUX環(huán)境下作對應(yīng)文件夾的軟鏈接來實現(xiàn)。(4)最后,機柜之間的通信采用在機柜的序號最大的節(jié)點加1萬兆網(wǎng)卡,與下一個機柜的序號最小的機器加1萬兆網(wǎng)卡的此網(wǎng)卡通信;對于云存儲層次結(jié)構(gòu)的實施主要設(shè)置以下六個層次即本地或局域虛擬存儲層和虛擬資源層、分布式高可靠性大文件云存儲層、基于表的結(jié)構(gòu)云存儲層、流數(shù)據(jù)云存儲層、云存儲安全訪問接口層、云存儲應(yīng)用層。本發(fā)明所述的基于nXn陳列結(jié)構(gòu)的云系統(tǒng)平臺的有益效果為該技術(shù)采用網(wǎng)卡直接相連,利用本地存儲(DAQ實現(xiàn)大容量的在線高速存儲,并且在每個節(jié)點配置USB2.0或者3.0接口和對應(yīng)的硬盤作為后備存儲,采用RAIDlO的NAS作為遠程備份存儲,由于其性價比高,必將成為在可靠節(jié)點上的云計算和云存儲體系結(jié)構(gòu)的發(fā)展方向;同時,通過設(shè)置六層系統(tǒng)框架結(jié)構(gòu),可為構(gòu)建通用的云存儲平臺創(chuàng)造有利條件;具有性價比較高、可靠性高、可擴展性較佳、高網(wǎng)絡(luò)帶寬等優(yōu)點,特別適用于服務(wù)器虛擬化環(huán)境和高速實時處理海量數(shù)據(jù)環(huán)境。下面根據(jù)附圖對本發(fā)明作進一步詳細說明。圖1是本發(fā)明實施例所述基于nXn陳列結(jié)構(gòu)的云系統(tǒng)平臺的邏輯結(jié)構(gòu)圖;圖2是本發(fā)明實施例所述基于nXn陳列結(jié)構(gòu)的云系統(tǒng)平臺的云存儲層次示意圖。具體實施例方式如圖1所示,本發(fā)明實施例所述的基于nXn陳列結(jié)構(gòu)的云系統(tǒng)平臺,對于硬件結(jié)構(gòu)實施方式,主要包括以下(1)首先,直接通過網(wǎng)卡直連方式進行節(jié)點內(nèi)服務(wù)器可靠通信,在系統(tǒng)應(yīng)用層網(wǎng)絡(luò)通信采用UDP直接通信,由于肯定存在η-1條到目的地的經(jīng)過一級路由,在應(yīng)用層可靠性設(shè)計時利用其它η-1個節(jié)點進行并行計算或者通信,在復制文件時,先在本地節(jié)點把文件切塊為η等分,然后通過多進程技術(shù)利用η條路由把文件從任何個節(jié)點copy到其它節(jié)點,為了保證可靠性,采用與RIAD5類似的海明校驗技術(shù),這些檢驗塊在不同的節(jié)點中,速率可達到千兆的η倍且全雙工,無需考慮丟包等可靠性的問題;(2)然后,鑒于使一個機框內(nèi)服務(wù)器的相互資源訪問的方便性,選擇服務(wù)器安裝LINUX或者UBUNTO操作系統(tǒng),并且做root用戶的互信,這樣服務(wù)器之間的文件傳輸直接通過scp命令進行,方便應(yīng)用層的資源調(diào)度,簡化應(yīng)用層的邏輯設(shè)計,保證系統(tǒng)的簡單和可靠性;(3)同時,考慮到對機柜內(nèi)服務(wù)器存儲資源的提供一個統(tǒng)一的邏輯訪問接口,則需要每個服務(wù)器建立一個/UL0C/IP地址/disk+邏輯磁盤編號的文件夾,通過SAMBA協(xié)議訪問對應(yīng)的物理機器磁盤文件,使用CIFS文件系統(tǒng)的主要目的使是Iinux和windows都可訪問,并且是通過網(wǎng)絡(luò)點到點通信訪問的,CIFS協(xié)議的開銷基本可以忽略不計;另外,若用戶需要使用邏輯上只有一個目錄的云存儲,通過點到點通信結(jié)構(gòu)配置M00SEFS文件系統(tǒng)或者配置為ISCSI設(shè)備,利用0PENFIRE在ISCSI層實現(xiàn)從設(shè)備層對存儲資源的邏輯上統(tǒng)一的訪問,或者在LINUX環(huán)境下作對應(yīng)文件夾的軟鏈接來實現(xiàn);(4)最后,機柜之間的通信采用在機柜的序號最大的節(jié)點加1萬兆網(wǎng)卡,與下一個機柜的序號最小的機器加1萬兆網(wǎng)卡的此網(wǎng)卡通信,以實現(xiàn)多機柜的互聯(lián),并且本身的速率是匹配的。以上結(jié)構(gòu)框架內(nèi)部互聯(lián)主要滿足CIFS、NFS、WEBDAVM00SEFS客戶端等支持POSTIX協(xié)議的系統(tǒng)或者高層的HTTP、FTP協(xié)議和支持基于目錄和名稱的TCP或者UDP的XML指定協(xié)議訪問,這些網(wǎng)絡(luò)文件系統(tǒng)的內(nèi)部相互訪問通過nXn網(wǎng)絡(luò),機柜間采用IOG網(wǎng)絡(luò)連接,外部訪問通過總線(交換機)進行,由于云計算和存儲云內(nèi)部的網(wǎng)絡(luò)流量非常大,采用這個結(jié)構(gòu)的優(yōu)點非常明顯,特別適合于虛擬化、云存儲、云計算環(huán)境。如圖2所示,本發(fā)明實施例所述的基于nXn陳列結(jié)構(gòu)的云系統(tǒng)平臺,對于云存儲層次結(jié)構(gòu)的實施方式,本系統(tǒng)提出適合不同應(yīng)用的框架并用0PENSTACK的開源框架實現(xiàn)虛擬機的管理、云存儲、云計算的API,云存儲層次結(jié)構(gòu)框架分為底層的本地或局域虛擬存儲層和虛擬資源層、三種不同類型的云存儲層、安全訪問接口層和應(yīng)用層、貫穿三種不同類型的云存儲層,主要用于虛擬資源管理系統(tǒng)對云存儲層和安全訪問接口層進行管理,從基礎(chǔ)的存儲層到展現(xiàn)的應(yīng)用層,始終貫穿著云存儲安全管理。具體的層次結(jié)構(gòu)由下至上包括本地或局域虛擬存儲層和虛擬資源層、分布式高可靠性大文件云存儲層、基于表的結(jié)構(gòu)云存儲層、流數(shù)據(jù)云存儲層、云存儲安全訪問接口層、云存儲應(yīng)用層。各層的技術(shù)實現(xiàn)詳細說明(1)本地或局域虛擬存儲層和虛擬資源層主要是存儲的基礎(chǔ)設(shè)施,由本地或局域的虛擬存儲設(shè)備和虛擬資源組成。云存儲的塊是虛擬機存儲的文件,對云存儲來說,相當于傳統(tǒng)文件系統(tǒng)中的簇,是云存儲訪問的最小單位,考慮到在云環(huán)境下機器和磁盤的不用性的概率比較高,開啟采用定期進程,完成掃描、校驗碼(crc)等的diskscrubbing和采用rpc(遠程過程調(diào)用協(xié)議),另外,由于磁盤連續(xù)塊訪問性能好的優(yōu)點和網(wǎng)絡(luò)訪問的流量問題,云存儲的一般都比較大,設(shè)計為在64K和64M(可選擇),要求支持連續(xù)塊append和連續(xù)塊讀操作,提高流文件的讀寫性能,從而提高訪問性能。該層結(jié)構(gòu)主要創(chuàng)新點在于本地文件系統(tǒng)在大量小文件的應(yīng)用時為jfs,否則用RaiseFS(塊大小到4M);網(wǎng)絡(luò)文件采用SAMBA,SAMBA用在可以共享windows為主機的windows系統(tǒng)的ntfs的本地磁盤和AIX小型機的本地磁盤。在這層主要實現(xiàn)難點為虛擬機的管理和控制,主要功能有(1)虛擬機cluster管理系統(tǒng)①宿主機資源管理模塊管理宿主機的位置和ip,cluster的運行情況;②虛擬機管理模塊管理所以虛擬機guest-os的在宿主機的位置和ip,如果有內(nèi)部的cluster,監(jiān)控這些cluster的狀態(tài);③虛擬機宿主機監(jiān)控模塊監(jiān)控每臺虛擬機宿主機OS的運行狀態(tài)(Linux運行一個后臺服務(wù),監(jiān)控虛擬機管理相關(guān)的后臺進程運行狀況,內(nèi)存使用情況,CPU使用情況,IO使用情況,網(wǎng)卡工作情況,磁盤空間分配情況,把這些信息每隔一定周期(可以配置),寫監(jiān)控表;(2)虛擬機控制模塊虛擬機-GUEST-OS的SN0PSH0T,定時開機,定時關(guān)機,動態(tài)分配和回收磁盤,動態(tài)分配和回收光盤,動態(tài)分配和回收U盤,CPU和內(nèi)存資源動態(tài)分配和回收(分配策略算法),遠程桌面(RDP),ssh和telnet遠程連接;(3)塊內(nèi)容MD5計算和校驗;(4)壞塊的定期掃描和校驗;(5)NFS下NFS系統(tǒng)的定期的網(wǎng)絡(luò)磁盤測試和校驗,故障時的告警(包含本地磁盤的卷);(6)diskscrubbing:diskscrubbing在發(fā)現(xiàn)校驗盤的數(shù)據(jù)不一致的時候會去自動重新運算出校驗數(shù)據(jù),然后重寫,通過在磁盤上做checksum,這樣一旦發(fā)生校驗盤的數(shù)據(jù)不一致的時候,把每個磁盤的數(shù)據(jù)讀出來,利用checksum來判斷到底是哪個磁盤的數(shù)據(jù)有問題,一旦定位,就可以利用其余的數(shù)據(jù)重新運算出錯誤的數(shù)據(jù)。本層是基于不可靠的存儲塊,使用1+2備份模式,備份分為兩種方式一是跨物理機器的,二是跨交換機和機柜的;由于基于虛擬化的文件系統(tǒng)的訪問,具有非常好的可擴展性;根據(jù)安全要求,可以進行壓縮和加密存儲。(2)分布式高可靠性大文件云存儲層(BigR5)大文件云存儲層支持大規(guī)模順序讀寫數(shù)據(jù)存儲,主要實現(xiàn)虛擬機node(云存儲的一個邏輯卷)的管理,實現(xiàn)物理數(shù)據(jù)存儲層的node管理,本層為全局的數(shù)據(jù)存儲的虛擬層,其中上層的結(jié)構(gòu)化數(shù)據(jù)存儲在本層的多個區(qū)域,防止由于上層故障時引起系統(tǒng)崩潰;在多個node并發(fā)訪問和node在不同狀態(tài)時保持同步和協(xié)調(diào),通過鎖技術(shù)保證分布式資源的協(xié)調(diào),從而保證數(shù)據(jù)操作的一致性(相當于實現(xiàn)自己的CHUBBY服務(wù)鎖),本層相當于HDFS。大文件系統(tǒng)(BigFS)是一個可擴展的分布式文件系統(tǒng),用于大型的、分布式的、對海量數(shù)據(jù)進行訪問的應(yīng)用;它運行于廉價的普通硬件上,但提供了容錯復制功能,可以給大量的用戶提供總體性能較高的可靠服務(wù)。①設(shè)計假設(shè)大文件系統(tǒng)與傳統(tǒng)的分布式文件系統(tǒng)有很多相同的目標,但大文件系統(tǒng)的設(shè)計受到了當前及預(yù)期的應(yīng)用方面的工作量以及技術(shù)環(huán)境的驅(qū)動,因而形成了它與傳統(tǒng)的分布式文件系統(tǒng)明顯不同的設(shè)想,這就需要對傳統(tǒng)的選擇進行重新檢驗并進行完全不同的設(shè)計觀點的探索。硬件錯誤(包括存儲設(shè)備或是存儲節(jié)點的故障)不再被認為是異常的情況,而是將其作為常見的情況加以處理,因為文件系統(tǒng)由成千上萬個用于存儲的機器節(jié)點構(gòu)成,而這些機器是由廉價的普通硬件組成并被大量的客戶機訪問;硬件的數(shù)量和質(zhì)量使得一些機器隨時都有可能無法工作并且有一部分還可能無法恢復,所以實時地監(jiān)控、錯誤檢測、容錯、自動恢復對系統(tǒng)來說必不可少。每個文件通常包含很多應(yīng)用對象,因為經(jīng)常要處理快速增長的、包含數(shù)以萬計的對象、長度達TB的數(shù)據(jù)集,很難管理成千上萬的KB規(guī)模的文件塊,即使底層文件系統(tǒng)提供支持。因此,設(shè)計中操作的參數(shù)、塊的大小必須要重新考慮;對大型的文件的管理一定要能做到高效,對小型的文件也必須支持,但不必優(yōu)化。大部分文件的更新是通過添加新數(shù)據(jù)完成的,而不是改變已存在的數(shù)據(jù);在一個文件中隨機的操作在實踐中幾乎不存在,一旦寫完,文件就只可讀,很多數(shù)據(jù)都有這些特性,一些數(shù)據(jù)可能組成一個大倉庫以供數(shù)據(jù)分析程序掃描,有些是運行中的程序連續(xù)產(chǎn)生的數(shù)據(jù)流,有些是檔案性質(zhì)的數(shù)據(jù),有些是在某個機器上產(chǎn)生、在另外一個機器上處理的中間數(shù)據(jù);由于這些對大型文件的訪問方式,添加操作成為性能優(yōu)化和原子性保證的焦點,而在客戶機中緩存數(shù)據(jù)塊則失去了吸引力。工作量主要由兩種讀操作構(gòu)成對大量數(shù)據(jù)的流方式的讀操作和對少量數(shù)據(jù)的隨機方式的讀操作;在前一種讀操作中,可能要讀幾百KB,通常達1MB和更多,來自同一個客戶的連續(xù)操作通常會讀文件的一個連續(xù)的區(qū)域,隨機的讀操作通常在一個隨機的偏移處讀幾個KB,性能敏感的應(yīng)用程序通常將對少量數(shù)據(jù)的讀操作進行分類并進行批處理以使得讀操作穩(wěn)定地向前推進,而不要讓它來回讀。工作量還包含許多對大量數(shù)據(jù)進行的、連續(xù)的、向文件添加數(shù)據(jù)的寫操作,所寫的數(shù)據(jù)的規(guī)模和讀相似,一旦寫完,文件很少改動,在隨機位置也支持少量數(shù)據(jù)的寫操作,但并非高效。系統(tǒng)必須高效地實現(xiàn)定義完好的大量客戶同時向同一個文件的添加操作的語義。②系統(tǒng)接口實現(xiàn)CDMI標準接口API,并實現(xiàn)TOB-DAV接口訪問、FTP和FTPS接口訪問,HTTP和HTTPS接口訪問,并提供了一個相似地文件系統(tǒng)界面,文件在目錄中按層次組織起來并由路徑名標識。③體系結(jié)構(gòu)一個大文件系統(tǒng)集群由一個Master(做drdb)和大量的chunkserver構(gòu)成,并被許多訪問端;Master和chunkserver通常是運行用戶層服務(wù)進程的Linux機器,只要資源和可靠性允許,chunkserver和Client可以運行在同一個機器上。BigFS文件被分成固定大小的塊(block),每個塊由一個不變的、全局唯一的1個64位組成的chunk-handle標識+32位的內(nèi)容MD5碼(可以配置是否需要,否則為全0)組成,chunk-handle是在塊創(chuàng)建的時候由Master分配的,MD5由客戶端傳入或者存塊node定時計算(為0時),chunkserver將塊當作Linux文件存儲在本地磁盤或者NFS并可以讀和寫由chunk-handle和位區(qū)間指定的數(shù)據(jù)。出于可靠性考慮,每一個塊被復制到多個chunkserver上,默認情況下,保存3個副本,可以由用戶指定(至少為2)。Master維護文件系統(tǒng)所有的元數(shù)據(jù)(metadata),包括名字空間、訪問控制信息(ACL)、從文件到塊的映射以及塊的當前位置,它也控制系統(tǒng)范圍的活動,如塊租約(lease)管理,孤兒塊的垃圾收集,chunkserver間的塊遷移,MD5相同的塊合并(在一個LNFS系統(tǒng)內(nèi)),Master定期通過HeartBeat消息與每一個chunkserver通信,給chunkserver傳遞指令并收集它的狀態(tài)(是否被鎖定,流量是否最大,是否在線,磁盤卷是否正常)和塊的檢測結(jié)果信息。與每個應(yīng)用程序相連的BigFS客戶端實現(xiàn)了文件系統(tǒng)的API并與Master和chunkserver通信,以訪問文件系統(tǒng)的數(shù)據(jù),客戶端與Master的交換只限于對元數(shù)據(jù)(metadata)的操作,所有數(shù)據(jù)方面的通信都直接和chunkserver聯(lián)系,訪問端和chunkserver都不緩存文件數(shù)據(jù);因為用戶緩存的益處微乎其微,這是由于數(shù)據(jù)太多或工作集太大而無法緩存,不緩存數(shù)據(jù)策略簡化了客戶端程序和整個系統(tǒng),因為不必考慮緩存的一致性問題,但客戶端緩存元數(shù)據(jù)(metadata),chunkserver也不必緩存文件數(shù)據(jù),因為塊是作為本地文件存儲的。④邏輯上的單Master只有一個Master也極大的簡化了設(shè)計并使得Master可以根據(jù)全局情況做出高級的塊放置和復制決定,但是必須要將Master對讀和寫的參與減至最少,這樣它才不會成為系統(tǒng)的瓶頸,訪問端從來不會從Master讀和寫文件數(shù)據(jù),訪問端只是詢問Master它應(yīng)該和哪個chunkserver聯(lián)系,Client在一段限定的時間內(nèi)將這些信息緩存,在后續(xù)的操作中Client直接和chunkserver交互。⑤塊規(guī)模塊規(guī)模是設(shè)計中的一個關(guān)鍵參數(shù),選擇的是64K,64M兩種,這比一般的文件系統(tǒng)的塊規(guī)模要大的多,每個塊的副本作為一個普通的Linux文件存儲,在需要的時候可以擴展(主要考慮文件的不同類型-大量都是小文件時,選擇64K;否則選擇64MB)。塊規(guī)模較大的好處有減少Client和Master之間的交互,因為讀寫同一個塊只是要在開始時向Master請求塊位置信息,對于讀寫大型文件這種減少尤為重要,即使對于訪問少量數(shù)據(jù)的隨機讀操作也可以很方便的為一個規(guī)模達幾個TB的工作集緩存塊位置信息;Client在一個給定的塊上很可能執(zhí)行多個操作,和一個chunkserver保持較長時間的TCP連接可以減少網(wǎng)絡(luò)負載;這減少了Master上保存的元數(shù)據(jù)(metadata)的規(guī)模,從而使得可以將metadata放在內(nèi)存中。⑥元數(shù)據(jù)(metadata):Master存儲了三種類型的metadata,文件的名字空間和塊的名字空間,從文件到塊的映射,塊的副本的位置,所有的metadata都放在內(nèi)存中;前兩種類型的metadata通過向操作日志登記修改而保持不變,操作日志存儲在Master的本地磁盤并在幾個遠程機器上留有副本;使用日志使得我們可以很簡單地、可靠地更新Master的狀態(tài),即使在Master崩潰的情況下也不會有不一致的問題;相反,Master在每次啟動以及當有chunkserver加入的時候詢問每個chunkserver的所擁有的塊的情況。A、內(nèi)存數(shù)據(jù)結(jié)構(gòu)B、因為metadata存儲在內(nèi)存中,所以Master的操作很快;進一步,Master可以輕易而且高效地定期在后臺掃描它的整個狀態(tài),這種定期地掃描被用于實現(xiàn)塊垃圾收集、chunkserver出現(xiàn)故障時的副本復制、為平衡負載和磁盤空間而進行的塊遷移。C、這種方法的一個潛在的問題就是塊的數(shù)量也即整個系統(tǒng)的容量是否受限與Master的內(nèi)存,Master為每個64MB的塊維護的metadata不足96個字節(jié),除了最后一塊,文件所有的塊都是滿的;類似的,每個文件的名字空間數(shù)據(jù)也不足96個字節(jié),因為文件名是以一種事先確定的壓縮方式存儲的。D、塊位置Master并不為chunkserver所擁有的塊的副本的保存一個不變的記錄,它在啟動時通過簡單的查詢來獲得這些信息,Master可以保持這些信息的更新,因為它控制所有塊的放置并通過HeartBeat消息來監(jiān)控chunkserver的狀態(tài)。E、操作日志操作日志包含了對metadata所作的修改的歷史記錄,它作為邏輯時間線定義了并發(fā)操作的執(zhí)行順序,文件、塊以及它們的版本號都由它們被創(chuàng)建時的邏輯時間而唯一地、永久地被標識;Master可以用操作日志來恢復它的文件系統(tǒng)的狀態(tài),為了將啟動時間減至最小,日志就必須要比較小,每當日志的長度增長到超過一定的規(guī)模后,Master就要檢查它的狀態(tài),它可以從本地磁盤裝入最近的檢查點來恢復狀態(tài);創(chuàng)建一個檢查點比較費時,Master的內(nèi)部狀態(tài)是以一種在創(chuàng)建一個檢查點時并不耽誤即將到來的修改操作的方式來組織的,Master切換到一個新的日志文件并在一個單獨的線程中創(chuàng)建檢查點,這個新的檢查點記錄了切換前所有的修改,在一個有數(shù)十萬文件的集群中用一分鐘左右就能完成,創(chuàng)建完后,將它寫入本地和遠程的磁盤。⑦數(shù)據(jù)完整性名字空間的修改必須是原子性的,它們只能有Master處理,名字空間鎖保證了操作的原子性和正確性,而Master的操作日志在全局范圍內(nèi)定義了這些操作的順序;文件區(qū)間的狀態(tài)在修改之后依賴于修改的類型,不論操作成功還是失敗,也不論是不是并發(fā)操作,如果不論從哪個副本上讀,所有的客戶都看到同樣的數(shù)據(jù),那么文件的這個區(qū)域就是一致的;如果文件的區(qū)域是一致的并且用戶可以看到修改操作所寫的數(shù)據(jù),那么它就是已定義的;如果修改是在沒有并發(fā)寫操作的影響下完成的,那么受影響的區(qū)域是已定義的,所有的訪問端都能看到寫的內(nèi)容,成功的并發(fā)寫操作是未定義但卻是一致的,失敗的修改將使區(qū)間處于不一致的狀態(tài)。Write操作在應(yīng)用程序指定的偏移處寫入數(shù)據(jù),而recordappend操作使得數(shù)據(jù)(記錄)即使在有并發(fā)修改操作的情況下也至少原子性的被加到BigFS指定的偏移處,偏移地址被返回給用戶,在一系列成功的修改操作后,最后的修改操作保證文件區(qū)域是已定義的,BigFS通過對所有的副本執(zhí)行同樣順序的修改操作并且使用塊版本號檢測過時的副本(由于Chimkserver退出而導致丟失修改)來做到這一點;因為用戶緩存了塊位置信息,所以在更新緩存之前有可能從一個過時的副本中讀取數(shù)據(jù),但這有緩存的截止時間和文件的重新打開而受到限制。在修改操作成功后,部件故障仍可以使數(shù)據(jù)受到破壞,BigFS通過Master和chunkserver間定期的handshake,借助校驗和來檢測對數(shù)據(jù)的破壞,一旦檢測到,就從一個有效的副本盡快重新存儲,只有在BigFS檢測前,所有的副本都失效,這個塊才會丟失。本層的技術(shù)實現(xiàn)主要包括以下內(nèi)容當某一應(yīng)用在我們的云平臺上訪問一個文件時,最終必須順著指針首先訪問到目錄映射的葉子節(jié)點,才能獲得文件的實際存儲信息;葉子節(jié)點存儲著該文件的全部元數(shù)據(jù),通過葉子節(jié)點的信息我們可以對存儲在云系統(tǒng)分布式文件系統(tǒng)的文件進行訪問和處理;在云計算系統(tǒng)中,對于非常大的文件往往會采用文件分塊的方式進行存儲,這些大文件會被系統(tǒng)按一定的策略分為若干個數(shù)據(jù)塊,并將這若干個數(shù)據(jù)塊存儲于云系統(tǒng)的不同節(jié)點上,相關(guān)的存儲系統(tǒng)會寫入文件目錄樹中的某一個葉子節(jié)點中,為系統(tǒng)下次對該文件的操作提供信息,這些工作由文件系統(tǒng)中的文件數(shù)據(jù)分塊及副本備份策略管理來完成,該層向目錄樹屏蔽具體的文件分塊及副本策略,只是將最后的分配結(jié)果寫入某一葉子節(jié)點中;前面的目錄樹并不會實際地存儲文件,所有文件真正寫入磁盤中是由文件數(shù)據(jù)分塊及副本備份策略管理來完成的,只有執(zhí)行了這一層的工作文件才會真正寫入機群系統(tǒng)中完成文件的物理存儲過程。對于存儲而言,通常一個文件由多個Chunk來存放,每個Chunk按64kbyte的大小分成塊,重點考慮數(shù)據(jù)的一致性,每個塊有32位的校驗,在數(shù)據(jù)寫入ChimkServer時,由ChunkServer計算出校驗和,與數(shù)據(jù)分別存放;當讀數(shù)據(jù)時,Chunkserver檢查數(shù)據(jù)和校驗和,校驗錯誤,則通知應(yīng)用和Master,從其它ChunkServer獲取數(shù)據(jù)(校驗可在Client完成),并完成副本的重新創(chuàng)建;當主Master的元數(shù)據(jù)更改后,需要及時同步到備Master,實現(xiàn)雙機備份,Master根據(jù)新的日志文件大小,對元數(shù)據(jù)進行備份,從內(nèi)存中倒入本地硬盤,形成檢查點;對于元數(shù)據(jù)的更改,Master都會產(chǎn)生日志文件,在硬盤進行保存,這樣當系統(tǒng)崩潰后,Master可以根據(jù)備份元數(shù)據(jù)和檢查點后的日志文件,對元數(shù)據(jù)進行快速恢復。對于信息存儲請求,系統(tǒng)根據(jù)信息的安全級別做不同數(shù)量的備份,對于一般應(yīng)用不再做文件的分割,這樣不但能提高數(shù)據(jù)的安全性,也為客戶的數(shù)據(jù)訪問提供并行的數(shù)據(jù)訪問通道,文件的存儲信息和元數(shù)據(jù)由云計算系統(tǒng)負責維護,并根據(jù)負載情況向用戶分配服務(wù)器資源;安全級別高或并發(fā)訪問要求高的文件將采用更多的節(jié)點對其進行副本備份,管理節(jié)點在用戶訪問請求提交后檢查自己的文件存儲信息,將其中一臺存儲有用戶請求數(shù)據(jù)的服務(wù)器信息傳遞給用戶,由用戶直接訪問該服務(wù)器并獲得該服務(wù)器的計算和存儲資源;由于同一個文件被存放在多個服務(wù)器上,不同的用戶訪問同一個文件時會根據(jù)負載情況被指引向不同的服務(wù)器,這樣可以實現(xiàn)對文件訪問的跨用戶級并行數(shù)據(jù)傳輸;這一簡化方案避免了文件分割和重組時的時間開銷,由管理服務(wù)器來負責對系統(tǒng)進行協(xié)調(diào),可以有效適應(yīng)視頻播放、游戲等應(yīng)用的需要;對于一些特殊的應(yīng)用需要計算向存儲遷移時,本方案可由管理節(jié)點向用戶返回所有存儲有該數(shù)據(jù)副本服務(wù)器的信息,并協(xié)調(diào)各服務(wù)器對數(shù)據(jù)的不同部分進行分布式的處理。這一方案并不會增加對存儲空間的要求。本層要考慮到物理機器與虛擬機文件系統(tǒng)的物理位置的關(guān)系,包括位于同一物理機、同一交換機、同一機架、同一地理位置、不同物理位置的虛擬機的管理,node和交換機或者機架故障后的物理數(shù)量的合理分配、node的擴展和收縮等的管理都在本層實現(xiàn);1+2備份和備份打散到不同機柜也是本層必須解決問題;物理機器的增加是在線進行的,這個涉及到均衡訪問問題,使用Dynamo環(huán)技術(shù)來實現(xiàn)。(3)基于表的結(jié)構(gòu)云存儲層(TBASE)目前的云中的數(shù)據(jù)的特點是文件數(shù)量龐大,內(nèi)容不停的append,或者文件數(shù)量不停地在增加,其保存的數(shù)據(jù)包括結(jié)構(gòu)化數(shù)據(jù)和非結(jié)構(gòu)化數(shù)據(jù),結(jié)構(gòu)化數(shù)據(jù)-數(shù)據(jù)庫技術(shù)(根據(jù)行存儲,支持事務(wù)和行鎖-傳統(tǒng),分區(qū)技術(shù)是列技術(shù)與行技術(shù)的結(jié)合的一種過渡)。根據(jù)列存儲-典型的根據(jù)時間、范圍(地點)、id(_角色key)-地址(包括機群+組+機器+實例)-大表分行列切割存儲在不同的機器,例如amuzo,部分支持事務(wù);結(jié)構(gòu)化數(shù)據(jù)-根據(jù)時間、范圍(地點)、id(_角色key)利用云分布式文件(Bigfs)進行存儲(不支持事務(wù))非結(jié)構(gòu)化數(shù)據(jù)-流數(shù)據(jù)(例如視頻流、備份數(shù)據(jù)流、email數(shù)據(jù)、網(wǎng)頁等)一實際是分塊的,這些塊根據(jù)時間、范圍(地點)、id(_角色key)以流方式存儲的,例如視頻流、網(wǎng)頁、email、音頻流、備份數(shù)據(jù)流(根據(jù)時間和文件集合分塊)等;混合的數(shù)據(jù)(部分結(jié)構(gòu)化數(shù)據(jù)+blob數(shù)據(jù)),一般也包含時間、范圍(地點)、id(_角色key)要素;數(shù)據(jù)存儲和查找及計算這些數(shù)據(jù)的內(nèi)容存儲在BigFS中,而這些內(nèi)容根據(jù)根據(jù)文件名和關(guān)鍵字(時間、范圍(地點)、id(_角色key))查找,如何在存儲時根據(jù)關(guān)鍵字組織好存儲node的目錄結(jié)構(gòu),使得進行快速定位和查找,是本層的主要目的,與bigtable的技術(shù)類似。我們在本層要實現(xiàn)的功能如下支持多種數(shù)據(jù)結(jié)構(gòu),比如table、familie、group和coprocessor等(我們原來只支持時間、地點、關(guān)鍵字id);基于分層目錄和行的細粒度的復制和權(quán)限管理;支持跨數(shù)據(jù)中心的強一致性和弱一致性控制;基于Paxos算法的強一致性副本同步,并支持分布式事務(wù);提供許多自動化操作;強大的擴展能力,能支持百萬臺服務(wù)器級別的集群;用戶可以自定義諸如延遲和復制次數(shù)等重要參數(shù)以適應(yīng)不同的需求。結(jié)構(gòu)化數(shù)據(jù)以nosql和分布式數(shù)據(jù)庫為主,根據(jù)key和時間及位置以文件形式存儲,最好同一key的數(shù)據(jù)連接存儲(考慮磁盤的讀取要求和塊讀取性質(zhì)),其最終意義是一個根據(jù)數(shù)據(jù)的特點,自動建立根據(jù)數(shù)據(jù)特點的高效的并發(fā)的高可靠性的自動分析(或者智能計算)的技術(shù)?;诒淼慕Y(jié)構(gòu)數(shù)據(jù)層提供大規(guī)?;诒砀竦慕Y(jié)構(gòu)數(shù)據(jù)管理;本層對應(yīng)與傳統(tǒng)文件系統(tǒng)的目錄和fat(文件分配表)表,由于云存儲的文件達到千萬到幾十億(超大型),這些文件有的是記錄型的(結(jié)構(gòu)型的),有的是非結(jié)構(gòu)型的,采用傳統(tǒng)的數(shù)據(jù)庫的技術(shù)無法解決問題,必須采用列存儲的數(shù)據(jù)庫技術(shù)、分區(qū)技術(shù)、memcache技術(shù)或者內(nèi)存數(shù)據(jù)庫技術(shù)、hash技術(shù),本層根據(jù)規(guī)??梢苑謱幼覲ART(類似oracle的分區(qū),每個分區(qū)在不同的node)ο本層的可靠性非常關(guān)鍵,hadoop的tibase是單single-node,通過Iinux的DRDB技術(shù)實現(xiàn)雙node,另外在中小規(guī)模時可以采用分布式的mysql內(nèi)存數(shù)據(jù)庫的Amoeki方式實現(xiàn);另外本層的log應(yīng)該計入數(shù)據(jù)節(jié)點,實現(xiàn)故障時的回滾和恢復(相當于數(shù)據(jù)庫的redo和undo),到數(shù)據(jù)層的備份位置移動和數(shù)據(jù)層的故障時,以及1+2備份的位置管理和登記在本層實現(xiàn)。本層采用才分布式數(shù)據(jù)庫和列數(shù)據(jù)庫技術(shù),系統(tǒng)的可擴展性非常好;由于是內(nèi)網(wǎng)(云存儲),本層的安全性不是重點關(guān)注。(4)流數(shù)據(jù)云存儲層本層對外部來的多個并發(fā)的數(shù)據(jù)流,進行分類排序和切割,并存儲到隊應(yīng)的node,把存儲的對象名對象的關(guān)鍵屬性(可以嵌套,時間和區(qū)域及id為基本項目)存儲在云存儲結(jié)構(gòu)數(shù)據(jù)層(TBASE);基于高響應(yīng)的內(nèi)存流數(shù)據(jù)劃分和分配是本層的主要任務(wù),在讀文件時,本層要并發(fā)訪問多個node的數(shù)據(jù)流,實現(xiàn)分類排序(塊),把文件內(nèi)容給用戶層,考慮到性能,本層的存儲的cache—般采用flash-cache(剛好利用flash-cache的特性);本層必須采用多線程和多進程技術(shù),實現(xiàn)分布式的平行存取處理;本層是多個實體機(合作虛擬機),多進程技術(shù)和多線程技術(shù)在實現(xiàn)中必須采用。多線程是為了使得多個線程并行的工作以完成多項任務(wù),以提高系統(tǒng)的效率,線程是在同一時間需要完成多項任務(wù)的時候被實現(xiàn)的,它允許在程序中并發(fā)執(zhí)行多個指令流,每個指令流都稱為一個線程,彼此間互相獨立;線程又稱為輕量級進程,它和進程一樣擁有獨立的執(zhí)行控制,由操作系統(tǒng)負責調(diào)度,區(qū)別在于線程沒有獨立的存儲空間,而是和所屬進程中的其它線程共享一個存儲空間,這使得線程間的通信遠較進程簡單;多個線程的執(zhí)行是并發(fā)的,也就是在邏輯上“同時”,而不管是否是物理上的“同時”,如果系統(tǒng)只有一個CPU,那么真正的“同時”是不可能的,但是由于CPU的速度非常快,用戶感覺不到其中的區(qū)別。使用線程的好處有以下幾點可以把占據(jù)長時間的程序中的任務(wù)放到后臺去處理;用戶界面可以更加吸引人,這樣比如用戶點擊了一個按鈕去觸發(fā)某些事件的處理,可以彈出一個進度條來顯示處理的進度;在一些等待的任務(wù)實現(xiàn)上如用戶輸入、文件讀寫和網(wǎng)絡(luò)收發(fā)數(shù)據(jù)等,線程就比較有用。本層的主要關(guān)注點有本層最顯著的特點就是高可靠性和高響應(yīng),本層可實現(xiàn)高速的基于熱備份的出錯恢復功能,本層是可以根據(jù)應(yīng)用的需求不同可以擴展的,本層可以實現(xiàn)對上傳信息流的過濾處理,加密處理,壓縮處理,利用MD5碼防止修改處理,實現(xiàn)系統(tǒng)的安全性。(5)云存儲安全訪問接口層本層實現(xiàn)ACL控制管理、用戶管理、權(quán)限管理、配額管理、計費管理、CDMI標準接口API、和TOB-DAV接口訪問、FTP和ftps接口訪問、http和https接口訪問等。(6)云存儲應(yīng)用層本層實現(xiàn)應(yīng)用的功能,主要包括Map/reduce式的云計算應(yīng)用(Bi)、物聯(lián)網(wǎng)數(shù)據(jù)管理、視頻、移動互聯(lián)網(wǎng)、企業(yè)云應(yīng)用等,具體的有云存儲的郵件系統(tǒng)、云存儲的備份系統(tǒng)、云存儲的在線同步系統(tǒng)、云存儲的網(wǎng)絡(luò)文件磁盤、云存儲的物聯(lián)網(wǎng)應(yīng)用管理系統(tǒng)、云存儲的移動信令分析系統(tǒng)、云存儲的私有云平臺系統(tǒng)、云存儲的對OA的^aS模式的改進的新的OA系統(tǒng)、云存儲的電話詳單查詢系統(tǒng)、云存儲的SMPP和CMPP的短信群發(fā)系統(tǒng)、云存儲的身份證查詢系統(tǒng)、云存儲的貨物跟蹤系統(tǒng)、云存儲的血液跟蹤系統(tǒng)、云存儲的寵物跟蹤系統(tǒng)、云存儲的電信機房系統(tǒng)等。其中的云存儲的郵件系統(tǒng)流文件為大數(shù)據(jù)流,每個流包含一個電子郵件的屬性,這些屬性存儲在TBASE中,根據(jù)時間、主題、發(fā)件人、收件人集合和內(nèi)容和附件(列)進行存儲,云存儲的備份系統(tǒng)流文件為大數(shù)據(jù)流,每個流包含一個文件集,這些屬性存儲在TBASE列中,根據(jù)角色(用戶名)、時間戳、文件夾、文件名集合、文件內(nèi)容的md5碼為該集合的文件進行存儲。①云存儲的在線同步系統(tǒng)流文件為大數(shù)據(jù)流,每個流包含一個文件集,這些屬性存儲在TBASE中,根據(jù)角色(用戶名)、時間戳、文件夾、文件名集合、文件內(nèi)容的md5碼為該集合的文件進行存儲;②云存儲的物聯(lián)網(wǎng)應(yīng)用管理系統(tǒng)流文件為大數(shù)據(jù)流,根據(jù)標簽id、時間、地點(讀頭ID)存儲在TBASE,文件內(nèi)容為該標簽范圍的在指定時間的范圍在什么位置,也就是沒有truck的數(shù)據(jù)存儲,全部存在TBASE;③云存儲的私有云平臺系統(tǒng)流文件為一定集合的不變的系統(tǒng)文件集合和變的文件集合,列包括OS名稱和版本,文件集合的軟件包名等;④云存儲的對OA的MaS模式的改進的新的OA系統(tǒng)流文件為用戶id和主題為列進行存儲;⑤云存儲的電話詳單查詢系統(tǒng)根據(jù)時間、地點、地區(qū)、費用名,0的內(nèi)容列進行存儲和指向指定套餐的基本費用做行集合;⑥云存儲的SMPP和CMPP的短信群發(fā)系統(tǒng)根據(jù)通道號和時間及內(nèi)容的MD5值對應(yīng)的行號標識進行存儲;⑦云存儲的身份證查詢系統(tǒng)TBASE根據(jù)身份證號碼的地區(qū)和省及性別及有效期作為列,內(nèi)容為身份號的其它部分和姓名和地址存儲的。本層采用的主要技術(shù)有map-redUCe是一種編程模型,用于大規(guī)模數(shù)據(jù)集(大于1TB)的并行運算,“Map(映射)"和"Reduce(化簡)"的主要思想,都是從函數(shù)式編程語言和矢量編程語言里借來的特性,極大地方便了編程人員在不會分布式并行編程的情況下,將自己的程序運行在分布式系統(tǒng)上;當前的軟件實現(xiàn)是指定一個Map(映射)函數(shù),用來把一組鍵值對映射成一組新的鍵值對,指定并發(fā)的Reduce(化簡)函數(shù),用來保證所有映射的鍵值對中的每一個共享相同的鍵組。Map-reduce通過把對數(shù)據(jù)集的大規(guī)模操作分發(fā)給網(wǎng)絡(luò)上的每個節(jié)點實現(xiàn)可靠性;每個節(jié)點會周期性的把完成的工作和狀態(tài)的更新報告回來,如果一個節(jié)點保持沉默超過一個預(yù)設(shè)的時間間隔,主節(jié)點記錄下這個節(jié)點狀態(tài)為死亡,并把分配給這個節(jié)點的數(shù)據(jù)發(fā)到別的節(jié)點,每個操作使用命名文件的原子操作以確保不會發(fā)生并行線程間的沖突;當文件被改名的時候,系統(tǒng)可能會把他們復制到任務(wù)名以外的另一個名字上去。云存儲管理層主要實現(xiàn)對云存儲層的管理,包括錯誤恢復、性能和錯誤檢測、負載均衡、任務(wù)調(diào)度、進程調(diào)度、虛擬機管理等;主要采用的技術(shù)包括機群監(jiān)測,主要包括對錯誤、性能、負載、安全的監(jiān)測,塊、文件的備份管理,存儲負載均衡,動態(tài)數(shù)據(jù)遷移,動態(tài)機群添加和恢復,基于Paxos協(xié)議的metadata可靠性,一致性管理等。以上實施例是本發(fā)明較優(yōu)選具體實施方式的一種,本領(lǐng)域技術(shù)人員在本技術(shù)方案范圍內(nèi)進行的通常變化和替換應(yīng)包含在本發(fā)明的保護范圍內(nèi)。權(quán)利要求1.一種基于nXn陳列結(jié)構(gòu)的云系統(tǒng)平臺,其特征在于,對于硬件框架結(jié)構(gòu)的實施主要包括以下(1)首先,直接通過網(wǎng)卡直連方式進行節(jié)點內(nèi)服務(wù)器可靠通信,在系統(tǒng)應(yīng)用層網(wǎng)絡(luò)通信采用UDP直接通信,在應(yīng)用層可靠性設(shè)計時利用其它η-1個節(jié)點進行并行計算或者通信,在復制文件時,先在本地節(jié)點把文件切塊為η等分,然后通過多進程技術(shù)利用η條路由把文件從任何個節(jié)點copy到其它節(jié)點,并且采用RIAD5類型的海明校驗技術(shù),這些檢驗塊在不同的節(jié)點中;(2)然后,選擇服務(wù)器安裝LINUX操作系統(tǒng),并且做root用戶的互信,服務(wù)器之間的文件傳輸直接通過scp命令進行;(3)同時,需要每個服務(wù)器建立一個/UL0C/IP地址/disk+邏輯磁盤編號的文件夾,通過SAMBA協(xié)議訪問對應(yīng)的物理機器磁盤文件,使用CIFS文件系統(tǒng)的主要目的使是Iinux和windows都可訪問,并且是通過網(wǎng)絡(luò)點到點通信訪問的,CIFS協(xié)議的開銷基本可以忽略不計;另外,若用戶需要使用邏輯上只有一個目錄的云存儲,通過點到點通信結(jié)構(gòu)配置M00SEFS文件系統(tǒng)或者配置為iscsi設(shè)備,利用openfire在iscsi層實現(xiàn)從設(shè)備層對存儲資源的邏輯上統(tǒng)一的訪問;(4)最后,機柜之間的通信采用在機柜的序號最大的節(jié)點加1萬兆網(wǎng)卡,與下一個機柜的序號最小的機器加1萬兆網(wǎng)卡的此網(wǎng)卡通信;對于云存儲層次結(jié)構(gòu)的實施主要設(shè)置以下六個層次即本地或局域虛擬存儲層和虛擬資源層、分布式高可靠性大文件云存儲層、基于表的結(jié)構(gòu)云存儲層、流數(shù)據(jù)云存儲層、云存儲安全訪問接口層、云存儲應(yīng)用層。2.根據(jù)權(quán)利要求1所述的基于nXn陳列結(jié)構(gòu)的云系統(tǒng)平臺,其特征在于對于本地或局域虛擬存儲層和虛擬資源層,本地文件系統(tǒng)在大量小文件的應(yīng)用時為ifs,否則用RaiseFS;網(wǎng)絡(luò)文件采用SAMBA,該SAMBA用在可以共享windows為主機的windows系統(tǒng)的ntfs的本地磁盤和AIX小型機的本地磁盤。全文摘要本發(fā)明涉及一種基于n×n陳列結(jié)構(gòu)的云系統(tǒng)平臺,對于云存儲層次結(jié)構(gòu)主要包括本地或局域虛擬存儲層和虛擬資源層、分布式高可靠性大文件云存儲層、基于表的結(jié)構(gòu)云存儲層、流數(shù)據(jù)云存儲層、云存儲安全訪問接口層、云存儲應(yīng)用層。本發(fā)明采用網(wǎng)卡直接相連,利用本地存儲實現(xiàn)大容量的在線高速存儲,并且在每個節(jié)點配置USB2.0或者3.0接口和對應(yīng)的硬盤作為后備存儲,采用RAID10的NAS作為遠程備份存儲;同時,通過設(shè)置六層系統(tǒng)框架結(jié)構(gòu),可為構(gòu)建通用的云存儲平臺創(chuàng)造有利條件;具有性價比較高、可靠性高、可擴展性較佳、高網(wǎng)絡(luò)帶寬等優(yōu)點,特別適用于服務(wù)器虛擬化環(huán)境和高速實時處理海量數(shù)據(jù)環(huán)境。文檔編號H04L29/08GK102394923SQ20111033099公開日2012年3月28日申請日期2011年10月27日優(yōu)先權(quán)日2011年10月27日發(fā)明者周詩琦,童良勇申請人:周詩琦