2011. 3. 23. 20:50

2Tbyte 하드 디스크 Raid 방식에 따른 성능 비교.


2Tbyte 하드 디스크 Raid 방식에 따른 성능 비교.


1. 디스크 변환.

2011년 3월 23일 현재 3TB 하드 디스크가 발표된것을 보았습니다.

하드 디스크의 용량을 인식하는데 있어 중요한 역활을 하는 메인보드 Bridge 와 Bios 역활 또한
이에 맞게 업그레이드 되야 인식이 가능하지만, 그렇지 않는것이 지금 상태입니다(ASUS 보드중 나온게 있다는 걸로 알고 있음).

우리가 현재 주로 쓰는 메인보드의 바이오스는 주로 MBR(Master Boot Record)방식으로 하드 디스크의 기본 파티션이 만들어집니다. 이후 파티션을 인식해서 쓸수 있는 용량이 최대 2.2TB 까지로 한정되다보니, 운영체제 에서 GPT(Guid Partition Table)로
잡고 구동 테스트를 진행하였습니다.



테스트 환경.
메인보드 모델 : Intel DG41TY
CPU : Inter Core2 Quad Q8300
Ram : 2G

HDD : 2TByte * 4
Raid 컨트롤러 : Adapter RAID 5405
하드디스크 체크 유틸 : HD Tune Pro 4.60



2. 디스크 구조 Raid 0(디스크 2개) 방식.


     Stripe Size 를 32k, 512k, 1024k  로 진행한것입니다.



            Srtipe size = 1024k

             Srtipe size = 32k

              Srtipe size = 512k


3. 디스크 구조 Raid 0(디스크 4개) 방식.

     Stripe Size 를 32k, 512k, 1024k  로 진행한것입니다.





                                                                         Stripe Size = 1024k

                                                                           Stripe Size = 32k

                                                                            Stripe Size = 512k

* Raid 0 역시 하드디스크를 추가 장착하면 할수록 배로 빨라지는것을 확인하였습니다.
전송속도(Transfer performance)의 경우 이론에 부합 할려면 Stripe Size 가 작을수록 더 높은 수치 나와야 하는데
테스트에는 다른 결과가 나타났습니다. 물론 수많은 하드웨어 특성상 나타날수 있는 상황이니 너무 이론에 치중하지
않겠습니다.

* 그럼 여기서 간단히 Stripe Size 가 뭔지 수박 겉핥기로 쓱~ 햝어 보고 가겠습니다.

                                                            <이미지 출처 : www.keben.net >
    
* 위의 그림은 하드 4개로 어레이 구성한것을 예로 든것입니다. Stripe Size 에 따란 분할 정도가 달라집니다.
 여기서 Stripe Size 가 작을수록 파일들의 단편화가 심해지며 이것은 그 파일의 데이타를 포함하는 하나의 블럭에
이용되는 드라이버의 갯수가 증가한다는 의미와 같습니다. 그래서 전송율 즉 transfer performance는 증가를 하지만
대신에 파일들을 액세스 할수 있는 positioning performance는 감소를 하게 됩니다. 
    반대 원리로 생각하면 stripe size를 오른쪽처럼 아주 크게 잡는 경우는 전송률은 감소하는 대신에 파일들에 대한
엑세스는 증가를 하게 됩니다.

  * 물론 이론상 그렇습니다. 하드웨어를 어떻게 쓰냐에 따라 달라질수 있으니, 이론에 너무 치중하는것은 좋지 않습니다.


4. 디스크 구조 Raid 1 방식.





                                     * Raid 1 역시 안정적이지만 속도면에서는 약간 떨어지는 것으로 확인됩니다.


5. 디스크 구조 Raid 5(디스크 3개) 방식.


     Stripe Size 를 32k, 512k, 1024k  로 진행한것입니다.



                                                                        Stripe Size = 1024k

                                                                        Stripe Size = 32k

                                                                         Stripe Size = 512k

* Raid 5 성능이 젤~떨어지는것으로 나왔습니다. 이건뭐 Raid 1보다도 떨어지니.. 이론과는 상반되는 결과.....윽..
 역시 Raid 0 은 속도면에서 짱! 이었습니다. 반면 엑세스 시간이나, CPU 사용률은 거의 비슷하니, 참고만 하시는것이 좋으며 구지 차이를 찾으라면 수치상의 차이뿐이겠습니다.
 * 어떤 시스템에 어떤 역활의 Raid 방식을 사용하냐는 것은 딱히 정해지지는 않았지만, 이론이 뒷받침되는 장비의 테스트후 구성이 가장 좋은 방법입니다.



5. 디스크 구조 Raid 5(디스크 4개) 방식, Initialize 모드 quick.

 Stripe Size 512k  진행했습니다.  initialize를 quick 모드로 진행했습니다.





전송속도 : 303.6MB/S
엑세스 시간 : 16.2 ms
CPU 사용률 : 9.0%


* 전송속도는 기본모드인 build 모드보다 initialize 의 quick 모드가 빠르게 나온것을 확인할수 있습니다. 
 그러나 이것역시 타 Raid 방식의 노말보다 조금 빠를뿐이지 월등한 성능의 차이는 보이지 않았습니다.
  cpu 로드는 9%대로 가장 높음




* 추가 
   디스크 구조 Raid 5 방식 (디스크 4개) initialize 모드의 build.


전송속도 : 65.0MB/S
엑세스 시간 : 17.2 ms
CPU 사용률 : 2.0%