Контроллер HighPoint RocketRAID 133

Автор: niknik
Дата: 29.05.2002
Все фото статьи

Введение


Начиная повествование о контроллере HighPoint RocketRaid133 должен сказать, что я с ним очень сильно запоздал... Сначала я ждал прихода на склад винчестеров объёмом больше 137ГБ (т.е. Maxtor D540X-4G), но довольно быстро понял, что винчестеров могу и не дождаться. Потом сплошным потоком пошли винчестеры WD с 8МБ кэшем и запоздавшие SCSI-диски IBM. Так как дополнительных рук я себе ещё не отрастил, да и количество стендовых станций у меня пока не так велико, как хотелось бы, то эксперименты с ATA133 RAID всё откладывались и откладывались. :(
Чтобы вырваться из этого порочного круга я, собрав в кулак всю свою волю, ушёл в отпуск! :)
По возвращении из отпуска я сразу бросился на амбразуру ATA133 RAID, и первые результаты нашли своё отражение в этой статье. Следующая сага будет посвящена контроллеру Promise TX2000, а ещё чуть позже ожидается обзор контроллера Sil680 (SiliconImage на чипе CMD680).

Контроллер


Если раньше компания HighPoint только продавала свои ATA-чипы сторонним производителям контроллеров и материнских плат (среди её клиентов были такие известные фирмы, как Adaptec, Iwill, Epox, Abit), то теперь компания решила попробовать себя и как производитель самих контроллеров. Результатом изменения политики фирмы стал выпуск целой линейки плат с общим названием Rocket.

Линейка контроллеров HighPoint
  чип каналов
 Rocket 133 HPT302 2
 Rocket 133s HPT371 1
 RocketRAID 133 HPT372 2
 RocketRAID 404 HPT374 4

Все эти контроллеры давно находятся у вашего покорного слуги, и все они будут тщательнейшим образом отсмотрены (результаты RocketRAID 404 в данный момент обрабатываются). А пока сосредоточимся на RocketRAID 133:

Спецификация контроллера.
 Host side interface 32bit 33/66 MHz PCI
 Device side interface ATA133 (IDE)
 RAID controller IC HighPoint HPT372A UDMA ATA133 RAID Controller
 Number of IDE channels 2 Channels
 Maximum number of drives 4 hard disk drives
 Supported Hard drives Up to ATA133
 Supported RAID Levels RAID 0 (2-4 disks), RAID 1 (2 disks), 0/1 (4 disks), JBOD (2-4 disks)
 Supported OSs Windows 98/ME, Windows NT4.0, Win2000, Linux (SuSE, Red Hat, Caldera, Turbo)
 RAID Management Tool RAID Configuration and Management
 GUI Function RAID Configuration and Management (compatible with BIOS)
 Additional Features: Bootable disk or disk array support
  Disk hot spare for automatic mirror rebuilding
  Hot-swapping failed hard drives for RAID 1 or 0/1
  Automatic e-mail notification when error occurs
  Large LBA support capacity larger than 137GB


В тестах принимал участие контроллер с биосом v.2.1, использовались драйвера 2.3.

Тестовая система


материнская плата - SuperMicro 370DLE
процессор - Intel Coppermine 600MHz;
память - 2*128Mb SDRAM Micron PC133 ECC Registered;
винчестер - Quantum FB EL 10GB;
видеокарта - Matrox Millennium 4Mb;
операционная система - Windows 2000 Pro SP2;

Для создания массивов использовались четыре диска Maxtor D740X-6L (6L020J1).

Методика тестирования


Размер stripe-блока при создании массивов устанавливался в 64КБ. Для тестов в WinBench массивы размечались в FAT32 и NTFS одним разделом с размером кластера по умолчанию.
Тесты проводились по четыре раза, результаты усреднялись. Винчестеры между тестами не охлаждались.
Использовались следующие тесты:

WinBench 99 1.2
IOMeter 1999.10.20

Для сравнения скорости работы контроллера в различных типах RAID-массивов при помощи теста IOMeter использовались следующие паттерны:

Паттерны IOMeter от StorageReview
 % of Access Specification Transfer Size Request % Reads % Random
 File Server Access Pattern*   
 10% 0.5 KB 80% 100%
 5% 1 KB 80% 100%
 5% 2 KB 80% 100%
 60% 4 KB 80% 100%
 2% 8 KB 80% 100%
 4% 16 KB 80% 100%
 4% 32 KB 80% 100%
 10% 64 KB 80% 100%
 Workstation Access Pattern**   
 100% 8 KB 80% 80%
 Database Access Pattern***   
 100 8 KB 67% 100%

* - Рекомендовано Intel.
** - Определено StorageReview.com
*** - Определено Intel&StorageReview.com

Также были использованы новые паттерны StorageReview, анонсированные в третьей редакции их методики тестирования жёстких дисков (читать всем, как Библию!).

Паттерны StorageReview
  File Server Web Server
  80% Read, 100% Random 100% Read, 100% Random
 512b 10% 22%
 1KB 5% 15%
 2KB 5% 8%
 4KB 60% 23%
 8KB 2% 15%
 16KB 4% 2%
 32KB 4% 6%
 64KB 10% 7%
 128KB 0% 1%
 512KB 0% 1%

Эти паттерны призваны измерить производительность дисковой подсистемы при нагрузке, типичной для file&web-серверов.

Дополнительно проведено сравнение скорости работы контроллера с различными типами RAID-массивов при изменяемом соотношении операций чтения/записи. Был создан паттерн, в котором использовались 100% случайные 8КБ-блоки данных, а соотношение числа чтений/записей менялось от 100/0 до 0/100 c шагом -10/+10.

Ну и, наконец, была проверена способность контроллера работать с Sequential-запросами переменного размера на чтение и запись в различных типах RAID-массивов.

Winbench99 (FAT32)


Тестирование в Winbench99 позволит нам судить о пользе, которую обладатель RAID-контроллера может получить при работе в обычных Windows-приложениях.

Результаты Winbench99 (FAT32)
  JBOD RAID0 2HDD RAID0 3HDD RAID0 4HDD RAID0 2HDD-1CH RAID1-1CH RAID1-2CH RAID01
 Business Disk WinMark 99 17600 17300 17400 17300 16800 17600 18100 15500
 High-End Disk WinMark 99 30900 38800 41500 40900 35900 28400 31200 30200
         
 HE:AVS/Express 3.4 48700 48900 50300 51400 49300 52400 50400 43600
 HE:FrontPage 98 120000 123000 126000 126000 124000 131000 133000 122000
 HE:MicroStation SE 52800 49600 45600 47700 47200 51800 51200 44800
 HE:Photoshop 4.0 12200 16900 19700 20300 14500 10800 12200 12000
 HE:Premiere 4.2 25400 33700 32700 32900 32000 23400 24400 24800
 HE:Sound Forge 4.0 46000 61400 74200 61900 62300 36400 42600 46700
 HE:Visual C++ 5.0 33000 42800 46200 46100 41600 31600 33900 37400
         
 Disk Access Time 12,7 12,5 12,8 12,3 12,7 12,8 12,4 12,5
 DTR:Beginning 41700 66700 59200 64700 53300 40600 41700 76600
 DTR:End 24300 48100 57500 59000 46400 23300 24300 38700

Для упрощения процедуры сравнения скоростей работы контроллера с различного вида RAID-массивами, результаты High-End Disk Winmark и Business Disk Winmark сведены в диаграммы:


Как видим, для RAID0-массива скорость работы в Business Disk Winmark не зависит от количества дисков в массиве, а в тесте Hi-End Disk Winmark такая зависимость наблюдается. Чем больше дисков мы добавляем в массив, тем больший результат мы получаем. Правда, на массив из четырёх дисков это правило почему-то не распространяется. :)

В следующей диаграмме мы сравним скорость работы одиночного диска и скорость работы RAID0-RAID1 массивов, построенных на одном или двух каналах контроллера RocketRAID133.


Очевидно, что и для RAID0 и для RAID1-массивов наивысшая скорость достигается, если винчестеры, их составляющие, находятся на разных каналах контроллера.
Что интересно, скорость RAID01-массива оказалась ниже, чем у одиночного винчестера. :(

Посмотрим, изменится ли картина при смене файловой системы.

Winbench99 (NTFS)


Результаты Winbench99 (NTFS)
  JBOD RAID0 2HDD RAID0 3HDD RAID0 4HDD RAID0 2HDD-1CH RAID1-1CH RAID1-2CH RAID01
 Business Disk WinMark 99 14000 12700 12900 13200 12100 13000 13700 11600
 High-End Disk WinMark 99 23900 29300 32200 32200 27700 21900 24000 24700
         
 HE:AVS/Express 3.4 35000 39000 38900 39300 34600 38900 36900 35900
 HE:FrontPage 98 102000 93500 96100 95100 94800 94900 99800 91300
 HE:MicroStation SE 38200 33500 29000 29300 30900 41000 40500 32200
 HE:Photoshop 4.0 11600 15800 19100 20400 13900 11100 11500 11900
 HE:Premiere 4.2 17300 22200 23600 23100 22100 14400 16800 19700
 HE:Sound Forge 4.0 30200 46900 58300 46200 42700 31100 30700 34400
 HE:Visual C++ 5.0 22300 27800 32600 33400 28000 21700 22500 24100


Как ни странно, но в Business Disk Winmark лучшие результаты показал одиночный винчестер. Что же касается High-End Disk Winmark, то, как и под FAT32, результаты растут при увеличении количества винчестеров в массиве.


Как и в прошлый раз, массивы RAID0 и RAID1 лучше делать из винчестеров, подключённых на разные каналы, но, здесь, RAID01-массив оказался быстрее одиночного винчестера.

IOMeter


Прежде чем начать разбор результатов тестирования в IOMeter, предлагаю всем, кто не знаком с эти тестом, прочесть вводную статью о IOMeter и статью о методике тестирования в нём.
Итак, для упрощения сравнения скоростей работы контроллера в таблицу сведены только значения Total I/O (т.е. количество отработанных контроллером запросов) при текущем значении нагрузки (глубина очереди исходящих запросов).

Результаты IOMeter.
  JBOD RAID0 2HDD RAID0 3HDD RAID0 4HDD RAID0-1Ch RAID1-2Ch RAID1-1Ch RAID01
 Fileserver        
 1 79.47 83.89 81.09 83.74 73.35 78.87 73.23 73.30
 4 84.26 85.58 82.32 84.03 74.35 83.55 77.78 75.09
 16 103.12 103.17 99.64 98.03 93.77 101.68 97.53 90.72
 64 116.74 120.73 121.74 118.65 111.09 114.88 110.76 106.52
 256 128.21 137.18 139.05 135.24 125.78 126.69 122.30 121.74
 Workstation        
 1 93.72 97.99 95.52 99.59 88.81 92.82 85.69 88.77
 4 97.85 99.38 97.18 100.00 90.93 96.50 89.55 90.58
 16 117.74 117.56 114.40 113.53 109.82 116.82 111.70 106.44
 64 133.80 137.59 140.05 137.07 131.14 131.88 126.61 126.12
 256 147.39 158.30 159.93 155.51 149.55 142.05 140.32 145.14
 Database        
 1 83.08 93.75 92.41 96.71 84.46 82.02 75.21 85.00
 4 86.73 95.28 93.72 97.89 86.08 85.29 77.83 85.84
 16 102.36 110.01 111.31 113.00 103.61 100.78 94.30 100.01
 64 113.84 128.19 137.60 136.51 123.53 111.84 105.29 116.63
 256 127.13 146.41 157.30 156.30 141.82 125.82 121.45 135.43

Мда... Анализ полученных результатов будет нелёгкой задачей. ;)

1. увеличение количества винчестеров в RAID0-массиве приводит к увеличению скорости, но прирост быстродействия невелик и не носит "линейного" характера. Например, максимальная скорость работы RAID0-массива при невысокой нагрузке наблюдается на двух-винчестерной конфигурации, а при максимальной нагрузке наивысшую скорость показывает RAID0-массив из трёх винчестеров.

2. массивы RAID0 и RAID1, созданные из винчестеров, подключенных к одному каналу, уступают в скорости массивами, созданным из винчестеров, подключенных к разным каналам.

3. скорость работы массива RAID01 только в паттерне Database оказалась быстрее, чем у одиночного винчестера.

Результаты IOMeter: SR2002
  JBOD RAID0 2HDD RAID0 3HDD RAID0 4HDD RAID0 2HDD-1CH RAID1-1CH RAID1-2CH RAID01
 Fileserver        
 1 79,13 82,65 80,22 83,90 72,59 79,40 72,78 72,74
 4 84,14 84,79 81,05 84,33 74,96 83,67 77,59 75,12
 16 102,54 102,39 99,57 98,34 93,38 102,12 97,59 90,29
 64 116,02 120,48 121,53 118,94 111,23 103,02 109,85 105,97
 256 127,52 137,48 137,52 134,78 126,18 127,58 122,60 121,34
 Webserver        
 1 75.65 74.14 70.04 71.91 64.05 75.34 74.50 64.14
 4 76.18 116.93 94.58 116.01 64.30 148.87 73.60 64.11
 16 76.42 128.44 94.28 128.28 64.45 148.78 73.95 64.65
 64 114.71 189.46 133.69 174.83 94.72 209.88 99.71 94.81
 256 131.27 218.30 156.08 201.81 110.03 245.02 116.96 110.36

В целом, ситуация в этих паттернах повторилась... Ощутимого роста скорости, к сожалению, не наблюдается ни в RAID0, ни в RAID01-массиве.
Посмотрим, как контроллер будет работать в паттерне с изменяемым соотношением запросов на чтение/запись:

Зависимость скорости массива.
  0 10 20 30 40 50 60 70 80 90 100
 JBOD           
 1 75.78 78.08 80.43 82.64 84.35 86.28 87.26 88.32 87.95 85.43 75.39
 4 83.68 84.22 85.21 85.80 86.64 87.33 87.79 87.64 85.73 82.36 80.15
 16 107.27 105.33 103.78 101.79 99.62 97.50 95.28 92.57 90.70 92.00 98.62
 64 125.56 120.87 116.69 112.28 107.68 104.11 100.20 97.89 98.07 98.96 120.03
 256 141.16 131.56 124.60 119.21 114.24 110.45 106.74 102.78 100.04 104.46 136.20
 2HDD RAID0           
 1 75.07 78.99 84.26 90.63 100.72 117.37 133.09 139.05 147.36 158.23 172.52
 4 78.15 81.59 86.19 92.48 102.10 118.82 133.70 140.62 147.67 159.27 171.39
 16 98.87 101.34 104.03 108.38 114.90 132.19 139.46 144.77 150.35 160.36 169.20
 64 116.17 119.70 123.26 127.29 133.28 145.22 148.69 151.93 156.67 165.67 171.55
 256 132.13 136.38 140.36 145.11 150.30 157.00 160.34 165.94 174.00 186.30 194.07
 3HDD RAID0           
 1 73.09 77.56 83.85 90.99 100.14 111.98 131.11 167.69 199.50 217.42 245.56
 4 73.99 78.19 84.52 91.05 100.67 113.98 133.07 169.31 198.54 216.90 242.84
 16 90.48 95.64 102.05 109.23 118.67 129.46 147.02 177.99 202.13 218.10 244.70
 64 108.61 116.41 124.94 134.76 146.56 160.32 178.13 203.50 218.48 230.72 245.47
 256 123.00 132.60 141.73 153.72 167.92 186.18 209.55 234.80 247.72 267.91 269.06
 4HDD RAID0           
 1 74.22 79.41 86.31 94.75 105.07 118.68 139.27 171.08 237.58 307.27 359.04
 4 75.05 80.60 86.45 95.16 104.79 119.43 138.43 172.06 240.74 308.64 356.60
 16 86.93 93.06 100.27 109.30 120.22 135.28 154.64 183.59 243.82 309.20 355.00
 64 104.88 112.81 121.66 132.18 144.76 163.05 185.98 221.55 278.99 315.50 351.49
 256 119.51 128.30 138.78 151.52 166.39 188.69 217.48 256.79 314.38 338.55 354.52
 RAID0-1CH           
  68.41 72.19 76.60 82.22 90.41 103.43 125.15 132.96 141.33 152.42 163.93
  71.06 73.85 78.66 83.87 91.95 104.54 124.39 132.66 140.81 151.88 160.98
  91.32 94.35 97.88 101.93 107.17 118.43 133.02 137.69 143.89 152.99 161.91
  107.32 112.05 116.52 122.14 127.41 138.11 143.95 148.53 153.40 160.04 163.78
  121.85 126.40 132.44 139.65 146.79 155.73 161.87 171.75 183.18 198.55 195.75
 RAID1-2CH           
 1 75.52 77.47 79.68 81.85 74.63 87.09 89.36 91.64 93.94 98.18 77.35
 4 83.40 83.72 84.40 85.47 66.80 88.73 90.02 91.96 94.55 98.46 78.23
 16 107.35 104.73 103.33 102.00 100.41 99.78 98.28 97.37 97.50 100.15 95.00
 64 125.45 120.31 116.97 113.99 110.96 108.37 106.94 105.18 104.84 106.79 114.52
 256 140.82 133.32 128.77 127.48 126.31 125.29 124.48 123.20 123.00 125.48 134.21
 RAID1-1CH           
 1 73.04 73.76 74.84 75.59 76.93 78.20 79.20 80.62 82.60 85.86 98.12
 4 81.39 80.37 79.63 79.30 79.02 79.29 79.88 80.99 82.40 86.09 96.41
 16 108.05 103.49 99.80 96.16 93.32 90.41 87.92 86.11 84.87 87.36 95.50
 64 125.78 118.32 111.85 107.31 101.99 99.50 97.80 96.88 97.21 98.67 108.58
 256 139.77 130.11 125.04 122.04 120.55 120.73 120.49 121.20 123.41 127.91 134.06
 RAID01           
 1 69.40 72.81 77.36 83.22 91.62 103.17 123.91 134.16 141.27 150.57 182.52
 4 71.60 74.79 78.68 84.34 92.41 104.33 124.16 134.24 140.75 150.12 182.04
 16 89.58 92.32 95.70 100.05 106.00 114.69 131.73 136.73 142.99 152.08 180.37
 64 106.20 109.08 113.31 117.85 122.09 131.07 139.20 144.24 149.46 155.70 173.17
 256 121.37 124.68 130.39 135.68 140.75 147.74 154.00 159.76 166.45 176.05 186.61

Для начала, рассмотрим поведение RAID0-массива в зависимости от доли операций на запись при трёх вариантах нагрузки (1,16 и 256 исходящих запросов):


Как видим, преимущества объединения винчестеров в RAID0-массив проявляются только при доле запросов на запись, превышающей 30 процентов, и, по мере увеличения доли поступающих на контроллер запросов на запись, мы всё явственнее наблюдаем преимущество в скорости массивов с большим числом винчестеров!


При увеличении глубины очереди команд мы наблюдаем очень интересное явление: в режиме RandomRead (100% Reads / 0% Writes) чем больше винчестеров образуют массив RAID0, тем ниже скорость его работы! Самую высокую скорость демонстрирует одиночный винчестер, а самую низкую - RAID0 на четырёх винчестерах.
Правда, по мере увеличения доли операций записи, скорости массивов приходят к уже знакомому нам виду (чем больше винчестеров в массиве, тем он быстрее!)


Увеличение глубины очереди команд до 256 запросов сдвигает "границу", где скорость работы RAID0-массивов превышает скорость работы одиночного винчестера, влево на 10 пунктов, а в остальном ситуация повторяет предыдущие два графика.

Ну а теперь посмотрим, как соотносятся скорости RAID0 и RAID1-массивов, созданных на одном и двух каналах контроллера:


Очевидно, что массивы, созданные на двух каналах работают эффективнее, чем массивы, созданные на одном канале. Правда, вызывает интерес поведение массива RAID1-2Ch, который в двух режимах оказался медленнее своего аналога, созданного на одном канале, но это уже вопрос к HighPoint! :)


При увеличении глубины очереди команд до 16-ти, "странности" у массива RAID1-2Ch исчезают, и мы можем уверенно говорить, что массивы, созданные на разных каналах контроллера, быстрее, чем массивы, собранные из винчестеров, подключенных к одному каналу.


Увеличение глубины очереди команд до 256 запросов приводит к появлению ещё одного трудно объяснимого графика. Обратите внимание, что после того, как доля запросов на запись превысила 50 процентов, скорость массива RAID0-1Ch оказалась выше, чем у двухканального!
Массив RAID1-1Ch уступает в скорости своему двухканальному аналогу при малой доле запросов на запись, но, по мере увеличения этой доли, подбирается к нему всё ближе.

Пришло время сравнить массивы на способность работать с последовательными запросами на чтение/запись. В таблицу сведены значения трансфера с массивов при различных размерах запрашиваемого блока данных.

SequentialRead
  JBOD RAID0 2HDD RAID0 3HDD RAID0 4HDD RAID0-1Ch RAID1-2Ch RAID1-1Ch RAID01
 0.5 8.59 8.36 8.37 8.64 8.17 8.34 8.55 8.66
 1 11.44 16.59 16.10 16.77 16.15 11.59 11.59 16.58
 2 21.50 23.98 29.00 32.29 22.72 20.25 20.54 22.72
 4 38.95 30.89 34.41 41.05 26.01 39.53 39.53 26.26
 8 39.09 36.17 41.97 48.10 33.93 39.59 39.60 33.86
 16 39.10 49.43 51.68 61.18 49.18 39.62 39.62 48.76
 32 39.16 53.83 54.19 62.66 52.80 39.61 39.71 53.12
 64 39.21 55.64 56.60 66.19 54.74 39.75 39.70 55.23
 128 39.25 55.06 55.87 64.44 55.06 39.79 39.80 54.97
 256 39.40 55.84 56.28 63.89 53.54 39.87 39.88 53.11
 512 39.38 55.20 57.33 65.88 50.87 39.88 39.90 50.78
 1024 39.37 57.79 56.37 65.45 51.13 39.85 39.90 52.07

Для более наглядного представления полученных результатов были построены следующие диаграммы:


Как видим, скорости чтения с RAID0-массивов с различным количеством винчестеров не так уж сильно отличаются. Скорость чтения с одиночного винчестера составляет 39МБ/сек, но с двух винчестеров, объединённых в RAID0, мы получаем только 55МБ/сек! А где же обещанное удвоение скорости? Что самое обидное, добавление в массив третьего винчестера вообще не приводит к росту скорости! И только четырёх-винчестерный массив переваливает через отметку 60МБ/сек. Что же, налицо явные проблемы с масштабируемостью... Вот только кто виноват - контроллер или винчестеры?


Если мы сравним скоростные характеристики RAID1-массивов и одиночного винчестера, то увидим, что никакого снижения производительности при зеркалировании контроллер RocketRAID не допускает.
Массив RAID01 показывает довольно любопытные результаты. При малом размере запрашиваемого блока данных он опережает по скорости чтения одиночный винчестер и оба варианта RAID1, но потом, при размере запроса 4-8КБ, неожиданно уступает им. При дальнейшем увеличении размера блока данных, массив RAID01 опять выходит вперед и уже не уступает первенства до конца...


Если же мы сравним поведение массивов RAID0, созданных на одном и двух каналах, то увидим, что скорость чтения с этих массивов примерно одинакова, но RAID0-2Ch имеет некоторое преимущество на 4КБ-блоках и при размере блока, превышающем 128КБ.

SequentialWrite
  JBOD RAID0 2HDD RAID0 3HDD RAID0 4HDD RAID0-1Ch RAID1-2Ch RAID1-1Ch RAID01
 0.5 2.32 2.06 2.08 2.11 2.18 1.69 0.94 0.93
 1 4.72 4.12 4.22 4.23 4.34 3.53 2.19 2.08
 2 9.38 8.34 8.40 8.37 8.80 7.26 4.72 4.43
 4 18.51 17.14 16.73 16.60 18.20 15.16 9.67 9.33
 8 35.00 34.20 34.35 33.42 35.85 27.39 18.74 19.04
 16 39.29 52.92 53.94 54.86 55.18 36.59 27.29 28.33
 32 39.29 72.14 71.13 71.99 72.44 39.77 35.65 36.86
 64 39.22 79.64 85.19 86.43 78.99 39.64 39.83 43.50
 128 39.29 76.16 75.85 71.74 71.26 39.77 37.91 36.17
 256 39.32 79.50 78.56 76.60 72.66 39.82 39.82 36.81
 512 39.29 79.51 81.08 79.37 72.23 39.75 39.77 36.80
 1024 39.29 79.57 80.63 78.91 71.88 39.74 39.86 36.76

Как это ни странно, но с записью у контроллера RocketRAID 133 получилось лучше, чем с чтением. Правда, я начинаю думать, что причина такого явления сокрыта где-то внутри firmware винчестеров Maxtor 6L020J1...


Что интересно, в отличие от режима SequentialRead скорость RAID0-массивов с разным числом винчестеров практически не отличается. Уже на двух винчестерах скорость записи достигает уровня 80МБ/сек и в дальнейшем почти не растёт. Отметим также, что максимум производительности на всех массивах приходится на ту точку, где размер блока данных, который мы пишем на массив, совпадает с размером stripe-блока.


Хм... Очень интересная получилась картинка. Отлично видно, что необходимость дублировать данные на оба винчестера массива приводят к дополнительной нагрузке на контроллер и результаты RAID1-массивов при работе с мелкими блоками ниже, чем у одиночного винчестера. Но при достижении блоком данных размера в 64КБ результаты массивов выходят на максимум. График массива RAID01 при малом размере блока повторяет график RAID1-1Ch, но при 64КБ-ном блоке даёт неожиданный всплеск быстродействия. Правда, при дальнейшем увеличении размера блока данных, скорость массива RAID01 падает даже ниже уровня одиночного винчестера.


При сравнении трансфера на RAID0-массивах, построенных на одном и двух каналах, мы видим, что производительность массивов отличается только при размере блока >64КБ.

Выводы


Что же, первые тесты ATA133 RAID-контроллера принесли нам сплошные сюрпризы и загадки. Контроллер HighPoint показал блестящие результаты в тестах WinBench (Business Disk Winmark и High-End Disk Winmark), но вид графиков линейного чтения разочарует всех любителей оцифровывать видео на компьютере... Возможно, причиной такого плохого поведения контроллера являются выбранные для тестов винчестеры (Maxtor D740X-6L), но какие же ещё винчестеры использовать с ATA133 RAID-контроллером?
Чтобы докопаться до истины, я принял решение повторить тестирование RocketRAID на дисках IBM DTLA, моих стандартных дисках для тестирования IDE RAID-контроллеров.

Что касается результатов тестирования в IOMeter, то мы отчётливо видели, что серьёзный прирост быстродействия у массивов наблюдается только в режимах с большой долей операций записи. В паттернах, эмулирующих серверную нагрузку, прирост скорости при использовании любого типа RAID-массива крайне незначителен.
Ахиллесовой пятой двухканальных IDE RAID-контроллеров является работа с массивами, в которых задействованы винчестеры на одном канале, в чём мы не раз имели возможность убедиться в этом обзоре.
Возвращаясь к HighPoint RocketRAID 133, должен сказать, что эти тесты HighPoint RocketRAID 133 можно считать "предварительными", ибо недавно вышедшие драйвера 2.31 одним махом перечеркнули мой двухнедельный труд. Надеюсь, они того стоят... :)