Введение
Начиная повествование о контроллере HighPoint RocketRaid133 должен сказать, что я с ним очень сильно запоздал... Сначала я ждал прихода на склад винчестеров объёмом больше 137ГБ (т.е. Maxtor D540X-4G), но довольно быстро понял, что винчестеров могу и не дождаться. Потом сплошным потоком
пошли винчестеры WD с 8МБ кэшем и запоздавшие SCSI-диски IBM. Так как дополнительных рук я себе ещё не отрастил, да и количество стендовых станций у меня пока не так велико, как хотелось бы, то эксперименты с ATA133 RAID всё откладывались и откладывались. :(
Чтобы вырваться из этого порочного круга я, собрав в кулак всю свою волю, ушёл в отпуск! :)
По возвращении из отпуска я сразу бросился на амбразуру ATA133 RAID, и первые результаты нашли своё отражение в этой статье. Следующая сага будет посвящена контроллеру Promise TX2000, а ещё чуть позже ожидается обзор контроллера Sil680 (SiliconImage на чипе CMD680).
Контроллер
Если раньше компания HighPoint только продавала свои ATA-чипы сторонним производителям контроллеров и материнских плат (среди её клиентов были такие известные фирмы, как Adaptec, Iwill, Epox, Abit), то теперь компания решила попробовать себя и как производитель самих контроллеров. Результатом изменения политики фирмы стал выпуск целой линейки плат с общим названием Rocket.
Линейка контроллеров HighPoint
| чип | каналов
|
---|
Rocket 133 | HPT302 | 2
|
Rocket 133s | HPT371 | 1
|
RocketRAID 133 | HPT372 | 2
|
RocketRAID 404 | HPT374 | 4
|
Все эти контроллеры давно находятся у вашего покорного слуги, и все они будут тщательнейшим образом отсмотрены (результаты RocketRAID 404 в данный момент обрабатываются). А пока сосредоточимся на RocketRAID 133:
Спецификация контроллера.
Host side interface | 32bit 33/66 MHz PCI
|
Device side interface | ATA133 (IDE)
|
RAID controller IC | HighPoint HPT372A UDMA ATA133 RAID Controller
|
Number of IDE channels | 2 Channels
|
Maximum number of drives | 4 hard disk drives
|
Supported Hard drives | Up to ATA133
|
Supported RAID Levels | RAID 0 (2-4 disks), RAID 1 (2 disks), 0/1 (4 disks), JBOD (2-4 disks)
|
Supported OSs | Windows 98/ME, Windows NT4.0, Win2000, Linux (SuSE, Red Hat, Caldera, Turbo)
|
RAID Management Tool | RAID Configuration and Management
|
GUI Function | RAID Configuration and Management (compatible with BIOS)
|
Additional Features: | Bootable disk or disk array support
|
| Disk hot spare for automatic mirror rebuilding
|
| Hot-swapping failed hard drives for RAID 1 or 0/1
|
| Automatic e-mail notification when error occurs
|
| Large LBA support capacity larger than 137GB
|
В тестах принимал участие контроллер с биосом v.2.1, использовались драйвера 2.3.
Тестовая система
материнская плата - SuperMicro 370DLE
процессор - Intel Coppermine 600MHz;
память - 2*128Mb SDRAM Micron PC133 ECC Registered;
винчестер - Quantum FB EL 10GB;
видеокарта - Matrox Millennium 4Mb;
операционная система - Windows 2000 Pro SP2;
Для создания массивов использовались четыре диска Maxtor D740X-6L (6L020J1).
Методика тестирования
Размер stripe-блока при создании массивов устанавливался в 64КБ. Для тестов в WinBench массивы размечались в FAT32 и NTFS одним разделом с размером кластера по умолчанию.
Тесты проводились по четыре раза, результаты усреднялись. Винчестеры между тестами не охлаждались.
Использовались следующие тесты:
WinBench 99 1.2
IOMeter 1999.10.20
Для сравнения скорости работы контроллера в различных типах RAID-массивов при помощи теста IOMeter использовались следующие паттерны:
Паттерны IOMeter от StorageReview
% of Access Specification | Transfer Size Request | % Reads | % Random
|
---|
File Server Access Pattern*
|
10% | 0.5 KB | 80% | 100%
|
5% | 1 KB | 80% | 100%
|
5% | 2 KB | 80% | 100%
|
60% | 4 KB | 80% | 100%
|
2% | 8 KB | 80% | 100%
|
4% | 16 KB | 80% | 100%
|
4% | 32 KB | 80% | 100%
|
10% | 64 KB | 80% | 100%
|
Workstation Access Pattern**
|
100% | 8 KB | 80% | 80%
|
Database Access Pattern***
|
100 | 8 KB | 67% | 100%
|
* - Рекомендовано Intel.
** - Определено StorageReview.com
*** - Определено Intel&StorageReview.com
Также были использованы новые паттерны StorageReview, анонсированные в
третьей редакции их методики тестирования жёстких дисков (читать всем, как Библию!).
Паттерны StorageReview
| File Server | Web Server
|
---|
| 80% Read, 100% Random | 100% Read, 100% Random
|
512b | 10% | 22%
|
1KB | 5% | 15%
|
2KB | 5% | 8%
|
4KB | 60% | 23%
|
8KB | 2% | 15%
|
16KB | 4% | 2%
|
32KB | 4% | 6%
|
64KB | 10% | 7%
|
128KB | 0% | 1%
|
512KB | 0% | 1%
|
Эти паттерны призваны измерить производительность дисковой подсистемы при нагрузке, типичной для file&web-серверов.
Дополнительно проведено сравнение скорости работы контроллера с различными типами RAID-массивов при изменяемом соотношении операций чтения/записи. Был создан паттерн, в котором использовались 100% случайные 8КБ-блоки данных, а соотношение числа чтений/записей менялось от 100/0 до 0/100 c шагом -10/+10.
Ну и, наконец, была проверена способность контроллера работать с Sequential-запросами переменного размера на чтение и запись в различных типах RAID-массивов.
Winbench99 (FAT32)
Тестирование в Winbench99 позволит нам судить о пользе, которую обладатель RAID-контроллера может получить при работе в обычных Windows-приложениях.
Результаты Winbench99 (FAT32)
| JBOD | RAID0 2HDD | RAID0 3HDD | RAID0 4HDD | RAID0 2HDD-1CH | RAID1-1CH | RAID1-2CH | RAID01
|
---|
Business Disk WinMark 99 | 17600 | 17300 | 17400 | 17300 | 16800 | 17600 | 18100 | 15500
|
High-End Disk WinMark 99 | 30900 | 38800 | 41500 | 40900 | 35900 | 28400 | 31200 | 30200
|
|
HE:AVS/Express 3.4 | 48700 | 48900 | 50300 | 51400 | 49300 | 52400 | 50400 | 43600
|
HE:FrontPage 98 | 120000 | 123000 | 126000 | 126000 | 124000 | 131000 | 133000 | 122000
|
HE:MicroStation SE | 52800 | 49600 | 45600 | 47700 | 47200 | 51800 | 51200 | 44800
|
HE:Photoshop 4.0 | 12200 | 16900 | 19700 | 20300 | 14500 | 10800 | 12200 | 12000
|
HE:Premiere 4.2 | 25400 | 33700 | 32700 | 32900 | 32000 | 23400 | 24400 | 24800
|
HE:Sound Forge 4.0 | 46000 | 61400 | 74200 | 61900 | 62300 | 36400 | 42600 | 46700
|
HE:Visual C++ 5.0 | 33000 | 42800 | 46200 | 46100 | 41600 | 31600 | 33900 | 37400
|
|
Disk Access Time | 12,7 | 12,5 | 12,8 | 12,3 | 12,7 | 12,8 | 12,4 | 12,5
|
DTR:Beginning | 41700 | 66700 | 59200 | 64700 | 53300 | 40600 | 41700 | 76600
|
DTR:End | 24300 | 48100 | 57500 | 59000 | 46400 | 23300 | 24300 | 38700
|
Для упрощения процедуры сравнения скоростей работы контроллера с различного вида RAID-массивами, результаты High-End Disk Winmark и Business Disk Winmark сведены в диаграммы:
Как видим, для RAID0-массива скорость работы в Business Disk Winmark не зависит от количества дисков в массиве, а в тесте Hi-End Disk Winmark такая зависимость наблюдается. Чем больше дисков мы добавляем в массив, тем больший результат мы получаем. Правда, на массив из четырёх дисков это правило почему-то не распространяется. :)
В следующей диаграмме мы сравним скорость работы одиночного диска и скорость работы RAID0-RAID1 массивов, построенных на одном или двух каналах контроллера RocketRAID133.
Очевидно, что и для RAID0 и для RAID1-массивов наивысшая скорость достигается, если винчестеры, их составляющие, находятся на разных каналах контроллера.
Что интересно, скорость RAID01-массива оказалась ниже, чем у одиночного винчестера. :(
Посмотрим, изменится ли картина при смене файловой системы.
Winbench99 (NTFS)
Результаты Winbench99 (NTFS)
| JBOD | RAID0 2HDD | RAID0 3HDD | RAID0 4HDD | RAID0 2HDD-1CH | RAID1-1CH | RAID1-2CH | RAID01
|
---|
Business Disk WinMark 99 | 14000 | 12700 | 12900 | 13200 | 12100 | 13000 | 13700 | 11600
|
High-End Disk WinMark 99 | 23900 | 29300 | 32200 | 32200 | 27700 | 21900 | 24000 | 24700
|
|
HE:AVS/Express 3.4 | 35000 | 39000 | 38900 | 39300 | 34600 | 38900 | 36900 | 35900
|
HE:FrontPage 98 | 102000 | 93500 | 96100 | 95100 | 94800 | 94900 | 99800 | 91300
|
HE:MicroStation SE | 38200 | 33500 | 29000 | 29300 | 30900 | 41000 | 40500 | 32200
|
HE:Photoshop 4.0 | 11600 | 15800 | 19100 | 20400 | 13900 | 11100 | 11500 | 11900
|
HE:Premiere 4.2 | 17300 | 22200 | 23600 | 23100 | 22100 | 14400 | 16800 | 19700
|
HE:Sound Forge 4.0 | 30200 | 46900 | 58300 | 46200 | 42700 | 31100 | 30700 | 34400
|
HE:Visual C++ 5.0 | 22300 | 27800 | 32600 | 33400 | 28000 | 21700 | 22500 | 24100
|
Как ни странно, но в Business Disk Winmark лучшие результаты показал одиночный винчестер. Что же касается High-End Disk Winmark, то, как и под FAT32, результаты растут при увеличении количества винчестеров в массиве.
Как и в прошлый раз, массивы RAID0 и RAID1 лучше делать из винчестеров, подключённых на разные каналы, но, здесь, RAID01-массив оказался быстрее одиночного винчестера.
IOMeter
Прежде чем начать разбор результатов тестирования в IOMeter, предлагаю всем, кто не знаком с эти тестом, прочесть
вводную статью о IOMeter и статью о
методике тестирования в нём.
Итак, для упрощения сравнения скоростей работы контроллера в таблицу сведены только значения Total I/O (т.е. количество отработанных контроллером запросов) при текущем значении нагрузки (глубина очереди исходящих запросов).
Результаты IOMeter.
| JBOD | RAID0 2HDD | RAID0 3HDD | RAID0 4HDD | RAID0-1Ch | RAID1-2Ch | RAID1-1Ch | RAID01
|
---|
Fileserver
|
1 | 79.47 | 83.89 | 81.09 | 83.74 | 73.35 | 78.87 | 73.23 | 73.30
|
4 | 84.26 | 85.58 | 82.32 | 84.03 | 74.35 | 83.55 | 77.78 | 75.09
|
16 | 103.12 | 103.17 | 99.64 | 98.03 | 93.77 | 101.68 | 97.53 | 90.72
|
64 | 116.74 | 120.73 | 121.74 | 118.65 | 111.09 | 114.88 | 110.76 | 106.52
|
256 | 128.21 | 137.18 | 139.05 | 135.24 | 125.78 | 126.69 | 122.30 | 121.74
|
Workstation
|
1 | 93.72 | 97.99 | 95.52 | 99.59 | 88.81 | 92.82 | 85.69 | 88.77
|
4 | 97.85 | 99.38 | 97.18 | 100.00 | 90.93 | 96.50 | 89.55 | 90.58
|
16 | 117.74 | 117.56 | 114.40 | 113.53 | 109.82 | 116.82 | 111.70 | 106.44
|
64 | 133.80 | 137.59 | 140.05 | 137.07 | 131.14 | 131.88 | 126.61 | 126.12
|
256 | 147.39 | 158.30 | 159.93 | 155.51 | 149.55 | 142.05 | 140.32 | 145.14
|
Database
|
1 | 83.08 | 93.75 | 92.41 | 96.71 | 84.46 | 82.02 | 75.21 | 85.00
|
4 | 86.73 | 95.28 | 93.72 | 97.89 | 86.08 | 85.29 | 77.83 | 85.84
|
16 | 102.36 | 110.01 | 111.31 | 113.00 | 103.61 | 100.78 | 94.30 | 100.01
|
64 | 113.84 | 128.19 | 137.60 | 136.51 | 123.53 | 111.84 | 105.29 | 116.63
|
256 | 127.13 | 146.41 | 157.30 | 156.30 | 141.82 | 125.82 | 121.45 | 135.43
|
Мда... Анализ полученных результатов будет нелёгкой задачей. ;)
1. увеличение количества винчестеров в RAID0-массиве приводит к увеличению скорости, но прирост быстродействия невелик и не носит "линейного" характера. Например, максимальная скорость работы RAID0-массива при невысокой нагрузке наблюдается на двух-винчестерной конфигурации, а при максимальной нагрузке наивысшую скорость показывает RAID0-массив из трёх винчестеров.
2. массивы RAID0 и RAID1, созданные из винчестеров, подключенных к одному каналу, уступают в скорости массивами, созданным из винчестеров, подключенных к разным каналам.
3. скорость работы массива RAID01 только в паттерне Database оказалась быстрее, чем у одиночного винчестера.
Результаты IOMeter: SR2002
| JBOD | RAID0 2HDD | RAID0 3HDD | RAID0 4HDD | RAID0 2HDD-1CH | RAID1-1CH | RAID1-2CH | RAID01
|
---|
Fileserver
|
1 | 79,13 | 82,65 | 80,22 | 83,90 | 72,59 | 79,40 | 72,78 | 72,74
|
4 | 84,14 | 84,79 | 81,05 | 84,33 | 74,96 | 83,67 | 77,59 | 75,12
|
16 | 102,54 | 102,39 | 99,57 | 98,34 | 93,38 | 102,12 | 97,59 | 90,29
|
64 | 116,02 | 120,48 | 121,53 | 118,94 | 111,23 | 103,02 | 109,85 | 105,97
|
256 | 127,52 | 137,48 | 137,52 | 134,78 | 126,18 | 127,58 | 122,60 | 121,34
|
Webserver
|
1 | 75.65 | 74.14 | 70.04 | 71.91 | 64.05 | 75.34 | 74.50 | 64.14
|
4 | 76.18 | 116.93 | 94.58 | 116.01 | 64.30 | 148.87 | 73.60 | 64.11
|
16 | 76.42 | 128.44 | 94.28 | 128.28 | 64.45 | 148.78 | 73.95 | 64.65
|
64 | 114.71 | 189.46 | 133.69 | 174.83 | 94.72 | 209.88 | 99.71 | 94.81
|
256 | 131.27 | 218.30 | 156.08 | 201.81 | 110.03 | 245.02 | 116.96 | 110.36
|
В целом, ситуация в этих паттернах повторилась... Ощутимого роста скорости, к сожалению, не наблюдается ни в RAID0, ни в RAID01-массиве.
Посмотрим, как контроллер будет работать в паттерне с изменяемым соотношением запросов на чтение/запись:
Зависимость скорости массива.
| 0 | 10 | 20 | 30 | 40 | 50 | 60 | 70 | 80 | 90 | 100
|
---|
JBOD
|
1 | 75.78 | 78.08 | 80.43 | 82.64 | 84.35 | 86.28 | 87.26 | 88.32 | 87.95 | 85.43 | 75.39
|
4 | 83.68 | 84.22 | 85.21 | 85.80 | 86.64 | 87.33 | 87.79 | 87.64 | 85.73 | 82.36 | 80.15
|
16 | 107.27 | 105.33 | 103.78 | 101.79 | 99.62 | 97.50 | 95.28 | 92.57 | 90.70 | 92.00 | 98.62
|
64 | 125.56 | 120.87 | 116.69 | 112.28 | 107.68 | 104.11 | 100.20 | 97.89 | 98.07 | 98.96 | 120.03
|
256 | 141.16 | 131.56 | 124.60 | 119.21 | 114.24 | 110.45 | 106.74 | 102.78 | 100.04 | 104.46 | 136.20
|
2HDD RAID0
|
1 | 75.07 | 78.99 | 84.26 | 90.63 | 100.72 | 117.37 | 133.09 | 139.05 | 147.36 | 158.23 | 172.52
|
4 | 78.15 | 81.59 | 86.19 | 92.48 | 102.10 | 118.82 | 133.70 | 140.62 | 147.67 | 159.27 | 171.39
|
16 | 98.87 | 101.34 | 104.03 | 108.38 | 114.90 | 132.19 | 139.46 | 144.77 | 150.35 | 160.36 | 169.20
|
64 | 116.17 | 119.70 | 123.26 | 127.29 | 133.28 | 145.22 | 148.69 | 151.93 | 156.67 | 165.67 | 171.55
|
256 | 132.13 | 136.38 | 140.36 | 145.11 | 150.30 | 157.00 | 160.34 | 165.94 | 174.00 | 186.30 | 194.07
|
3HDD RAID0
|
1 | 73.09 | 77.56 | 83.85 | 90.99 | 100.14 | 111.98 | 131.11 | 167.69 | 199.50 | 217.42 | 245.56
|
4 | 73.99 | 78.19 | 84.52 | 91.05 | 100.67 | 113.98 | 133.07 | 169.31 | 198.54 | 216.90 | 242.84
|
16 | 90.48 | 95.64 | 102.05 | 109.23 | 118.67 | 129.46 | 147.02 | 177.99 | 202.13 | 218.10 | 244.70
|
64 | 108.61 | 116.41 | 124.94 | 134.76 | 146.56 | 160.32 | 178.13 | 203.50 | 218.48 | 230.72 | 245.47
|
256 | 123.00 | 132.60 | 141.73 | 153.72 | 167.92 | 186.18 | 209.55 | 234.80 | 247.72 | 267.91 | 269.06
|
4HDD RAID0
|
1 | 74.22 | 79.41 | 86.31 | 94.75 | 105.07 | 118.68 | 139.27 | 171.08 | 237.58 | 307.27 | 359.04
|
4 | 75.05 | 80.60 | 86.45 | 95.16 | 104.79 | 119.43 | 138.43 | 172.06 | 240.74 | 308.64 | 356.60
|
16 | 86.93 | 93.06 | 100.27 | 109.30 | 120.22 | 135.28 | 154.64 | 183.59 | 243.82 | 309.20 | 355.00
|
64 | 104.88 | 112.81 | 121.66 | 132.18 | 144.76 | 163.05 | 185.98 | 221.55 | 278.99 | 315.50 | 351.49
|
256 | 119.51 | 128.30 | 138.78 | 151.52 | 166.39 | 188.69 | 217.48 | 256.79 | 314.38 | 338.55 | 354.52
|
RAID0-1CH
|
| 68.41 | 72.19 | 76.60 | 82.22 | 90.41 | 103.43 | 125.15 | 132.96 | 141.33 | 152.42 | 163.93
|
| 71.06 | 73.85 | 78.66 | 83.87 | 91.95 | 104.54 | 124.39 | 132.66 | 140.81 | 151.88 | 160.98
|
| 91.32 | 94.35 | 97.88 | 101.93 | 107.17 | 118.43 | 133.02 | 137.69 | 143.89 | 152.99 | 161.91
|
| 107.32 | 112.05 | 116.52 | 122.14 | 127.41 | 138.11 | 143.95 | 148.53 | 153.40 | 160.04 | 163.78
|
| 121.85 | 126.40 | 132.44 | 139.65 | 146.79 | 155.73 | 161.87 | 171.75 | 183.18 | 198.55 | 195.75
|
RAID1-2CH
|
1 | 75.52 | 77.47 | 79.68 | 81.85 | 74.63 | 87.09 | 89.36 | 91.64 | 93.94 | 98.18 | 77.35
|
4 | 83.40 | 83.72 | 84.40 | 85.47 | 66.80 | 88.73 | 90.02 | 91.96 | 94.55 | 98.46 | 78.23
|
16 | 107.35 | 104.73 | 103.33 | 102.00 | 100.41 | 99.78 | 98.28 | 97.37 | 97.50 | 100.15 | 95.00
|
64 | 125.45 | 120.31 | 116.97 | 113.99 | 110.96 | 108.37 | 106.94 | 105.18 | 104.84 | 106.79 | 114.52
|
256 | 140.82 | 133.32 | 128.77 | 127.48 | 126.31 | 125.29 | 124.48 | 123.20 | 123.00 | 125.48 | 134.21
|
RAID1-1CH
|
1 | 73.04 | 73.76 | 74.84 | 75.59 | 76.93 | 78.20 | 79.20 | 80.62 | 82.60 | 85.86 | 98.12
|
4 | 81.39 | 80.37 | 79.63 | 79.30 | 79.02 | 79.29 | 79.88 | 80.99 | 82.40 | 86.09 | 96.41
|
16 | 108.05 | 103.49 | 99.80 | 96.16 | 93.32 | 90.41 | 87.92 | 86.11 | 84.87 | 87.36 | 95.50
|
64 | 125.78 | 118.32 | 111.85 | 107.31 | 101.99 | 99.50 | 97.80 | 96.88 | 97.21 | 98.67 | 108.58
|
256 | 139.77 | 130.11 | 125.04 | 122.04 | 120.55 | 120.73 | 120.49 | 121.20 | 123.41 | 127.91 | 134.06
|
RAID01
|
1 | 69.40 | 72.81 | 77.36 | 83.22 | 91.62 | 103.17 | 123.91 | 134.16 | 141.27 | 150.57 | 182.52
|
4 | 71.60 | 74.79 | 78.68 | 84.34 | 92.41 | 104.33 | 124.16 | 134.24 | 140.75 | 150.12 | 182.04
|
16 | 89.58 | 92.32 | 95.70 | 100.05 | 106.00 | 114.69 | 131.73 | 136.73 | 142.99 | 152.08 | 180.37
|
64 | 106.20 | 109.08 | 113.31 | 117.85 | 122.09 | 131.07 | 139.20 | 144.24 | 149.46 | 155.70 | 173.17
|
256 | 121.37 | 124.68 | 130.39 | 135.68 | 140.75 | 147.74 | 154.00 | 159.76 | 166.45 | 176.05 | 186.61 |
Для начала, рассмотрим поведение RAID0-массива в зависимости от доли операций на запись при трёх вариантах нагрузки (1,16 и 256 исходящих запросов):
Как видим, преимущества объединения винчестеров в RAID0-массив проявляются только при доле запросов на запись, превышающей 30 процентов, и, по мере увеличения доли поступающих на контроллер запросов на запись, мы всё явственнее наблюдаем преимущество в скорости массивов с большим числом винчестеров!
При увеличении глубины очереди команд мы наблюдаем очень интересное явление: в режиме RandomRead (100% Reads / 0% Writes) чем больше винчестеров образуют массив RAID0, тем ниже скорость его работы! Самую высокую скорость демонстрирует одиночный винчестер, а самую низкую - RAID0 на четырёх винчестерах.
Правда, по мере увеличения доли операций записи, скорости массивов приходят к уже знакомому нам виду (чем больше винчестеров в массиве, тем он быстрее!)
Увеличение глубины очереди команд до 256 запросов сдвигает "границу", где скорость работы RAID0-массивов превышает скорость работы одиночного винчестера, влево на 10 пунктов, а в остальном ситуация повторяет предыдущие два графика.
Ну а теперь посмотрим, как соотносятся скорости RAID0 и RAID1-массивов, созданных на одном и двух каналах контроллера:
Очевидно, что массивы, созданные на двух каналах работают эффективнее, чем массивы, созданные на одном канале. Правда, вызывает интерес поведение массива RAID1-2Ch, который в двух режимах оказался медленнее своего аналога, созданного на одном канале, но это уже вопрос к HighPoint! :)
При увеличении глубины очереди команд до 16-ти, "странности" у массива RAID1-2Ch исчезают, и мы можем уверенно говорить, что массивы, созданные на разных каналах контроллера, быстрее, чем массивы, собранные из винчестеров, подключенных к одному каналу.
Увеличение глубины очереди команд до 256 запросов приводит к появлению ещё одного трудно объяснимого графика. Обратите внимание, что после того, как доля запросов на запись превысила 50 процентов, скорость массива RAID0-1Ch оказалась выше, чем у двухканального!
Массив RAID1-1Ch уступает в скорости своему двухканальному аналогу при малой доле запросов на запись, но, по мере увеличения этой доли, подбирается к нему всё ближе.
Пришло время сравнить массивы на способность работать с последовательными запросами на чтение/запись. В таблицу сведены значения трансфера с массивов при различных размерах запрашиваемого блока данных.
SequentialRead
| JBOD | RAID0 2HDD | RAID0 3HDD | RAID0 4HDD | RAID0-1Ch | RAID1-2Ch | RAID1-1Ch | RAID01
|
---|
0.5 | 8.59 | 8.36 | 8.37 | 8.64 | 8.17 | 8.34 | 8.55 | 8.66
|
1 | 11.44 | 16.59 | 16.10 | 16.77 | 16.15 | 11.59 | 11.59 | 16.58
|
2 | 21.50 | 23.98 | 29.00 | 32.29 | 22.72 | 20.25 | 20.54 | 22.72
|
4 | 38.95 | 30.89 | 34.41 | 41.05 | 26.01 | 39.53 | 39.53 | 26.26
|
8 | 39.09 | 36.17 | 41.97 | 48.10 | 33.93 | 39.59 | 39.60 | 33.86
|
16 | 39.10 | 49.43 | 51.68 | 61.18 | 49.18 | 39.62 | 39.62 | 48.76
|
32 | 39.16 | 53.83 | 54.19 | 62.66 | 52.80 | 39.61 | 39.71 | 53.12
|
64 | 39.21 | 55.64 | 56.60 | 66.19 | 54.74 | 39.75 | 39.70 | 55.23
|
128 | 39.25 | 55.06 | 55.87 | 64.44 | 55.06 | 39.79 | 39.80 | 54.97
|
256 | 39.40 | 55.84 | 56.28 | 63.89 | 53.54 | 39.87 | 39.88 | 53.11
|
512 | 39.38 | 55.20 | 57.33 | 65.88 | 50.87 | 39.88 | 39.90 | 50.78
|
1024 | 39.37 | 57.79 | 56.37 | 65.45 | 51.13 | 39.85 | 39.90 | 52.07
|
Для более наглядного представления полученных результатов были построены следующие диаграммы:
Как видим, скорости чтения с RAID0-массивов с различным количеством винчестеров не так уж сильно отличаются. Скорость чтения с одиночного винчестера составляет 39МБ/сек, но с двух винчестеров, объединённых в RAID0, мы получаем только 55МБ/сек! А где же обещанное удвоение скорости? Что самое обидное, добавление в массив третьего винчестера вообще не приводит к росту скорости! И только четырёх-винчестерный массив переваливает через отметку 60МБ/сек. Что же, налицо явные проблемы с масштабируемостью... Вот только кто виноват - контроллер или винчестеры?
Если мы сравним скоростные характеристики RAID1-массивов и одиночного винчестера, то увидим, что никакого снижения производительности при зеркалировании контроллер RocketRAID не допускает.
Массив RAID01 показывает довольно любопытные результаты. При малом размере запрашиваемого блока данных он опережает по скорости чтения одиночный винчестер и оба варианта RAID1, но потом, при размере запроса 4-8КБ, неожиданно уступает им. При дальнейшем увеличении размера блока данных, массив RAID01 опять выходит вперед и уже не уступает первенства до конца...
Если же мы сравним поведение массивов RAID0, созданных на одном и двух каналах, то увидим, что скорость чтения с этих массивов примерно одинакова, но RAID0-2Ch имеет некоторое преимущество на 4КБ-блоках и при размере блока, превышающем 128КБ.
SequentialWrite
| JBOD | RAID0 2HDD | RAID0 3HDD | RAID0 4HDD | RAID0-1Ch | RAID1-2Ch | RAID1-1Ch | RAID01
|
---|
0.5 | 2.32 | 2.06 | 2.08 | 2.11 | 2.18 | 1.69 | 0.94 | 0.93
|
1 | 4.72 | 4.12 | 4.22 | 4.23 | 4.34 | 3.53 | 2.19 | 2.08
|
2 | 9.38 | 8.34 | 8.40 | 8.37 | 8.80 | 7.26 | 4.72 | 4.43
|
4 | 18.51 | 17.14 | 16.73 | 16.60 | 18.20 | 15.16 | 9.67 | 9.33
|
8 | 35.00 | 34.20 | 34.35 | 33.42 | 35.85 | 27.39 | 18.74 | 19.04
|
16 | 39.29 | 52.92 | 53.94 | 54.86 | 55.18 | 36.59 | 27.29 | 28.33
|
32 | 39.29 | 72.14 | 71.13 | 71.99 | 72.44 | 39.77 | 35.65 | 36.86
|
64 | 39.22 | 79.64 | 85.19 | 86.43 | 78.99 | 39.64 | 39.83 | 43.50
|
128 | 39.29 | 76.16 | 75.85 | 71.74 | 71.26 | 39.77 | 37.91 | 36.17
|
256 | 39.32 | 79.50 | 78.56 | 76.60 | 72.66 | 39.82 | 39.82 | 36.81
|
512 | 39.29 | 79.51 | 81.08 | 79.37 | 72.23 | 39.75 | 39.77 | 36.80
|
1024 | 39.29 | 79.57 | 80.63 | 78.91 | 71.88 | 39.74 | 39.86 | 36.76
|
Как это ни странно, но с записью у контроллера RocketRAID 133 получилось лучше, чем с чтением. Правда, я начинаю думать, что причина такого явления сокрыта где-то внутри firmware винчестеров Maxtor 6L020J1...
Что интересно, в отличие от режима SequentialRead скорость RAID0-массивов с разным числом винчестеров практически не отличается. Уже на двух винчестерах скорость записи достигает уровня 80МБ/сек и в дальнейшем почти не растёт. Отметим также, что максимум производительности на всех массивах приходится на ту точку, где размер блока данных, который мы пишем на массив, совпадает с размером stripe-блока.
Хм... Очень интересная получилась картинка. Отлично видно, что необходимость дублировать данные на оба винчестера массива приводят к дополнительной нагрузке на контроллер и результаты RAID1-массивов при работе с мелкими блоками ниже, чем у одиночного винчестера. Но при достижении блоком данных размера в 64КБ результаты массивов выходят на максимум. График массива RAID01 при малом размере блока повторяет график RAID1-1Ch, но при 64КБ-ном блоке даёт неожиданный всплеск быстродействия. Правда, при дальнейшем увеличении размера блока данных, скорость массива RAID01 падает даже ниже уровня одиночного винчестера.
При сравнении трансфера на RAID0-массивах, построенных на одном и двух каналах, мы видим, что производительность массивов отличается только при размере блока >64КБ.
Выводы
Что же, первые тесты ATA133 RAID-контроллера принесли нам сплошные сюрпризы и загадки. Контроллер HighPoint показал блестящие результаты в тестах WinBench (Business Disk Winmark и High-End Disk Winmark), но вид графиков линейного чтения разочарует всех любителей оцифровывать видео на компьютере... Возможно, причиной такого плохого поведения контроллера являются выбранные для тестов винчестеры (Maxtor D740X-6L), но какие же ещё винчестеры использовать с ATA133 RAID-контроллером?
Чтобы докопаться до истины, я принял решение повторить тестирование RocketRAID на дисках IBM DTLA, моих стандартных дисках для тестирования IDE RAID-контроллеров.
Что касается результатов тестирования в IOMeter, то мы отчётливо видели, что серьёзный прирост быстродействия у массивов наблюдается только в режимах с большой долей операций записи. В паттернах, эмулирующих серверную нагрузку, прирост скорости при использовании любого типа RAID-массива крайне незначителен.
Ахиллесовой пятой двухканальных IDE RAID-контроллеров является работа с массивами, в которых задействованы винчестеры на одном канале, в чём мы не раз имели возможность убедиться в этом обзоре.
Возвращаясь к HighPoint RocketRAID 133, должен сказать, что эти тесты HighPoint RocketRAID 133 можно считать "предварительными", ибо недавно вышедшие драйвера 2.31 одним махом перечеркнули мой двухнедельный труд. Надеюсь, они того стоят... :)