Самые быстрые видеоадаптеры 2004 года

Автор: Vader
Дата: 28.02.2005
Все фото статьи

Вступление


Относительно недавно вступил в свои права 2005 год, поэтому, самое время окинуть взглядом год ушедший, вспомнить основные события, произошедшие в мире трехмерной графики, а также, наконец, выяснить, какой видеоадаптер является самой быстрой, самой технологически продвинутой, самой лучшей графической картой 2004 года.

Год 2004 был весьма насыщен событиями, заслуживающими внимания, поэтому, наше повествование будет достаточно длинным. В течение этого года мы увидели целый ряд новинок, в том числе, и с совершенно новой архитектурой. Производительность видеоадаптеров потребительского класса поднялась на недосягаемую ранее высоту, наконец, появились игры, сказавшие поистине новое слово в реалистичности трехмерного изображения.

Ушедший год также примечателен и тем, что после трёх лет серьезнейшей и жесточайщей борьбы, компания ATI Technologies стала, наконец, лидером всего графического рынка по количеству продаваемых графических чипов. Однако это привело к дальнейшему обострению битвы двух графических гигантов за место под солнцем: помимо сражений на поле настольных и мобильных GPU, ATI и NVIDIA схлестнулись в борьбе за продажи чипсетов для материнских плат.

Но давайте начнем по порядку - с краткого поквартального описания основных событий уходящего года.

Контент правит миром


Несомненно, главным событием года стал даже не беспрецедентный скачок производительности графических карт и, отчасти, микропроцессоров, а появление игр, использующих разработанные в последнии 2-3 года технологии. Графическая и звуковая составляющая игр нового поколения завораживает, а системные требования ошарашивают: по настоящему хорошо флагманские игры прошлого года идут исключительно на графических картах и процессорах, выпущенных в 2004 году. FarCry, Doom III и Half-Life 2 своё дело делают "на отлично" – люди разных возрастов и профессий устремляются в магазины за покупкой нового аппаратного обеспечения.

Считается, что именно появление новых требовательных игр и обусловило нехватку на рынке дорогих графических карт, поскольку, как системные интеграторы, которых ATI обслуживает в первую очередь, так и розничные сети магазинов требовали огромное количество видеокарт высшего класса, чтобы удовлетворить небывалый спрос на эти изделия.

Как бы там ни было, но, уже начиная с первого квартала, красной нитью сквозь 2004 год шло влияние игр на объемы продаж графических карт.

Q1 2004: Затишье перед бурей



ATI продолжает оставаться непобедимой

Начало 2004 года было достаточно спокойным – никаких особенных потрясений на рынке трехмерной графики со времен четвертого квартала 2003 года не произошло, хотя и ATI Technologies и NVIDIA Corporation в спешке заканчивали работы по созданию графических процессоров нового поколения под кодовыми названиями R420 и NV40, соответственно. Об этих чипах ходили самые фантастические слухи, однако, кое-что было известно точно – оба решения должны были получить высокоскоростную память GDDR3 и по 12-16 пиксельных конвейеров. Если речь заходила о тактовых частотах, то назывались цифры вплоть до 500-600 МГц. Впрочем, как мы расскажем чуть позже, далеко не все слухи подтвердились.

В течение всего первого квартала трон короля потребительской трехмерной графики по-прежнему оставался за ATI RADEON 9800 XT. Фактически, у семейства RADEON 9800 не было достойных конкурентов – карты GeForce FX показывали в большинстве случаев гораздо более низкую производительность, особенно, столкнувшись со сложными пиксельными шейдерами в большом количестве. Выпущенный в четвертом квартале 2003 года графический процессор NV38 и видеоадаптер GeForce FX 5950 Ultra на его основе не спас положения – сама архитектура GeForce FX уже была не способна справиться с все возрастающей нагрузкой, налагаемой на видеоадаптер современными играми.

В конце 2003 года NVIDIA представила новую технологию динамической компиляции пиксельных и вершинных шейдеров, которая должна была увеличить производительность ее продуктов. Драйверы ForceWare, пришедшие на смену Detonator и оснащенные таким компилятором, действительно позволили увеличить производительность GeForce FX, однако, это не решило проблемы полностью. Оставалось надеяться лишь на VPU нового поколения, лишенный всех недостатков старой архитектуры.

В среднем классе ситуация была несколько другая – здесь состязались семейства ATI RADEON 9600 и NVIDIA GeForce FX 5700. Последнее несильно уступало первому, если только речь не шла об обработке пиксельных шейдеров, а в области обработки геометрии GeForce FX 5700 Ultra даже превосходил RADEON 9600 XT благодаря наличию трех вершинных процессоров.

В классе бюджетных карт несколько более прочные позиции были у NVIDIA с ее линейкой GeForce FX 5200. Хоть и не слишком производительные, эти карты обладали полнофункциональной поддержкой DirectX 9, в отличие от ATI RADEON 9200, который поддерживал лишь DirectX 8.1.

Амбициозная попытка XGI

XGI, посягнувшая в конце 2003 на high-end рынок, заявила в начале 2004, что в этом году объем поставок графических чипов будет увеличен в 20 раз, с 200 тысяч до 4-5 миллионов единиц продукции. Это было очень смелое заявление со стороны компании, однако, ее попытка отхватить солидный кусок рынка настольной графики полностью провалилась: тестирование старшей модели Volari, оснащенной двумя процессорами XGI Volari V8 показало, что карта практически нежизнеспособна в том виде, в каком она появилась на свет: производительность на уровне RADEON 9600 PRO, проблемы с качеством изображения, и, как выяснится потом, с совместимостью.

S3 Graphics также не оставляет попыток захватить себе кусочек рынка и 3 марта напоминае о себе, представив новый VPU DeltaChrome S8 Nitro. Эта новинка была полностью аналогичной объявленному ранее DeltaChrome S8, однако, работала на более высоких тактовых частотах, и, соответственно, имела чуть более высокий уровень производительности. Впоследвии, впрочем, выяснилось, что на рынок подобные графические карты не попадут.

CeBIT 2004: несбывшиеся надежды

Вопреки ожиданиям, как ATI, так и NVIDIA решили не анонсировать новые VPU на выставке CeBIT Hannover 2004, открывшей свои двери 18 марта. Однако, NVIDIA все же продемонстрировала NV40 избранным партнерам из числа СМИ и производителей. Об ATI R420 нельзя было услышать ровным счетом ничего: ни один из партнёров ATI не смог сказать, что видел новинку в действии.

Впрочем, на выставке был представлен ряд других интересных экспонатов, к примеру, видеоадаптеры, использующие шину PCI Express. Надо отметить, что первые карты такого рода от ATI и NVIDIA не имели никаких архитектурных преимуществ перед моделями с интерфейсом AGP и представляли собой, фактически, всё те же RADEON 9600 и GeForce FX, переименованные в RADEON X600 и GeForce PCX, соответственно. Стоит отметить, что GeForce FX получили поддержку PCI Express с помощью специального чипа NVIDIA HSI, позволяющего использовать старые AGP-совместимые решения на новой платформе. Это, на первый взгляд, неуклюжее решение позднее сильно помогло NVIDIA при обновлении линейки видеоадаптеров среднего класса с интерфейсом AGP.

Что касается самой платформы PCI Express, то на выставке можно было увидеть множество системных плат, оснащенных поддержкой этой шины, а компания ASUSTeK Computer продемонстрировала даже рабочую систему на базе чипсета Intel i925X (Alderwood), не сообщив, впрочем, никаких данных о ее производительности.

В целом, если говорить только о рынке трехмерной графики, первый квартал уходящего, 2004 года, выдался достаточно спокойным и небогатым на события. Все словно замерло в ожидании новых грандиозных анонсов от ATI Technologies и NVIDIA Corporation.

Q2 2004: Налу сражается с Руби


Время томительного ожидания новых графических чипов закончилось в начале второго квартала, наступила очередная эра – эра русалки Nalu и спортивной красотки Ruby, символизирующих собой GeForce 6800 и RADEON X800.

NVIDIA NV40: да здравствует революция?

Весной 2004 года NVIDIA находилась в тяжелом положении – в ее арсенале не было ничего, что можно было бы противопоставить крайне успешной линейке RADEON 9800 от ATI. К тому времени уже давно стало ясно, что GeForce FX на эту роль не годится –неудачная архитектура не позволяла добиться высокой производительности в современных играх, все шире и шире использующих возможности, предоставляемые API DirectX 9, а потому, компании следовало как можно скорее выводить на свет новый продукт, в корне отличавшийся от предшественника.

Подгоняемая неудачами в сегменте дорогих графических карт, NVIDIA первой применила свое "чудо-оружие". 14 апреля 2004 года компания анонсировала выпуск графического процессора нового поколения NV40 и нового семейства видеоадаптеров на его основе. В основу новинки легла передовая архитектура, лишенная ряда недостатков архитектуры предыдущего поколения. NVIDIA решила наделить свое детище как можно большим числом современных технологий и новый VPU получил поддержку Shader Model 3.0, а также обрел возможность выводить на дисплей изображение с расширенным динамическим диапазоном, описанное стандартом OpenEXR, хотя, архитектура GeForce 6 и напоминала GeForce FX по целому ряду признаков. Кроме того, в состав NV40 вошел специальный видеопроцессор, способный кодировать и декодировать видеопотоки в форматах MPEG-4, MPEG-2 и HDTV, разгружая, таким образом, центральный процессор. За такое богатство возможностей NVIDIA пришлось уплатить очень высокую цену – кристалл нового процессора получился чрезвычайно сложным; число составляющих его транзисторов достигло невиданной ранее цифры - более 220 миллионов!

Повышенная сложность чипа привела к тому, что NVIDIA пришлось запускать графический процессор GeForce 6800 Ultra на несколько сниженной частоте по сравнению с предудущими решениями компании. Хотя до выпуска VPU нового поколения на слуху были цифры порядка 500-600 МГц, приемлемого выхода годных кристаллов NVIDIA удалось достичь лишь для частот порядка 350-400 МГц. Изначально, в новое семейство графических адаптеров NVIDIA вошли две видеокарты: GeForce 6800 Ultra и GeForce 6800, затем в семейство влились GeForce 6800 GT и GeForce 6800 LE.


Фактически, выход кристаллов NV40, способных работать на частоте 400 МГц, оказался не слишком велик, и для производства GeForce 6800 GT компания применила те чипы, которые не прошли контроль при работе на этой частоте, но надежно функционировали на пониженной.

Удивительно, но уровень энергопотребления старшей модели остался практически таким же, как и у GeForce FX 5950 Ultra, однако, значительно возросли требования к качеству питания – сказались повышенные требования к линиям +12В. NVIDIA даже порекомендовала использовать совместно c GeForce 6800 Ultra блоки питания мощностью не менее 480 Ватт, поскольку, такие блоки обычно довольно дороги и в них используются качественные компоненты, обеспечивающие высокую стабильность выходных напряжений.

С технологической точки зрения удар оказался очень сильным – GeForce 6800 Ultra в одночасье сместил R360 с трона короля трехмерной графики, показав намного более высокий уровень производительности. Увы, несмотря на очевидный успех новинки, карт на ее базе в продаже не появилось, так что победа NVIDIA оказалась в большой степени бумажной. Дело в том, что IBM, первоначально выбранная NVIDIA в качестве производителя нового графического процессора, оказалась неспособной справиться с задачей в полной мере – доступность GeForce 6800-серии оставляла желать лучшего вплоть до четвертого квартала.

ATI R420: жажда скорости

Наступило 4 мая, и канадская компания ATI Technologies, извечный враг NVIDIA, выкатила из ангара свое "Оружие Возмездия" - графический процессор R420. Как и конкурент, ATI пошла эволюционному, нежели революционному пути, базируя серию R400 на основе архитектуры R300.

Помимо всего прочего, для производства RADEON X800 был использован новый технологический процесс, сочетающий 0.13-мкм нормы и новые диэлектрические материалы, т.н. low-k диэлектрики. В результате, чип получился не только более компактным, но и более высокочастотным, нежели у NVIDIA. Относительная простота – всего 160 миллионов транзисторов и новый техпроцесс позволили достигнуть частот порядка 500 МГц. Любопытно, но первоначально RADEON X800 должен был родиться на свет двенадцатиконвейерным, однако, в определенный момент ATI все же переменила свое решение, и процессор стал шестнадцатиконвейерным, как и NV40.

Что касается новых технологий, то революционных новшеств в R420 внесено не было – все улучшения также носили эволюционный характер. Изменилась организация пиксельных конвейеров; 16 конвейеров были сгруппированы в 4 группы, каждая из которых могла одновременно обрабатывать 4 пикселя, а технология HyperZ была в очередной раз усовершенствована и получила название HyperZ HD. Кроме того, ATI оснастила архитектуру R400 новым алгоритмом сжатия карт нормалей под названием 3Dc.

На базе RADEON X800 было объявлено 2 модели видеоадаптеров, а на горизонте виднелась еще пара; к концу года линейка RADEON X800 разрослась до 9 моделей, делая RADEON X800 самым многочисленным семейством ATI.

Все новые RADEON оснащены одним разъемом питания и стандартным набором разъемов – DVI-I, D-Sub, S-Video. Что касается тепловыделения, то, благодаря усовершенствованному техпроцессу, новый чип ATI оказался в этом плане на редкость неприхотливым и довольствовался скромным кулером даже несколько меньших размеров, нежели тот, что устанавливался на RADEON 9800 XT. Энергопотребление также было ниже, нежели у GeForce 6800 Ultra – даже старшая модель RADEON X800 XT Platinum Edition оснащалась лишь одним разъемом питания.

Эволюционный подход, предпринятый ATI Technologies при создании VPU нового поколения, оправдал себя в полной мере. Как показали наши тесты, новое семейство RADEON X800 оказалось весьма удачным в плане производительности и нередко превосходило по этому параметру семейство GeForce 6800. Надо сказать, что с доступностью карт RADEON X800 дела оказались не в пример лучше, нежели в случае с GeForce 6800 – спустя довольно небольшой промежуток времени эти карты стали появляться в розничной продаже, хотя и по завышенным ценам.

PCI Express: зеленый свет дан

Несомненно, самым значительным событием второго квартала явилось долгожданное начало перехода индустрии на шину PCI Express. 21 июня, компания Intel анонсировала ряд новых процессоров в исполнении LGA775, а также три новых чипсета для них с поддержкой PCI Express - i925X, i915G, i915P.

Новые наборы системной логики Intel были начисто лишены поддержки шины AGP; вместо нее пользователям была предоставлена поддержка PCI Express x16 и x1. Использование PCI Express x16 вместо AGP 8x позволило увеличить пропускную способность магистрали, ведущей от чипсета к видеоадаптеру, с 2.1 ГБ/сек до 8 ГБ/сек (4 ГБ/сек в каждом направлении). Кроме того, новый разъем мог обеспечить питанием карты, потребляющие вплоть до 75 Ватт. Ранее, карты с таким уровнем энергопотребления приходилось оснащать дополнительными разъемами питания.

К сожалению, первоначальные темпы распространения платформы PCI Express оказались невелики – новые чипсеты Intel совместила с процессорным разъемом Socket T, не отличавшимся, кстати, большой механической прочностью, а также с чрезвычайно дорогой и малодоступной памятью DDR2. Как следствие, далеко не все производители компьютеров сразу же взяли новинку на вооружение. Однако, к четвертому кварталу ситуация нормализовалась: порядка 50 процентов новых компьютеров поставляются с PCI Express шиной.

Итак, в отличие от первого квартала, второй оказался очень насыщен самыми разнообразными событиями – в течение трех месяцев мы наблюдали рождение двух архитектур нового поколения, появление видеоадаптеров с интерфейсом PCI Express, а также официальный старт платформ от Intel, открывший новую эру в области потребительской трехмерной графики.

Два подхода к реализации PCI Express в современных видеоадаптерах

Задолго до анонса PCI Express чипсетов, оба графических гиганта – ATI Technologies и NVIDIA Corporation объявили свои новые продукты, предназначенные для платформ нового поколения. Оба разработчика, не мудрствуя лукаво, внедрили поддержку PCI Express в свои уже хорошо известные графические архитектуры, однако, ATI добавила поддержку новой шины на уровне кристалла, тогда как NVIDIA решила воспользоваться специальным чипом-транслятором, преобразующим сигналы AGP в формат PCI Express.

Всячески заостряя внимание на "родной" поддержке PCI Express ее чипами, компания ATI заодно и завоевала практически 100% рынка PCI-Express-совместимой графики, сотрудничая с крупными OEM-производителями, в то время, как стратегия NVIDIA, используемая ею в борьбе за место под солнцем несколько иная – компания, ориентируясь на розничные магазины и любителей модернизации своих ПК, говорит о светлом будущем, в котором ее графические процессоры, оснащенные шиной PCI Express будут прекрасно работать на платформе AGP благодаря мосту HSI.

В итоге, обе компании оказались по-своему правы: сегодня ATI разрабатывает PCI Express->AGP мост, а NVIDIA поставляет VPU с родной поддержкой PCI Express. В то же время, с экономической точки зрения подход ATI был более реалистичным, а огромная доля PCI Express рынка тому подтверждение.

NVIDIA SLI: Luxurious Tech for All?

Линейка GeForce 6800 в варианте для PCI Express получила и еще одно довольно важное нововведение – поддержку технологии Multi-GPU SLI.

Некогда канувшая в лету компания 3dfx обозначала свою графическую технологию, позволявшую двум графическим ускорителям работать в паре как SLI. Спустя несколько лет после поглощения 3dfx, NVIDIA возродила эту торговую марку, однако, внедрив в основу двухчипового графического решения принципиально иную технологию. Теперь у энтузиастов ПК появилась теоретическая возможность установки двух карт GeForce 6800 PCI Express в одну систему с целью увеличения производительности, главное для этого – поддержка материнской платой двух слотов PCI Express x16, а также наличие специальных разъемов у видеокарт.

Несмотря на довольно громкий анонс и обещания начать поставки SLI систем к концу лета – началу осени, первые ПК с двумя видеокартами стало возможным купить в середине ноября, причем за цену в $5000 - $6000. Это, однако, не помешало NVIDIA заявить, что технология SLI вполне может быть задействована и в недорогих ПК, для чего всё необходимое было встроено в GPU GeForce 6600 GT и чипсет nForce4 SLI.

Целый ряд разработчиков наборов системной логики готовится выпустить чипсеты, обеспечивающие поддержку двух разъемов конструктива PCI Express x16 (пусть даже и с уменьшенным количеством линий PCI Express, скажем, до уровня x8), а компания ATI Technologies собирается представить на свет своё видение мультипроцессорных графических решений. Однако, массовые поставки NVIDIA SLI так и не начаты, что автоматически ставит эти графические решения стоимостью в $5000 в исполнении таких компаний, как Alienware и VoodooPC в разряд предметов роскоши.

Обоснована ли надежда на появление общедоступной мультипроцессорной технологии SLI? Нам еще предстоит это узнать в этом году.

Q3 2004: Налу и Руби спускаются на ступеньку ниже


Как обычно, спустя некоторое время после представления новых графических архитектур ATI и NVIDIA и графических процессоров, ориентированный на рынок дорогих видеоплат, разработчики представляют более доступные решения, с возможностями, аналогичными их последним VPU. Этот год не стал исключением: в третьем квартале как ATI, так и NVIDIA представили свои новые графические чипы, ориентированные на mainstream рынок – GeForce 6600 и RADEON X700.

Но несколько ранее...

S3 осваивает бюджетный рынок

Так и не сыскав популярности на рынке производительных решений, 14 июля вновь напомнила о своем существовании компания S3 Graphics, которая, на этот раз, анонсировала бюджетную версию DeltaChrome – DeltaChrome S4 Pro.

В отличие от XGI, компания не вынашивает амбициозных планов, а позиционирует свою продукцию для особой категории пользователей. Линейка DeltaChrome предназначена, главным образом, для тех, кто желает использовать свой ПК в качестве мультимедийного домашнего центра с поддержкой HDTV. И действительно, DeltaChrome S4 Pro графический процессор неплохо подходит для таких систем – он экономичен, обладает достаточно высоким быстродействием в 3D, поддерживает пиксельные и вершинные шейдеры версии 2.0, умеет выводить видео в формате HDTV, а также ускорять его декодирование и налагать спецэффекты в реальном времени при помощи S3 Chromotion Engine.

Как показали наши тесты, использование Chromotion действительно приводит к уменьшению загрузки центрального процессора при декодировании видеопотоков в форматах MPEG-2 и MPEG-4, однако, при проигрывании HDTV, загрузка оказалась примерно такой же, как и у остальных карт – вероятно, сказалось отсутствие программной поддержки со стороны проигрывателя. Видеоадаптер S3 DeltaChrome S4 Pro получился, в целом, достаточно удачным, особенно, если сравнивать его с RADEON 9600 SE и GeForce FX 5200 Ultra, против которых он и позиционируется компанией-разработчиком.

NVIDIA GeForce 6600 GT: Мечта любителя Doom

Первой на зов рынка по новым технологиям по приемлемым ценам отреагировала NVIDIA, представив а середине августа свой GeForce 6600 GT и раскрыв о нём все подробности в первой половине сентября.

Новинка, фактически, представляла собой половинку от GeForce 6800 Ultra – в ней было в два раза меньше пиксельных и вершинных процессоров; шина памяти также была урезана вдвое. Таким образом, чип нес в себе 8 пиксельных процессоров, 3 вершинных и общался с памятью по 128-битной шине и обладал всеми технологиями, присущими GeForce 6800.

Ядро GeForce 6600 состояло из 143 миллионов транзисторов, что, в сочетании с новым для NVIDIA 0.11-мкм техпроцессом, однако, это позволило добиться тактовых частот порядка 500 МГц. При этом уровень энергопотребления и тепловыделения остался сравнительно небольшим, что избавило компанию от необходимости применения сложной системы охлаждения. Ввиду того, что PCI Express может питать видеоадаптеры с потребляемой мощностью порядка 75 Ватт, дополнительный разъем питания также был убран. Помимо этого, впервые продукт NVIDIA получил полноценную поддержку PCI Express, то есть, NV43 обладал встроенным контроллером этой шины и не требовал никаких внешних переходных мостов.


На базе нового VPU NVIDIA анонсировала два видеоадаптера – GeForce 6600 GT, работающий на частотах 500/1000 МГц по цене $199, и более дешевую его версию – GeForce 6600, причем, в последнем случае, дизайн PCB, объем видеопамяти и её частота, а также цена, были отданы на откуп партнерам компании, производящим карты. Как и GeForce 6800-series для PCI Express, GeForce 6600 GT поддерживал работу в режиме SLI, тогда, как его младший собрат таковой возможности был лишен.

GeForce 6600 GT получился очень удачным – карта имела простой дизайн PCB, и оснащалась компактным кулером, а игровые тесты показали, что, в ряде случаев, она превосходит по производительности RADEON 9800 XT, за исключением режима FSAA 4x + anisotropic filtering 16x в разрешении 1600х1200, где начинало чувствоваться ограничивающее влияние 128-битной шины памяти. Кроме этого, видеопроцессор, активно рекламируемый NVIDIA с момента анонса GeForce 6800 Ultra, в GeForce 6600 GT наконец-то был доведен до ума и заработал в полную силу, легко справляясь даже с декодированием видеопотока в формате HDTV.

Благодаря наличию технологии UltraShadow II, доставшейся в наследство от старшего собрата, GeForce 6800, NVIDIA GeForce 6600 GT рекламировался компанией как лучшее решение для вышедшей к тому моменту популярной игре Doom III.

ATI RADEON X700 XT – лучший выбор для Half-Life 2?

Итак, NVIDIA решила проблему отсутствия в своем арсенале массового видеоадаптера с новой архитектурой и интерфейсом PCI Express, опередив своего главного конкурента. Оставалось ждать, что же скажет в ответ ATI Technologies.

21 сентября, ответ, наконец, последовал – канадская компания анонсировала графический процессор RADEON X700, который должен был стать конкурентом GeForce 6600 в секторе массовых карт с интерфейсом PCI Express и заполнить нишу между семействами RADEON X800 и RADEON X600. В отличие от NVIDIA, ATI, создавая X700, пошла по несколько иному пути, нежели NVIDIA – хотя количество пиксельных процессоров и шина памяти была урезаны в два раза, по сравнению с RADEON X800, число вершинных процессоров осталось прежним, а вместо них, судя по тестам, пострадали текстурные кэши.

Чип, созданный с использованием 0.11-мкм техпроцесса, получился довольно простым – всего 110 миллионов транзисторов, против 143 миллионов у NV43. Это совершенно естественно, ведь X700 не обладал поддержкой Shader Model 3.0, 32-битным FP пиксельными процессорами и рядом других технологий, свойственных продуктам нового поколения от NVIDIA, но зато в полной мере реализовывал все фирменные технологии ATI: 3Dc, SMOOTHVISION HD, SmartShader HD, VideoShader HD, HyperZ HD и другие.

На базе X700 было анонсировано сразу три видеоадаптера: RADEON X700 XT, RADEON X700 PRO и RADEON X700 со следующими основными характеристиками:


Любопытно, что RADEON X700 XT и RADEON X700 PRO имели одинаковую рекомендуемую цену и отличались только объемом и частотой видеопамяти. У будущих покупателей, таким образом, имелся выбор – приобрести карту с меньшими частотами, но большим объемом видеопамяти, или же пожертвовать объемом в пользу высоких тактовых частот.

Как и GeForce 6600 GT, RADEON X700 XT/PRO получился чрезвычайно компактным, хотя PCB у новинок была более сложной. Кулер, на первый взгляд, достаточно простой и эффективный, на практике, к сожалению, оказался ужасно шумным, а сам графический процессор – чрезвучайшно горячим.

Игровые тесты показали, что карта отлично справляется с задачей, демонстрируя производительность примерно на уровне GeForce 6600 GT и превосходя RADEON 9800 XT в большинстве современных игр, благодаря новой архитектуре. Были отмечены некоторые проблемы с драйверами, а также недостаточно высокая скорость текстурирования у X700; последнее, вероятнее всего, является следствием урезания текстурных кэшей.

Логично, что вслед за кампанией NVIDIA по Doom III, ATI начала маркировать свои платы как "Preferred for Half-Life 2". Однако, последующее отсутствие модели X700 XT на рынке поставило вопрос после данного маркетингового заявления.

Таким образом, и ATI Technologies, вслед за NVIDIA, обзавелась достойным графическим процессором, пригодным для создания массовых видеоадаптеров с интерфейсом PCI Express.

4 квартал: хорошие вещи становятся лучше



Планы XGI

Компания, чья первая попытка выйти на рынок настольной трехмерной графики завершилась провалом, судя по всему, решила предпринять вторую.

20 октября XGI сделала довольно смелое заявление о том, что в начале следующего года, мы увидим ряд новых VPU от этого разработчика. Более того, вторая попытка XGI, судя по всему, будет еще более смелой, нежели первая – процессоры XG45/47, если верить заявлению, будут поддерживать Shader Model 3.0! Кроме того, компания откажется от принесшей ей неудачу мультичиповой технологии, а заодно планирует всерьез поддерживать разработчиков игр.

Что ж, возможно, вторая попытка XGI окажется более удачной, нежели первая, а пока она поставляет на рынок чип Volari Z7, анонсированный 12 октября. Он не поддерживает функций трехмерной графики и предназначен для тех областей, где поддержка 3D не является необходимой.

GeForce 6600 GT AGP: легким движением руки

Примерно в это же время, в середине ноября, произошло еще одно интересное событие – NVIDIA анонсировала AGP-вариант GeForce 6600 GT.

К тому моменту образовалась ситуация, когда у компании было нечего предложить покупателям с бюджетом порядка $200: а карты GeForce FX обладали чрезвычайно низкой производительностью в современных играх, и их покупка была совершенно бесперспективной. Именно здесь NVIDIA помог опыт создания первых карт с интерфейсом PCI Express: мост HSI, критикуемый ATI, устанавливаемый на таких картах, способен работать в обоих направлениях, то есть, для получения карты AGP из продукта, изначально оснащенного поддержкой PCI Express, достаточно воспользоваться этой же микросхемой. Это и было реализовано в GeForce 6600 GT AGP – компания переработала печатную плату оригинального продукта таким образом, что графический процессор и чипы памяти оказались повернутыми на 45 градусов, и разместила рядом с VPU переходной мост.

При создании новинки, правда, пришлось пожертвовать частотой памяти и снизить ее с 1000 до 900 МГц, предположительно, чтобы избежать проблем со стабильностью. Также, в AGP варианте, карта обзавелась стандартным разъемом питания типа Molex.
Таким образом, путем незначительных затрат NVIDIA удалось пополнить свой арсенал видеоадаптером среднего класса с архитектурой нового поколения.

Начиная с этого момента, фактически, можно говорить об окончательной смерти архитектуры GeForce FX: GeForce 6600 GT AGP показывает в современных играх куда большую скорость, чем наивысшее достижение NVIDIA года предыдущего – GeForce FX 5950 Ultra.

RADEON X850: X800 с турбонаддувом

Одним из последних событий четвертого квартала является анонс нового графического процессора RADEON X850 (R480) компанией ATI Technologies. Новинка является ничем иным, как усовершенствованной версией RADEON X800, способной работать на более высоких тактовых частотах. В то же время, в Сети появилась информация о том, что NVIDIA решила не выпускать симметричный ответ на RADEON X850 в лице чипа NV48, полагаясь, видимо, на мощь технологии SLI.

Ничего действительно нового VPU ATI RADEON X850, за исключением минорных улучшений не принёс: лидерство RADEON X800 XT Platinum Edition в высоких разрешениях с активированным полноэкранным сглаживанием было неоспоримо, а увеливенная на несколько процентов скорость модели X850 XT Platinum Edition против флагмана диспозицию компаний не изменило.

Новый техпроцесс ATI проникает в сектор производительных решений

Появление RADEON X850 сдвинуло RADEON X800 на ступеньку ниже, как это уже не раз случалось с продукцией ATI Technologies. Единая некогда линейка продуктов, использующих один и тот же графический процессор, разделилась на две, поскольку, одновременно с анонсом RADEON X850, компания объявила и об изменениях в линейке RADEON X800.

Теперь в этих картах этой серии будет использоваться новый графический процессор R430, выполненный с использованием 0.11-мкм техпроцесса. Как видите, его внедрение, начавшись с бюджетных решений в лице RADEON X300, постепенно добралось и до RADEON X800.

Стоит отметить, что ATI решила потеснить свой RADEON X700 XT другим графическим чипом: RADEON X800, работающим на куда меньшей тактовой частоте, но демонстрирующий подчас более высокую производительность в популярных играх и бенчмарках.

Любой покупатель с бюджетом от $200, как видите, в самом ближайшем будущем сможет легко приобрести себе карту на базе RADEON X800, обладающую достаточной производительностью для игры в самые современные игры. Мы также надеемся, что 2005 год будет не менее насыщен событиями, нежели ушедший 2004.

В следующей части нашего итогового обзора вы узнаете о конфигурации наших тестовых платформ, методах тестирования, а также ознакомитесь с полученными результатами.

Конфигурация тестовых платформ и методы тестирования


После краткого обзора графического рынка за 2004 год пора перейти от слов к делу, а именно – к тестированию и его результатам.

В процессе тестирования мы использовали три тестовые платформы: две – с AGP 8x и dual-PCI Express – на базе AMD Athlon 64 FX-53, одна на базе процессора Intel Pentium 4 560 с шиной PCI Express x16. Несколько нетрадиционный выбор платформы обусловлен огромным количеством протестированных графических карт и довольно поздней доступностью полнофункциональной платформы NVIDIA nForce4 SLI.

По причине некоторой "сыроватости" платформы NVIDIA nForce4, материнская плата на базе nForce4 SLI использовалсь только для тестирования графических карт в режиме Multi-GPU. Как следствие, сравнивать результаты платформы SLI логичнее с картами AGP, чьи результаты также сняты на системе с процессором AMD Athlon 64 FX-53.

Конфигурация систем была следующей:

Платформа AGP:

Процессор AMD Athlon 64 4000+ (2.40ГГц, 1МБ кэша L2);
Системная плата ABIT KV8 Pro;
Память OCZ PC-3200 Platinum EB DDR SDRAM (2x512МБ, CL2.5-3-2-8);
Жесткий диск Samsung SpinPoint SP1213C (Serial ATA-150, буфер 8МБ);
Звуковая карта Creative SoundBlaster Audigy 2.

Платформа PCI Express:

Процессор Intel Pentium 4 560 (Socket 775, 3.60ГГц, 1MB кэша L2);
Системная плата Intel Desktop Board D925XCV;
Память DDR2 PC2-4300 (533МГц) SDRAM (Micron Technology, 2x512МБ);
Жесткий диск Samsung SpinPoint SP1213C (Serial ATA-150, буфер 8МБ);
Звуковая карта Creative SoundBlaster Audigy 2.

Платформа NVIDIA SLI:

Процессор AMD Athlon 64 4000+ (2.40ГГц, 1МБ кэша L2);
Системная плата ASUS A8N-SLI Deluxe;
Память OCZ PC-3200 Platinum EB DDR SDRAM (2x512МБ, CL2.5-3-2-8);
Жесткий диск Samsung SpinPoint SP1213C (Serial ATA-150, буфер 8МБ);
Звуковая карта Creative SoundBlaster Audigy 2.

Программное обеспечение:

Microsoft Windows XP Pro SP2, DirectX 9.0c;
ATI CATALYST 4.12, ATI CATALYST 4.12 beta;
NVIDIA ForceWare 66.93.

Видеоадаптеры AGP:

NVIDIA GeForce 6800 Ultra 256MB (400MHz/1100MHz);
NVIDIA GeForce 6800 GT 256MB (350/1000MHz);
NVIDIA GeForce 6800 128MB (325/700MHz);
NVIDIA GeForce 6600 GT AGP 128MB (500/900MHz);
NVIDIA GeForce FX 5950 Ultra 256MB (475/950MHz);
NVIDIA GeForce FX 5900 128MB (400/850MHz);
NVIDIA GeForce FX 5900 XT 256MB (400/700MHz);
NVIDIA GeForce FX 5700 Ultra 128MB (475/900MHz);
ATI RADEON X800 XT Platinum Edition 256MB (520/1120MHz);
ATI RADEON X800 XT 256MB (500/1000 MHz);
ATI RADEON X800 PRO 256MB (475/900MHz);
ATI RADEON 9800 XT 256MB (412/730MHz);
ATI RADEON 9800 PRO 128MB (380/680MHz);
ATI RADEON 9500 PRO 128MB (275/550MHz).

Видеоадаптеры PCI Express

NVIDIA GeForce 6800 Ultra SLI (425/1100MHz);
NVIDIA GeForce 6600 GT SLI (500/1000MHz);
NVIDIA GeForce 6800 GT 256MB (350/1000MHz);
NVIDIA GeForce 6600 GT 128MB (500/1000MHz);
NVIDIA GeForce 6600 128MB (300/500MHz);
NVIDIA GeForce PCX 5750 128MB (425/500MHz);
ATI RADEON X850 XT Platinum Edition 256MB (540/1180MHz);
ATI RADEON X800 XT 256MB (500/1000MHz);
ATI RADEON X800 XL 256MB (400/1000MHz);
ATI RADEON X700 XT 256MB (475/1000MHz);
ATI RADEON X700 PRO 256MB (420/864MHz);
ATI RADEON X600 XT 128MB (500/730MHz);
ATI RADEON X300 SE 128MB (325/400MHz).

Оптимизации ForceWare были включены, за исключением опции Anisotropic mip filter optimization. При этом использовался режим Quality. В случае с ATI CATALYST, опция CATALYST A.I. была установлена в положение Standard, а опция Mipmap Detail Level – в положение Quality. Опция VSync была принудительно отключена в обоих случаях. Если игра позволяла выставлять степени FSAA и анизотропной фильтрации, то мы использовали эти возможности, в противном случае, нужный режим форсировался из драйверов. Во всёх случаях использовались только настройки, доступные любому рядовому пользователю; мы не вносили никаких изменений в конфигурационные файлы игр, хотя в ряде случаев, это и было возможно, однако, поскольку вряд ли обычный пользователь занимается редактированием разных .cfg или .ini, нами данная возможность также не использовалась. Настройки качества графики в каждой игре были установлены на максимально возможный уровень, одинаковый для решений от ATI и NVIDIA.

Для платформы SLI использовался режим Multi-GPU Rendering, при котором SLI задействуется принудительно даже для тех игр, для которых этот режим не поддерживается драйверами ForceWare. Это позволило нам выяснить, насколько эффективно работает технология NVIDIA в таких случаях, и работает ли вообще. К сожалению, текущая версия BIOS для A8N-SLI Deluxe далека от совершенства – система не работает с картами от ATI Technologies, а также время от времени зависает в ряде игр. Мы надеемся, что это временное явление, которое будет исправлено в последующих версиях BIOS для данной системной платы или в новых ее ревизиях.

В список игр и тестов, использованных нами в процессе написания данного обзора, вошли следующие продукты:

Трехмерные шутеры с видом от первого лица (FPS):

Call of Duty: United Offensive;
Doom III;
Unreal Tournament 2004;
Halo: Combat Evolved;
Far Cry;
Painkiller;
Half-Life 2;
Counter-Strike: Source;
Shadow Ops: Red Mercury


Трехмерные шутеры с видом от третьего лица (TPS):

Splinter Cell: Pandora Tomorrow;
Prince of Persia: Sands of Time;
Max Payne 2: The Fall of Max Payne;
Hitman: Contracts;
Thief: Deadly Shadows;
Deus Ex: Invisible War;
Manhunt;
Vampires the Masquerade: Bloodlines


Симуляторы:

Il-2 Shturmovik: Aces in the Sky;
Lock On: Modern Air Combat;
Microsoft Flight Simulator 2004;
Colin McRae Rally 04


Стратегические игры:

Command & Conquer Generals: Zero Hour;
Warhammer 40.000: Dawn of War;
Perimeter;
Rome: Total War


Полусинтетические тесты:

Final Fantasy XI Official Benchmark 3;
AquaMark3


Синтетические тесты:

Futuremark 3DMark 03 Build 3.5.0;
Futuremark 3DMark 05 Build 1.1.0

Игровые тесты: Call of Duty: United Offensive


Новая версия Call of Duty обладает значительно более качественной графикой, нежели старая; особенно впечатляюще смотрятся взрывы. Неплохо также реализована и водная поверхность, хотя по качеству и достоверности она, конечно, уступает своим аналогам из Half-Life 2 и Far Cry. В связи с тем, что данный онлайновый шутер является одним из самых популярных, мы включили его в наше тестирование.






В общем и целом, до тех пор, пока не включены полноэкранное сглаживание и анизотпропная фильтрация, для игры в Call of Duty: United Offensive будет достаточно фактически любого современного графического ускорителя.

Игра предпочитает карты NVIDIA нового поколения, что прекрасно видно на диаграммах, особенно, если говорить о картах высшего класса. В это же время, карты RADEON X800 упираются в низких разрешениях в некий странный барьер, явно не имеющий отношения к скорости центрального процессора. В чем причина такого поведения RADEON, мы сказать пока не в состоянии, возможно, как это часто бывает, проблема кроется в драйверах.

В классе pefromance-mainstream лидерство захватывает GeForce 6600 GT, но его превосходство над RADEON 9800 XT невелико и результаты карт выравниваются с ростом разрешения. Все-таки, несмотря на новую архитектуру, карта имеет лишь 128-битную шину памяти, да и драйвера для RADEON 9800 за чуть менее двух лет существования данного VPU были оптимизированы под всевозможные игры и приложения.

Что касается карт с интерфейсом PCI Express, то они ведут себя так же, как их собратья с интерфейсом AGP, однако, в разрешении 1600х1200 GeForce 6800 GT немного уступает RADEON X850 XT Platinum Edition.

Очевидно, что карты NVIDIA демонстрируют в Call of Duty: United Offensive наиболее высокий уровень производительности, нежели изделия ATI Technologies. Во всяком случае, это справедливо для режима так называемой чистой производительности.






При включении FSAA и анизотропной фильтрации карты NVIDIA по-прежнему остаются на высоте, однако, лишь в первых двух разрешениях. В самом же высоком разрешении, 1600х1200, GeForce 6800 Ultra начинает уступать RADEON X800 XT Platinum Edition.

В среднем класса наблюдается похожая картина – GeForce 6600 GT уверенно лидирует лишь в разрешении 1024х768; в более высоких разрешениях ей начинает сильно мешать узкая шина памяти, и производительность данной карты падает до уровня GeForce FX 5950 Ultra.

Если говорить о картах с разъемом PCI Express, то здесь наиболее мощные изделия ATI изначально чувствуют себя куда увереннее, правда, в качестве соперника им противостоит лишь GeForce 6800 GT. В паре GeForce 6600 GT – RADEON X700 XT наблюдается паритет, хотя последний выглядит несколько увереннее в 1600х1200 по той причине, что последняя архитектура ATI чуть лучше приспособлена к работе в режимах с включенным сглаживанием и анизотропной фильтрацией.

Что касается платформы SLI, то, несмотря на включенный режим Multi-GPU Rendering, в данной игре она работает некорректно: наблюдается либо чрезвучайно малый, либо отрицательный прирост производительности. Впрочем к качеству изображения при этом претензий у нас не возникло, за исключением того, что на экране отсутствовал индикатор Load Balancing.

Игровые тесты: Doom III


В силу особенностей нового движка от Id Software, Doom III предпочитает видеоадаптеры с архитектурой NVIDIA GeForce FX/GeForce 6, которая более эффективна в случае работы с Z-буфером и тенями. Кроме того, Doom III использует OpenGL, а драйверы NVIDIA имеют лучшую поддержку этого API, нежели драйверы ATI Technologies.






Превосходство GeForce 6 очень ярко видно на приведенных диаграммах – преимущество карт NVIDIA над картами ATI RADEON весьма значительно во всех разрешениях, хотя, сказать, что ATI RADEON показывает невысокую скорость для комфортной игры также нельзя. В случае с картами PCI Express это выражено не так ярко, но все же относительно скромный NVIDIA GeForce 6800 GT опережает RADEON X850 XT PE. Среди видеоадаптеров среднего класса господствует GeForce 6600 GT в обоих своих инкарнациях – как в варианте AGP, так и оснащенный разъемом PCI Express.






Преимущество карт NVIDIA сохраняется и при включении режима eye candy, правда, в этом случае, оно значительно меньше, благодаря приспособленности карт ATI к работе в режимах с полноэкранным сглаживанием и анизотропной фильтрации. Это относится как к высшему, так и к среднему классу; в последнем случае вновь на коне GeForce 6600 GT.

RADEON X850 XT Platinum Edition демонстрирует такой же уровень производительности, как и GeForce 6800 GT, но хорошим результатом это назвать нельзя, так как эти карты относятся к разным весовым категориям - официальная стоимость GeForce 6800 GT составляет $399 против $549 у изделия ATI.

Платформа SLI на этот раз продемонстрировала, на что способна эта технология при наличии корректной поддержки той или иной игры. Связка из двух GeForce 6600 GT легко достигла уровня GeForce 6800 GT, а система с двумя GeForce 6800 Ultra и вовсе продемонстрировала непревзойденный результат, особенно, в высоких разрешениях, а также в режиме eye candy.






На уровне d3dm4 наблюдается картина, аналогичная той, которую мы видели на уровне Hellhole, однако, поскольку, монстры здесь отсутствуют, общий уровень производительности выше. Преимущество карт NVIDIA GeForce ясно видно и на этом уровне Doom III.






Все, что было сказано про результаты, полученные на уровне Hellhole в режиме eye candy, можно сказать и про аналогичный режим на уровне d3dm4. В целом, для игры в Doom III лучше приобретать карты NVIDIA GeForce 6, либо ждать появления нового драйвера OpenGL от ATI Technologies.

Поскольку, данный уровень менее процессорозависимый, нежели Hellhole, то преимущества технологии NVIDIA SLI проявились на нем гораздо ярче. Особенно это относится к связке, состоящей из двух карт GeForce 6800 Ultra, которая в иных случаях превзошла по производительности GeForce 6800 GT более, чем в два раза.

Игровые тесты: Unreal Tournament 2004


Unreal Tournament 2004 не является чем-то сложным для современных видеоадаптеров, и больше зависит от скорости центрального процессора системы, что прекрасно видно на приведенных диаграммах – все карты, кроме самых недорогих, демонстрируют практически одинаковый результат. По какой-то причине, однако, порог, установленный ЦП, выше для карт ATI, и они демонстрируют производительность на уровне 95-98 fps, тогда, как все GeForce 6800 застревают на отметке 83 fps. Несмотря на все усилия, нам не удалось выяснить причину этого; скорее всего, она заключается в каких-то особенностях драйверов CATALYST и ForceWare.












В режимe eye candy разница между различными видеоадаптерами видна лучше, во всяком случае, начиная с разрешения 1280х1024 – в нем сдают свои позиции GeForce 6800 и RADEON X700 PRO. Не достигает барьера также GeForce 6600 GT – сказывается 128-битная шина памяти.






Сцена, записанная на уровне Metallurgy, не столь сложна: здесь, в основном, присутствуют бои в закрытых помещениях, или на небольших открытых пространствах. Диктат центрального процессора здесь не столь силен, как в случае с уровнем Torlan, поэтому, различия между производительными картами класса mainstream выявляются уже в режиме чистой производительности, в разрешении 1280х1024 и выше.

GeForce 6600 GT AGP в начале несколько уступает RADEON 9800 XT – его архитектурные преимущества здесь не востребованы, а продукт ATI обладает вдвое более широкой шиной памяти. Разница составляет порядка 12-18%, но в разрешении 1600х1200 GeForce 6600 GT AGP неожиданно сравнивает счет и даже немного выдвигается вперед, правда, всего лишь на 2 fps. Что касается карт этого же класса с интерфейсом PCI Express, то GeForce 6600 GT незначительно уступает RADEON X700 XT в первых двух разрешениях, и столь же незначительно превосходит его в разрешении 1600х1200.






При включении FSAA и анизотропной фильтрации карты высшего класса от ATI показывают, в целом, более высокий уровень производительности, нежели аналогичные им по классу решения от NVIDIA, причем, это заметно уже в разрешении 1280х1024. Среди восьмиконвейерных решений преимущество ATI также налицо, особенно, если говорить о паре RADEON X700 XT – GeForce 6600 GT, причем, чем выше разрешение – тем выше разрыв в производительности в пользу первого.

Технология SLI в текущей ее реализации в Unreal Tournament 2004 работает некорректно – игра часто зависает как в процессе тестирования, так и при выходе из нее. Кроме того, прироста производительности от использования SLI в ней практически нет, так как данный шутер сильно зависит от производительности центрального процессора.

Игровые тесты: Halo: Combat Evolved


Эта игра является портом с игровой консоли Micosoft Xbox, так что она не слишком богата текстурами. Основную нагрузку на VPU здесь создает огромное количество пиксельных шейдеров, правда, версии 1.1, использующихся для создания спецэффектов.

Из-за того, что в игре используются специфические методы рендеринга, FSAA не поддерживается.






Со скоростью исполнения пиксельных шейдеров у современных карт все в порядке, и здесь мы наблюдаем примерный паритет между решениями высшего класса от ATI и NVIDIA. В среднем классе, что неудивительно, первенство легко захватывает GeForce 6600 GT, поскольку, это единственный видеоадаптер класса performance-mainstream с интерфейсом AGP, обладающий архитектурой нового поколения. Его превосходство над RADEON 9800 XT составляет порядка 10 fps, что при общих показателях на уровне 60 fps, достаточно много.

Среди видеоадаптеров с разъемом PCI Express определился новый лидер – это, конечно же, ATI RADEON X850 XT Platinum Edition. Платформа SLI прошла этот тест без проблем, показав отличный уровень производительности. Связке из двух GeForce 6800 Ultra без особых проблем удалось обойти RADEON X850 XT Platinum Edition, а двум GeForce 6600 GT - показать производительность на уровне GeForce 6800 GT.

Игровые тесты: Far Cry


Far Cry – одна из тех игр нового поколения, которые способны загрузить любой имеющийся на сегодняшний день графический процессор полностью, так как в игре наличествует и масса сложнейших пиксельных шейдеров, и непростая геометрия, и красивые текстуры высокого разрешения.






Практически все карты, кроме тех, что используют архитектуру GeForce FX и решений, относящихся к нижнему краю сектора mainstream, демонстрируют неплохую производительность в одном из самых красивых трехмерных шутеров с видом от первого лица.

Видеоадаптеры высшего класса в сцене Pier явно упираются в потолок, установленный центральным процессором системы. Любопытная ситуация складывается с показателями минимальной производительности – при одинаковых средних fps, минимальные выше у карт NVIDIA GeForce 6800, если сравнивать с RADEON X800. Однако, если взглянуть на производительность GeForce 6 в режиме SLI, то станет заметно, что и в его случае, уровень минимальной производительности снизился.






В режиме eye candy разница между различными картами видна значительно лучше, и здесь лидерство прочно захватывают представители семейства ATI RADEON X800, причем, их преимущество над семейством GeForce 6800 увеличивается с ростом разрешения. Впрочем, последнее также показывает себя неплохо. В среднем классе RADEON 9800 XT успешно соперничает с более совершенным архитектурно GeForce 6600 GT AGP. Вариант GeForce 6600 GT с интерфейсом PCI Express незначительно опережает семейство RADEON X700.

Несмотря на то, что Far Cry является одной из самых популярных и высокотехнологичных игр, текущие драйверы NVIDIA, по всей видимости, не обеспечивают полностью корректной работы SLI в ней. Во всяком случае, в режиме чистой производительности скорость работы двух GeForce 6800 Ultra оказалась ниже скорости одиночной GeForce 6800 GT, причем, во всех разрешениях. В режиме eye candy от использования SLI наблюдается некоторый прирост производительности, но он не слишком значителен – порядка 6-11 fps.

Сцена, записанная нами на уровне Research менее процессорозависима, однако, она довольно сложна с точки зрения геометрии, а также в ней присутствует множество источников освещения, рассчитываемых попиксельно, что делает ее хорошим инструментом для тестирования производительности современных карт.






Как GeForce 6800, так и RADEON X800 используют наиболее оптимальные пути рендеринга, задействуя режимы Shader Model 3.0 и 2.0b, соответственно, однако, победа достается все же детищам ATI, которые примерно на 10% опережают соответствующие им GeForce 6800. Обратите внимание – в разрешении 1600х1200 важную роль начинает играть количество пиксельных процессоров, и 12-конвейерные решения справляются со сценой значительно хуже, нежели их 16-конвейерные собратья.

В среднем классе победа GeForce 6600 GT AGP также легко объяснима тем, что он умеет работать с длинными пиксельными шейдерами в режиме Shader Model 3.0, тогда как RADEON 9800 XT такой возможности лишен.

Среди карт с разъемом PCI Express x16 несомненным победителем является RADEON X850 XT Platinum Edition; очень неплохо себя чувствует и новинка на базе R430, RADEON X800 XL, которая весьма успешно соперничает с GeForce 6800 GT.






При прогоне этой же сцены в режиме eye candy (FSAA 4x + AF 16x) 12-конвейерные версии RADEON X800 и GeForce 6800 сдают еще больше, так как нагрузка на пиксельные процессоры очень велика. В целом же, ситуация для NVIDIA более благоприятна – GeForce 6800 Ultra успешно конкурирует с RADEON X800 XT, хотя RADEON X800 XT Platinum Edition все же остается вне досягаемости. GeForce 6600 GT AGP по-прежнему демонстрирует преимущества новой архитектуры, примерно на 10% опережая RADEON 9800 XT; его вариант для PCI Express более агрессивен – в низких разрешениях его преимущество над RADEON X700 XT может достигать 20%, хотя с ростом разрешения ситуация выравнивается.

На этом уровне платформа SLI ведет себя более корректно, но ни о каких 60-80% прироста производительности говорить не приходится – в лучшем случае, прирост составляет около 20%. Обратите внимание на минимальные значения fps – в случае с SLI они нередко ниже, чем при использовании одиночной карты, что также говорит о том, что технология NVIDIA пока еще некорректно работает с Far Cry. Также, как и в случае с Unreal Tournament 2004, на платформе SLI игра иногда зависала.

Игровые тесты: Painkiller








Painkiller – игра весьма нетребовательная, поэтому, все карты демонстрируют в ней отличные результаты. В данном случае, трудно сказать, кто является однозначным победителем – производительность высокопроизводительных решений от ATI и NVIDIA примерно одинакова. В среднем классе, однако, царствует решение нового поколения от NVIDIA – GeForce 6600 GT AGP. Его собрат с интерфейсом PCI Express довольно значительно опережает RADEON X700 XT, производительность которого сдерживается урезанными текстурными кэшами.






С включением FSAA и анизотропной фильтрации некоторое преимущество начинают получать решения от ATI Technologies, причем, с ростом разрешения это преимущество растет. В среднем классе по-прежнему господствует GeForce 6600 GT AGP, но лишь в низких разрешениях; в высоких ему мешает 128-битная шина памяти. Это же относится и к варианту с интерфейсом PCI Express, который значительно опережает RADEON X700 XT в разрешении 1024х768, но в более высоких разрешениях его преимущество быстро теряется.

Игра некорректно работает с платформой SLI – хотя никаких артефактов изображения мы не наблюдали, прирост производительности оказался практически нулевым. Таким образом, технология NVIDIA SLI чем-то напоминает мультипроцессорные системы, где прирост производительности зависит от степени оптимизации приложения. В случае с поддерживаемой драйверами NVIDIA игрой выигрыш в производительности от использования SLI может быть огромен, тогда как при отсутствии соответствующих оптимизаций, вы, скорее всего, не получите его вообще.

Игровые тесты: Half-Life 2


Half-Life 2 – игра нового поколения, предъявляющая высокие требования как к видеосистеме, так и к центральному процессору. Мы использовали для тестирования две сцены, одна из которых богата пиксельными шейдерами и не слишком сильно нагружает ЦП, а другая, напротив, достаточно проста с точки зрения графики, но содержит массу объектов, управляемых AI. Оба вида сцен часто встречаются в игре.






Карты Canals, которые Гордон Фримен вынужден преодолевать на катере, полны воды, а значит, здесь широко используются пиксельные шейдеры, насыщенные массой вычислений, служащие для отображения водной поверхности. В силу этой особенности уровня, полученные результаты неудивительны – карты ATI лидируют с немалым отрывом во всех разрешениях, так как именно с такими шейдерами они справляются лучше всего.

Внушительные показатели GeForce FX принимать во внимание не следует – эти карты используют режим рендеринга DirectX 8.1, в котором многие спецэффекты отсутствуют или упрощены.






При одновременной активации FSAA и анизотропной фильтрации ничего особенного не происходит – падают лишь общие показатели fps. Видеоадаптеры ATI RADEON по-прежнему непоколебимо держат лидерство.

Технология SLI замечательно работает в Half-Life 2, обеспечивая в высоких разрешениях и при включении FSAA и AF прирост производительности, близкий к двухкратному. Система, оснащенная двумя GeForce 6800 Ultra, позволяет комфортно играть в Half-Life 2 с включенными сглаживанием и анизотропной фильтрацией даже в разрешении 1600х1200






На уровнях d3_c17 ситуация иная – поскольку, сцена, записанная на карте d3_c17_12, представляет собой сцену боя в городских условиях, то основная нагрузка в данном случае ложится на центральный процессор, вынужденный обсчитывать физику и искусственный интеллект множества объектов. Это подтверждают наши диаграммы – в разрешении 1024х768 разницы между большинством карт практически не видно – она начинает проявляться лишь в разрешении 1280х1024 и выше. В последнем случае, при его увеличении до 1600х1200 небольшое преимущество карт ATI все же наблюдается, но оно весьма незначительно и составляет не более 2-3 кадров в секунду.






А вот в режиме с активированными анизотропной фильтрацией и сглаживанием преимущество карт ATI проявляется ярче, но это и неудивительно – архитектуры, разработанные канадской компанией, отлично чувствуют себя именно в тяжелых условиях, когда нагрузка на подсистему памяти велика.

Преимущество от использования SLI на этом уровне невелико, так как основным ограничителем в данном случае является скорость центрального процессора. Тем не менее, его можно заметить в высоких разрешениях в режиме eye candy.

Далее: Самые быстрые видеоадаптеры 2004 года. Часть 2