Cекретные материалы от ATi. Обзор новых видеокарт серии Radeon X800

В последнее время, с учётом тенденции развития рынка графических ускорителей, все мы привыкли к быстрой смене поколений видеоадаптеров. Хотя довольно длительное время главенствующую роль в компании AMD занимала видеокарта ATI HD3870 (в последствии ATI HD3870Х2), основанная на чипе RV670. Как только начали просачиваться первые слухи о новом чипе RV770, интерес СМИ перепозиционировался на будущего «хозяина трона».

Появление нового чипа ознаменовало собой дебют новых решений AMD ATI (на чипе RV770 PRO) и AMD ATI HD4870 (на чипе RV770 XT).

До выхода графических решений на базе чипа RV770 положение на рынке у компании было не самым лучшим. В семействе карт HD не было ни одного достойного соперника для топовых решений извечного калифорнийского конкурента, компании NVIDIA. Выход нового чипа был скорее жизненной необходимостью, чем просто выпуском нового ускоренного решения. Инженеры постарались на славу – чип получился очень удачным и перспективным.

В новом чипе было решено изменить традициям и вместо уже привычной кольцевой шины памяти (ring bus) перейти на архитектуру с центральным хабом.

Согласно пресс-релизам ATI, такая компоновка значительно увеличивает эффективность использования полосы пропускания. Кроме того, теперь контроллер памяти поддерживает новые чипы памяти стандарта GDDR5.

Новый графический процессор содержит уже 800 скалярных процессоров, способных выполнять 32-битные и 64-битные вычисления.

Но архитектура потоковых процессоров практически не изменилась (в сравнении с RV670), хотя была увеличена их плотность, что позволило увеличить их количество, не изменяя техпроцесс. Теперь теоретическая пиковая производительности чипа RV770 возросла до 240 гигафлоп.

Технические подробности ускорителей серии HD4800:

  • Кодовое имя чипа RV770;
  • Технология 55 нм;
  • 956 миллионов транзисторов;
  • Унифицированная архитектура с массивом общих процессоров для потоковой обработки вершин и пикселей, а также других видов данных;
  • Аппаратная поддержка DirectX 10.1, в том числе и новой шейдерной модели - Shader Model 4.1, генерации геометрии и запись промежуточных данных из шейдеров (stream output);
  • 256-битная шина памяти: четыре контроллера шириной по 64 бита с поддержкой GDDR3/GDDR5;
  • Частота ядра 625-750 МГц;
  • 10 SIMD ядер, включающих 800 скалярных ALU для расчётов операций с плавающей запятой (целочисленные и плавающие форматы, поддержка FP32 и FP64 точности в рамках стандарта IEEE 754);
  • 10 укрупненных текстурных блоков, с поддержкой FP16 и FP32 форматов;
  • 40 блоков текстурной адресации;
  • 160 блоков текстурной выборки;
  • 40 блоков билинейной фильтрации с возможностью фильтрации FP16 текстур на полной скорости и поддержкой трилинейной и анизотропной фильтрации для всех текстурных форматов;
  • Возможность динамических ветвлений в пиксельных и вершинных шейдерах;
  • 16 блоков ROP с поддержкой режимов антиалиасинга и возможностью программируемой выборки более чем 16 сэмплов на пиксель, в том числе при FP16 или FP32 формате буфера кадра - пиковая производительность до 16 отсчетов за такт (в т.ч. и для режимов MSAA 2x/4x и буферов формата FP16), в режиме без цвета (Z only) - 64 отсчета за такт;
  • Запись результатов до 8 буферов кадра одновременно (MRT);
  • Интегрированная поддержка двух RAMDAC, двух портов Dual Link DVI, HDMI, HDTV, DisplayPort.

Спецификации референсной карты :

  • Частота ядра 625 МГц;
  • Количество универсальных процессоров 800;
  • Количество текстурных блоков - 40, блоков блендинга - 16;
  • Эффективная частота памяти 2000 МГц (2*1000 МГц);
  • Тип памяти GDDR3;
  • Объем памяти 512 МБ;
  • Пропускная способность памяти 64 ГБ/с;
  • Теоретическая максимальная скорость закраски 10,0 гигапикселей в с.;
  • Теоретическая скорость выборки текстур 25,0 гигатекселей в с.;
  • Два CrossFireX разъема;
  • Шина PCI Express 2.0 x16;
  • Два DVI-I Dual Link разъема, поддерживается вывод в разрешениях до 2560х1600;
  • TV-Out, HDTV-Out, поддержка HDCP, HDMI, DisplayPort;
  • Энергопотребление до 110 Вт (один 6-пиновый разъём);
  • Однослотовый дизайн системы охлаждения;
  • Рекомендуемая цена $199.

Об одном из них и пойдёт речь в сегодняшнем обзоре, а именно об AMD ATI от с 512 МБ памяти на борту.

GeForce 9800 GTX

GeForce 9800 GTX+

Графический чип

RV770 PRO

Частота ядра, МГц
Частота унифицированных процессоров, МГц
Количество универсальных процессоров
Количество текстурных блоков / блоков блендинга
Объем памяти, Мб
Эффективная частота памяти, МГц

2000 (2*1000)

Тип памяти
Разрядность шины памяти, бит

Видеокарта изготовлена на базе графического процессора ATI от AMD, выполненного на чипе RV770 PRO по 55-нм технологии. При этом соблюдены все рекомендации производителя GPU, указанные выше, поэтому ускоритель повторяет возможности и внешний вид подавляющего большинства 512 МБ, кроме, разве что, комплектации.

Перейдём к более близкому знакомству с тестируемой видеокартой EAH4850/HTDI/512M.

Видеокарта поставляется в большой двойной картонной упаковке, раскрывающейся как книжка. В отличие от предыдущих упаковок топовых моделей, данная коробка лишена пластиковой ручки.

Внешний вид и оформление коробки не изменилось. Как и прежде, черный и оранжевый цвета символизируют принадлежность адаптера к семейству AMD ATI . В нижней части коробки привычно присутствует название ускорителя, а также некоторые его особенности. На этот раз основной акцент сделан на переходник с DVI на HDMI, который покупатель получает «бесплатно».

На тыльной стороне упаковки описываются особенности графического ускорителя, рекомендуемые системные требования, а также кратко представлены фирменные технологии, с которыми более подробно можно ознакомиться на официальном сайте ASUSTeK Computer .

Комплект поставки достаточен для полноценного использования видеоадаптера. Помимо самой видеокарты он включает в себя:

  • Переходник с Molex на 6-контактный разъем питания видеокарты;
  • Переходник с S-Video на компонентный выход;
  • Переходник с DVI на D-Sub;
  • Переходник с DVI на HDMI;
  • Мостик CrossFire;
  • CD-диск с драйверами;
  • CD-диск с электронной документацией;
  • Краткая инструкция по установке видеокарты.

Внешне тестовый образец очень похож на AMD ATI HD 3850. Сама видеокарта выполнена по референсному дизайну на красном текстолите и оснащена однослотовой системой охлаждения, которая закрывает большую её часть. Единственное внешнее отличие нашей видеокарты заключается в том, что пластиковый кожух не покрывает печатную плату полностью. Габариты адаптера компактны, длина составляет 233 мм, что позволит ей поместиться в почти любой корпус.

На задней стороне присутствуют наклейки с точным наименованием графического ускорителя, серийным номером и номером партии.

Все разъёмы защищены пластиковыми колпачками, что не всегда можно наблюдать на видеоадаптерах от . На интерфейсной панели расположены два выхода DVI, а также TV-out. Для подключения аналогового монитора необходимо будет воспользоваться переходником из комплекта поставки.

Теперь рассмотрим систему охлаждения тестируемой видеокарты. Как мы уже описывали выше, она занимает один слот и представляет собой массивную пластину. Посредине расположен медный теплосъемник, который прилегает к графическому процессору.

Микросхемы памяти и силовые элементы контактируют с подложкой пластины через термопрокладки.

Под пластиковым кожухом системы охлаждения скрывается радиатор, состоящий из соединённых между собой тонких медных рёбер. Потоки воздуха от кулера проходят через эти рёбра к задней стенке корпуса, поэтому для нормального вывода тёплого воздуха необходимо снять заглушку в задней панели рядом с видеокартой.

Печатная плата не насыщена большим количеством элементов, но присутствует новшество – микросхемы памяти располагаются в две линии сверху и справа от графического чипа, причём пара центральных микросхем каждой из линий сгруппированы.

Силовая часть платы не удивляет сложностью исполнения. В верхнем углу расположен 6-контактный разъём питания видеокарты, что неудивительно при заявленном энергопотреблении до 110 Вт. Согласно спецификации для видеоускорителя необходим блок питания мощностью от 450 Вт.

Память представляет собой восемь микросхем стандарта GDDR3 производства Qimonda (HYB18H512321BF-10) с временем доступа 1,0 нс, что позволяет им работать на частоте до 2000 МГц. Эффективная частота работы памяти тестируемой модели видеокарты немного ниже и составляет 1986 МГц, что оставляет узенький частотный коридор прозапас. Общий объем памяти составляет 512 МБ, а ширина шины обмена с ней не изменилась и составляет 256 бит.

Частота работы графического процессора соответствует рекомендованному значению 625 МГц. Как уже описывалось выше, сам чип RV770 выполнен по 55 нм техпроцессу, что обуславливает его относительно небольшое энергопотребление, несмотря на то, что в него входят 956 млн. транзисторов. Количество унифицированных шейдерных процессоров увеличено до 800, текстурных блоков до 40, а количество ROP оставлено без изменений и равно 16. Частота работы чипа в 2D-режиме снижается до 500 МГц.

Для оценки эффективности штатной системы охлаждения мы использовали утилиту FurMark , а мониторинг осуществлялся при помощи GPU-Z версии 0.2.6. Работая на штатных частотах, графический процессор прогрелся до 92° С, что не так уж мало, особенно если учитывать появление некоторого шума от кулера.

Тестирование

Результаты тестов показывают, что является прямым конкурентом для GeForce 9800GTX и практически вплотную приближается к производительности более дорогих ускорителей на GeForce GTX260. Исключение составляют игровые приложения, оптимизированные под архитектуру NVIDIA.

Разгон видеокарты проводился при помощи штатных средств ATI Catalyst Control Center. Видеокарта смогла стабильно функционировать на частотах 670 МГц для графического ядра (+45 МГц) и 2180 МГц (1090 МГц DDR) для видеопамяти (+186 МГц).

Достаточно скромный результат, мы изначально ожидали большего, но посмотрим на сколько увеличится производительность адаптера.

Тестовый пакет

Стандартные частоты

Разогнанная видеокарта

Прирост производительности, %

Futuremark 3DMark’05
3DMark Score
SM2.0 Score
HDR/SM3.0 Score

Serious Sam 2, Maximum Quality, NO AA/AF, fps

1024×768
1280×1024
1600×1200

Serious Sam 2, Maximum Quality, AA4x/AF16x, fps

1024×768
1280×1024
1600×1200

Call Of Juarez, Maximum Quality, NO AA/AF, fps

1024×768
1280×1024
1600×1200

Вероятно, многие читатели раздела Видеосистемы сайта сайт уже устало вздыхают: "Когда же кончится это засилье видеокарт на чипах от NVIDIA?! Нам бы что-то иное, а то когда есть все время одни торты, то хочется закусить в конце концов соленым огурцом." Нам понятны эти возгласы и даже подобные причитания. Да и в форуме iXBT меня, как ведущего раздел, ругают на чем свет стоит за то, что продукции ATI мы мало уделяем внимания. Безусловно, у нас пробелы в этом плане есть, но все же главной причиной такого, казалось бы, неравноправия является то, что ATI выпускает видеокарты только сама (лишь с выпуском RADEON LE обозначился у нее малоизвестный публике партнер, который стал помогать ATI с выпуском более дешевых модификаций). А значит, что линейка выпускаемых плат на RADEON четко обозначена:

В большинстве своем карты отличаются лишь разными типами и частотами установленной на них памяти, графический процессор - один и тот же, но также работающий на разных частотах. Поэтому разница между ними может быть лишь в производительности. Ну и в комплектации VIVO. Только один тип - RADEON VE сильно отличается от предшественников.

А вот видеокарт на GPU NVIDIA GeForce2 и особенно GeForce2 MX вышло за последние полгода очень много. И если бы все были похожи друг на друга как две капли воды, то тогда и писать про каждую из них нечего, а только выпустить что-то вроде сводного обзора, как ранее мы поступали. Однако, приступив в свое время к изучению первых вышедших в свет подобных карт, я обнаружил, что они могут очень сильно отличаться друг от друга, даже имея в основе один и тот же референс-дизайн.

Пользователи GeForce2 MX - карт знают уже прекрасно, что карты могут сильно отличаться хотя бы по качеству в 2D. Я уж не говорю, что появилось очень много карт с индивидуальными особенностями, такими как разные типы памяти и ее объемы, наличие аппаратного мониторинга и т.д. А почти все они поступают в продажу, и пользователи подчас не знают, стоит покупать или нет карту на GeForce2 NX такой-то марки или от того или иного производителя. Потому мы и решили по возможности охватывать парк видеокарт на популярном чипсете.

Однако то, что при этом мы запустили освещение разновидностей видеокарт от ATI - это наша вина. Я не буду ссылаться на постоянную занятость и искать причины, я просто признаю свою вину в том, что так получилось. Я полагал, что демонстрация возможностей этих плат через 3DGiТоги (вверху приведены ссылки на мини-обзоры из этого материала) даст более-менее полную картину о новинках от ATI, которые, повторяю, отличаются лишь производительностью (кроме RADEON VE). Но оказалось, что этого недостаточно. И ныне мы будем ликвидировать эти пробелы в наших статьях, и будем освещать все новинки от ATI, вне зависимости от того, клон ли это или принципиально новая видеокарта.

А теперь займемся делом. Я не зря вначале упомянул про NVIDIA GeForce2 MX. Одним из "коньков" карт на этом GPU является технология TwinView. Разумеется, TwinView поддерживается не всеми картами на GeForce2 MX, а только теми, на которых установлен второй RAMDAC, и имеется гнездо для второго вывода изображения, либо есть TV-out. Такие платы стоят весьма существенно дороже, что не играет "на руку" TwinView. Хочется сразу спросить: а что смогла противопоставить этим картам фирма ATI? Уже довольно долго существовало сравнение:

  • NVIDIA GeForce2 64MB vs. RADEON 64MB DDR
  • NVIDIA GeForce2 32MB vs. RADEON 32MB DDR
  • NVIDIA GeForce2 MX vs. RADEON 32MB SDR

Если в первых двух позициях RADEON почти везде проиграл сопернику, то в третьей ситуация неоднозначная. В 32-битном цвете RADEON 32 MB SDR очень легко обходит NVIDIA GeForce2 MX, и даже подчас новые "версии" последнему не помогают. А если учесть, что ныне в массовом количестве появились дешевые RADEON LE, которые, хоть и работают на более низких частотах, но прекрасно разгоняются, тучи над GeForce2 MX надвигаются весьма серьезные. И вообще "грозой с молнией" стал выход RADEON VE.

На первый взгляд, хочется скептически пожать плечами: И где же тут "гроза" с таким-то медленным 3D? Давайте разберемся не спеша, начнем с перечисления возможностей и характеристик RADEON VE.

  • Graphics Controller - RADEON VE graphics processor
    • Частота работы 150-166 МГц
    • Пиксельных конвейеров - 1
    • Текстурных модулей - 3
  • Memory Configurations: 64MB DDR, 32MB DDR, 16MB DDR
    • 64-битная шина обмена с памятью
    • Частота работы 183 (366) МГц
  • 3D Acceleration Features
    • HYPER Z technology
    • PIXEL TAPESTRY architecture
    • VIDEO IMMERSION technology
    • Twin Cache Architecture
    • Single-Pass Multi-texturing (3 textures per clock cycle)
    • True Color Rendering
    • Triangle Setup Engine
    • Texture Cache
    • Bilinear/Trilinear Filtering
    • Texture Decompression support under DirectX (DXTC) and OpenGL
    • Specular Highlights
    • Perspectively Correct Texture Mapping
    • Mip-Mapping
    • Z-buffering and Double-buffering
    • Emboss, Dot Product 3 and Environment bump mapping
    • Spherical, Dual-Paraboloid and Cubic environment mapping
    • Full Screen Anti-Aliasing (FSAA)
  • HydraVision Multiple Monitor Management Software дает возможность гибко настраивать вывод изображение на два приемника сигнала (VGA-гнездо для CRT-мониторов и DVI-гнездо для цифровых мониторов)
  • Наличие переходника DVI-to-VGA позволяет вместо цифрового монитора вторым использовать обычный CRT-монитор, обеспечивая полноценную работу с двумя мониторами
  • TV-out (S-Video, но в комплект входит переходник S-Video-to-RCA) также вписывается в концепцию мультимониторности, его можно использовать вторым приемником сигнала
  • Возможность взаимной смены местами первого и второго приемников сигнала
  • HydraVision Multidesk Software позволяет организовать до 9 виртуальных рабочих столов на одном мониторе
  • Максимальное разрешение в 3D:
    • 65K цветов: 1920х1440
    • 16.7М цветов: 1920х1200

Я не стал специально уделять внимания особенностям самого ядра RADEON, потому как об этом все сказано в нашем обзоре , а по спецификациям, приведенным выше, видно, что RADEON VE получился путем урезания растеризационного блока в 2 раза, изъятия из чипа блока Hardware TCL (то есть геометрического сопроцессора) и добавления в него блоков, осуществляющих вывод изображения на второй приемник сигнала (второй RAMDAC, CRTC и др.) Вам ничего это не напоминает? Очень схоже с тем, как получился GeForce2 MX из GeForce2 GTS:-) за исключением того, что Hardware TCL не был убран из GeForce2 MX.

Таким образом, мы видим, что получили… Riva TNT2 Ultra с точки зрения мощности в 3D, только в ином виде. Посудите сами: частота чипа 150 у обоих, в режиме мультитекстурирования Riva TNT2 Ultra выдает 150 млн. пикселей и 300 млн. текселей в секунду, столько и RADEON VE, если активны 2 текстурных блока (а задействовать 3 TMU сейчас пока никто не может, таких игр еще нет). Частота памяти у Riva TNT2 Ultra - 183 МГц при 128-битной шине. У RADEON VE - 183 (366) МГц DDR-памяти, но если учесть 64-битную шину, то получим примерно то же самое. Только лишь уникальные технологии HyperZ и двойного кеширования будут способствовать тому, что RADEON VE покажет большую производительность, чем почти 2-х летней давности Riva TNT2 Ultra.

Плата


Видеокарта построена на AGP 2x/4x основе, имеет 32 мегабайта DDR SDRAM памяти, размещенной в 4-х микросхемах на лицевой стороне PCB.

Модули памяти имеют время выборки 5.5 ns и расcчитаны на частоту работы 183 (366) МГц, на которой и работают.

Чипсет закрыт приклеенным к нему радиатором. Вентилятор отсутствует, впрочем, он и не нужен, так как процессор очень мало греется. На карте кроме привычного VGA-гнезда можно также заметить DVI-вывод. Оба этих вывода, совместно со встроенными в чип RAMDAC-ами и составляют, собственно, основу технологии HydraVision, сходной с NVIDIA TwinView или Matrox DualHead, но в то же время уникальной. Я приведу цитату из пресс-релиза от 9 ноября 2000 года:

"Торонто, Онтарио, Канада, 9 ноября 2000 года - ATI Technologies Inc. (TSE: ATY, NASDAQ: ATYT), крупнейший в мире поставщик технологий 3D графики и мультимедиа объявил сегодня о заключении эксклюзивного стратегического соглашения с Appian Graphics Corporation, лидером в передовых технологиях работы с изображением, о выводе приложения HydraVision на массовый рынок. Данное соглашение дает ATI право интегрировать систему управления вывода на монитор HydraVision и продвигать ее в составе продуктов, начиная с RADEON VE и далее с будущими продуктами ATI.

"HydraVision долгое время является стандартным приложением для управления выводом изображения на несколько мониторов, а Appian Graphics лидирует в предложении решений для поддержки мульти-мониторных конфигураций", - сказал Дэйвид Ортон (David Orton) президент ATI. "Объединение опыта Appian в средствах управления дисплеем и наших передовых технологий графических акселераторов создает действительно непревзойденную серию продуктов."

Патентованная система управления выводом изображения AppianHydraVision предоставляет пользователю интерфейс для простого управления несколькими мониторами. В состав функций HydraVision входят средства управления окнами вывода приложений и диалогов, назначение "горячих" клавиш, установка независимых значений разрешения экрана и частот кадровой развертки, независимый контроль приложений, а также возможность создания до девяти виртуальных рабочих пространств."

Таким образом, данная технология представляет собой очень интересное решение не только для вывода изображения на два монитора, но и дает возможность создания виртуальных десктопов. Более подробно об этом будет рассказано немного ниже, а сейчас мы возвращаемся к особенностям RADEON VE и его комплектации.

В комплект поставки входит переходник (на фотографии выше), обеспечивающий возможность подключения ко второму гнезду не только цифрового монитора, но и обычного.

Должен еще отметить, что RADEON VE снабжен также TV-out с S-Video-гнездом (в комплект входит переходник S-Video-to-RCA). Поэтому можно организовывать комбинации вывода картинки на любые два из этих трех приемников. Регулировки вывода изображения находятся в драйверах:

Как видим, все понятно и доступно. Обратите внимание на немаловажную деталь: можно менять местами приемники сигнала, то есть первичный и вторичный приемники не жестко привязаны к соответствующим гнездам. Вот что значит иметь два одинаковых RAMDAC в 300 МГц и не думать о том, какой из них более качественный. Так что если даже в спешке подключили мониторы неправильно, не обязательно лезть снова и переключать их, можно просто в драйверах поменять их местами.

Интересно отметить, что фирменная утилита HydraVision позволяет внедрить поддержку мультимониторности практически во все приложения, и даже в таких приложениях, как Adobe Photoshop, мы можем видеть это:

Cама же утилита очень примечательна. После установки в панели задач внизу справа появляется пиктограмма управления HydraVision. Программа позволяет организовать до девяти (!) виртуальных рабочих столов! И одним переключением можно разом переместиться на той или иной десктоп.

Сами рабочие столы можно подписывать по своему усмотрению:

Карта может поставляться как в ОЕМ-виде (мы как раз такую и имеем), так и Retail-упаковке. В комплект входят два переходника: DVI-to-VGA, S-Video-to-RCA, затем CD-диск с драйверами.

Разгон

К сожалению, пока нет утилит, способных корректно поднять частоты работы у этой карты, поэтому плата не разгонялась.

Установка и драйверы

Рассмотрим конфигурацию тестового стенда, на котором проводились испытания карты ATI RADEON VE:

  • процессор Intel Pentium III 1000 MHz:
  • системная плата Chaintech 6OJV (i815);
  • оперативная память 256 MB PC133;
  • жесткий диск IBM DPTA 20GB;
  • операционная система Windows 98 SE;

На стенде использовались мониторы ViewSonic P810 (21") и ViewSonic P817 (21").

Тесты проводились при отключенном VSync на драйверах версии 7.078 от ATI.

Для сравнительного анализа были использованы показания с видеокарт ATI RADEON 32MB SDR, Hercules Dynamite TNT2 Ultra (частота понижена до стандартных для Riva TNT2 Ultra значений 150/183 МГц), Leadtek WinFast GeForce2 MX/DVI.

Результаты тестов

Качество 2D-графики - на традиционном для ATI высоком уровне. Практически замечаний нет. Вопросы по 2D в последнее время настолько уже "обсосаны", что поднимать их снова нет смысла. Я только еще и еще раз отмечу, что качество 2D может сильно зависеть не только от производителя карты, но и просто от конкретного экземпляра.

А также напомню: перед тем, как ругать видеокарту, проверьте, а соответствует ли ваш монитор тем запросам, которые вы предъявляете к видеокарте?

Приступаем к оценке производительности видеокарты в 3D. В качестве инструментария мы использовали следующие программы:

  • id Software Quake3 v.1.17 - игровой тест, демонстрирующий работу платы в OpenGL с использованием стандартного демо-бенчмарка demo002;
  • Rage Expendable (timedemo) - игровой тест, демонстрирующий работу платы в Direct3D в режиме мультитекстурирования.

Quake3 Arena

Тестирование проводилось в двух режимах: Fast (демонстрирует работу карты в 16-битном цвете) и High Quality (демонстрирует работу карты в 32-битном цвете).

Видно, что мои предположения о близости результатов RADEON VE к Riva TNT2Ultra оказались почти верными. Только в 32-битном цвете RADEON VE выиграл у последней битву, но, как и ожидалось, сильно проиграл остальным картам, с которыми производилось сравнение.

Expendable

На примере данной игры мы посмотрим на скорость карты в Direct3D.

А вот тут картина полностью меняется, демонстрируя явное преимущество RADEON VE над Riva TNT2 Ultra. RADEON VE даже смог догнать своих более старших и именитых в 3D собратьев. Впрочем, относительная легкость сцен в Expendable тоже могла сыграть свою роль. Но есть и иное предположение относительно работы технологии HyperZ. Хотя, судя по Registry, она включена и в OpenGL, и в Direct3D, в первом случае возможен вариант, что HyperZ и не работает как надо. А в Direct3D выдает все свое преимущество.

Подведем итоги анализа производительности рассмотренной платы ATI RADEON VE:

  • Видеокарта демонстрирует производительность в целом чуть выше, чем Riva TNT2 Ultra, а в 32-битном цвете и сильно выше, но не догоняет ранее выпущенные и более мощные карты ATI RADEON SDR и ATI RADEON LE, а также отстает от NVIDIA GeForce2 MX;
  • ATI RADEON VE, как и все карты на RADEON, отличается оптимизацией работы в 32-битном цвете;

Выводы

Как мы смогли убедиться, при всей своей относительной "неполноценности" с точки зрения 3D, RADEON VE продемонстрировал высокий уровень отношения цена/производительность/насыщенность функциями. Да, при цене около $90-95, эта карта по производительности отстает от NVIDIA GeForce2 MX -карт, которые имеют примерно такую же стоимость, однако при этом RADEON VE демонстрирует отличное качество в 2D, чего подчас нет у "noname"-карт на GeForce2 MX, а также имеет технологию HydraVision, сродни с NVIDIA TwinView. А карты с последней имеют стоимость уже не около $100, а много больше.

Мы можем советовать ATI RADEON VE тем, кому нужна работа этой карты прежде всего в бизнес-секторе или 2D-приложениях тяжелого плана. Хороша эта карта будет и с офисными приложениями, прекрасный выбор будет у тех, кому нужно объединить 2 монитора (например в целях верстки текстовых или иных материалов). И не надо забывать про традиционное для ATI высокое качество воспроизведения DVD-фильмов и ныне популярных MPEG4-роликов.

Более полные сравнительные характеристики видеокарт этого и других классов вы можете увидеть в наших 3DGiТогах .

Плюсы:

  • Вполне удовлетворительная производительность в 3D графике;
  • Очень хорошее качество исполнения продукта;
  • Поддержка технологии HydraVision (аналог TwinView), но с более широкими возможностями;
  • Наличие TV-out, поддерживаемого HydraVision;
  • Относительно низкая цена;

Минусы:

  • Традиционные для ATI задержки поставок карт, могущие свести на нет преимущества RADEON VE в плане стоимости;
  • Уже очень сильная конкуренция на рынке бизнес-компьютерных систем, учитывая наличие не только NVIDIA GeForce2 MX, но и Matrox G450.

На 128-битной шине. «Скорость», которую они демонстрируют, просто стыдно вспоминать. Поэтому для ATI в сегменте цен 150-250 долларов на AGP-рынке могут наступить тяжелые времена, особенно, если NVIDIA все же выпустит GeForce 6600 в AGP-варианте, что вполне вероятно.

На этом мы оставим прогнозы и предположения, и сконцентрируемся на новинке, которую выпустила канадская компания, чтобы временно абстрагировавшись от AGP-рынка, сравнить RADEON X700XT с GeForce 6600GT.

Официальные спецификации RADEON X700XT/PRO (RV410)

  1. Кодовое имя чипа RV410
  2. Технология 110 нм (TMSC, low-k, медные соединения)
  3. 120 миллионов транзисторов
  4. FС корпус (перевернутый чип, без металлической крышки)
  5. 128 бит интерфейс памяти (двухканальный контроллер) (!)
  6. До 256 мегабайт DDR/GDDR-2/GDDR-3 памяти
  7. Встроенный PCI-Express 16x шинный интерфейс (возможно в будущем ATI будет использовать собственный PCI-Express->AGP 8х мост для производства AGP карт)
  8. 8 Пиксельных процессоров, по одному текстурному блоку на каждом
  9. Вычисление, блендинг и запись до 8 полных (цвет, глубина, буфер шаблонов) пикселей за такт
  10. Вычисление до 16 значений глубины за такт в режиме MSAA (т.е. MSAA 2х без штрафных тактов)
  11. Поддержка «двустороннего» буфера шаблонов;
  12. MSAA 2x/4x/6х, с гибко программируемыми паттернами отсчетов. Сжатие буфера кадра и буфера глубины в MSAA режимах. Возможность менять MSAA паттерны от кадра к кадру (Temporal AA);
  13. Анизотропная фильтрация степени до 16х включительно
  14. 6 Вершинных процессоров (!)
  15. Все необходимое для поддержки пиксельных и вершинных шейдеров версии 2.0
  16. Дополнительные возможности пиксельных шейдеров на основе расширенной версии 2.0 - т.н. 2.0.b
  17. Небольшие дополнительные возможности вершинных шейдеров, сверх базовых 2.0
  18. Новая техника сжатия текстур, оптимизированная для сжатия двухкомпонентных карт нормалей (т.н. 3Dc, степень сжатия 4:1).
  19. Поддерживается рендеринг в буфера плавающего формата, с точностью FP16 и FP32 на компоненту.
  20. Поддерживаются трехмерные и FP (плавающие) форматы текстур
  21. 2 RAMDAC 400 МГц
  22. 2 DVI интерфейса
  23. TV-Out и TV-In интерфейс (для последнего требуется интерфейсный чип)
  24. Возможность программируемой обработки видео - пиксельные процессоры задействуются для обработки видео потока (задачи компрессии, декомпрессии и постобработки)
  25. 2D ускоритель с поддержкой всех функций GDI+

Спецификации референсной карты RADEON X700XT

  1. Частота ядра 475 МГц
  2. Эффективная частота памяти 1,05 ГГц (2*525 МГц)
  3. Шина памяти 128 бит
  4. Тип памяти GDDR3
  5. Объем памяти 128 (или 256) мегабайт
  6. Пропускная способность памяти 16,8 гигабайт в сек.
  7. Теоретическая скорость закраски 3,8 гигапикселя в сек.
  8. Теоретическая скорость выборки текстур 3,8 гигатекселя в сек.
  9. Один VGA (D-Sub) и один DVI-I разъем
  10. TV-Out
  11. Потребляет менее 70 Ватт энергии (т.е. на PCI-Express карте разъем для дополнительного питания не нужен, рекомендован источник питания суммарной мощностью 300 или более Ватт)

Список карт, ныне выпущенных на базе RV410:

  • RADEON X700XT: 475/525 (1050) MHz, 128/256MB GDDR3, PCI-Express x16, 8 пиксельных и 6 вершинных конвейеров ($199 - для 128-мегабайтной карты и $249 - для 256-мегабайтной) - конкурент NVIDIA GeForce 6600GT;
  • RADEON X700 PRO: 425/430 (860) MHz, 128/256MB GDDR3(?), PCI-Express x16, 8 пиксельных и 6 вершинных конвейеров ($149 - для 128-мегабайтной карты и $199 - для 256-мегабайтной) - конкурент NVIDIA GeForce 6600;
  • RADEON X700: 400/350 (700) MHz, 128/256MB DDR, PCI-Express x16, 8 пиксельных и 6 вершинных конвейеров ($99 - для 128-мегабайтной карты и $149 - для 256-мегабайтной) - конкурент NVIDIA GeForce PCX5900 и вытеснение вниз предыдущего X600XT;

Как мы видим, особые архитектурные отличия от R420 отсутствуют, что, впрочем, не удивительно - RV410 является масштабированным (путем уменьшения числа пиксельных процессоров и каналов контроллера памяти) решением, основанным на архитектуре R420. Ситуация такая же, как и у пары NV40/NV43. Более того, как мы уже отмечали, в этом поколении чрезвычайно схожи принципы построения архитектуры обоих конкурентов. Что же касается отличий RV410 и R420 - то они количественные (на схеме выделены жирным), а не качественные - с точки зрения архитектуры чип практически не изменился.

Итак, в наличии 6 (как и было - что потенциально является приятным сюрпризом для жадных до треугольников DCC приложений) вершинных процессоров, и два (было четыре) независимых пиксельных процессора, каждый из которых работает с одним квадом (фрагментом 2х2 пикселя). Как и в случае с NV43 PCI Express является нативным (т.е. реализованным на чипе) шинным интерфейсом, а AGP 8х платы (если такие случатся) будут содержать дополнительный мост PIC-E -> AGP (показан на схеме), который придется разработать и производить ATI.

Кроме того, отметим очень важный ограничивающий момент - двухканальный контроллер и 128 битную шину памяти - как и в случае NV43, этот факт мы подробно обсудим и исследуем далее.

Архитектура вершинных и пиксельных процессоров, видеопроцессора осталась прежней - эти элементы были детально описаны нами в обзоре RADEON X800 XT . А теперь, поговорим о потенциальных тактических соображениях:

Соображения о том, что и почему было урезано

В общем и целом, на данный момент, мы получаем следующую линейку решений на базе архитектур NV4X и R4XX:

Pixel/
Vertex

Полоса памяти

Fillrate
Mpix.

Частота ядра

256 (4 × 64)
GDDR3 1100

256 (4 × 64)
GDDR3 1000

256 (4 × 64)
DDR 700

256 (4х64)
DDR 700

128 (2х64)
GDDR 3 1000

128 (2х64)
DDR 500-600-700

256 (4 × 64)
GDDR3 1000/1100

256 (4 × 64)
GDDR3 900

256 (4 × 64)
DDR 700

128 (256 как опция)(2х64)
GDDR3 1050

256 (128 как опция) (2х64)
GDDR3 964

128 (256 как опция) (2х64)
DDR 700

На базе предыдущего поколения архитектуры

Неправда ли, картина очень схожая? Таким образом, можно предсказать, что слабым местом семейства X700 также как и в случае 6600 будут большие разрешения и режимы с полноэкранным сглаживанием, особенно на простых приложениях, а сильным - программы с длинными шейдерами и анизотропная фильтрация без (или, для ATI возможно с) MSAA. Далее, мы проверим это предположение игровыми и синтетическими тестами.

Сложно сейчас судить насколько оправданным был ход с 128 битной шиной памяти - с одной стороны это удешевляет корпус чипа и уменьшает число бракованных чипов, с другой стороны, разница в цене печатной платы для 256 бит и 128 бит не велика, и с избытком компенсируется разницей в цене обычной DDR и все еще пока дорогой высокоскоростной GDDR3 памяти. Вероятно, с точки зрения производителей карт решение с 256 бит шиной было бы более удобным, как минимум, если бы у них была возможность выбора, а с точки зрения NVIDIA и ATI производящих чипы и зачастую продающих с ними в комплекте память, более выгодно 128 бит решение в комплекте с GDDR3. Другое дело, как это скажется на скорости - ведь налицо потенциальное ограничение отличных возможностей чипа (8 конвейеров, 475 МГц частота ядра) из за значительно урезанной пропускной полосы памяти.

Заметим, что и суффикс Ultra NVIDIA пока что приберегла - учитывая большой разгонный потенциал технологии 110 нм, можно ожидать появление карты с частотой ядра порядка 550 или даже 600 МГц, памятью 1100 или даже 1200 (в будущем) и названием 6600 Ultra. Вот только какова будет ее цена?

Вершинные и пиксельные процессоры RV410, судя по всему, остались неизменными, а вот внутренние кэши могли быть уменьшены, как минимум пропорционально числу конвейеров. Впрочем, число транзисторов не дает особых поводов для беспокойства - учитывая не столь большие размеры кэшей было бы разумнее оставить (так же как и в случае NV43, скомпенсировав тем самым заметную нехватку пропускной полосы памяти. Были полностью сохранены все технологии экономии ПСП - сжатие буфера глубины и буфера кадров, ранее отсечение с начиповым иерархическим буфером глубины и т.д.

Интересно, что в отличие от NV43, которая как мы уже упоминали может делать блендинг записывать не более 4 результирующих пикселов за такт, пиксельные конвейеры RV410 полностью соответствуют R420 в этом плане. Соответственно в случае простых шейдеров с одной текстурой RV410 получит почти двукратное преимущество в скорости закраски. В отличие от NVIDIA, имеющей достаточно крупный по транзисторам массив ALU, осуществляющих постобработку, проверку, генерацию Z и блендинг пикселов в плавающем формате, RV410 имеет более скромные комбинаторы и поэтому их число не было так урезано. Впрочем, в большинстве ПРАКТИЧЕСКИХ случаев уменьшенная полоса памяти не позволит записать 3.8 полных гигапикселя в секунду, но в синтетических тестах разница между RV410 и NV43 в случае одной текстуры может стать очень заметной.

Не менее интересно решение оставить все 6 вершинных блоков. С одной стороны это аргумент в DCC области, с другой мы знаем что там больше всего зависит от драйверов и в первую очередь OpenGL - традиционно сильных сторон NVIDIA. Кроме того, там может быть оценен плавающий блендинг и шейдеры 3.0 - именно то, чего не хватает последнему поколению ATI. Таким образом, решение о 6 вершинных конвейерах и об активном позиционировании RV410 на DCC рынок выглядит спорным. Время покажет было ли оно оправданным.

Все эти предположения мы проверим в ходе последующих синтетических и игровых тестов.

Технологические новшества

В общем и целом, по сравнению с R420, отсутствуют. Что, не является недостатком само по себе. По сравнению с NV43:
  1. До 8 пикселей записываемых в буфер кадра за такт.
  2. До 16 MSAA пикселей (у NV43 до 8)
  3. 6 вершинных блоков, что похвально, но может быть заметно только в синтетических тестах и DCC приложениях
  4. Менее гибкие шейдеры (2.0b)
  5. Отсутствие плавающего блендинга, что, впрочем может понадобиться в данный момент только в DCC приложениях.

Перед изучением самой карты приведем список статей, посвященных изучению предыдущих новинок: NV40/R420. Ведь очевидно уже, что архитектура RV410 является прямой наследницей технологий R420 (мощности чипа были поделены пополам).

Теоретико-аналитические материалы и обзоры видеокарт, в которых рассматриваются функциональные особенности GPU ATI RADEON X800 (R420) и NVIDIA GeForce 6800 (NV40)

  • NVIDIA GeForce 6800 Ultra (NV40). Часть 1 - особенности архитектуры и синтетические тесты в D3D RightMark (одностраничный вариант)
  • NVIDIA GeForce 6800 Ultra (NV40). Часть 1 - особенности архитектуры и синтетические тесты в D3D RightMark (вариант разбит на страницы)
  • NVIDIA GeForce 6800 Ultra (NV40). Часть 2 - исследование производительности и качества в игровых приложениях (одностраничный вариант)
  • NVIDIA GeForce 6800 Ultra (NV40). Часть 2 - исследование производительности и качества в игровых приложениях (вариант разбит на страницы)
  • Бородинская битва между ATI RADEON X800 XT и NVIDIA GeForce 6800 Ultra - Картина Вторая: 450 МГц у второй и новые тесты у обеих карт (одностраничный вариант)
  • Бородинская битва между ATI RADEON X800 XT и NVIDIA GeForce 6800 Ultra - Картина Вторая: 450 МГц у второй и новые тесты у обеих карт (вариант разбит на страницы)
  • Бородинская битва между RADEON X800 и GeForce 6800: Картина третья - Трилинейная фильтрация (синтетические примеры)
  • Бородинская битва между RADEON X800 и GeForce 6800: Картина четвертая: тесты фильтраций на основе RightMark (одностраничный вариант)
  • Бородинская битва между RADEON X800 и GeForce 6800: Картина четвертая: тесты фильтраций на основе RightMark (вариант разбит на страницы)
  • Бородинская битва между ATI RADEON X800 и NVIDIA GeForce 6800 - Картина Пятая: тесты фильтраций на основе игр (одностраничный вариант)
  • Бородинская битва между ATI RADEON X800 и NVIDIA GeForce 6800 - Картина Пятая: тесты фильтраций на основе игр (вариант разбит на страницы)
  • Обзор PowerColor RADEON X800 PRO Limited Edition, аппаратная переделка X800 PRO в X800 XT Platinum Edition (одностраничный вариант)
  • Обзор PowerColor RADEON X800 PRO Limited Edition, аппаратная переделка X800 PRO в X800 XT Platinum Edition (вариант разбит на страницы)
  • Обзор Leadtek WinFast A400 TDH, Leadtek WinFast A400 Ultra TDH на базе NVIDIA GeForce 6800/6800 Ultra (одностраничный вариант)
  • Обзор Leadtek WinFast A400 TDH, Leadtek WinFast A400 Ultra TDH на базе NVIDIA GeForce 6800/6800 Ultra (вариант разбит на страницы)
  • Бородинская битва между ATI RADEON X800 и NVIDIA GeForce 6800 - Картина Шестая: Фильтрации в играх (продолжение) (одностраничный вариант)
  • Бородинская битва между ATI RADEON X800 и NVIDIA GeForce 6800 - Картина Шестая: Фильтрации в играх (продолжение) (вариант разбит на страницы)
  • Краткий отчет о тестировании FarCry v.1.2 и о первом воплощении Shader 3.0 в реальность
  • Краткий отчет об оперативном тестировании современных 3D-карт в DOOM III (X800PRO/XT, GF6800/GT/Ultra, 9800XT/5950U)
  • Chaintech Apogee GeForce 6800 Ultra на базе NVIDIA GeForce 6800 Ultra - Тестирование в DOOM III с «оптимизациями»

Подчеркну еще раз, что сегодня только 1-я часть, посвященная производительности новинок. Качественные составляющие мы рассмотрим позже во второй части (3D-качество и вопроизведение видео).

Итак, reference card RADEON X700XT.

Мы видим, что по дизайну продукт более близок к X600XT, только в отличие от него, X700XT имеет посадочные места на обороте PCB для получения 256-мегабайтного решения. На плате точно также имеется посадочное место для монтажа RAGE Theater (VIVO).

Охлаждающее устройство.

ATI RADEON X700XT

Перед нами необычный кулер. Чем же он так выделяется? Ну прежде всего, то, что ATI ранее для таких карт не использовала закрытые радиаторы, через которые прогоняется воздух. Причем, стОит обратить внимание на то, что раструбы радиатора вовсе не прижимаются к микросхемам памяти! Они призваны охлаждать лишь ядро! Второе - это материал, из которого радиатор сделан - медь. Потому карта кажется весьма увесистой при взятии в руку.

И самое главное: Кулер весьма и весьма шумный! Особенно при нагрузке, когда растут обороты вентиляитора. Об этом я расскажу ниже.

Можно предположить, что производители таких карт будут проводить эксперименты с использованием своих собственных кулеров, ибо ставить на платы то, что ныне предложила ATI - это крайне неразумно.

Ну раз кулер снимали, то значит и кристалл видели. Давайте сравним размеры ядер RV410 и R350. Почему именно R350? Ну потому что этот чип владеет точно также 8-ю пиксельными конвейерами, к тому же вершинных у него меньше в 2 раза. При этом технология его производства - 0.15 микрон, когда как RV410 изготовлен уже по 0.11 мкм техпроцессу.

Ну что же, результат очень даже предсказуем по уменьшению размера ядра ввиду более тонкого техпроцесса. Хотя число транзисторов в кристалле вовсе не уменьшилось. И все же, можно предположить, что какая-то часть кешей или иных технологических элементов была порезана. Покажут наши исследования…

Теперь вернемся к температурам работы карты и шуму от ее кулера. Благодаря очередной оперативности автора RivaTuner Алексея Николайчука очередная внутренняя бета-версия утилиты уже поддерживает RV410. И, более того, способна не только менять и контролировать частоты карты, но и следить за температурами и частотой вращения вентилятора. Вот, что мы смогли увидеть при работе карты на штатных частотах без какого-либо внешнего охлаждения в закрытом корпусе:

Несмотря на то, что температуры росли не столь интенсивно и достигли всего лишь отметки ниже 60 градусов, кулер себя вел очень «нервно», как показано на нижнем поле с графиком, где в процентном отношении от его максимально возможных оборотов можно увидеть работу вентилятора. И, как я уже говорил, при этом возникает очень неприятный шум.

Поскольку RivaTuner умеет управлять вентилятором, зафиксируем его работу на таком уровне, когда его шум не беспокоит и почти не слышен - это примерно 55-56% от его возможностей по частоте вращения.

Очевидно, что нагрев ядра и карты в целом не слишком сильно выросли, и все еще находятся в зоне безопасного использования. Зачем же нужна была такая перестраховка с кулером? Мы ответа пока не знаем, надеемся от ATI получить разъяснения на сей счет.

Установка и драйверы

Конфигурации тестовых стендов:

    Компьютер на базе Pentium4 Overclocked 3200 MHz (Prescott)
    • процессор Intel Pentium4 3600 MHz (225MHz × 16; L2=1024K, LGA775); Hyper-Threading включен
    • системная плата ABIT AA8 DuraMAX на чипсете i925X;
    • оперативная память 1 GB DDR2 SDRAM 300MHz;
    • жесткий диск WD Caviar SE WD1600JD 160GB SATA.
  • Компьютер на базе Athlon 64 3400+
    • процессор AMD Athlon 64 3400+ (L2=1024K);
    • системная плата ASUS K8V SE Deluxe на чипсете VIA K8T800;
    • оперативная память 1 GB DDR SDRAM PC3200;
    • жесткий диск Seagate Barracuda 7200.7 80GB SATA.
  • операционная система Windows XP SP2; DirectX 9.0c;
  • мониторы ViewSonic P810 (21") и Mitsubishi Diamond Pro 2070sb (21").
  • драйверы ATI версии 6.483 (CATALYST 4.10beta); NVIDIA версии 65.76.
  • Видеокарты:
    1. NVIDIA GeForce FX 5950 Ultra, 475/950 MHz, 256MB DDR, AGP
    2. NVIDIA GeForce 6800 Ultra, 425/1100 MHz, 256MB GDDR3, AGP
    3. NVIDIA GeForce 6800 Ultra, 400/1100 MHz, 256MB GDDR3, AGP
    4. NVIDIA GeForce 6800 GT, 350/1000 MHz, 256MB GDDR3, AGP
    5. ASUS V9999GE (NVIDIA GeForce 6800, 350/1000 MHz, 256MB GDDR3), AGP
    6. NVIDIA GeForce 6800, 325/700 MHz, 128MB DDR, AGP
    7. NVIDIA GeForce 6800LE, 325/700 MHz, 128MB DDR, AGP
    8. NVIDIA GeForce PCX5900, 350/550 MHz, 128MB DDR, PCI-E
    9. NVIDIA GeForce PCX5750, 425/500 MHz, 128MB DDR, PCI-E
    10. NVIDIA GeForce 6600GT, 500/1000 MHz, 128MB GDDR3, PCI-E
    11. ATI EADEON 9800 PRO, 380/680 MHz, 128MB DDR, AGP
    12. ATI EADEON 9800 XT, 412/730 MHz, 256MB DDR, AGP
    13. ATI EADEON X800 XT PE, 520/1120 MHz, 256MB DDR, AGP
    14. ATI EADEON X800 XT, 500/1000 MHz, 256MB DDR, AGP
    15. ATI EADEON X800 PRO, 475/900 MHz, 256MB DDR, AGP
    16. ATI EADEON X800 XT, 500/1000 MHz, 256MB DDR, PCI-E
    17. ATI EADEON X600 XT, 500/760 MHz, 128MB DDR, PCI-E

VSync отключен.

Как мы видим, к анонсу RADEON X700, компания ATI приготовила и новую версию комплекта драйверов. Изюминкой его является CATALYST Control Center, впрочем эта утилита официально вышла в свет раньше вместе с 4.9. Но почему именно на этой программе делается акцент в этом материале? Ответ прост: только через CCC мы можем воспользоваться новыми возможностями, такими как регулировка оптимизациями в 3D.

Но давайте по порядку. Прежде всего надо сказать, что CCC очень емкий по занятию места на жестком диске, а также по пересылке через Интернет. Плюс библиотека Microsoft .NET 1.1, которая дополнительно весит 24 мегабайта. Но без нее ССС работать не будет.

СтОит ли такое счастье затрат на перекачку? По первому взгляду вроде бы стОит. Но надо посмотреть более внимательно. Вот отсюда можно скачать (или открыть) анимированный GIF-файл (920К!), демонстрирующий все настройки CCC.

А мы здесь коснемся лишь тех из них, которые интересны с точки зрения новаций в управлении трехмерной графики:

Мы видим настройки, называемые CATALYST A.I. Это включение так называемых оптимизаций работы драйверов под различные игры, а также общего плана оптимизаций фильтраций (трилинейная и анизотропная).

Есть три градации:

  1. OFF (Disable) - отключение оптимизаций вообще. Обещается неиспользование в этом случае каких-либо оптимизаций с фильтрациями и очень упрощенный алгоритм оптимизаций под приложения.
  2. LOW (Standart) - работают оптимизации под приложения, и также осуществляется легкая оптимизация фильтраций
  3. HIGH (Advanced) - все оптимизации работают в полную силу.

Ниже в разделе анализа скорости мы приведем результаты включения всех трех режимов на примере X700XT с точки зрения призводительности. Качественный аспект разберем в следующем материале.

По данным из ATI пока задействованы оптимизации под следующие игры:

  • Doom 3: CATALYST A.I. подменяеет шейдер освещения на математический эквивалент, но работающий более эффективно Эта оптимизация увеличивает производительность в некоторых сценах.
  • Half Life 2 Engine (currently available in the Counter Strike source beta release): CATALYST A.I. включает улучшенное кеширование текстур для этого движка, что позволяет увеличить скорость, особенно при активной анизотропии в высоких разрешениях.
  • Unreal Tournament 2003/Unreal Tournament 2004: The CATALYST драйвер модифицируется так, что анизотропная фильтрация (или ее комбинации с би- и трилинейкой) всегда определяется приложением, и игра сама у себя включает эти функции. В предыдущих драйверах, если пользователь включал анизотропию через драйвер то только первый уровень текстурирования обрабатывался трилинейкой. Начиная с этой версии драйверов, все текстурные слои будут обрабатываться. Для этих же игр гарантируется улучшенный уровень анализа текстурирования (в частности, относится ко всем RADEON X-продуктам) для увеличения производительности без потерь в качестве. RADEON 9800, RADEON 9700, и RADEON 9500 серии продолжат работать в прежнем режиме (то есть как это было до A.I.)
  • Splinter Cell, Race Driver, Prince of Persia, Crazy Taxi 3 - для этих игр оптимизации A.I. сводятся к жесткому запрету режима АА, который эти игры не поддерживают (то есть даже если пользователь случайно форсировал АА в драйвере, то при активном A.I. ничего не случится, драйвер сам определит игру и выключит АА если необходимо). Раньше в таких ситуациях можно было наблюдать глюки или даже падения игр.

Итак, вроде очень даже полезная штука. Исследования скорости нам это подтвердят. А вот что с качеством происходит, узнаем позже.

Если продолжить рассматривать CCC, то наверно интересной закладкой будет сводная по всем основным переключениям:

Я бы рекомендовал с этой закладки и начинать управлять 3D. Хотя на тех, где происходит регулировка отдельных функций, есть свои плюсы, хотя бы в том, что через небольшой трехмерный сюжет, постоянно зацикленный в окне, можно видеть активацию той или иной функции.

Отдельно хочется отметить больший комфорт по управлению частотами дискретизации (вертикальной развертки):

Ну и более дружественный интерфейс по работе с ТВ:

Но есть и очень большие минусы в работе CCC. Прежде всего, это очень раздражающая медлительность интерфейса. После смены того или иного переключателя и нажатия APLLY программу «плющит и колбасит» где-то полминуты, при этом иногда возникает ощущение, что она зависла, и потом все восстанавливается. Нервных пользователей это может ввести или в ступор, или в психоз, или в решение выкинуть это ПО.

Так что программстам ATI есть еще над чем работать. И много.

В ДИАГРАММАХ, имеющих надпись ANIS16x, результаты у GeForce FX 5950 Ultra и GeForce PCX5900/5750 получены при активной ANIS8x.

Особо отмечу, что по умолчанию оптимизации работы драйверов включены и установлены в положение LOW/STANDART, поэтому основные сравнения с конкурентами были сделаны именно в этом режиме работы X700XT.

Результаты тестов

Перед тем, как кратко дать оценку качеству в 2D, я еще раз дам пояснение, что на настоящий момент НЕТ полноценной методики объективной оценки этого параметра по следующим причинам:

  1. Практически у всех современных 3D-акселераторов качество 2D может сильно зависеть от конкретного экземпляра, а отследить все карты невозможно физически;
  2. Качество 2D зависит не только от видеокарты, но и от монитора, соединительного кабеля;
  3. В последнее время огромное влияние на этот параметр стали оказывать связки: монитор-карта, то есть, встречаются мониторы, "не дружащие" с теми или иными видеокартами.

Что касается протестированного экземпляра, то совместно с Mitsubishi Diamond Pro 2070sb плата продемонстрировала отменное качество в следующих разрешениях и частотах:

ATI RADEON X700XT 1600x1200x85Hz, 1280x1024x120Hz, 1024x768x160Hz

Синтетические тесты D3D RightMark

Использованная нами версия пакета синтетических тестов D3D RightMark Beta 4 (1050) и ее описание доступна на сайте

Список карт:

  • 6600 GT (500/500)
  • X700XT (475/525)
  • X800XT (520/560)
  • 6800 Ultra (400/550)

Для начала исследуем соответствие заявленных характеристик (8 пикселей за такт и т.д.) действительности. Итак:

Тест Pixel Filling

Пиковая производительность выборки текстур (texelrate), режим FFP, для разного числа текстур накладываемых на один пиксель:

Скорость закраски буфера кадра (fillrate, pixelrate), режим FFP, для разного числа текстур накладываемых на один пиксель:

На лицо полноценные 8 конвейеров и способность записывать до 8 пикселй за такт. Таким образом мы видим преимущество над NV43, но только в случае с одной текстурой или отсутствием текстурирования. В большинстве реальных применений число текстур больше или равно двум и карты продемонстрируют схожие результаты.

Посмотрим, как скорость закраски зависит от версии шейдеров:

Как и ожидалось - никаких сюрпризов, что свойственно всем последним чипам. Большая пропускная полоса памяти и возможность записывать 8 пикселей за такт позволяют X700 обойти 6600 в самых простых тестах, по мере усложнения длинны шейдера или числа текстур до разумных значений эта разница нивелируется. Для записи в буфер кадра мы имеем:

А для выборки текстур:

Итак, никаких сюрпризов, подтвердилось ожидаемое преимущество X700 на однотекстурной закраске.

Тест Geometry Processing Speed

Самый простой шейдер – предельная пропускная способность по треугольникам:

Более сложный шейдер – один простой точечный источник света:

А теперь самая сложная задача, три источника света, причем, для сравнения в вариантах без переходов, со статическим и динамическим управлением исполнением:

В плане геометрии X700 демонстрирует феноменальные для своего класса результаты - он обгоняет даже 6800 Ultra, не говоря уже о своем прямом конкуренте 6600 GT. Вопрос только в том, насколько этот огромный геометрический потенциал будет задействован, затребован и раскрыт приложениями. Ведь ни одна современная игра не нуждается в такой пропускной способности по треугольникам. Что же касается DCC приложений - то мы уже упоминали ранее о важности драйвера (особенно OpenGL) и других аспектов в которых 6600 смотрится более выигрышно. Как бы там ни было - поздравляем ATI - они установили новый стандарт геометрической производительности. Такой ошеломляющей победы над прямым конкурентом в синтетических тестах мы не наблюдали достаточно давно.

Тест Pixel Shaders

Первая группа шейдеров – достаточно простых для исполнения в реальном времени, 1.1, 1.4 и 2.0:

А теперь посмотрим на сложные шейдеры:

Итого, по пиксельным шейдерам:

Здесь наблюдается четкое равенство - X700 не проигрывает и не выигрывает у 6600 GT. Но, в таком случае следует обратить внимание на вторичные факторы, такие, как поддержка SM3 и другие дополнительные возможности последних архитектур NVIDIA. В этом свете результаты X700 выглядят не очень впечатляющими - ATI могли бы так или инчае реализовать преимущество в простоте в преимущество по скорости, но на сей раз этого не произошло. А ведь при прочих равных продукт NVIDIA будет смотреться выгоднее из за своего технологического преимущество.

Тест HSR

Для начала пиковая эффективность (без текстур и с текстурами) в зависимости от сложности геометрии:



Никаких особенностей, вполне характерное для ATI поведение системы HSR, заметно, но не фатально более эффективной (и более адаптирующейся), за счет дополнительного уровня иерархии, чем оная от NVIDIA.

Тест Point Sprites.

Логично, что в случае крупных спрайтов ATI выигрывает - сказывается наличие 8 блоков блендинга и записи значений в кадр (напомним, что как правило спрайты используются для отрисовки систем частиц, что практически всегда подразумевает альфа-блендинг). В случае маленьких конкурируюшие чипы выглядят практически равными - узкое место драйверы и DirectX.

Тест MSAA

4х MSAA уравнивает возможности X700 и 6600GT, по крайней мере в этом простом тесте.

Отметим, что в случае 2х, практически бесплатном для обоих чипов, X700 может (потенциально) выглядеть чуть сильнее, в случае простых, однотекстурных задач.

Синтетические тесты в 3DMark03: Fillrate Multitexturing

Синтетические тесты в 3DMark03: Vertex Shaders

Синтетические тесты в 3DMark03: Pixel Shaders

Выводы по синтетическим тестам

Чипы во многом равны. Что при прочих равных не в пользу ATI - у NVIDIA больший разгонный потенциал и большее архитектурное преимущество. Два основных отличия:

  1. Заметное и похвальное преимущество ATI на геометрических задачах обеспеченное неурезанным геометрическим блоком от R420
  2. Досадное, но не так часто проявляющееся в реальных задачах отставание NVIDIA на закраске и записи в буфер кадра в случае простых однотекстурных шейдеров.

Итак, выделить твердого лидера невозможно, все основные интересные моменты мы отметили и прокоментировали. Теперь перейдем к практическим тестам и посмотрим, подтвердят ли они наши предположения:

Результаты тестов: сравнение производительности

В качестве инструментария мы использовали:

  • Return to Castle Wolfenstein (MultiPlayer) (id Software/Activision) — OpenGL, мультитекстурирование, ixbt0703-demo, настройки тестирования — все на максимально возможном уровне, S3TC OFF , конфигурации можно
  • Serious Sam: The Second Encounter v.1.05 (Croteam/GodGames) — OpenGL, мультитекстурирование, ixbt0703-demo, настройки тестирования: quality, S3TC OFF
  • Quake3 Arena v.1.17 (id Software/Activision) — OpenGL, мультитекстурирование, ixbt0703-demo, настройки тестирования все на максимальном уровне: уровень детализации — High, уровень детализации текстур — №4, S3TC OFF , плавность кривых поверхностей резко увеличена при помощи переменных r_subdivisions «1» и r_lodCurveError «30000» (подчеркну, что по умолчанию r_lodCurveError «250» !) , конфигурации можно
  • Unreal Tournament 2003 v.2225 (Digital Extreme/Epic Games) — Direct3D, Vertex Shaders, Hardware T&L, Dot3, cube texturing, качество по умолчанию
  • Code Creatures Benchmark Pro (CodeCult) — игровой тест, демонстрирующий работу платы в DirectX 8.1, Shaders, HW T&L.
  • Unreal II: The Awakening (Legend Ent./Epic Games) — Direct3D, Vertex Shaders, Hardware T&L, Dot3, cube texturing, качество по умолчанию
  • RightMark 3D v.0.4 (одна из игровых сцен) — DirectX 8.1, Dot3, cube texturing, shadow buffers, vertex and pixel shaders (1.1, 1.4).
  • Tomb Raider: Angel of Darkness v.49 (Core Design/Eldos Software) — DirectX 9.0, Paris5_4 demo. Тестирование проводилось при максимально установленном качестве, выключены были лишь Depth of Fields PS20.
  • HALO: Combat Evolved (Microsoft) — Direct3D, Vertex/Pixel Shaders 1.1/2.0, Hardware T&L, качество максимальное
  • Half-Life2 (Valve/Sierra) — DirectX 9.0, demo (ixbt07 . Тестирование проводилось при включенной анизотропной фильтрации, а также в тяжелом режиме с АА и анизотропией.
  • Tom Clancy"s Splinter Cell v.1.2b (UbiSoft) — Direct3D, Vertex/Pixel Shaders 1.1/2.0, Hardware T&L, качество максимальное (Very High); demo 1_1_2_Tbilisi
  • Call of Duty (MultiPlayer) (Infinity Ward/Activision) — OpenGL, мультитекстурирование, ixbt0104demo, настройки тестирования — все на максимально возможном уровне, S3TC ON
  • FarCry 1.2 (Crytek/UbiSoft), DirectX 9.0, мультитекстурирование, demo01 (research) (запуск игры с опцией -DEVMODE), настройки тестирования все Very High.
  • DOOM III (id Software/Activision), OpenGL, мультитекстурирование, ixbt1-demo (33MB) настройки тестирования все High Quality. Для оптимизации и уменьшения рывков были сделаны конфигурационные файлы с кешированием.
  • 3DMark03 v.340 (FutureMark/Remedy), DirectX 8.1/9.0, мультитекстурирование; Game1/2/3/4, MARKS.

Также, если кто хочет получить демки-бенчмарки, которыми мы пользуемся, то напишите на e-mail автора.

Quake3 Arena





Самые легкие режимы без АА и анизотропии: данный тест уже слишком стар, ему почти 5 лет, и поэтому вряд ли стоит под него делать оптимизации (ведь большинство тестеров давно забросили Q3). Поэтому мы и не видим почти никакого влияния оптимизаций. X700XT и ее конкурент 6600GT почти равны по силам.

При включенном АА: Здесь X700XT показывает свое преимущество, ведь слабое место у 6600 - отложенная запись в буфер кадра (8 пикселей за 2 такта пишутся).

При включенной анизотропии: ничего такого не произошло, равенство конкурентов.

Итоговый самый тяжелый режим с АА и анизотропией: поражение 6600GT осталось в силе из-за АА.

Итак, в целом:

  • RADEON X700XT - против RADEON 9800 PRO (ATHLON64 3400+) — в целом победа, проигрыш только в 1600х1200, где уже сказывается нехватка ПСП при 128-битной шине;
  • RADEON X700XT - против GeForce 6600GT — учитывая сложность теста и рекомендации использовать АА в нем, фиксируем победу X700XT;
  • RADEON X700XT - против GeForce 6800LE (ATHLON64 3400+) — то же самое, что и при сравнении с 9800XT;
  • RADEON X700XT с ОПТИМИЗАЦИЕЙ LOW - против RADEON X700XT БЕЗ ОПТИМИЗАЦИЙ — ничего;

Serious Sam: The Second Encounter





Самые легкие режимы без АА и анизотропии: несмотря на отсутствие этой игры в списке игр, официально подвергнутых программистами ATI оптимизациям, как мы видим, включение A.I. все же дает эффект и немалый. Что касается главных конкурентов, то у X700XT наблюдаем сильное поражение.

При включенном АА: оптимизации усиливают свой эффект (у X700, разумеется), и чуть помогают одержать победу над продуктом NVIDIA (хотя основная причина успеха - та же самая, что и в предыдущем тесте). Интересно отметить, что отключение оптимизаций у 6600 в этом режиме подняло скорость в 1600х1200, а не понизило, как следовало бы ожидать. Вероятно какая-то недоработка в драйвере или особенности работы приложения.

При включенной анизотропии: оптимизации просто творят чудо с X700 (кстати, а у 6600GT их отключение мало чего дало в плане скорости), хотя в целом все равно сильный проигрыщ конкуренту в лице 6600GT.

Итоговый самый тяжелый режим с АА и анизотропией: неоднозначный результат, поскольку поражения и победы при АА и АФ принесли успех X700XT в высоких разрещениях (где слабы позиции 6600GT из-за АА), и поражение в низком разрешении, где падение скорости у продукта NVIDIA при АА не столь катастрофично.

Итак, в целом:

  • RADEON X700XT - против RADEON 9800 XT (ATHLON64 3400+) — аналогично;
  • RADEON X700XT - против GeForce 6600GT — с учетом включения АА и АФ, условно присуждаем победу за X700XT;
  • RADEON X700XT с ОПТИМИЗАЦИЕЙ LOW - против RADEON X700XT БЕЗ ОПТИМИЗАЦИЙ — эффект просто огромный при активизации анизотропии! Значит есть повод для исследования качества в этой игре в следующем материале;
  • RADEON X700XT с ОПТИМИЗАЦИЕЙ HIGH - против RADEON X700XT БЕЗ ОПТИМИЗАЦИЙ — аналогично;

Return to Castle Wolfenstein (Multiplayer)





Самые легкие режимы без АА и анизотропии: легкое поражение Х700ХТ даже при самых агрессивных оптимизациях. При этом, как мы видим, они в данной игре у X700 дают очень весомые дивиденты (опять-таки, при том, что игра отсутствует в списке игр, приведенных ATI).

При включенном АА: снова сильный провал 6600GT при АА дает возможность X700 выйти на первое место с сильным отрывом от соперника. Разве лишь при отключении A.I. превосходство X700XT начинает таять.

При включенной анизотропии: примерный паритет с 6600GT, но при активных оптимизациях. Если же их выключить,то X700XT проигрывает битву.

Итоговый самый тяжелый режим с АА и анизотропией: сильное преимущество в АА дает право на присуждение победы карте X700XT.

Итак, в целом:

  • RADEON X700XT - против RADEON 9800 PRO (ATHLON64 3400+) — победа;
  • RADEON X700XT - против GeForce 6800LE (ATHLON64 3400+) — поражение;
  • RADEON X700XT с ОПТИМИЗАЦИЕЙ LOW - против RADEON X700XT БЕЗ ОПТИМИЗАЦИЙ — эффект блестящий от A.I., причем, явно видно, что как раз без активной анизотропии (неужели трилинейку «задвинули»? Надо будет и тут поисследовать по качеству);
  • RADEON X700XT с ОПТИМИЗАЦИЕЙ HIGH - против RADEON X700XT БЕЗ ОПТИМИЗАЦИЙ — аналогично;

Code Creatures





Самые легкие режимы без АА и анизотропии: выигрыш за X700XT. При этом есть незначительный эффект от оптимизаций.

При включенном АА: Интересная картина, просто исключительно интересная! При сравнении конкурентов с включенными оптимизациями мы видим парадокс: X700XT, взяв старт в 1024х768 с сильного выигрыша,… быстро утратил преимущество, все свелось к паритету. Если же оптимизации выключить, то победа снова за X700XT. Мы видим, что при АА теперь уже у NVIDIA проявляется очень сильный эффект, то бишь прирост скорости в случае активной оптимизации трилинейки. Причем до 52 процентов! И снова повод для исследований в качестве.

При включенной анизотропии: от паритета до победы X700XT при включенных оптимизациях, и поражение сопернику при выключенных. В таблице процентов внизу видно, что теперь уже АФ привела к тому, что при ее оптимизации скорость у X700XT выросла на 40-60 процентов. Будем исследовать качество в следующей части.

Итоговый самый тяжелый режим с АА и анизотропией: неоднозначно все. И немудрено, раз такая разноголосица была при раздельных АА и АФ.

Итак, в целом:

  • RADEON X700XT - против RADEON 9800 PRO (ATHLON64 3400+) — блестящая победа без АА и АФ, и поражение при включении оных, хотя если представить, что это игра, то играбельное разрешение лишь 1024х768, а там у X700XT все волшебно;
  • RADEON X700XT - против RADEON 9800 XT (ATHLON64 3400+) — аналогично;
  • RADEON X700XT - против GeForce 6600GT — условно назовем победой X700XT, поскольку приходится брать нечто среднее, учитывая играбельность;
  • RADEON X700XT - против GeForce 6800LE (ATHLON64 3400+) — АА убил все превосходства X700, но в 1024х768 (опять-таки!) продукт ATI остался лидером, поэтому условно ставим паритет;
  • RADEON X700XT с ОПТИМИЗАЦИЕЙ LOW - против RADEON X700XT БЕЗ ОПТИМИЗАЦИЙ — эффект огромен, и прежде всего засчет АФ;
  • RADEON X700XT с ОПТИМИЗАЦИЕЙ HIGH - против RADEON X700XT БЕЗ ОПТИМИЗАЦИЙ — аналогично, хотя цифры прироста даже еще выросли;

Обратим внимание на то, какой прирост скорости дают оптимизации у GeForce 6600GT!

Unreal Tournament 2003





Самые легкие режимы без АА и анизотропии: победа за X700XT, оптимизации немного, но дают прирост по скорости.

При включенном АА: учитывая, что у 6600GT оптимизации в 1600х1200 привели к падению скорости, то при сравнении без оных, мы видим, что X700XT, как ни странно, проиграл сопернику в том же разрешении, причем с весьма крупным счетом. Хотя включение A.I. дало продукту ATI сильные козыри, и в целом победа. Но снова надо исследовать качество.

При включенной анизотропии: оптимизация под АФ у X700XT также привела к резкому скачку скорости, посему победа у этой карты. Вопрос с качеством открыт, будем исследовать.

Итоговый самый тяжелый режим с АА и анизотропией: несмотря на то, что в 1600х1200 проигрыш при АА привел к финальному поражению X700XT в этом разрешении, в целом победа за X700XT, поскольку плюсов больше.

Итак, в целом:

  • RADEON X700XT - против RADEON 9800 PRO (ATHLON64 3400+) — паритет без АА+АФ, сильная победа с АФ (A.I.!!!), поражение при АА (понятное дело, ПСП маловата), и в целом победа;
  • RADEON X700XT - против RADEON 9800 XT (ATHLON64 3400+) — аналогично;
  • RADEON X700XT - против GeForce 6600GT — победа;
  • RADEON X700XT - против GeForce 6800LE (ATHLON64 3400+) — удивительно, но факт: победа! Отдача от оптимизаций АФ столь велика, что вывела X700XT в лидеры;
  • RADEON X700XT с ОПТИМИЗАЦИЕЙ LOW - против RADEON X700XT БЕЗ ОПТИМИЗАЦИЙ — ну, тут все понятно, при активной АФ скорость просто скачет в 1.5 раза если еще включить и A.I.;
  • RADEON X700XT с ОПТИМИЗАЦИЕЙ HIGH - против RADEON X700XT БЕЗ ОПТИМИЗАЦИЙ — аналогично;

Данная игра стоит на первом месте в списке на предмет исследования качества графики при включении A.I.

Unreal II: The Awakening





Самые легкие режимы без АА и анизотропии: небольшое поражение у X700XT, оптимизации дают мало отдачи.

При включенном АА: как и в первых тестах, при АА 6600GT резко теряет скорость, поэтому X700XT получает победу.

При включенной анизотропии: примерный паритет сил, и даже позиции X700XT чуть лучше. Но только при включенном A.I., если выключить, то X700XT проигрывает.

Итоговый самый тяжелый режим с АА и анизотропией: засчет АА и победы в нем, в целом лидерство за X700XT.

Итак, в целом:

  • RADEON X700XT - против RADEON 9800 PRO (ATHLON64 3400+) — победа;
  • RADEON X700XT - против RADEON 9800 XT (ATHLON64 3400+) — победа;
  • RADEON X700XT - против GeForce 6600GT — победа;
  • RADEON X700XT - против GeForce 6800LE (ATHLON64 3400+) — оптимизации АФ снова дали шапку лидера карте X700XT;
  • RADEON X700XT с ОПТИМИЗАЦИЕЙ LOW - против RADEON X700XT БЕЗ ОПТИМИЗАЦИЙ — активация АФ при включенных оптимизациях дала сильный прирост скорости;
  • RADEON X700XT с ОПТИМИЗАЦИЕЙ HIGH - против RADEON X700XT БЕЗ ОПТИМИЗАЦИЙ — аналогично, только прирост чуть повыше;

RightMark 3D





Самые легкие режимы без АА и анизотропии: победа за X700XT. И обратите внимание то, что включение A.I. дало этой карте очень неплохие козыри. Что это? Оптимизация под наш тест? :-) Или в целом некие поиски более дешевых по затратам путей при рендеринге? Оптимизация всего лишь трилинейки? - Сомнительно.

При включенном АА: все аналогично

При включенной анизотропии: да и здесь то же самое.

Итоговый самый тяжелый режим с АА и анизотропией: можно догадаться, что сказать больше нечего.

Итак, в целом:

  • RADEON X700XT - против RADEON 9800 PRO (ATHLON64 3400+) — победа;
  • RADEON X700XT - против RADEON 9800 XT (ATHLON64 3400+) — победа;
  • RADEON X700XT - против GeForce 6600GT — победа;
  • RADEON X700XT с ОПТИМИЗАЦИЕЙ LOW - против RADEON X700XT БЕЗ ОПТИМИЗАЦИЙ — неплохие дивиденты;
  • RADEON X700XT с ОПТИМИЗАЦИЕЙ HIGH - против RADEON X700XT БЕЗ ОПТИМИЗАЦИЙ — прирост достиг даже 34 процентов!;

TR:AoD, Paris5_4 DEMO





Самые легкие режимы без АА и анизотропии: легкое поражение сопернику, здесь роль играет уже чистая скорость шейдеров, а она в пересчете на частоту ядра, у 6600GT чуть выше.

При включенном АА: вот это да… полный провал X700XT! Что это? - Драйверы? Наверняка они. Ведь, посмотрите, в этом режиме в 1600х1200 у X700XT АА не работает. Хотя в других играх все нормально.

При включенной анизотропии: примерный паритет.

Итоговый самый тяжелый режим с АА и анизотропией: поражение X700XT.

Итак, в целом:

  • RADEON X700XT - против RADEON 9800 PRO (ATHLON64 3400+) — поражение;
  • RADEON X700XT - против RADEON 9800 XT (ATHLON64 3400+) — аналогично;
  • RADEON X700XT - против GeForce 6800LE (ATHLON64 3400+) — поражение;
  • RADEON X700XT с ОПТИМИЗАЦИЕЙ LOW - против RADEON X700XT БЕЗ ОПТИМИЗАЦИЙ — эффект мал;
  • RADEON X700XT с ОПТИМИЗАЦИЕЙ HIGH - против RADEON X700XT БЕЗ ОПТИМИЗАЦИЙ — аналогично;

Обратите внимание на то, какую фору имеет 6600GT от оптимизаций в этой игре, несмотря на то, что по словам специалистов NVIDIA они давно забросили заниматься с этой игрой после развала ее команды авторов.

FarCry, demo01





ЗДЕСЬ ДАЖЕ НЕЧЕГО РАССМАТРИВАТЬ раздельно! Полный провал X700XT по всем статьям! Очевидно, что игра не «поняла» новую карту (проверялось как на патче 1.1, так и на 1.2), и чего-то у нее не активизировалось, отсюда такое неслыханное просто поражение!

Если такое безобразие не будет исправлено после выхода карты в продажу и следующего патча к игре, то только за такое фиаско можно уже X700XT в целом присуждать поражение. Хотя, как мы видим, оптимизации-то работают. И снова затрагивают анизотропию. Что значит - качество проверять надо. Однако, чего проверять при таком провале..

Call of Duty, ixbt04





Самые легкие режимы без АА и анизотропии: примерное равенство сил соперников. Хотя оптимизации у обеих карт дают свои плоды, но у X700XT прирост чуть выше.

При включенном АА: победа за X700XT! Снова засчет того, что у 6600GT отложенная запись во буфер кадра, что при АА сказывается очень негативно.

При включенной анизотропии: картина обратная, уже победа у 6600GT.

Итоговый самый тяжелый режим с АА и анизотропией: в целом, учитывая то, что перевес в АА дал больше проку для X700XT, победа этой карте и досталась.

Итак, в целом:

  • RADEON X700XT - против RADEON 9800 PRO (ATHLON64 3400+) — победа;
  • RADEON X700XT - против RADEON 9800 XT (ATHLON64 3400+) — аналогично;
  • RADEON X700XT - против GeForce 6600GT — победа;
  • RADEON X700XT - против GeForce 6800LE (ATHLON64 3400+) — поражение;
  • RADEON X700XT с ОПТИМИЗАЦИЕЙ LOW - против RADEON X700XT БЕЗ ОПТИМИЗАЦИЙ — при АФ и включенном A.I. X700 получает приличные приросты скорости;
  • RADEON X700XT с ОПТИМИЗАЦИЕЙ HIGH - против RADEON X700XT БЕЗ ОПТИМИЗАЦИЙ — аналогично;

HALO: Combat Evolved



Самые легкие режимы без АА и анизотропии: поражение X700XT

Итак, в целом:

  • RADEON X700XT - против RADEON 9800 PRO (ATHLON64 3400+) — победа;
  • RADEON X700XT - против RADEON 9800 XT (ATHLON64 3400+) — победа;
  • RADEON X700XT - против GeForce 6600GT — поражение;
  • RADEON X700XT - против GeForce 6800LE (ATHLON64 3400+) — победа (!!!);
  • RADEON X700XT с ОПТИМИЗАЦИЕЙ LOW - против RADEON X700XT БЕЗ ОПТИМИЗАЦИЙ — небольшой эффект дало включение оптимизаций только при АФ;
  • RADEON X700XT с ОПТИМИЗАЦИЕЙ HIGH - против RADEON X700XT БЕЗ ОПТИМИЗАЦИЙ — аналогично;

Half-Life2 (beta): ixbt07 demo



При включенной анизотропии: поражение X700XT и очень сильное!

Итоговый самый тяжелый режим с АА и анизотропией: и только лишь то, что 6600GT при АА снова сильно просел, дало X700XT возможность вырвать победу. Хотя, опять же, баги есть - в 1600х1200 снова АА не работает.

Итак, в целом:

  • RADEON X700XT - против RADEON 9800 PRO (ATHLON64 3400+) — победа;
  • RADEON X700XT - против RADEON 9800 XT (ATHLON64 3400+) — победа;
  • RADEON X700XT - против GeForce 6600GT — победа;
  • RADEON X700XT - против GeForce 6800LE (ATHLON64 3400+) — поражение;
  • RADEON X700XT с ОПТИМИЗАЦИЕЙ LOW - против RADEON X700XT БЕЗ ОПТИМИЗАЦИЙ — очень хороший прирост скорости при включении А.I. совместно с АФ;
  • RADEON X700XT с ОПТИМИЗАЦИЕЙ HIGH - против RADEON X700XT БЕЗ ОПТИМИЗАЦИЙ — аналогично;

Splinter Cell



Поражение X700XT по всем статьям (относительно 6600GT).

Итак, в целом:

  • RADEON X700XT - против RADEON 9800 PRO (ATHLON64 3400+) — победа;
  • RADEON X700XT - против RADEON 9800 XT (ATHLON64 3400+) — примерный паритет;
  • RADEON X700XT - против GeForce 6600GT — поражение;
  • RADEON X700XT - против GeForce 6800LE (ATHLON64 3400+) — сильное фиаско!;
  • RADEON X700XT с ОПТИМИЗАЦИЕЙ LOW - против RADEON X700XT БЕЗ ОПТИМИЗАЦИЙ — эффекта нет;
  • RADEON X700XT с ОПТИМИЗАЦИЕЙ HIGH - против RADEON X700XT БЕЗ ОПТИМИЗАЦИЙ — аналогично;

DOOM III





Думаю, что нет смысла рассматривать сравнение X700XT/6600GT по режимам, когда и так видно, что X700XT проиграл полностью!

Итак, в целом:

  • RADEON X700XT - против RADEON 9800 PRO (ATHLON64 3400+) — превосходный успех (впрочем, ожидаемо, ведь частота сильно выше);
  • RADEON X700XT - против RADEON 9800 XT (ATHLON64 3400+) — аналогично (лишь уже в высоких разрешениях низкая ПСП у X700XT подпортила дело);
  • RADEON X700XT - против GeForce 6600GT — ПОЛНЫЙ ПРОВАЛ X700XT;
  • RADEON X700XT - против GeForce 6800LE (ATHLON64 3400+) — АНАЛОГИЧНО;
  • RADEON X700XT с ОПТИМИЗАЦИЕЙ LOW - против RADEON X700XT БЕЗ ОПТИМИЗАЦИЙ — вот это да!!! Посмотрите, сколько дают оптимизации под данную игру!!! Изучение качества срочно требуется, хотя это очень и очень тяжело, учитывая колоссальное количество темных сцен, где мало чего увидишь;
  • RADEON X700XT с ОПТИМИЗАЦИЕЙ HIGH - против RADEON X700XT БЕЗ ОПТИМИЗАЦИЙ — анаогично;

И обратите внимание на то, как ничтожно мало дают оптимизации для 6600GT, хотя надо учитывать, что это лишь касается трилинейки и АФ, а не в целом оптимизации под игру (в т.ч. и подмены шейдеров).

3DMark03: Game1





Самые легкие режимы без АА и анизотропии: примерный паритет при оптимизациях, и проигрыш X700XT без оных. Включение A.I., особенно High, дает свои плоды.

При включенном АА: победа за X700XT, учитывая провальное поведение 6600GT при АА.

При включенной анизотропии: только в High-режиме оптимизаций X700XT удается вырвать победу, в остальных же случаях лидер - 6600GT. Оптимизации под АФ здесь у X700 очень плодотворны. Придется исследовать качество.

Итоговый самый тяжелый режим с АА и анизотропией: засчет АА удалось карте от ATI получить майку лидера, но только при условии включения High-оптимизации.

Итак, в целом:

  • RADEON X700XT - против RADEON 9800 PRO (ATHLON64 3400+) — победа;
  • RADEON X700XT - против RADEON 9800 XT (ATHLON64 3400+) — победа;
  • RADEON X700XT - против GeForce 6600GT — победа только при High A.I.;
  • RADEON X700XT - против GeForce 6800LE (ATHLON64 3400+) — поражение;
  • RADEON X700XT с ОПТИМИЗАЦИЕЙ LOW - против RADEON X700XT БЕЗ ОПТИМИЗАЦИЙ — эффект налицо;
  • RADEON X700XT с ОПТИМИЗАЦИЕЙ HIGH - против RADEON X700XT БЕЗ ОПТИМИЗАЦИЙ — а здесь он еще сильнее, надо изучать, что происходит с качеством - бесплатна ли такая оптимизация?;

3DMark03: Game2





Проигрыш X700XT конкуренту в лице 6600GT по всем режимам. Хотя оптимизации что-то помогают, но слабо.

Итак, в целом:

  • RADEON X700XT - против RADEON 9800 PRO (ATHLON64 3400+) — победа;
  • RADEON X700XT - против RADEON 9800 XT (ATHLON64 3400+) — победа;
  • RADEON X700XT - против GeForce 6600GT — поражение;
  • RADEON X700XT - против GeForce 6800LE (ATHLON64 3400+) — поражение;
  • RADEON X700XT с ОПТИМИЗАЦИЕЙ LOW - против RADEON X700XT БЕЗ ОПТИМИЗАЦИЙ — только при активной анизотропии мы видим приличный прирост от A.I.;
  • RADEON X700XT с ОПТИМИЗАЦИЕЙ HIGH - против RADEON X700XT БЕЗ ОПТИМИЗАЦИЙ — аналогично;

Качество надо будет смотреть, хотя вся сцена темная, трудно будет найти чего-либо.

3DMark03: Game3





Самые легкие режимы без АА и анизотропии: оптимизации у X700 работают с тем же потенциалом, что и в предыдущем тесте. И в целом можно сказать, что мало чего дали, т.к. X700 даже с ними проиграл битву.

При включенном АА: почти паритет с соперником

При включенной анизотропии: аналогично

Итоговый самый тяжелый режим с АА и анизотропией: паритет с 6600GT при активных оптимизациях и поражение при выключенных.

Итак, в целом:

  • RADEON X700XT - против RADEON 9800 PRO (ATHLON64 3400+) — победа;
  • RADEON X700XT - против RADEON 9800 XT (ATHLON64 3400+) — победа;
  • RADEON X700XT - против GeForce 6600GT — условно ставим паритет;
  • RADEON X700XT - против GeForce 6800LE (ATHLON64 3400+) — поражение;
  • RADEON X700XT с ОПТИМИЗАЦИЕЙ LOW - против RADEON X700XT БЕЗ ОПТИМИЗАЦИЙ — небольшой эффект;
  • RADEON X700XT с ОПТИМИЗАЦИЕЙ HIGH - против RADEON X700XT БЕЗ ОПТИМИЗАЦИЙ — аналогично;

3DMark03: Game4





Убедительная и блестящая победа X700XT во всех режимах!

Итак, в целом:

  • RADEON X700XT - против RADEON 9800 PRO (ATHLON64 3400+) — победа;
  • RADEON X700XT - против RADEON 9800 XT (ATHLON64 3400+) — победа;
  • RADEON X700XT - против GeForce 6600GT — победа;
  • RADEON X700XT - против GeForce 6800LE (ATHLON64 3400+) — победа;

3DMark03: MARKS





И, как итог, после сильного влияни предыдущего теста - почти везде победа у X700XT. Причем, оптимизации (A.I.) дают приличный прирост.

Итак, в целом:

  • RADEON X700XT - против RADEON 9800 PRO (ATHLON64 3400+) — победа;
  • RADEON X700XT - против RADEON 9800 XT (ATHLON64 3400+) — победа;
  • RADEON X700XT - против GeForce 6600GT — победа;
  • RADEON X700XT - против GeForce 6800LE (ATHLON64 3400+) — условный паритет;
  • RADEON X700XT с ОПТИМИЗАЦИЕЙ LOW - против RADEON X700XT БЕЗ ОПТИМИЗАЦИЙ — эффект есть;
  • RADEON X700XT с ОПТИМИЗАЦИЕЙ HIGH - против RADEON X700XT БЕЗ ОПТИМИЗАЦИЙ — то же самое;

Выводы

Подводя итоги:

  • Учитывая многочисленные пусть даже легкие, но победы X700XT над своим главным соперником - GeForce 6600GT, можно было бы сказать много теплых слов в адрес новинки от ATI, но…
  • Малопонятный и колоссальный провал карты в Far Cry, а также ожидаемый проигрыш в DOOM III (этих двух хитовых играх!) и неважные результаты в HL2 дают нам повод не оглашать лидерства и не присуждать его X700XT
  • Ложкой дегтя является шум кулера, который, как показали наши исследования, ничем не оправдан.
  • Даже если с натяжкой поставить знак равенства между GeForce 6600GT и RADEON X700XT, то такие потенциальные технологические заделы на будущее, как SLI и SM3 дают GeForce 6600GT больше шансов быть востребованным (прежде всего SLI).
  • Мы не стали исследовать разгон X700XT по двум причинам: нехватка времени, ну и малый потенциал (карта зависает даже при ядре установленном на частоту 505 МГц, в то время, как разгонный потенциал 6600GT превосходен, и поэтому NVIDIA не составит никакого труда выпустить следующую ревизию карты с повыщенными частотами, устранив таким образом все нетвердые преимущества X700XT в скорости).
  • Сладкой пилюлей может послужить то, что X700XT реально быстрее своих прежних собратьев из High-End лагеря: 9800PRO/9800XT. Ну и, разумеется, GeForce FX 5950U. Однако не будем забывать что эти карты из разных секторов (PCX и AGP) и поэтому будет не совсем корректно их сравнивать. Все равно при переходе на другую платформу пользователь должен изменить конфигурацию, и простое сравнение в лоб будут некорректными.

Итак, нам придется, во-первых, надеяться на то, что вскоре будет выпущен драйвер (или патч к игре) исправляющий такой провал в Far Cry; во-вторых, ATI наверняка придется умерить свои аппетиты насчет 249 долларов за 256-мегабайтную карту, и снизить цены на 40-50 долларов, ожидая выхода более мощной карты от NVIDIA из того же семейства 6600.

В-третьх, мы все помним, что долгое время продукты ATI были фаворитами только из-за того, что обладали заметно более высокой скоростью в шейдерных играх относительно своих конкурентов от NVIDIA. И, для того, чтобы остаться на первом месте, канадской компании надо было выпускать продукт не с равной (условно) производительностью, а на какой-то заметный процент превосходящей конкурента. А также учесть приличный запас по подъему частот у 6600GT (чего, как ни странно, не наблюдается у X700XT, хотя оба продукта выпускаются по одному техпроцессу).

Пока еще у ATI есть своя «малина» в AGP-секторе, где NVIDIA на сегодня предлагает за 150-200 долларов только старые и слабые FX 5700. Это хороший шанс и именно поэтому странно видеть, что канадцы по прежнему пытаются играть в этом секторе с помощью 9800 PRO (который, как показали тесты, явно неконкурентоспособен новым Middle-решениям), вместо того, чтобы и сюда внедрить X700-линейку, воспользовавшись тем, что на данный момент NVIDIA сильно отстала в этом секторе. Можно было сделать разные ревизии RV410 (с AGP- и PCX-интерфейсами). Жаль, но этот момент ATI уже практически упустила - вряд ли компания успеет среагировать до вероятного появления новых AGP решений от NVIDIA.

Интересно, что сейчас, с завидным постоянством отдавая приоритет PCI-E, и та и эта компания фактически принуждают OEM сборщиков переходить на новую платформу, что очень выгодно Intel и совершенно не выгодно обычным потребителям, да и большинству ОЕМ сборщиков. Видимо, тень Intel так или иначе маячит за рьяной PCI Express инициативностью обоих графических лидеров.

Что-ж, вернемся к ATI. Лидерство надо поддерживать и постоянно! А не выпускать 1 раз в 3 года удачный продукт почивая затем на лаврах. И если в Канаде этого не поймут, то вскоре потеряют шапку (или футболку?) лидера. Можно было бы гордиться X800XT PE, тем какой он сильный и могучий, да только пока в продаже его не найти. Бумажной короной земли не берут, и ей не присягают…

Мы будем продолжать наши исследования, поэтому окончательный вердикт не выносим, исследования качества внесут свою лепту, выйдут новые драйвера, возможно исправляющие явные огрехи. Начнутся массовые продажи, выйдут продукты от различных вендоров, тогда и посмотрим, кто кого….

Теперь что касается CATALYST новой версии и его нововведений. Очень похвально и приятно видеть, что пользователям дали возможность самим решать - чего они хотят упрощать, а чего нет. Это что касается A.I. Но мы еще будем проверять, а что именно отключается и включается при переходе от одного режима к другому внутри A.I. Поэтому тоже пока вердикта не выносим. А вот по поводу тормознутости самого CCC хочется сказать очень сильные горячие слова с четким отрицательным уклоном. Ибо это безобразие, когда на мощнейшем компьтере программа умудряется безбожно тормозить. Надеемся, что в ближайшее время этот момент будет учтен разработчиками. В целом же, повторим, идея A.I. очень хороша, как и CCC в целом.

Более полные сравнительные характеристики видеокарт этого и других классов вы можете увидеть также в наших 3DGiТогах .

НАПОМНИМ ЕЩЕ РАЗ, что это только первая часть нашего многосерийного материала по RV410! Ждите продолжения!

Все видеокарты AMD, выпускаемые с начала 2000-х годов, собираются не самой компанией-разработчиком, а сторонними производителями.

Поэтому, кроме названия создателей графического процессора, каждое устройство имеет маркировку от таких фирм как Asus, MSI, Gigabyte или Sapphire Technology.

Последняя компания занимается выпуском только карт от AMD.

Все современные устройства способны поддерживать технологию DirectX 12 и работать с современными играми, хотя и не всегда с максимальным разрешением графики.

При этом, на рынок уже начали поступать новые модели AMD, однако ещё можно приобрести несколько старых вариантов.

Новое поколение

Последнее поколение графических процессоров AMD можно назвать самым компактным.

Уменьшившиеся размеры на фоне улучшающихся характеристик и сравнительно доступных цен дают возможность современным флагманам этой марки создать достойную конкуренцию nVidia.

Также можно запускать видео с разрешением 4К и пользоваться видеокартами в корпусах любого размера, включая неттопы.

Дорогой флагман AMD

Видеокарту Radeon R9 Fury X можно назвать флагманом последней серии R9. Хотя, как считают многие пользователи, стоимость устройства пока ещё слишком высока для покупки.

Аналогичную по производительности модель от nVidia (например, GTX 980) можно приобрести намного дешевле.

Хотя её преимущества в виде компактных размеров, бесшумной работы и эффективной системы жидкостного охлаждения, позволяют:

  • установить Fury X в любой, даже самый миниатюрный, системный блок;
  • комплектовать картой домашний компьютер, работа которого не будет мешать другим обитателям квартиры;
  • использовать оборудование для ресурсоёмких игр, нагревающих графический процессор.

Среди дополнительных плюсов устройства можно отметить совершенно новый типа памяти HBM, скорость работы которой в несколько раз больше с уже начинающим устаревать форматом GDDR5.

Параметры карты:

  • память: HBM 4 ГБ, частота 1000 МГц;
  • шина: 4096 бит, 1050 МГЦ;
  • мощность: около 275 Вт;
  • цена: от 44000 руб.

Привлекательная, мощная и вполне доступная

Более старая модель Radeon R9 Fury, тем не менее, имеет практически те же характеристики.

Тестирование возможностей карты показало снижение мощности на 15–17% по сравнению с Fury X только для самого высокого разрешения графики в играх.

В обычном режиме (HD или FullHD) графическая плата работает практически так же как и топовая версия, и практически соответствует уровню GTX 1080 (даже превышая её параметры по скорости передачи данных).

Небольшим недостатком модели можно назвать память в 4 ГБ, однако технология HBM вполне способна компенсировать разницу.

Ещё один минус – высокое энергопотребление.

При максимальном разгоне только на одну карту придётся зарезервировать до 425 Вт мощности, тогда как среднее значение – 275 Вт.

Характеристики модели:

  • память: HBM, 4096 МБ, 1000 МГц;
  • разрядность шины: 4096;
  • передача данных: 512 Гбайт/с;
  • энергопотребление: 275 Вт;
  • стоимость: от 25000 руб.

Компактная и энергоэффективная

Небольшая по размеру видеокарта Radeon R9 Nano отличается минимальным для своих возможностей потреблением электроэнергии – для её работы требуется всего 125–175 Вт.

Это позволяет устанавливать в компьютере не такую мощную систему охлаждения, как для моделей R9 Fury.

Процессор поддерживает технологии DirectX 12, OpenGL 4.5 и Vulkan, легко справляется с запуском видео и игр с разрешением 4К и обойдётся покупателю примерно в 26 тыс. руб.

Такая цена превышает возможности среднего геймера, но вполне доступна для владельца мощного игрового компьютера стоимостью $800–1000.

Основные параметры:

  • память: HBM, 4 ГБ, 1000 МГц;
  • шина: 4096 бит, частота 1000 МГц;
  • пропускная способность: 512 Гбайт/с;
  • цена: от 26000 руб.

Достойный конкурент флагманов nVidia

Модель Radeon RX 480 с поддержкой технологии виртуальной реальности, отличными возможностями для разгона и эффективным охлаждением называют достойным конкурентом GTX 1060–1070 – видеокарт, входящих в десятку лучших продуктов nVidia.

Использование архитектуры Polaris и технологии LiquidVR позволит пользователю карты запускать 3D-игры и другие приложения с качеством UltraHD (4К) и частотой до 60 кадров в секунду.

Такие показатели могли бы заметно повысить популярность видеокарты, если бы не её цена, начинающаяся с 21 тысячи рублей.

Характеристики модели:

  • частота шины/памяти: 1208/8000 МГц;
  • разрядность шины: 256-bit;
  • память: GDDR5, 8192 МБ;
  • передача данных: 256 Гбайт/с;
  • цены: 21–28 тыс. руб.

Хороший выбор для геймера

Менее производительный вариант Radeon RX, модель 470-й серии, тоже обеспечивает запуск ресурсоёмких приложений без снижения производительности компьютера.

Такую возможность устройству даёт кэш в 2 МБ и шина частотой 1254 МГц.

Хотя, как показало тестирование, на компьютере с таким графическим процессором лучше всего работают игры с разрешением не больше FullHD.

Получить достаточный комфорт работы и частоту в режиме 4К уже сложнее, хотя и возможно.

Поэтому уже через 1–2 года геймеру, желающему не отставать от прогресса, придётся сменить карту на новую.

Основные параметры:

  • память: 8 ГБ (6700 МГц);
  • шина: 256 бит, 1254 МГц;
  • скорость передачи информации: 211 Гбайт/с;
  • цена: от 15000 руб.

Бюджетный вариант для любителей хороших игр

Если вам нужен самый бюджетный из предлагаемых сейчас вариантов мощной видеокарты, стоит обратить внимание на модель Radeon RX 460, выпуск которой тоже начался в 2016 году.

Имея шину с частотой 128 бит и память GDDR5 4 ГБ, она, конечно, не поразит своими возможностями. Однако всё равно позволит запускать любые игры:

  • современные на минимальных и средних настройках;
  • выпущенные до 2015 года – на достаточно высоких.

А ещё RX 460 отличается минимальным уровне создаваемого шума, получаемого при работе системы охлаждения.

При этом температура карты не превышает 70 градусов при максимальном значении показателя в 105 градусов.

Параметры устройства:

  • шина: 128 бит, 1212 МГц;
  • память: 4 ГБ, частота 7000 МГц;
  • передача данных: 112 Гбайт/с
  • стоимость: около 10 тыс. руб.

Предыдущее поколение

Старое поколение видеокарт AMD может составить вполне достойную конкуренцию современному оборудованию.

Однако с выходом новых моделей эти устройства начинают постепенно устаревать.

И, несмотря на свои неплохие характеристики, модули GDDR5 скоро выйдут из употребления, по крайней мере, среди геймеров.

Их заменят стандарты HBM и GDDR5x, первый уже применяется производителем AMD, второй – его конкурентом nVidia.

Хорошая карта за хорошие деньги

Предыдущее поколение видеокарт AMD пока ещё рано списывать со счетов. Ведь среди выпускаемых в 2015 году моделей есть и такие мощные устройства как Radeon R9 390X.

Производительность модели вполне сравнима с процессорами Radeon RX 480 и nVidia GTX 980, а памяти в 8 ГБ хватает для выполнения любой задачи.

Хотя при этом карта требует 275 Вт мощности блока питания и создаёт высокий уровень шума в процессе работы.

Характеристики модели:

  • частота ядра: 1100 МГц;
  • разрядность шины: 512 бит;
  • объём: 8 ГБ GDDR5;
  • скорость передачи данных: до 384 ГБ/с;
  • стоимость: от 26000 руб.

Облегчённый вариант 390X

Ярким представителем 300-й серии Radeon R9 можно назвать модель R9 390 Gaming от MSI.

Её преимуществами является меньшее, чем у 390X, энергопотребление и, соответственно, сниженный уровень шума.

Снижение производительности и стоимости видеокарты по сравнению со «старшей» версией примерно пропорциональное и составляет около 10 процентов.

Для игр таких параметров более чем достаточно, для 4К видео – тоже.

Можно предположить, что возможностей карты хватит не только для геймеров, но и для обработки качественного видео, и на 2–3 следующих года.

Основные параметры:

  • частота ядра/памяти: 1060/6100 МГц;
  • шина: 512-bit;
  • объём: 8192 МБ;
  • передача данных: до 384 ГБ/с;
  • стоимость: от 23000 руб.

Вариант для средних игр

Выбор видеокарты Radeon R9 380X с 4 ГБ памяти GDDR5 вряд ли будет обоснован для пользователя, который собирает компьютер для использования в играх 2016–2017 годов выпуска.

Работать они всё равно будут, но максимальные настройки, скорее всего, установить не получится.

За ту же сумму можно приобрести не только менее затратную по использованию электричества модель nVidia, но и более производительный и скоростной вариант AMD RX 470.

Основные параметры:

  • память: GDDR5, 4 ГБ;
  • частота: ядро 980 МГц, память 5700 МГц;
  • шина: 256 бит;
  • скорость передачи данных: 186 Гбайт/с;
  • цена: около 17 тыс. руб.

Старая модель с достойными параметрами

Владелец видеокарты MSI Radeon R9 380 может позволить себе запуск тех же игр и программ, что и аналогичная по цене модель RX 470 от того же производителя.

Легко запускаются на ПК с таким графическим процессором и фильмы FullHD.

Таким образом, её можно назвать одним из лучших вариантов среди старых моделей карт и возможным вариантом для покупки.

Характеристики видеокарты:

  • частота процессора/памяти: 970/5500 МГЦ;
  • объём памяти GDDR5: 4 ГБ;
  • шина: 256-bit;
  • передача данных: 176 Гбайт/с;
  • стоимость: от 15000 руб.

Подводя итоги

Рассмотрев основные параметры современных видеокарт AMD Radeon, можно сделать вывод, что, несмотря на наличие в модельном ряду достаточно мощных продуктов, некоторые из них стоят слишком дорого для своих возможностей.

И на сегодняшний день стоит приобретать только три модели:

  • Radeon R9 Fury для запуска ресурсоёмких игр с запасом на будущее;
  • Radeon RX 470 или R9 380 для получения оптимального соотношения цены и качества;
  • Radeon RX 460 для использования современных игровых приложений с минимальными затратами.

ВведениеКак Вы помните, минувшим летом компания ATI выпустила сразу два новых графических чипа - RADEON 8500 и RADEON 7500.
В RADEON 8500 были собраны новейшие наработки ATI, и я не ошибусь, если скажу, что за последнее время этот графический чип стал самым богатым на новые функции и возможности, особенно на фоне появления "как-бы новых" чипов серии Titanium от NVIDIA. RADEON 8500 оказался очень быстрым, интересным, не без недостатков, конечно, но вызов, брошенный топовыми моделями от "заклятого друга", он принял достойно.
Младший братец из нового семейства - RADEON 7500 - находящийся в тени RADEON 8500, не привлек такого внимания, не был с такой же силой обласкан или обруган на страницах Сети, хотя внимания он, как новый продукт, заслуживает не меньшего.
ATI RADEON 7500 изготавливается по 0.15мкм-технологии, его 3D-часть целиком унаследована от ATI RADEON, а 2D часть - от RADEON VE.
Таким образом, в RADEON 7500 оказались собраными уже давно отлаженные, прошедшие проверку временем, детали архитектуры. А переразводка чипа и перевод его на более тонкий техпроцесс позволили добиться работы на очень высоких частотах - до 300 МГц и выше. В результате появился новый чип, имеющий архитектуру ATI RADEON, но почти вдвое более быстрый, и заодно имеющий качественную поддержку двухмониторных конфигураций. Цель выпуска ATI RADEON 7500 - потеснить "заклятого друга" в секторе видеокарт среднего уровня - NVIDIA GeForce2 Pro, GeForce2 Ti и, отчасти, GeForce3 Ti200.

Сейчас платы на базе чипа ATI RADEON 7500 продаются уже повсеместно, и в этом есть еще одна заслуга ATI: наконец-то, производство видеокарт было отдано сторонним компаниям, что сразу позволило уменьшить цену и увеличить количество выпускаемых видеокарт.
Наша цель - разобраться, что есть RADEON 7500, и постараться объективно сравнить платы на его основе с близкими по цене видеокартами на чипах от NVIDIA.
Приступим?

Характеристики и возможности ATI RADEON 7500

Основные характеристики чипа и 3D-возможности:

Частота работы - 270-290 МГц
Интерфейс видеопамяти - 64/128 бит SDRAM или DDR SDRAM
Количество пиксельных конвейеров - 2
Количество текстурных модулей - 3 в каждом конвейере
Наложение до трех текстур за один проход
Билинейная, трилинейная и анизотропная фильтрация текстур
Имитация рельефности методами Emboss, Dot3, EMBM
Поддержка компресси текстур S3TC/DXTC
Полноэкранное сглаживание 2х, 4х методом суперсэмплинга
Аппаратный блок T&L
Поддержка HyperZ

Возможности в части 2D и воспроизведения видео:

Два встроенных CRT-контроллера
Два встроенных RAMDAC с частотой преобразования 350 МГц
Встроенный TMDS-трансмиттер для вывода на цифровые мониторы
Встроенный ТВ-кодер для вывода изображения на ТВ.
Поддержка адаптивного деинтерлейсинга
Поддержка аппаратного декодирования DVD - iDCT

Итак, из вышенаписанного следует, что ATI RADEON 7500 поддерживает двухмониторные конфигурации. Возможны следующие комбинации подключения к RADEON 7500:

Аналоговый монитор + аналоговый монитор (при наличии переходника DVI-I -> VGA)
Аналоговый мониор + цифровой монитор
Аналоговый монитор + телевизор
Цифровой монитор + телевизор

Что примечательно, на RADEON 7500 "первичным" или "вторичным" может быть совершенно любое устройство отображения, так как у RADEON 7500, как и у RADEON VE, оба CRT-контроллера совершенно равноправны.
В обзоре ATI RADEON VE работа в двухмониторных конфигурациях рассмотрена достаточно подробно, поэтому нет смысла повторять это и сейчас.

Плата ATI RADEON 7500

Плата ATI RADEON 7500 укомплектована выходами VGA, DVI и S-Video, но не производит впечатления обилием микросхем - всё, что нужно, интегрировано в ядро RADEON 7500:


"Сердце" платы - чип ATI RADEON 7500, выполненный по 0.15мкм-технологии:


Плата укомплектована 64 МБ видеопамяти DDR SDRAM производства Hynix с временем цикла 4нс.:


Тактовые частоты ядра и видеопамяти на плате, принявшей участие в тестировании - ATI RADEON 7500 OEM, составляют по умолчанию 270/460 (230 DDR) МГц.
Что характерно, ситуация с частотами ядра RADEON 7500 и RADEON 8500 схожа: только Retail-платы ATI RADEON 7500 имеют тактовую частоту ядра 290 МГц, а все остальные видеокарты на базе ATI RADEON 7500, включая RADEON 7500 в OEM-варианте от самой ATI, имеют частоту ядра 270 МГц. Частота же видеопамяти на всех платах на базе ATI RADEON 7500 пока, к счастью, одинакова и составляет 230 (460 DDR) МГц.
При проведении тестов мы установили частоты работы платы ATI RADEON 7500 в 290/230 МГц, как у Retail ATI RADEON 7500

Тестовая система

Для тестирования плат была использована система:

Процессор - AMD Athlon XP 1500+;
Материнская плата – MSI K7T266 Pro2 v2.0 (VIA KT266A);
Память - 2*128 МБ DDR SDRAM PC 2100 Nanya CL2;
Жесткий диск – Fujitsu MPF3153AH.

Программное обеспечение:

Драйвер версии 6.13.10.6011 под Windows XP для ATI RADEON 7500;
Драйвер Detonator 23.11 под Windows XP для плат на чипах NVIDIA;
Max Payne;
Serious Sam v1.05;
3DMark 2001;
Quake3 Arena v1.27;
Windows XP.

Для сравнения производительности вместе с ATI RADEON 7500 были протестированы платы:

SUMA Platinum GeForce2 Pro (NVIDIA GeForce2 Pro, 200/400 МГц , 64 МБ DDR SDRAM)
VisionTek Xtasy 5864 (NVIDIA GeForce2 Ti, 250/460 МГц , 64 МБ DDR SDRAM)
VisionTek Xtasy 6564 (NVIDIA GeForce3 Ti200, 175/400 МГц , 64 МБ DDR SDRAM)

Скорость в 3D

3DMark 2001

Для начала - синтетические тесты 3DMark 2001 на скорость заполнения и обработки полигонов:



ATI RADEON 7500, за счет оптимизации работы с Z-буфером и возможности наложения трех текстур за один проход, имеет самые низкие потери в скорости заполнения сцены при переходе от 16-битных режимов экрана, Z-буфера и качества текстур к 32-битным. К тому же, из-за более высокой частоты видеопамяти, максимальная пропускная способность видеопамяти на ATI RADEON 7500 выше, чем у его конкурентов по этому тесту.
Но потери - потерями, а производительность у ATI RADEON 7500 оказывается ниже, чем у платы на базе NVIDIA GeForce3 Ti200, несмотря на более низкую тактовую частоту видеопамяти последней. Здесь роль сыграло как вдвое большее количество пиксельных конвейеров GeForce3 Ti200, обеспечившее большую теоретическую скорость заполнения, так и архитектура памяти GeForce3 - LightSpeed Memory Architecture, позволившая эффективно использовать пропускную способность видеопамяти. В результате, NVIDIA GeForce3 Ti200 и ATI RADEON 7500 - лидеры в этом тесте.



При использовании аппаратного блока T&L ATI RADEON 7500 оказывается лидером, однако, это не значит, что блок трансформации и освещения на RADEON 7500 намного мощнее, чем на GeForce2 Ti или GeForce2 Pro. Стоит вспомнить, что ATI RADEON 7500 имеет самую высокую частоту ядра среди всех участников теста, и если произвести несложные вычисления, представив, каким будет результат ATI RADEON 7500 при частоте ядра в 175-200 МГц, то станет ясно, что производительность блока T&L RADEON 7500 примерно равна производительности GeForce2 Pro / Ti - на равных с ними частотах он окажется чуть медленнее в тесте с одним источником освещения, и чуть быстрее - в тесте с 8 огнями.
В случае с программным расчетом геометрии сцены ATI RADEON 7500 оказывается явным аутсайдером, и обвинить в этом можно только качество оптимизации драйверов.

Честно говоря, можно было бы рассмотреть и другие тесты, показать другие особенности архитектуры ATI RADEON 7500, например, работу трех текстурных модулей или HyperZ, но, во-первых, это не столь уж интересно, а во-вторых, ничего нового в этом плане от RADEON 7500 ожидать не стоит - 3D-часть ATI RADEON 7500 не имеет никаких нововведений относительно старого доброго RADEON.
Посему, закругляемся с синтетическими тестами и переходим к игровым.

Тестирование в 3DMark 2001 было произведено только в тестах Dragothic и Lobby - первый из оставшихся, Car Chase, был уличен в слишком сильном разбросе результатов и большой зависимости от скорости процессора, а второй, Nature, сами понимаете, пойдет только на GeForce3 Ti200.





Неплохой для ATI RADEON 7500 результат. Благодаря тому, что в этом тесте используется наложение трех текстур, а показатель Overdraw достаточно велик, что дает простор для действия HyperZ, RADEON 7500 оказывается ненамного медленнее GeForce2 Pro/Ti в режиме "Low Details", а в "High Details" и вовсе уверенно держится на втором месте. Разумеется, опередить GeForce3 Ti200, обладающий более современной архитектурой, RADEON 7500 оказался не в состоянии.





ATI RADEON 7500, имея всего 2 пиксельных конвейера и меньшую скорость заполнения сцены, в 16-битных режимах оказывается медленнее, чем GeForce2 Pro/Ti. Но в 32 битах, благодаря действию HyperZ и объемным кэшам, неуверенная позиция RADEON 7500 крепнет и при повышении разрешения превращается в солидный, с 20-и процентным запасом по скорости, отрыв от GeForce2 Pro/Ti.
Лидер - по-прежнему, NVIDIA GeForce3 Ti200.

Max Payne

Для тестирования в Max Payne был использован benchmark mod и тестовая сцена PCGH"s Final Scene No1 , описание которых находится на немецком сайте 3DCenter .
Тестирование было произведено в двух вариантах:

1-й вариант - "quality " - установлены максимальные настройки качества графики, глубина цвета текстур и буфера кадра - 32 бита, но фильтрация текстур - не анизотропная, а трилинейная, и полноэкранное сглаживание выключено (мы же всё-таки не GeForce3 Ti500 и RADEON 8500 тестируем:)...)
2-й вариант - "speed " - минимальные настройки качества графики, глубина цвета текстур и буфера кадра - 16 бит.

Такими тестами, я надеюсь, будут удовлетворены и любители "скорости любой ценой", и те, кому качество картинки важнее количества кадров в секунду:


Как видно, разница в скорости между режимами "quality" и "speed" велика, однако, результаты, которые показывают видеокарты, очень близки. Результаты ATI RADEON 7500, NVIDIA GeForce2 Pro и GeForce2 Ti находятся примерно на одном уровне, лидер же - снова GeForce3 Ti200.
По качеству работы в Max Payne к ATI RADEON 7500 не возникло никаких претензий, лишь в режиме 1600х1200 он отказался работать, выдав сообщение об ошибке:



Quake3 Arena

Тестирование в Quake3 Arena было произведено в традиционных условиях: максимальные настройки качества, трилинейная фильтрация включена, компрессия текстур - выключена:


В 16-битных режимах, как и следовало ожидать, RADEON 7500 - аутсайдер, однако, в 32-битных режимах его производительность, благодаря более сбалансированной архитектуре, сравнивается с GeForce2 Pro/Ti, а в высоких разрешениях, спасибо HyperZ, даже оказывается выше. Результат NVIDIA GeForce3 Ti200 опять оказался недосягаем для остальных участников этого обзора.

Serious Sam

Тестирование в Serious Sam мы решили провести аналогично Max Payne в двух режимах:

1-й вариант - настройки качества графики "quality ", глубина буфера кадра - 32 бита;
2-й вариант - настройки качества графики "speed ", глубина буфера кадра - 16 бит.

Для тестирования использовалась стандартная демо-запись DemoSP03:


Итак, результат получился очень интересным. Проиграв всем в режиме "speed", RADEON 7500 отлично показал себя в "quality", даже опередив в режиме 1600х1200 прежде недосягаемый GeForce3 Ti200!
В режиме "quality" движок Serious Sam включает анизотропную фильтрацию, и как раз здесь кроется причина успеха RADEON 7500. Анизотропную фильтрацию RADEON 7500 выполняет практически без потерь в скорости, в то время как GeForce2 Pro/Ti, не говоря уже о GeForce3, теряют в производительности очень много.
Кстати, можно процитировать фрагменты конфигурационных файлов Serious Sam, в которых указано, какой уровень анизотропной фильтрации используется на разных видеокартах в режиме "Quality":


NVIDIA GeForce256 / GeForce2 / GeForce3:
if(sam_iVideoSetup==2) {
gap_iTextureAnisotropy = 4;
gap_fTextureLODBias = -0.5;
}

Семейство ATI RADEON, RADEON 7xxx, RADEON 8xxx:
if(sam_iVideoSetup==2) {
gap_iTextureAnisotropy = 16;
gap_fTextureLODBias = -0.5;
}

Как видно, для RADEON 7500 установленный разработчиками Serious Sam уровень анизотропии оказался даже выше, и при этом RADEON 7500 всё равно лидирует.

Как чипам серий RADEON удается так безболезненно выполнять анизотропную фильтрацию, я постараюсь объяснить в разделе "Качество 3D", а сейчас, касательно Serious Sam - о новой возможности его движка.
В версии Serious Sam 1.05 появилась возможность использовать Direct3D, и я, естественно, не преминул ею воспользоваться. Результаты производительности плат на базе чипов NVIDIA оказались близки к результатам в OpenGL, и я, не ожидая подвохов, уж собрался сравнить их с производительностью ATI RADEON 7500... Однако, при работе Serious Sam через Direct3D на ATI RADEON 7500 я увидел страшную картину:


Разумеется, ни о каком сравнении производительности в Serious Sam при такой работе ATI RADEON 7500 и речи быть не может.
Остается вопрос: кто в этом виноват - драйвер Direct3D от ATI или разработчики из Croteam, тестировавшие Direct3D только на платах от NVIDIA? :)

Качество в 3D

Самое интересное качество ATI RADEON 7500/8500 - быстрая реализация анизотропной фильтрации.

Напомню, что анизотропная фильтрация - наиболее корректный метод фильтрации текстур, позволяющий получить изображение максимального качества. При использовании анизотропной фильтрации для получения цвета пиксела используется не цвет текстуры в точке на поверхности объекта, соответствующей этому пикселу, и не интерполированное значение цвета четырех соседних текселей, окружающих проекцию пиксела, как в случае билинейной фильтрации. При анизотропной фильтрации пиксел рассматривается как маленькая окружность или прямоугольник, имеющий проекцию на текстуру в виде эллипса или четырехугольника, и для получения цвета пиксела учитываются цвета всех текселей, попадающих в эту проекцию.
Соответственно, при уменьшении угла между линией зрения и наблюдаемой поверхностью, эллипс - проекция пиксела - будет вытягиваться, что будет приводить к необходимости усреднять цвета всё большего и большего количества текселей. При таком методе построения вычислительные затраты оказываются очень высокими, но столь же высоким будет и качество получаемого изображения, недаром, например, все современные пакеты 3D-моделирования для финального построения сцен используют именно анизотропную фильтрацию.
Разумеется, в видеоускорителях используются упрощенные методы анизотропной фильтрации. Например, NVIDIA GeForce3 для получения конечного цвета пиксела, судя по всему, равномерно "расставляет" на длинной оси эллипса - проекции пиксела - несколько точек (1,2,4,6,8, их число зависит от вытянутости эллипса или уровня анизотропии), в которых производит билинейную фильтрацию, а после усредняет полученные цвета, возможно, с разными весовыми коэффициентами.
Разумеется, это всё - догадки, но они прекрасно согласуются с практикой. А практика показала , что, на обработку каждой такой точки GeForce3 требуется дополнительный такт, например, анизотропная фильтрация по 32 сэмплам (8 точек, 8 операций билинейной фильтрации, 8х4=32) оказывается ровно в 8 раз медленнее, чем билинейная.

Семейство ATI RADEON реализует анизотропную фильтрацию, судя по всему, совсем не так.
Начну издалека:).
Известно, что для того, чтобы избежать "пляски" и "зернистости" текстур на удаленных объектах, применяется MIP-Mapping, то есть подмена исходной текстуры её менее детализированными вариантами по мере удаления объекта от зрителя. На рисунке исходная текстура показана слева вверху, а её MIP-уровни идут по диагонали вправо-вниз от исходной текстуры:


Размеры текстуры на каждом из MIP-уровней в 2 раза меньше её размеров на предыдущем, а цвет каждого из текселей есть среднее из цветов четырех соответствующих текселей предыдущего MIP-уровня.

Впрочем, интересно не это, а еще два ряда, в которых текстура отфильтрована и сжата только по одной из двух осей. На рисунке эти ряды изображены идущими вправо и вниз от изображения исходной текстуры.
Назовем это, по аналогии с MIP-уровнями, "RIP-уровнями". Чем они примечательны? Тем, что, цвет каждого из текселей какого-либо "RIP-уровня" из этого ряда является усредненнным значением цветов двух текселей предыдущего "RIP-уровня". Зачем всё это нужно? А давайте представим такую ситуацию: мы смотрим на плоскость с нашей текстурой под острым углом, примерно так:


Проекция одного из пикселов на текстуру показана красным эллипсом. По идее, для корректного выполнения анизотропной фильтрации нам нужно усреднить цвета всех текселей, которые попадают в эллипс - они обведены зеленой рамкой.
Однако, стоит вспомнить, что у нас подготовлен ряд "RIP-уровней", и из них можно подобрать тот, в котором степень сжатия максимально близка к степени анизотропии, то есть, степени "вытянутости" эллипса, на нем сделать билинейную фильтрацию и получить в результате цвет, являющийся усреднением цветов нужных нам текселей исходной текстуры. Надеюсь, на рисунке мне удалось достаточно наглядно это показать.
В итоге, имея ряд заранее подготовленных вариантов исходной текстуры - "RIP-уровней", мы можем выполнить фильтрацию с любым разумным уровнем анизотропии, фактически используя лишь билинейную фильтрацию, то есть практически без потерь производительности.
Из природы этого метода, называемого RIP-mapping, следует то, что его результаты будут наиболее корректными в том случае, когда угол наклона эллипса близок к одной из осей текстуры, а на "неудобных" углах, близких к диагоналям, RIP-mapping не может обеспечить качество выше билинейной фильтрации. Соответственно, чтобы избежать потери качества фильтрации текстур на "неудобных" углах, можно использовать некие комбинированные RIP-уровни, сжатые сразу вдоль двух осей в разное число раз (прошу прощения за тавтологию:)), ввести еще и ряд "диагональных" RIP-уровней, или выполнять анизотропную фильтрацию другими методами, например, как NVIDIA GeForce3.

Судя по всему, семейство RADEON от ATI как раз и использует RIP-mapping. При использовании этого метода, линии переключения MIP-уровней, или RIP-уровней, получаются ломаными.
Проверить это достаточно просто: включив анизотропную фильтрацию в маленьком тестовом приложении от NVIDIA, использующем стандартные расширения OpenGL и работающем на любых видеокартах, я сделал скриншоты, на которых эти линии очень заметны. Слева - картинка на ATI RADEON 7500, посередине - на NVIDIA GeForce2 Ti, справа - на NVIDIA GeForce3 Ti200:


На ATI RADEON 7500 линии переключения MIP-уровней имеют изломы, пересечения и вообще ведут себя совершенно диким образом (и как тут еще трилинейную фильтрацию делать?), в отличие от MIP-уровней NVIDIA GeForce2 и GeForce3, где никаких аномалий нет.
Кстати, пользователи иногда замечают артефакты, связанные с анизотропной фильтрацией на видеокартах от ATI, и я бы мог показать несколько характерных фрагментов из игр, но, во-первых, таких замечаний на самом деле не так уж много, а во-вторых, артефакты сильнее всего заметны в динамике, чего не покажешь на скриншотах...

Посему, рассказ о неприятных сторонах анизотропной фильтрации стоит закончить, а обзор продолжить приятными её сторонами. Во-первых, это скорость: семейство ATI RADEON при включении анизотропной фильтрации теряет в производительности единицы процентов, а во-вторых, качество: в благоприятных условиях анизотропная фильтрация на чипах RADEON по качеству превосходит её реализацию в чипах от NVIDIA.
В качестве примера приведу скриншоты из Serious Sam, где качество анизотропной фильтрации было установлено на максимум для каждой из плат. Как и в прошлый раз, слева - картинки на ATI RADEON 7500, посередине - на NVIDIA GeForce2 Ti, справа - на NVIDIA GeForce3 Ti200:





Обобщая часть об анизотропной фильтрации ATI RADEON 7500, я могу сказать лишь одно: NVIDIA GeForce2 / GeForce3 и ATI RADEON 7500 имеют совершенно разные, обладающие своими плюсами и минусами, алгоритмы её реализации, а уж право выбрать то, что нравится, находится в наших руках.
Соберем "в кучу" плюсы и минусы:

Анизотропная фильтрация ATI RADEON 7500/8500:
Плюс - высокое качество;
Плюс - высокая скорость;
Минус - невозможна работа одновременно с трилинейной фильтрацией;
Минус - возможно возникновение артефактов в определенных ситуациях.

Анизотропная фильтрация NVIDIA GeForce3:
Плюс - высокое качество;
Минус - большие потери производительности.

Разгон

Разгон ATI RADEON 7500 осуществлялся с помощью утилиты PowerStrip 3.12.
При разгоне возникла интересная ситуация: повышение частоты ядра, как и ожидалось, приводило к повышению производительности, а повышение частоты видеопамяти не приводило ни к чему. Что интересно, можно было установить любую частоту видеопамяти, хоть 800 МГц, плата не реагировала на это совершенно.
После поиска и просмотра сообщений владельцев ATI RADEON 7500 в различных конференциях, мне ничего не оставалось, кроме как согласиться с ними - похоже, чип RADEON 7500 или драйверы от ATI имеют блокировку разгона видеопамяти.
Поэтому, разгон был осуществлен только по ядру. Максимальная частота ядра, при которой плата устойчиво работала, составила 340 МГц. Прирост производительности при таком разгоне показан на графике:


Согласитесь, при увеличении частоты ядра на 17% (290->340 МГц), 15-и процентный прирост в Quake 3 и 8-и процентный в Serious Sam - весьма неплохо. Впрочем, этого и следовало ожидать: архитектура ATI RADEON 7500, как и "старого" RADEON, хорошо сбалансирована, и не везде производительность платы жестко ограничивается пропускной способностью видеопамяти.

Заключение

ATI RADEON 7500 - очень интересная видеокарта, обеспечивающая отличное качество изображения, полноценную поддержку двухмониторных конфигураций, вывод на ТВ и цифровые мониторы. Вместе со всем этим и в трехмерных приложениях её производительность находится на хорошем уровне.

Если сравнивать ATI RADEON 7500 c видеокартами на базе NVIDIA GeForce2 Pro / GeForce2 Ti, то в части 2D он оказывается однозначно лучше, и по качеству, и по функциональности. В трехмерных играх производительность ATI RADEON 7500 находится в среднем на одном уровне с GeForce2 Pro / GeForce2 Ti.
Цены этих плат немного ниже, чем плат на базе ATI RADEON 7500, так что, если Вы выбираете видеокарту не на базе GeForce2 Pro / Ti, а на ATI RADEON 7500, считайте, что доплачиваете за его качественную работу в 2D.

Сравнение ATI RADEON 7500 и NVIDIA GeForce3 Ti200 показывает, что последняя оказывается быстрее практически во всех 3D-играх. Не имея полноценной поддержки DirectX8, RADEON 7500 тем более не в состоянии конкурировать с GeForce3 Ti200.
С другой стороны, платы на GeForce3 Ti200 не могут конкурировать с ATI RADEON 7500 в части функциональности в 2D. Качество вывода на экран у видеокарт на базе чипов от NVIDIA тоже может оказаться неважным - производители бывают разные. А платы на базе ATI RADEON 7500/8500, что интересно, у любых производителей получаются отличными. Жесткий контроль качества со стороны ATI?
В общем, если Вам нужна сугубо игровая видеокарта, то можно выбрать что-нибудь на базе GeForce3 Ti200, цена окажется выше, чем у ATI RADEON 7500, скорость - выше, но каким будет качество платы - большой вопрос.

Плюсы ATI RADEON 7500:

Отличное качество монтажа;
Полноценная поддержка двухмониторных конфигураций;
Наличие DVI и качественного ТВ-выхода;
Отличное качество вывода изображения на монитор;
Хорошая скорость в 3D.

Минусы:

Отсутствие поддержки пиксельных и вершинных шейдеров DirectX8;
Скудность комплекта поставки.



В продолжение темы:
Android

Популярная социальная сеть ВКонтакте позволяет находить новых друзей и держать контакт со всеми близкими. Помимо этого, каждый пользователь может делиться собственными...