Видеокарты. Видеокарты Транзистор для карты geforce 8800 gts 512

Снова 128 более сильных калифорнийских стрелков, но с урезанными копьями (512MB и 256bit)

Часть 1: Теория и архитектура

В прошлом материале, посвященном выходу нового решения среднего уровня Nvidia Geforce 8800 GT, основанного на чипе G92, мы упоминали о том, что в этом решении применен чип, в котором разблокированы не все исполнительные блоки ALU и TMU, часть из них дожидается своего часа, чтобы быть включенной в видеокарте другого ценового уровня. И вот этот момент настал, Nvidia анонсировала обновленный вариант Geforce 8800 GTS, оставивший такое же название, что и младшее решение на основе G80. Отличить его проще всего по объему установленной видеопамяти, он равен 512 мегабайтам, в отличие от предыдущих 320 Мбайт и 640 Мбайт вариантов. Так эту модель и назвали — Geforce 8800 GTS 512MB.

Новый вариант Geforce 8800 GTS основан на чипе G92, уже применённом ранее в Geforce 8800 GT, видеокарте так называемого верхнего среднего ценового уровня, поэтому основные возможности и характеристики мы уже знаем. В отличие от двух моделей Geforce 8800 GT с рекомендуемой ценой от $200 до $250 (что с реальными ценами на данный момент плохо соотносится, кстати), новое решение имеет рекомендованную производителем цену в $349-399. Особенностями применяемого видеочипа является поддержка лишь 256-битной шины памяти, но большее количество разблокированных универсальных исполнительных блоков. Давайте познакомимся с новым нижним high-end решением от компании Nvidia поближе…

Перед прочтением данного материала мы рекомендуем внимательно ознакомиться с базовыми теоретическими материалами DX Current, DX Next и Longhorn, описывающими различные аспекты современных аппаратных ускорителей графики и архитектурные особенности продукции Nvidia и AMD.

Эти материалы достаточно точно спрогнозировали текущую ситуацию с архитектурами видеочипов, оправдались многие предположения о будущих решениях. Подробную информацию об унифицированной архитектуре Nvidia G8x/G9x на примере предыдущих чипов можно найти в следующих статьях:

Как мы упоминали в предыдущем материале, чип G92 включает в себя все преимущества G8x: унифицированную шейдерную архитектуру, полную поддержку DirectX 10, качественные методы анизотропной фильтрации и алгоритм антиалиасинга CSAA с количеством сэмплов до шестнадцати включительно. Некоторые блоки чипа немного отличаются от тех, что были в G80, но основным изменением по сравнению с G80 стала технология производства 65 нм, которая позволила снизить себестоимость продукции. Рассмотрим характеристики GPU и новых видеорешений на его основе:

Графический ускоритель Geforce 8800 GTS 512MB

  • Кодовое имя чипа G92
  • Технология 65 нм
  • 754 миллиона транзисторов (больше, чем у G80)
  • Унифицированная архитектура с массивом общих процессоров для потоковой обработки вершин и пикселей, а также других видов данных
  • Аппаратная поддержка DirectX 10, в том числе шейдерной модели — Shader Model 4.0, генерации геометрии и записи промежуточных данных из шейдеров (stream output)
  • 256-бит шина памяти, четыре независимых контроллера шириной по 64 бита
  • Частота ядра 650 МГц (Geforce 8800 GTS 512MB)
  • ALU работают на более чем удвоенной частоте (1.625 ГГц для Geforce 8800 GTS 512MB)
  • 128 скалярных ALU с плавающей точкой (целочисленные и плавающие форматы, поддержка FP 32-бит точности в рамках стандарта IEEE 754, MAD+MUL без потери тактов)
  • 64 блока текстурной адресации с поддержкой FP16 и FP32 компонент в текстурах
  • 64 блока билинейной фильтрации (как и в G84 и G86, нет бесплатной трилинейной фильтрации и более эффективной анизотропной фильтрации)
  • Возможность динамических ветвлений в пиксельных и вершинных шейдерах
  • 4 широких блока ROP (16 пикселей) с поддержкой режимов антиалиасинга до 16 сэмплов на пиксель, в том числе при FP16 или FP32 формате буфера кадра. Каждый блок состоит из массива гибко конфигурируемых ALU и отвечает за генерацию и сравнение Z, MSAA, блендинг. Пиковая производительность всей подсистемы до 64 MSAA отсчетов (+ 64 Z) за такт, в режиме без цвета (Z only) — 128 отсчета за такт
  • Запись результатов до 8 буферов кадра одновременно (MRT)
  • Все интерфейсы (два RAMDAC, два Dual DVI, HDMI, HDTV) интегрированы на чип (в отличие от вынесенных на внешний дополнительный чип NVIO у Geforce 8800)

Спецификации референсной карты Geforce 8800 GTS 512MB

  • Частота ядра 650 МГц
  • Частота универсальных процессоров 1625 МГц
  • Количество универсальных процессоров 128
  • Количество текстурных блоков — 64, блоков блендинга — 16
  • Эффективная частота памяти 1.94 ГГц (2*970 МГц)
  • Тип памяти GDDR3
  • Объем памяти 512 мегабайт
  • Пропускная способность памяти 64.0 гигабайта в сек.
  • Теоретическая максимальная скорость закраски 10.4 гигапикселя в сек.
  • Теоретическая скорость выборки текстур до 41.6 гигатекселя в сек.
  • Два DVI-I Dual Link разъема, поддерживается вывод в разрешениях до 2560х1600
  • SLI разъем
  • Шина PCI Express 2.0
  • TV-Out, HDTV-Out, поддержка HDCP
  • Рекомендуемая цена $349-399

Как видно по характеристикам, новая версия Geforce 8800 GTS 512MB довольно сильно отличается от старых. Возросло количество исполнительных блоков: ALU и TMU, значительно выросла и частота GPU, включая частоту шейдерных блоков. Несмотря на урезанную шину памяти (256-бит против 320-бит у старых вариантов), пропускная способность памяти осталась прежней, так как её рабочую частоту подняли на соответствующее значение. В результате, новый GTS обладает значительно усиленной мощью по выполнению шейдеров, а также возросшей скоростью текстурных выборок. В то же время, филлрейт и ПСП остались такими же.

Из-за изменившейся разрядности шины памяти, объём последней теперь не может быть равен 320 Мбайт или 640 Мбайт, только 256 Мбайт, 512 Мбайт или 1 Гбайт. Первое значение слишком мало, его будет явно недостаточно для карты такого класса, а последнее — слишком велико, незначительный прирост производительности вряд ли будет оправдывать возросшую цену таких вариантов (которые вполне могут появиться в дальнейшем). Поэтому в Nvidia был выбран средний вариант с комплектацией карт объёмом в 512 Мбайт. Что, как показало наше недавнее исследование , является золотой серединой для всех современных игр, которые весьма требовательны к объёму видеопамяти и используют до 500-600 мегабайт. Не устаём повторять, что это не значит, что все ресурсы игр должны обязательно находиться только в локальной памяти видеокарты, менеджмент ресурсов может отдаваться в управление API, особенно в Direct3D 10 с виртуализацией видеопамяти.

Архитектура

Как было написано в предыдущем материале по Geforce 8800 GT, можно сказать, что G92 является предыдущим флагманом G80, переведенным на новый техпроцесс, но с некоторыми изменениями. Новый чип имеет 8 больших шейдерных блоков и 64 текстурных блока, а также четыре широких ROP. Несмотря на все изменения к лучшему, число транзисторов в чипе кажется слишком большим, вероятно, увеличенная сложность чипа объясняется включением в его состав ранее отдельного чипа NVIO, а также видеопроцессора нового поколения. Кроме того, на количество транзисторов повлияли усложненные блоки TMU, и есть вероятность увеличения кэшей для обеспечения большей эффективности 256-битной шины памяти.

Архитектурных изменений в чипе G92 совсем немного, обо всех мы рассказывали в предыдущем материале, и не будем делать это ещё раз. Всё сказанное в обзорах предыдущих решений остаётся в силе, приведём лишь основную диаграмму чипа G92, теперь уже со всеми 128 универсальными процессорами:

Из всех изменений в чипе, по сравнению с G80 — только уменьшенное количество блоков ROP и некоторые изменения в TMU, о которых написано в нашем предыдущем материале. Ещё раз остановимся на том, что 64 текстурных блока у Geforce 8800 GTS 512MB в реальных применениях в большинстве случаев НЕ будут сильнее 32 блоков в Geforce 8800 GTX. При включенной трилинейной и/или анизотропной фильтрации их производительность будет примерно одинакова, так как они имеют одинаковое количество блоков фильтрации текстурных данных. Конечно же, там, где применяются неотфильтрованные выборки, производительность решений на G92 будет выше.

PureVideo HD

Одним из ожидаемых изменений в G92 стал встроенный видеопроцессор второго поколения, известный по G84 и G86, получивший расширенную поддержку PureVideo HD. Этот вариант видеопроцессора почти полностью разгружает CPU при декодировании всех типов видеоданных, в том числе «тяжелых» форматов H.264 и VC-1. В G92 используется новая модель программируемого PureVideo HD видеопроцессора, включающая так называемый BSP движок. Новый процессор поддерживает декодирование H.264, VC-1 и MPEG-2 форматов с разрешением до 1920x1080 и битрейтом до 30-40 Мбит/с, выполняя работу по декодированию CABAC и CAVLC данных аппаратно, что позволяет воспроизводить все существующие HD-DVD и Blu-ray диски даже на средних по мощности одноядерных ПК. Декодирование VC-1 не такое эффективное, как H.264, но оно всё же поддерживается новым процессором. Подробнее о видеопроцессоре второго поколения можно прочитать в наших обзорах G84/G86 и G92, ссылки на которые приведены в начале статьи.

PCI Express 2.0

Из настоящих нововведений в G92 можно выделить поддержку шины PCI Express 2.0. Вторая версия PCI Express увеличивает стандартную пропускную способность в два раза, с 2.5 Гбит/с до 5 Гбит/с, в результате, по разъему x16 можно передавать данные на скорости до 8 ГБ/с в каждом направлении, в отличие от 4 ГБ/с для версии 1.x. При этом очень важно, что PCI Express 2.0 совместим с PCI Express 1.1, и старые видеокарты будут работать в новых системных платах, и новые видеокарты с поддержкой второй версии останутся работоспособными в платах без его поддержки. При условии достаточности внешнего питания и без увеличения пропускной способности интерфейса, естественно.

Реальное влияние большей пропускной способности шины PCI Express на производительность в своих материалах оценил основной конкурент компании Nvidia. По их данным, видеокарта среднего уровня с 256 мегабайтами локальной памяти ускоряется при переходе от PCI Express 1.0 к 2.0 в таких современных играх, как Company of Heroes, Call of Juarez, Lost Planet и World In Conflict примерно на 10%, показатели изменяются от 5% до 25% для разных игр и условий тестирования. Естественно, речь в высоких разрешениях, когда буфер кадра и сопутствующие буферы занимают большую часть локальной видеопамяти, а некоторые ресурсы хранятся в системной.

Для обеспечения обратной совместимости с существующими PCI Express 1.0 и 1.1 решениями, спецификация 2.0 поддерживает как 2.5 Гбит/с, так и 5 Гбит/с скорости передачи. Обратная совместимость PCI Express 2.0 позволяет использовать прошлые решения с 2.5 Гбит/с в 5.0 Гбит/с слотах, которые будут работать на меньшей скорости, а устройство, разработанное по спецификациям версии 2.0, может поддерживать и 2.5 Гбит/с и 5 Гбит/с скорости. В теории с совместимостью всё хорошо, а вот на практике с некоторыми сочетаниями системных плат и карт расширения возможно возникновение проблем.

Поддержка внешних интерфейсов

Тут всё как и у Geforce 8800 GT, никаких отличий нет. Имеющийся на платах Geforce 8800 дополнительный чип NVIO, поддерживающий вынесенные за пределы основного внешние интерфейсы (два 400 МГц RAMDAC, два Dual Link DVI (или LVDS), HDTV-Out), в данном случае был включен в состав самого чипа, поддержка всех указанных интерфейсов встроена в сам G92.

На видеокартах Geforce 8800 GTS 512MB обычно устанавливают два Dual Link DVI выхода с поддержкой HDCP. Что касается HDMI, поддержка этого разъема реализована, она может быть выполнена производителями на картах специального дизайна. Хотя наличие разъема HDMI на видеокарте совершенно необязательно, его с успехом заменит переходник с DVI на HDMI, который прилагается в комплекте большинства современных видеокарт.

Обновление: мы решили дополнить первоначальный обзор дополнительными теоретическими сведениями, сравнительными таблицами, а также результатами тестов американской лаборатории THG, где участвовала и "младшая" карта GeForce 8800 GTS. В обновлённой статье вы также найдёте тесты качества.

GeForce 8800 GTX - на голову выше конкурентов.

Вы наверняка слышали о DirectX 10 и чудесах, которые новый API обещает по сравнению с DX9. В Интернете можно найти скриншоты игр, которые всё ещё находятся в разработке. Но до сего момента видеокарт с поддержкой DX10 на рынке не было. И nVidia исправила этот недостаток первой. Поприветствуем выход видеокарт DirectX 10 в виде nVidia GeForce 8800 GTX и 8800 GTS!

Единая унифицированная архитектура сможет больше выжать из блоков шейдеров, поскольку их теперь можно использовать эффективнее, чем при фиксированной раскладке. Новую эру в компьютерной графике открывают GeForce 8800 GTX со 128 унифицированными блоками шейдеров и GeForce 8800 GTS с 96 такими блоками. Наконец-то прошли дни пиксельных конвейеров. Но давайте внимательнее посмотрим на новые карты.

На подложке показаны 80 графических ядер. Новый графический процессор обещает дать в два раза более высокую производительность, чем GeForce 7900 GTX (G71). 681 миллион транзисторов приводит к огромной площади кристалла, но когда мы спросили об этом, то CEO nVidia Джен-Хсун Хуан (Jen-Hsun Huang) ответил: "Если бы мои инженеры сказали, что могут удвоить производительность, удвоив площадь кристалла, я бы даже не сомневался!"

Как показывает опыт, удвоение площади отнюдь не удваивает производительность, но nVidia, похоже, нашла правильный баланс между технологическими продвижениями и реализацией кристалла на кремнии.

GeForce 8800 GTX и 8800 GTS полностью соответствуют стандарту DX10 и Shader Model 4.0, различным стандартам хранения и передачи данных, поддерживают геометрические шейдеры и потоковый вывод (Stream Out). Как же всё это реализовала nVidia?

Начнём с того, что nVidia отошла от фиксированного дизайна, который последние 20 лет использует индустрия, в пользу унифицированного шейдерного ядра.


Раньше мы демонстрировали схожие слайды, иллюстрирующие тенденцию увеличения мощности пиксельных шейдеров. nVidia прекрасно знает об этой тенденции и движется в сторону балансировки вычислительных потребностей, реализуя унифицированные шейдеры, через которые проходят потоки данных. Это даёт максимальную эффективность и производительность.

nVidia утверждает: "Команда разработчиков GeForce 8800 прекрасно понимала, что high-end 3D-игры DirectX 10 потребуют большой аппаратной мощности для расчёта шейдеров. Хотя DirectX 10 оговаривает унифицированный набор инструкций, стандарт не требует унифицированного дизайна шейдеров GPU. Но инженеры GeForce 8800 верили, что именно унифицированная шейдерная архитектура GPU позволит эффективно распределить нагрузку программ-шейдеров DirectX 10, улучшая архитектурную эффективность GPU и правильно распределяя доступную мощность".

GeForce 8800 GTX | 128 потоковых процессоров SIMD



Процессорное ядро работает на частоте 575 МГц у GeForce 8800 GTX и на 500 МГц - у GeForce 8800 GTS. Если остальная часть ядра работает на 575 МГц (или 500 МГц), то ядро шейдеров использует собственный тактовый генератор. У GeForce 8800 GTX оно работает на 1350 ГГц, а у 8800 GTS - на 1200 ГГц.

Каждый шейдерный элемент ядра называется потоковым процессором (Streaming Processor). У GeForce 8800 GTX используется 16 блоков по восемь таких элементов. В результате мы и получаем 128 потоковых процессоров. Подобно дизайну ATi R580 и R580+, где присутствуют блоки пиксельных шейдеров, nVidia планирует в будущем как добавлять, так и убирать блоки. Собственно, это мы и наблюдаем с 96 потоковыми процессорами в GeForce 8800 GTS.



Нажмите на картинку для увеличения.

GeForce 8800 GTX | сравнительная таблица спецификаций

nVidia раньше не могла одновременно выполнять полноэкранное сглаживание с HDR-освещением, но это уже история. Каждый блок растровых операций (ROP) поддерживает смешение кадрового буфера. Таким образом, со сглаживанием мультисэмплинга могут использоваться цели рендеринга как FP16, так и FP32. Под D3D10 ускорения обработки цветов и Z в блоках растровых операций могут использоваться до восьми множественных целей рендеринга, а также новые технологии сжатия.

GeForce 8800 GTX может заполнять 64 текстуры за такт, а при частоте 575 МГц мы получаем 36,8 млрд. текстур за секунду (GeForce 8800 GTS = 32 млрд./с). GeForce 8800 GTX обладает 24 блоками растровых операций (ROP) и при работе карты на частоте 575 МГц пиковая пиксельная скорость заполнения составляет 13,8 гигапикселя/с. Версия GeForce 880GTS обладает 20 ROP и даёт пиковую скорость заполнения 10 гигапикселей/с на частоте 500 МГц.

Спецификации nVidia GeForce
8800GTX 8800GTS 7950GX2 7900GTX 7800GTX 512 7800GTX
Техпроцесс (нм) 90 90 90 90 110 110
Ядро G80 G80 G71 G71 G70 G70
Число GPU 1 1 2 1 1 1
Число транзисторов на ядро (млн.) 681 681 278 278 302 302
Частота вершинных блоков (МГц) 1350 1200 500 700 550 470
Частота ядра (МГц) 575 500 500 650 550 430
Частота памяти (МГц) 900 600 600 800 850 600
Эффективная частота памяти (МГц) 1800 1200 1200 1600 1700 1200
Число вершинных блоков 128 96 16 8 8 8
Число пиксельных блоков 128 96 48 24 24 24
Число ROP 24 20 32 16 16 16
Ширина шины памяти (бит) 384 320 256 256 256 256
Объём памяти на GPU (Мбайт) 768 640 512 512 512 256
Пропускная способность памяти на GPU (Гбайт/с) 86,4 48 38,4 51,2 54,4 38,4
Число вершин/с (млн.) 10 800 7200 2000 1400 1100 940
Пиксельная пропускная способность (число ROP x частоту, в млрд./с) 13,8 10 16 10,4 8,8 6,88
Текстурная пропускная способность (число пикс. конвейеров x частоту, в млрд./с) 36,8 32 24 15,6 13,2 10,32
RAMDAC (МГц) 400 400 400 400 400 400
Шина PCI Express PCI Express PCI Express PCI Express PCI Express PCI Express

Обратите внимание на ширину шины памяти. Если взглянуть на схему, приведённую на предыдущей странице, у GPU GeForce 8800 GTX используются шесть разделов памяти. Каждый из них оснащён 64-битным интерфейсом к памяти, что даёт в сумме ширину 384 бита. 768 Мбайт памяти GDDR3 подключёны к подсистеме памяти, которая построена на высокоскоростном кросс-коммутаторе, как у GPU GeForce 7x. Этот кросс-коммутатор поддерживает память DDR1, DDR2, DDR3, GDDR3 и GDDR4.

GeForce 8800 GTX использует память GDDR3 с частотой по умолчанию 900 МГц (версия GTS работает на 800 МГц). С шириной 384 бита (48 байт) и частотой 900 МГц (1800 МГц эффективная частота DDR) пропускная способность составляет целых 86,4 Гбайт/с. А 768 Мбайт памяти позволяют хранить намного более сложные модели и текстуры, с более высоким разрешением и качеством.

GeForce 8800 GTX | nVidia отправляет ATi в нокаут


Нажмите на картинку для увеличения.

У нас есть хорошие и плохие новости. Хорошие - быстрее быстрого, они очень тихие и в них столько интересных технических штучек, для которых даже ещё нет софта. Плохая новость - их нет в продаже. Ну да, с новым "железом" всегда что-то не так. Sparkle продаёт такие карты по 635 евро. К подобным ценам на топовое "железо" мы уже начинаем привыкать.

Плата в длину составляет 27 сантиметров, поэтому установить её вы сможете далеко не в каждый корпус. Если в вашем компьютере жёсткие диски расположены прямо за слотами PCIe, то, скорее всего, установка GeForce 8800 GTX будет непростым делом. Конечно, диски всегда можно передвинуть в 5-дюймовый отсек через переходник, но согласитесь, в самой проблеме приятного мало.


Нажмите на картинку для увеличения.

Над технической реализацией не стоит смеяться. это лучший кусок "железа", который вы можете купить в подарок своему ПК на Новый год. Почему GeForce 8800 GTX вызвала столько внимания к себе среди интернет-общественности? Элементарно - дело в рекордных показателях производительности. Так, в Half-Life 2: Episode 1 количество кадров в секунду на GeForce 8800 GTX в разрешении 1600x1200 на целых 60 процентов выше, чем у топовых семейства Radeon X1000 (1900 XTX и X1950 XTX).

Oblivion на всех уровнях идёт запредельно плавно. Если точнее, то с включённым HDR-рендерингом в Oblivion скорость составляет не менее 30 fps. В игре Titan Quest не получается увидеть менее 55 кадров в секунду. Иногда задумываешься, не повис ли бенчмарк, или может с уровнями что-то произошло. Включение полноэкранного сглаживания и анизотропной фильтрации вообще никак не сказывается на GeForce 8800.

Это самая быстрая видеокарта среди всех моделей, выпущенных в 2006 году. Только Radeon X1950 XTX в парном режиме CrossFire кое-где догоняет 8800 GTX. Так что если вы спрашивали, на какой же карте Gothic 3, Dark Messiah и Oblivion не тормозят, то вот он ответ - перед вами GeForce 8800 GTX.

GeForce 8800 GTX | Два гнезда питания

Питание к поступает аж через два гнезда сверху платы. Оба необходимы - если вынуть кабель из левого, то 3D-производительность здорово снизится. Хотите, чтобы соседи сошли с ума? Тогда выньте правый - безумному писку, что начнёт раздаваться из платы, позавидует сигнализация вашего автомобиля. Сама плата при этом вообще не включится. Отметим, что nVidia рекомендует использовать с GeForce 8800 GTX блок питания мощностью не менее 450 ватт, и чтобы на линии 12 вольт могло быть 30 ампер.


На GeForce 8800 GTX подключены должны быть оба гнезда питания. Нажмите на картинку для увеличения.

Два гнезда питания объясняются просто. Согласно спецификациям PCI Express, на один слот PCIe может приходиться не более 75 Ватт энергии. Наш тестовый только в режиме 2D потребляет порядка 180 Ватт. Это на целых 40 Ватт больше, чем у Radeon X1900 XTX или X1950 XTX. Ну, а в режиме 3D плата "кушает" порядка 309 Ватт. Те же Radeon X1900/1950 XTX в этом случае потребляют от 285 до 315 Ватт. На какие нужды GeForce 8800 пускает столько энергии при работе в простом Windows, нам непонятно.

Ещё два разъёма зарезервированы под режим SLI. Согласно документации nVidia, для SLI требуется всего один штекер. Второй пока не используется. Теоретически, имея два разъёма, можно связать в многоплатную систему более двух . Появление второго разъёма можно увязать и с прогрессирующей популярностью аппаратного расчета физики. Может быть, через него будет подключаться ещё одна видеокарта, чтобы считать именно физические функции в движке игры. А может быть, речь идёт о Quad SLI на 4 платах, или о чём-то вроде того.


Для SLI теперь зарезервирован дополнительный разъём. Но с текущей версией драйвера воспользоваться можно лишь одним. Нажмите на картинку для увеличения.

GeForce 8800 GTX | Тихая система охлаждения

GeForce 8800 оснащена очень тихим 80-миллиметровым кулером-турбиной. Как и у Radeon X1950 XTX, он расположен в самом конце платы, чтобы прогонять прохладный воздух через всю поверхность GeForce 8800 и затем наружу. В конце платы установлена специальная решётка, которая выпускает горячий воздух не только наружу, через отверстие, занимающее второй слот, но и вниз, прямо в корпус. В общем, система несложная, но есть ряд спорных моментов.


Тёплый воздух выбрасывается через отверстие второго слота, но часть его попадает обратно в корпус через решётку на боковине GeForce 8800 GTX. Нажмите на картинку для увеличения.

Если в вашем компьютере PCIe-слоты находятся близко, и в SLI две платы встанут так, что зазор между ними будет не слишком велик, то температура в этом месте будет очень приличная. Нижняя карта будет дополнительно подогреваться верхней, через ту самую боковую решётку на системе охлаждения. Ну, а что случится, если установить три карты, лучше даже не думать. Получится отличный бытовой электронагреватель. В морозы будете работать около открытого окна.

Когда плата установлена в одиночку, система охлаждения впечатляет и отрабатывает на все сто. Как и у плат GeForce 7900 GTX, так и у она работает тихо. За весь шестичасовой тестовый прогон, при постоянной высокой нагрузке, плату не было слышно ни разу. Даже если полностью нагрузить плату работой, кулер на средних оборотах будет справляться с отводом тепла. Если вы поднесёте ухо к компьютеру сзади, то услышите лишь незначительный шум, своего рода тихое шуршание.


80-миллиметровый кулер работает тихо и никогда не включается на полную мощность. Система охлаждения платы занимает два слота. Нажмите на картинку для увеличения.

Специальный драйвер ForceWare 96.94, который nVidia приготовила для GeForce 8800 GTX, не выводит данные температурного мониторинга. До выхода этой версии вы могли выбрать между классическим и новым интерфейсом, но релиз 96.94 для прессы содержит только новую версию панели настроек . Если вы попытаетесь открыть настройки частот и температуры, драйвер отправит вас на сайт nVidia, чтобы вы могли скачать утилиту Ntune. Именно в ней и настраиваются эти функции. Скачиваем 30-мегабайтный архив и устанавливаем его. При первом запуске получаем полное зависание компьютера и Windows.

Если вы после установки Ntune выбираете регулировку частот и температуры в панели настроек, открывается специальная информационная страничка, где указаны настройки материнской платы. Никаких настроек , то есть информацию о частоте и температуре, вы найти не сможете. Поэтому мы проводили измерения температуры классическим способом - при помощи инфракрасного термометра. При полной загрузке измерения показали температуру 71 градус Цельсия, при работе в 2D-режиме карта удерживалась в рамках от 52 до 54 градусов.

Остаётся надеяться, что nVidia выпустит стандартную версию ForceWare для GeForce 8800. Классический интерфейс настройки иногда удобнее, к тому же, показывается информация о температуре, а при помощи coolbits можно регулировать частоты. Новый драйвер в паре с Ntune занимает порядка 100 мегабайт и сегментирован на немалое количество вкладок и окон. Работать с ним не всегда удобно.


В чипе GeForce 8800 GTX целых 681 миллион транзисторов, он производится по технологии 90 нанометров на фабрике TSMC. Нажмите на картинку для увеличения.

В чипе G80 GeForce 8800 GTX 681 миллион транзисторов. Это вдвое больше, чем в ядре Conroe процессоров Intel Core 2 Duo или в чипе GeForce 7. GPU видеокарты работает на частоте 575 МГц. Интерфейс памяти 384-битный и обслуживает 768 мегабайт. В качестве памяти nVidia использовала высокоскоростную GDDR3, которая работает на частоте 900 МГц.

Для сравнения: память GeForce 7900 GTX работает на частоте 800 МГц, а GeForce 7950 GT на 700 МГц. В видеокартах Radeon X1950 XTX используется память GDDR4 с частотой 1000 МГц. У карты GeForce 8800 GTS частота ядра составляет 500 МГц, объём памяти 640 Мбайт с частотой 800 МГц.

Результаты тестов показывают, что полноэкранное сглаживание и анизотропная фильтрация, наконец, никак при включении не снижают производительность. В ресурсоёмких играх, например, в Oblivion, раньше приходилось за этим следить, а теперь вы можете включать всё на максимум. Производительность предыдущих nVidia такова, что эти игры плавно шли только в разрешениях до 1024x768, при этом HDR-рендеринг с пиксельными шейдерами третьей версии отнимал огромное количество ресурсов. Видеокарты настолько мощны, что включение 4xAA и 8xAF без проблем позволяет играть в разрешениях до 1600x1200. Чип G80 поддерживает максимальные настройки сглаживания 16x и анизотропную фильтрацию 16x.


GeForce 8800 GTX поддерживает 16x сглаживание и анизотропную фильтрацию.

В сравнении с одиночными ATi у GeForce 8800 GTX нет конкурентов. Новинка nVidia теперь может вытянуть HDR-рендеринг с использованием третьих шейдеров и сглаживанием. HDR-рендеринг позволяет получить экстремальные отражения и блики, имитирует эффект ослепления, когда вы выходите из тёмного помещения на яркий свет. К сожалению, многие старые игры - Half Life Episode 1, Neef For Speed Most Wanted, Spellforce 2, Dark Messiah и другие - используют только вторые шейдеры для HDR-эффектов. Новые игры вроде Gothic 3 или Neverwinter Nights 2 используют предыдущий способ Bloom, как это было в Black & White 2. И хотя Neverwinter Nights 2 можно настроить для поддержки HDR-рендеринга, разработчик опасается этих функций, чтобы с нормальным FPS играть могли и те, у кого установлено обычное "железо". Правильно это реализовано в Oblivion, где есть и Bloom, и выдающиеся эффекты HDR-рендеринга через третьи шейдеры.

Поддерживает и четвёртые шейдеры (Shader Model 4.0), а самым важным нововведением является изменённая архитектура конвейера рендеринга. Она теперь не делится на пиксельные и вершинные шейдеры. Новое шейдерное ядро может обрабатывать все данные - вершинные, пиксельные, геометрические и даже физические. Это не навредило производительности - Oblivion работает почти вдвое быстрее, чем на оптимизированном под пиксельные шейдеры Radeon X1900 XTX или X1950 XTX.

Что поддерживает видеокарта в плане DirectX 10, пока невозможно протестировать. Windows Vista, Direct X 10 и игры под него ещё не существуют. Однако на бумаге всё выглядит более чем пристойно: геометрические шейдеры поддерживают карты смещения (Displacement Mapping), что позволит выводить ещё более реалистичные вещи, например, обсчитывать стереоскопические эффекты, объекты в форме желобов и гофрированные поверхности. Потоковый вывод (Stream Output) позволит получить ещё более качественные шейдерные эффекты для частиц и физики. Технология квантовых эффектов (Quantum Effect) хорошо справляется с просчётом эффектов дыма, тумана, огня и взрывов, и позволит снять их калькуляцию с центрального процессора. Всё это вместе даст значительно больше шейдерных и физических эффектов, которые можно будет увидеть в будущих играх. Как всё это будет реализовано на практике, в каких играх и в каком виде, покажет будущее.

GeForce 8800 GTX | Платы в тесте

Видеокарты на nVidia
и чип Кодовое название Память HDR-R Верш./пикс. шейдеры Частота GPU Частота памяти
nVidia GeForce 8800 GTX G80 768 Мбайт GDDR3 Да 4.0 575 МГц 1800 МГц
Asus + Gigabyte GeForce 7900 GTX SLI G71 512 Мбайт GDDR3 Да 3.0/3.0 650 МГц 1600 МГц
Gigabyte GeForce 7900 GTX G71 512 Мбайт GDDR3 Да 3.0/3.0 650 МГц
nVidia GeForce 7950 GT G71 512 Мбайт GDDR3 Да 3.0/3.0 550 МГц 1400 МГц
Asus GeForce 7900 GT Top G71 256 Мбайт GDDR3 Да 3.0/3.0 520 МГц 1440 МГц
nVidia GeForce 7900 GS G71 256 Мбайт GDDR3 Да 3.0/3.0 450 МГц 1320 МГц
Asus GeForce 7800 GTX EX G70 256 Мбайт GDDR3 Да 3.0/3.0 430 МГц 1200 МГц
Gigabyte GeForce 7800 GT G70 256 Мбайт GDDR3 Да 3.0/3.0 400 МГц 1000 МГц
Asus GeForce 7600 GT G73 256 Мбайт GDDR3 Да 3.0/3.0 560 МГц 1400 МГц
nVidia GeForce 6800 GT NV45 256 Мбайт GDDR3 Да 3.0/3.0 350 МГц 1000 МГц
Gainward GeForce 7800 GS+ GSa AGP G71 512 Мбайт GDDR3 Да 3.0/3.0 450 МГц 1250 МГц

В следующей таблице представлены ATi, принимавшие участие в нашем тестировании.

Видеокарты на ATi
Видеокарта и чип Кодовое название Память HDR-R Верш./пикс. шейдеры Частота GPU Частота памяти
Club 3D + Club 3D Radeon X1950 XTX CF R580+ 512 Мбайт GDDR4 Да 3.0/3.0 648 МГц 1998 МГц
Club 3D Radeon X1950 XTX R580+ 512 Мбайт GDDR4 Да 3.0/3.0 648 МГц 1998 МГц
HIS + HIS Radeon X1900 XTX CF R580 512 Мбайт GDDR3 Да 3.0/3.0 621 МГц 1440 МГц
Gigabyte Radeon X1900 XTX R580 512 Мбайт GDDR3 Да 3.0/3.0 648 МГц 1548 МГц
Power Color Radeon X1900 XT R580 512 Мбайт GDDR3 Да 3.0/3.0 621 МГц 1440 МГц
ATI Radeon X1900 XT R580 256 Мбайт GDDR3 Да 3.0/3.0 621 МГц 1440 МГц
Sapphire Radeon X1900 GT R580 256 Мбайт GDDR3 Да 3.0/3.0 574 МГц 1188 МГц
HIS Radeon X1650 Pro Turbo RV535 256 Мбайт GDDR3 Да 3.0/3.0 621 МГц 1386 МГц
Gecube Radeon X1300 XT RV530 256 Мбайт GDDR3 Да 3.0/3.0 560 МГц 1386 МГц

GeForce 8800 GTX | Тестовая конфигурация

Для тестирования мы использовали три эталонных стенда. Все они были основаны на предельно идентичных компонентах - двуядерном процессоре AMD Athlon 64 FX-60 с частотой 2,61 ГГц, комплектовались 2 гигабайтами ОЗУ Mushkin MB HP 3200 2-3-2, двумя жёсткими дисками Hitachi по 120 Гбайт в конфигурации RAID 0. Отличие заключалось в использованных материнских платах - для тестов одиночных и плат nVidia в режиме SLI мы использовали материнскую плату Asus A8N32-SLI Deluxe. Чтобы тестировать видеокарты в режиме CrossFire (это обозначено аббревиатурой CF ниже на графиках), мы использовали такой же компьютер с эталонной материнской платой ATi на чипсете RD580. Наконец, AGP-видеокарты тестировались на компьютере в той же конфигурации, но на материнской плате ASUS AV8 Deluxe. Данные по конфигурации сведены в таблицу.

Для всех видеокарт nVidia (включая SLI) и одиночных карт Ati
Процессор
Частота шины 200 МГц
Материнская плата Asus A8N32-SLI Deluxe
Чипсет nVidia nForce4
Память
Жёсткий диск Hitachi 2 x 120 Гбайт SATA, кэш 8 Мбайт
DVD Gigabyte GO-D1600C
LAN-контроллер Marvell
Звуковой контроллер Realtek AC97
Блок питания Silverstone SST-ST56ZF 560 Вт
Для тестов видеокарт ATi в режиме CrossFire
Процессор Двуядерный AMD Athlon 64 FX-60 2.61 ГГц
Частота шины 200 МГц
Материнская плата Эталонная ATi
Чипсет ATI RD580
Память Mushkin 2x1024 MB HP 3200 2-3-2
LAN-контроллер Marvell
Звуковой контроллер AC97
Для тестов AGP-видеокарт
Процессор Двуядерный AMD Athlon 64 FX-60 2.61 ГГц
Частота шины 200 МГц
Материнская плата Asus AV8 Deluxe
Чипсет VIA K8T800 Pro
Память Mushkin 2x1024 MB HP 3200 2-3-2
LAN-контроллер Marvell
Звуковой контроллер Realtek AC97

На компьютерах для тестов одиночных видеокарт и плат nVidia в режиме SLI мы использовали Windows XP Professional с SP1a. Платы CrossFire и AGP-видеокарты тестировались на системах с установленной Windows XP Professional SP2. Версии драйверов и ПО сведены в следующую таблицу.

Драйверы и конфигурация
Видеокарты ATi ATI Catalyst 6.6, X1900 XTX, X1950 + Crossfire, X1650 + Crossfire, X1300 XT + Crossfire, Crossfire X1900, Crossfire X1600 XT ATI Catalyst 6.7 (entspricht Catalyst 6.8), Crossfire X1600 Pro, Crossfire X1300 Pro, Crossfire X1300 ATI Catalyst 6.8
Видеокарты nVidia nVidia Forceware 91.31, 7900 GS, nVidia Forceware 91.47, 7950 GT nVidia Forceware 91.47 (Special), 8800 GTX nVidia Forceware 96.94 (Special)
Операционная система Одиночные карты и SLI: Windows XP Pro SP1a, ATI Crossfire и AGP-видеокарты Windows XP Pro SP2
Версия DirectX 9.0c
Драйвер чипсета nVidia Nforce4 6.86, AGP VIA Hyperion Pro V509A

GeForce 8800 GTX | Результаты тестов

Эталонную плату мы в редакцию THG получили прямо из nVidia. Для тестирования нам предоставили специальный драйвер ForceWare 96.94, подготовленный эксклюзивно для прессы. - это карта с поддержкой DirectX 10 и Shader Model 4.0. Производительность в приложениях для DirectX 9 и Pixelshader 2 или Pixelshader 3 ошеломляет.

Включение сглаживания и анизотропной фильтрации почти не снижает производительность. В Half-Life 2 Episode 1 видеокарту GeForce 8800 GTX затормозить невозможно. В разрешении 1600x1200 чип на 60 процентов быстрее, чем Radeon X1950 XTX, в Oblivion производительность вдвое выше, чем у Radeon X1900 XTX или X1950 XTX. В игре Prey видеокарта в разрешении 1600x1200 на целых 55 процентов быстрее, чем Radeon X1950 XTX. В Titan Quest количество кадров в секунду не меняется, какое разрешение вы бы ни устанавливали, и составляет 55 FPS.

В тестах Half-Life 2: Episode 1 с HDR-рендерингом результаты платы впечатляют, но в низких разрешениях проигрывает Radeon X1950 XTX и платам в режиме CrossFire, находясь примерно на одном уровне с SLI-решениями на GeForce 7900 GTX. Отметим, что в низком разрешении лимитирующим фактором является не видеокарта. Чем выше мы задираем настройки, тем интереснее результат.

С включением сглаживания и анизотропной фильтрации картина начинает меняться. Все платы при этом немного теряют в производительности, но GeForce 8800 GTX падает при этом очень незначительно - всего на 10 fps в среднем, в то время как сдвоенная ATi Radeon X1950 XTX в режиме CrossFire теряет целых 20 fps.

Как только мы перешагиваем за разрешение 1280x1024 с включёнными сглаживанием и анизотропной фильтрацией, одиночная плата GeForce 8800 GTX выходит в несомненные лидеры. Показатели превышают таковые у Radeon X1950 XTX почти на 35 fps. Это существенная разница.

Дальше - больше. В 1600x1200 со сглаживанием и анизотропной фильтрацией отрыв от всех остальных плат становится кошмарным. В два раза от GeForce 7900 GTX SLI и чуть меньше от CrossFire Radeon X1950 XTX. Вот это дааа!

Наконец посмотрим на динамику снижения FPS с ростом разрешения и качества картинки. Мы видим, что у GeForce 8800 GTX снижение производительности незначительное - от голых 1024x768 до сглаженных и отфильтрованных методом анизотропии 1600x1200 разница составляет всего чуть больше 20 fps. Прежде топовые решения ATi и nVidia уходят далеко назад.

Игра Hard Truck: Apocalypse требовательна и к видеокарте, и к центральному процессору. Этим объясняются фактически одинаковые показатели в 1024x768, когда используется простая трилинейная фильтрация и выключено полноэкранное сглаживание.

Как только вы переходите на 4xAA и анизотропную фильтрацию 8x результаты начинают разниться. "Младшие" карты существенно теряют производительность, а как будто не замечает улучшения качества картинки.

В 1280x960 разница ещё более увеличивается, но GeForce 8800 GTX демонстрирует прежние показатели. Явно видно, что Athlon 64 FX-60 не способна поставить эту видеокарту на колени.

В 1600x1200 у всех одиночных плат показатели начинают стремиться к неиграбельным. Но GeForce 8800 GTX как показывала 51 fps, так и показывает.

Рассмотрим снижение производительности с ростом настроек. CrossFire Radeon X1950 XTX и GeForce 7900 GTX держатся рядом с , а карты старого поколения уже давно стоят на коленях и молят о пощаде.

В Oblivion, игре, которая нагружает видеокарту до предела, картина изначально удручающа для всех плат, кроме Radeon X1950 XTX в режиме CrossFire и . Мы собрали статистику и по работе видеокарт на открытых локациях, и при рендеринге закрытых помещений. Видно, что на свежем воздухе GeForce 8800 GTX стоит рядом или незначительно отстаёт от сдвоенной Radeon X1950 XTX.






Но когда разрешение доходит до 1600x1200, наша GeForce 8800 GTX уходит далеко вперёд. Особенно разрыв виден на закрытых уровнях.


Посмотрите на снижение производительности с ростом разрешения и качества. Картина не нуждается в комментариях. В закрытых локациях скорость непоколебима.


В игре Prey видеокарта находится между одноплатными решениями ATi Radeon X1950 XTX и этими же платами в режиме CrossFire. И чем выше разрешение, тем лучше выглядит GeForce 8800 GTX.




Сравнивать GeForce 8800 GTX с одноплатными решениями ATi и nVidia бесполезно. Разрыв в высоких разрешениях колоссален, да и в 1024x768 со сглаживанием он впечатляет.

В игре Rise of Nations: Rise of Legends видеокарта является единственным лидером. Если высчитывать разрыв между CrossFire Radeon X1950 XTX и GeForce 8800 GTX в процентах, то отрыв будет очень и очень велик. Если считать в fps, то разница не столь заметна, но всё же существенна.




Обратите внимание, как снижается скорость с ростом разрешения. При всех настройках GeForce 8800 GTX является лидером не только по сравнению с одиночными платами, но и с решениями SLI/CrossFire.

В игре Titan Quest карты nVidia показывают себя с лучшей стороны. При этом у от 1024x768 до 1600x1200 со сглаживанием и анизотропной фильтрацией fps не меняется.




Картину происходящего хорошо иллюстрирует следующий график. Производительность GeForce 8800 GTX находится на одном и том же уровне, вне зависимости от настроек.

В 3DMark06 карта отлично показывает себя и со вторыми, и с третьими шейдерами. Обратите внимание, насколько незначительно снижается производительность при включении анизотропии и сглаживания.


Рост разрешения тоже не пугает. Карта стоит на одном уровне с решениями SLI и CrossFire, значительно опережая всех предыдущих лидеров в одиночном забеге.


Чтобы вы лучше могли себе представить производительность в играх, мы перекомпоновали графики. Здесь нет сравнения, только чистый результат одной видеокарты. Стоит обратить внимание на то, что от разрешения к разрешению производительность GeForce 8800 GTX не меняется. Во всех играх ограничивающим фактором является недостаточно быстрый процессор AMD Athlon 64 FX-60. В будущем, с выходом гораздо более быстрых чипов, карта покажет себя ещё лучше в тех же самых играх. Думаем, и Core 2 Quad последнего поколения не способен заставить GeForce 8800 GTX достичь своего лимита.




Итак, покончив с результатами тестирования, давайте попытаемся составить рейтинг эффективности видеокарт. Для этого мы соберём воедино результаты всех игровых тестов и сопоставим их с ценой решения. За основу возьмём рекомендованные цены, то есть без наценок конкретных магазинов. Конечно, поначалу будут очень дорогими, и многие магазины заложат в цену избыточную прибыль. Но затем цены снизятся, и наверняка довольно скоро вы сможете приобрести GeForce 8800 GTX за более разумные деньги.

Как мы видим, по производительности GeForce 8800 GTX обходит практически все решения, включая сдвоенные CrossFire и SLI. В абсолютных показателях GeForce 8800 GTX очень быстра. Но как насчёт цены?

Цена у соответствующая - производитель просит за плату 635 евро. Это много, но ведь за две платы Radeon X1900 XTX в режиме CrossFire вам придётся заплатить больше - 700 евро. А за две Radeon X1950 XTX или SLI GeForce 7900 GTX целых 750 евро. При том, что в некоторых тестах одиночная GeForce 8800 GTX обходит эти решения, да и в корпусе занимает меньше места по ширине, есть о чём подумать.

Наконец разделим fps на деньги. Мы видим, что у этот показатель лучше, чем у SLI и CrossFire. Конечно, стоимость каждого fps будет выше, чем у GeForce 7800 GTX EX, и, конечно, заметно выше, чем у Radeon X1300 XT. Но и производительность платы соответствующая. Очень эффективное решение в ключе соотношения цены и производительности.

Мы решили дополнить наш обзор результатами тестов американской лаборатории THG, где также участвовала карта GeForce 8800 GTS. Обратите внимание, что из-за различий в тестовой конфигурации не следует напрямую сравнивать результаты, приведённые выше, с результатами американской лаборатории.


Карта GeForce 8800GTX длиннее, чем Radeon X1950XTX и большинство других карт на рынке. 8800GTS несколько короче.

Как и другие тесты графических видеокарт в 2006 году, мы проводили тестирование на платформе AMD Athlon FX-60. Также мы приведём результаты конфигураций с несколькими GPU. Кроме того, оценим, как ведут себя новые видеокарты, когда производительность упирается в CPU (низкое разрешение и качество картинки).

Системное аппаратное обеспечение
Процессоры AMD Athlon 64 FX-60, 2,6 ГГц, 1,0 ГГц HTT, кэш L2 1 Мбайт
Платформа nVidia: Asus AN832-SLI Premium, nVidia nForce4 SLI, BIOS 1205
Память Corsair CMX1024-4400Pro, 2x 1024 Мбайт DDR400 (CL3,0-4-4-8)
Жёсткий диск Western Digital Raptor, WD1500ADFD, 150 Гбайт, 10 000 об/мин, кэш 16 Мбайт, SATA150
Сеть Встроенная nForce4 Gigabit Ethernet
Видеокарты ATi Radeon X1950XTX 512 Мбайт GDDR4, 650 МГц ядро, 1000 МГц память (2,00 ГГц DDR)
Карты nVidia:
nVidia GeForce 8800GTX 768 Мбайт GDDR3, 575 МГц ядро, 1,350 ГГц потоковые процессоры, 900 МГц память (1,80 ГГц DDR)
XFX GeForce 8800GTS 640 Мбайт GDDR3, 500 МГц ядро, 1,200 ГГц потоковые процессоры, 800 МГц память (1,60 ГГц DDR)
nVidia GeForce 7900GTX 512 Мбайт GDDR3, 675 МГц ядро, 820 МГц память (1,64 ГГц DDR)
Блок питания PC Power & Cooling Turbo-Cool 1000 Вт
Кулер CPU Zalman CNPS9700 LED
Системное ПО и драйверы
ОС Microsoft Windows XP Professional 5.10.2600, Service Pack 2
Версия DirectX 9.0c (4.09.0000.0904)
Графические драйверы ATi - Catalyst 6.10 WHQL
nVidia - ForceWare 96.94 Beta

Во время первого прогона 3DMark мы проводили тесты на всех разрешениях, но с выключенными полноэкранным сглаживанием и анизотропной фильтрацией. Во втором прогоне мы включили опции улучшения картинки 4xAA и 8xAF.

nVidia в 3DMark05 явно находится на первом месте. GeForce 8800 GTX даёт такой же результат в разрешении 2048x1536, что ATi Radeon X1950 XTX в разрешении по умолчанию 1024x768. Впечатляет.

В Doom 3 обычно доминируют карты nVidia, поскольку их дизайн хорошо подходит для этой игры. Но ATi не так давно смогла "взять" эту игру с новыми картами.

Здесь мы впервые сталкиваемся с ограничениями вычислительной мощности CPU, поскольку при низком разрешении результат составляет где-то 126 кадров в секунду. Карта ATi способна дать более высокое число кадров в секунду на данной системной конфигурации. Причина кроется в драйверах. Дело в том, что ATi выпускает драйверы, которые меньше нагружают CPU. В результате CPU находится в более выгодных условиях и может дать больше производительности для графической подсистемы.

В целом же, победителем становятся новые карты 8800. Если посмотреть на результаты при всех разрешениях, новые карты DX10 обходят Radeon X1950 XTX, начиная от 1280x1024 и выше.

GeForce 8800 GTX и GTS | F.E.A.R.

В F.E.A.R. обычно лидируют карты nVidia. Но, опять же, здесь заметна меньшая нагрузка на CPU у драйверов ATi. Конечно, с более скоростной платформой результаты будут иными, но если ваш компьютер не является передовым, то данный тест наглядно показывает, как карты G80 будут на нём работать. Но если не считать теста в разрешении 1024x768, G80 просто убивает Radeon X1950 XTX. GTX - это монстр. И не важно, какую нагрузку мы даём на GeForce 8800 GTX, карта всегда обеспечивает более 40 кадров в секунду.


Нажмите на картинку для увеличения.

Второй скриншот (ниже) взят на 8800 GTX с теми же настройками.



Нажмите на картинку для увеличения.

Картинка nVidia по качеству намного превосходит скриншот ATi. Похоже, в этом отношении nVidia вновь вышла в лидеры. Перед нами ещё одно преимущество, которым обладают карты nVidia на чипе G80.


Перед вами таблица новых возможностей улучшения качества на картах G80.

Кроме новых видеокарт DX10, nVidia также показала несколько функций, которые будут доступны на картах G80. И первая из них - патентованная технология улучшения качества картинки под названием Coverage Sampled Antialiasing (CSAA).

Новая версия полноэкранного сглаживания использует область из 16 субсэмплов. По информации nVidia, в результате можно сжать "избыточную информацию о цветах и глубине в область памяти и пропускную способность четырёх или восьми мультисэмплов". Новый уровень качества работает более эффективно, снижая объём данных на сэмпл. Если CSAA не заработает с какой-либо игрой, то драйвер вернётся к традиционным методам сглаживания.


Нажмите на картинку для увеличения.

Перед тем, как мы закончим этот обзор, позвольте поговорить ещё о двух аспектах видеокарт, которые уже давно разрабатываются и со временем станут более важными. Первый аспект - воспроизведение видео. Во время правления GeForce 7 по качеству воспроизведения видео лидировали карты ATi Radeon X1900. Но ситуация изменилась с появлением унифицированных шейдеров с выделенным ядром Pure Video.

Благодаря умным алгоритмам и 128 вычислительным блокам, GeForce 8800 GTX смогла получить 128 из 130 баллов в HQV. В ближайшем будущем мы планируем выпустить более подробную статью, касающуюся качества картинки, так что следите за новостями на нашем сайте.

Наконец, очень сильной стороной G80 является то, что nVidia называет CUDA. Многие годы учёные и энтузиасты ищут способы, чтобы выжать больше производительности из мощных параллельных процессоров. Кластер Beowulf, конечно, не всем по карману. Поэтому обычные смертные предлагают разные способы, как можно использовать для вычислений видеокарту.

Проблема здесь следующая: графический процессор хорош для параллельных вычислений, но вот с ветвлениями он справляется плохо. Здесь как раз хорошо подходит CPU. Кроме того, если вы хотите использовать видеокарту, то следует программировать шейдеры, как это делают игровые разработчики. nVidia вновь решила выйти вперёд, представив архитектуру Compute Unified Device Architecture или CUDA.


Так может работать CUDA для симуляции жидкости.

nVidia выпустила компилятор C+, получающиеся программы которого могут масштабироваться под вычислительные мощности GPU (например, 96 потоковых процессоров в 8800 GTS или 128 в 8800 GTX). Теперь программисты получили возможность создавать программы, которые масштабируются по ресурсам как CPU, так и GPU. CUDA наверняка понравится разным программам распределённых вычислений. Впрочем, CUDA может использоваться не только для просчёта блоков, но и для симуляции других эффектов: объёмной жидкости, одежды и волос. Через CUDA на GPU можно потенциально перенести расчёты физики и даже других игровых аспектов.


Разработчикам будет представлен полный набор SDK.

GeForce 8800 GTX и GTS | Заключение

Те, кто сейчас перейдёт с GeForce 6 на , получат почти трёхкратное увеличение производительности. Неважно, когда выйдут игры для DirectX 10, не так важно, что нам дадут четвёртые шейдеры - уже сегодня GeForce 8800 GTX это самый быстрый чип. Такие игры, как Oblivion, Gothic 3 или Dark Messiah, будто ждали выхода чипа G80 и видеокарт . Играть без тормозов стало опять возможным. У GeForce 8800 GTX достаточно мощности для всех самых современных игр.

Система охлаждения работает тихо, 80-миллиметровый кулер на эталонной карте было не услышать. Даже при полной нагрузке скорость вращения кулера невысока. Интересно, чем на это ответит компания ATi. В любом случае, nVidia проделала чертовски хорошую работу и выпустила действительно мощную "железку".

Недостатки : длина платы 27 сантиметров, она занимает место двух слотов PCI Express. Блок питания должен быть, как минимум, на 450 ватт (12 В, 30 А). Для GeForce 8800 GTS минимумом станет БП на 400 ватт с 30 амперами по шине 12 вольт.

Следуя давним традициям, карты nVidia уже доступны в онлайновых магазинах. На международном рынке рекомендованная цена GeForce 8800GTX составляет $599, а GeForce 8800GTS - $449. Да и игры под DX10 должны вскоре появиться. Но что не менее важно, вы получите более качественную картинку уже в существующих играх.


Вот так может выглядеть супермодель, выведенная с помощью DX10. Нажмите на картинку для увеличения.

GeForce 8800 GTX и GTS | Мнение редактора

Лично я впечатлён реализацией DX10/D3D10 от nVidia. Просмотр Crysis в реальном времени и многочисленных демонстраций впечатляет. Реализация CUDA позволяет превратить видеокарту в нечто большее, чем просто устройство рендеринга кадров. Теперь программы смогут использовать не только ресурсы CPU, но и всю параллельную мощь универсального шейдерного ядра GPU. Не терпится посмотреть на подобные решения в реальности.

Но G80 оставляет желать лучшего. Чего же? Конечно, новых игр. Господа разработчики, будьте так добры, поскорее выпустите игры DX10.

GeForce 8800 GTX | Фотогалерея

Для начала NVIDIA установила G80 на 2 видеокарты: GeForce 8800 GTX и GeForce 8800 GTS.

Спецификации видеокарт серии GeForce 8800
GeForce 8800 GTX GeForce 8800 GTS
Кол-во транзисторов 681 млн. 681 млн.
Частота ядра (включая распределитель, текстурные блоки, блоки ROP) 575 МГц 500 МГц
Частота шейдеров (потоковых процессоров) 1350 МГц 1200 МГц
Кол-во шейдеров (потоковых процессоров) 128 96
Частота памяти 900 МГц (эффективная 1.8 ГГц) 800 МГц (эффективная 1,6 ГГц)
Интерфейс памяти 384 бит 320 бит
Пропускная способность памяти (ГБ/с) 86,4 ГБ/с 64 ГБ/с
Кол-во ROP блоков 24 20
Объем памяти 768 МБ 640 МБ

Как видите, количество транзисторов у GeForce 8800 GTX и 8800 GTS одинаковое, это потому, что это абсолютно одинаковые GPU G80. Как уже было сказано, основное отличие этих вариантов GPU – 2 отключенных банка потоковых процессоров – всего 32 шейдера. При этом число рабочих шейдерных блоков со 128 у GeForce 8800 GTX уменьшено до 96 у GeForce 8800 GTS. Также NVIDIA отключила 1 ROP (блок растеризации).

Частоты ядер и памяти у этих видеокарт также немного отличаются: частота ядра GeForce 8800 GTX - 575 МГц, у GeForce 8800 GTS – 500 МГц. Шейдерные блоки GTX работают на частоте 1350 МГц, GTS – 1200 МГц. У GeForce 8800 GTS NVIDIA также использует более узкий 320-битный интерфейс памяти и 640 МБ более медленной памяти, которая работает на частоте 800 МГц. У GeForce 8800 GTX 384-битный интерфейс памяти, 768 МБ памяти / 900 МГц. И, конечно, совсем другая цена.

Сами по себе видеокарты сильно отличаются:


Как видно на этих фотографиях, референс-платы GeForce 8800 черные (впервые для NVIDIA). С модулем охлаждения GeForce 8800 GTX и 8800 GTS – двуслотовые. GeForce 8800 GTX немного длиннее, чем GeForce 8800 GTS: её длина – 267 мм, против 229 мм у GeForce 8800 GTS, и, как было заявлено ранее, у GeForce 8800 GTX 2 PCIe разъема питания. Зачем 2? Максимальное энергопотребление GeForce 8800 GTX – 177 Вт. Однако в NVIDIA говорят, что это может быть только в крайнем случае, когда все функциональные блоки GPU будут максимально загружены, а в обычных играх при тестировании видеокарта потребляла в среднем 116 - 120 Вт, максимум – 145 Вт.

Так как каждый внешний разъём питания PCIe на самой видеокарте рассчитан максимум на 75 Вт, и слот PCIe тоже рассчитан максимум на 75 Вт, то 2-х этих разъемов буден недостаточно для подвода 177 Вт, поэтому пришлось сделать 2 внешних разъёма питания PCIe. Добавив второй разъём, NVIDIA обеспечила 8800 GTX солидный запас мощности. Кстати, максимальное энергопотребление у 8800 GTS – 147 Вт, так что она может обойтись и одним разъёмом питания PCIe.

Другая особенность, добавленная в дизайн референсной платы GeForce 8800 GTX – второй разъём SLI – впервые для GPU NVIDIA. NVIDIA о назначении второго разъёма SLI официально ничего не сообщает, но журналистам удалось получить от разработчиков такую информацию: “Второй разъём SLI у GeForce 8800 GTX предназначен для аппаратной поддержки возможного расширения SLI конфигурации. С текущими драйверами используется только один разъём SLI. Пользователи могут подключать SLI мост, как на первые, так и на вторые контактные группы”.

Основываясь на этом, и том, что материнские платы nForce 680i SLI выпускаются с тремя слотами PCI Express (PEG), можно прийти к выводу, что в ближайшем будущем NVIDIA планирует осуществить поддержку трех SLI-видеокарт. Ещё одним вариантом может быть увеличение мощности для SLI физики, но это не объясняет, почему GeForce 8800 GTS не имеет второго разъёма SLI.

Можно предположить, что NVIDIA, резервирует свою GX2 “Quad SLI” технологию для менее мощной видеокарты GeForce 8800 GTS, в то время как более мощная GeForce 8800 GTX будет работать в тройной SLI конфигурации.

Если Вы помните, оригинальные Quad SLI видеокарты NVIDIA по своим характеристикам ближе к GeForce 7900 GT, чем к GeForce 7900 GTX, так как у видеокарт 7900 GT более низкое энергопотребление / тепловыделение. Вполне естественно предположить, что NVIDIA пойдет по тому же пути и в случае с GeForce 8800. Геймеры с материнскими платами с тремя PEG слотами смогут увеличить быстродействие графической подсистемы, собрав тройную SLI 8800 GTX конфигурацию, что в некоторых случаях даст им лучшую производительность, чем Quad SLI система, если судить по характеристикам 8800 GTS.

Повторимся, что это всего лишь предположение.

Блок охлаждения у GeForce 8800 GTS и 8800 GTX сделан двуслотовым, каналированным, выводящим горячий воздух от GPU за пределы корпуса компьютера. Радиатор охлаждения состоит из большого алюминиевого радиатора, медных и алюминиевых тепловых трубок и медной пластины, которая прижимается к GPU. Вся эта конструкция обдувается большим вентилятором радиального типа, который смотрится немного пугающе, но на самом деле работает довольно тихо. Система охлаждения 8800 GTX похожа на систему охлаждения 8800 GTS, только у первой немного длиннее радиатор.


В общем, новый кулер справляется с охлаждением графического процессора довольно хорошо, и при этом почти бесшумный – как у видеокарт GeForce 7900 GTX и 7800 GTX 512MB, но GeForce 8800 GTS и 8800 GTX слышно чуть сильнее. В некоторых корпусах, чтобы услышать шум от вентилятора видеокарт, нужно будет хорошо прислушаться.

Производство

Всё производство GeForce 8800 GTX и 8800 GTS осуществляется по контракту NVIDIA. Это означает, что купите ли Вы видеокарту ASUS, EVGA, PNY, XFX или любого другого производителя, все они изготовлены одной компанией. NVIDIA даже не позволяет производителям разгонять первые партии видеокарт GeForce 8800 GTX и GTS: они все поступают в продажу с одинаковыми тактовыми частотами независимо от производителя. Но им разрешается устанавливать свои системы охлаждения.

Например, компания EVGA уже выпустила свою версию e-GeForce 8800 GTX ACS3 Edition со своим уникальным кулером ACS3. Видеокарта ACS3 спрятана в едином большом алюминиевом коконе. На нем нанесены буквы E-V-G-A. Для дополнительного охлаждения на тыльной стороне видеокарты EVGA разместила дополнительный радиатор, прямо напротив GPU G80.

Помимо охлаждения, изготовители первых видеокарт GeForce 8800 могут индивидуализировать свои изделия только гарантийными обязательствами и комплектацией – игры и аксессуары. Например, компания EVGA комплектует свои видеокарты игрой Dark Messiah, видеокарта GeForce 8800 GTS BFG продается с футболкой BFG и ковриком для мышки.

Интересно будет посмотреть, что будет дальше – многие партнеры NVIDIA полагают, что для последующих выпусков видеокарт GeForce 8800 ограничения NVIDIA будут не такими жесткими, и они смогут соревноваться в разгоне.

Так как все видеокарты сходят с одного конвейера, то все GeForce 8800 поддерживают 2 разъёма dual-link DVI и HDCP. Кроме того, стало известно, что NVIDIA не планирует менять объем памяти у GeForce 8800 GTX и GTS (например, 256 МБ GeForce 8800 GTS или 512 МБ 8800 GTX). По крайней мере, пока стандартная конфигурация для GeForce 8800 GTX – 768 МБ, а GeForce 8800 GTS – 640 МБ. У NVIDIA нет также планов делать AGP версию видеокарт GeForce 8800 GTX/GTS.

Драйвер для 8800

NVIDIA сделала несколько изменений в драйвере GeForce 8800, о которых нужно непременно сказать. Прежде всего, убрана традиционная утилита разгона Coolbits, вместо неё – NVIDIA nTune. То есть, если Вы хотите разогнать видеокарту GeForce 8800, нужно будет скачать утилиту nTune. Вероятно, это хорошо для обладателей материнских плат на чипсете nForce, так как утилиту nTune можно использовать не только для разгона видеокарты, но и для конфигурации системы. В противном случае, те, например, кто успел сделать апгрейд до Core 2 и имеет материнскую плату с чипсетом 975X или P965, для разгона видеокарты должны будут скачать 30 МБ приложение.

Другое изменение у нового драйвера, на которое мы обратили внимание – нет опции перехода к классической панели управления NVIDIA. Хочется верить, что NVIDIA вернет эту функцию в свой видеодрайвер, так как она нравилась многим, в отличие от нового интерфейса панели управления NVIDIA.

Общеизвестно, что флагманские модели графических адаптеров, относящиеся к высшему ценовому диапазону, являются, в первую очередь, публичной демонстрацией технологических достижений компании-разработчика. Хотя эти решения пользуются заслуженной популярностью у игроков-энтузиастов, основной картины продаж они никогда не делают. Далеко не каждый способен или желает отдать $600, сумму, сопоставимую со стоимостью самой дорогой современной игровой консоли, только за графическую карту, поэтому, основной вклад в доходы AMD/ATI и Nvidia вносят менее дорогие, но гораздо более массовые карты.

9 ноября прошлого года Nvidia анонсировала первый потребительский графический процессор с унифицированной архитектурой и поддержкой DirectX 10. Новинка была подробно описана нами в обзоре Directly Unified: Nvidia GeForce 8800 Architecture Review. Изначально, новинка легла в основу двух новых графических карт – GeForce 8800 GTX и GeForce 8800 GTS. Как известно, старшая модель отлично показала себя в играх и вполне может считаться выбором энтузиаста, которого не смущает цена, младшая же модель заняла достойное место в своей ценовой категории – менее $500, но более $350.

$449 – не очень большая цена за продукт нового поколения, обладающий полноценной поддержкой DirectX 10 и могущий предложить пользователю серьезный уровень производительности в современных играх. Тем не менее, Nvidia решила не останавливаться на достигнутом, и 12 февраля 2007 года представила на суд публики более доступную модель GeForce 8800 GTS 320MB с официальной стоимостью $299, чем серьезно укрепила свои позиции в этом секторе. Об этих двух графических картах и пойдет речь в сегодняшнем обзоре. Попутно мы выясним, насколько критичен для семейства GeForce 8 объем видеопамяти.

GeForce 8800 GTS: технические характеристики

Для оценки качеств и возможностей обеих моделей GeForce 8800 GTS нам следует напомнить нашим читателям характеристики семейства GeForce 8800.


Все три модели GeForce 8800 используют одно и то же графическое ядро G80, состоящее из 681 миллиона транзисторов, а также дополнительный чип NVIO, содержащий в своем составе TMDS-трансмиттеры, RAMDAC и т.п.. Использование столь сложного чипа для производства нескольких моделей графических адаптеров, относящихся к разным ценовым категориям, не является самым лучшим вариантом с точки зрения себестоимости конечного продукта, однако и неудачным его не назовешь: у Nvidia появляется возможность продать отбракованные версии GeForce 8800 GTX (не прошедшие отбраковку по частотам и/или имеющих некоторое количество дефектных блоков), а себестоимость видеокарт, продающихся по цене свыше $250 едва ли критична. Данный подход активно используется как Nvidia, так и её заклятым конкурентом – ATI, достаточно вспомнить историю графического процессора G71, который можно найти как в массовом недорогом видеоадаптере GeForce 7900 GS, так и в мощном двухчиповом монстре GeForce 7950 GX2.

Таким же образом был создан и GeForce 8800 GTS. Как можно увидеть из таблицы, в плане технических характеристик этот видеоадаптер значительно отличается от старшего собрата: у него не только ниже тактовые частоты и отключена часть потоковых процессоров, но также сокращен объем видеопамяти, урезана ширина шины доступа к ней и неактивна часть TMU и блоков растеризации.

Всего GeForce 8800 GTS располагает 6 группами потоковых процессоров, по 16 ALU в каждой, что дает в сумме 96 ALU. Главный соперник этой карты, AMD Radeon X1950 XTX, несет в своем составе 48 пиксельных процессоров, каждый из которых, в свою очередь, состоит из 2 векторных и 2 скалярных ALU – в сумме 192 ALU.

Казалось бы, в чистой вычислительной мощности GeForce 8800 GTS должен достаточно серьезно уступать Radeon X1950 XTX, но существует ряд нюансов, делающих такое предположение не вполне правомерным. Первый из них заключается в том, что потоковые процессоры GeForce 8800 GTS, подобно ALU в Intel NetBurst, работают на значительно более высокой частоте, нежели остальные части ядра – 1200 МГц против 500 МГц, что уже означает весьма серьезную прибавку к производительности. Другой нюанс следует из особенностей архитектуры графического процессора R580. Теоретически, каждый из его 48 блоков исполнения пиксельных шейдеров способен выполнять 4 инструкции за такт, не считая инструкции ветвления. Однако только 2 из них будут иметь тип ADD/MUL/MADD, а две оставшиеся всегда представляют собой инструкции ADD с модификатором. Соответственно, эффективность пиксельных процессоров R580 будет максимальной не во всех случаях. С другой стороны, потоковые процессоры G80 имеют полностью скалярную архитектуру и каждый из них способен исполнять за такт две скалярные операции, например, MAD+MUL. Хотя точных данных об архитектуре потоковых процессоров Nvidia мы по-прежнему не имеем, в данной статье мы рассмотрим, насколько новая унифицированная архитектура GeForce 8800 прогрессивней архитектуры Radeon X1900 и как это отражается на скорости в играх.

Что касается производительности систем текстурирования и растеризации, то, судя по характеристикам, на стороне GeForce 8800 GTS большее количество текстурников (24) и растеризаторов (20) по сравнению с Radeon X1950 XTX (16 TMU, 16 ROP), однако, их тактовая частота (500МГц) ощутимо ниже тактовой частоты продукта ATI (650MHz). Таким образом, решающего преимущества не имеет ни одна из сторон, а значит, на производительность в играх повлияет в основном "удачность" микро-архитектуры, а не численное преимущество исполнительных блоков.

Примечательно, что как GeForce 8800 GTS, так и Radeon X1950 XTX имеют одинаковую пропускную способность памяти – 64ГБ/сек, однако GeForce 8800 GTS использует 320-битную шину доступа к видеопамяти, в ней используется память GDDR3, работающая на частоте 1600МГц, тогда как у Radeon X1950 XTX можно найти 2ГГц память GDDR4 с 256-битным доступом. С учетом деклараций ATI более совершенного контроллера памяти с кольцевой топологией у R580 по сравнению с типичным контроллером Nvidia, будет интересно посмотреть, получит ли решение ATI Radeon некоторое преимущество в высоких разрешениях при включенном полноэкранном сглаживании против конкурента нового поколения, как это случалось в случае с GeForce 7.

Менее дорогой вариант GeForce 8800 GTS c 320MB памяти, анонсированный 12 февраля 2007 года и призванный заменить GeForce 7950 GT в сегменте решений класса performance-mainstream, отличается от обычной модели только объемом видеопамяти. Фактически, для получения этой карты Nvidia понадобилось всего лишь заменить микросхемы памяти емкостью 512 Мбит на чипы емкостью 256 Мбит. Простое и технологичное решение, оно позволило утвердить Nvidia свое технологическое превосходство в достаточно популярной среди пользователей ценовой категории $299. В дальнейшем мы выясним, насколько это отразилось на производительности новинки и стоит ли потенциальному покупателю доплачивать $150 за модель с 640 МБ видеопамяти.

В нашем сегодняшнем обзоре GeForce 8800 GTS 640MB будет представлена видеоадаптером MSI NX8800GTS-T2D640E-HD-OC. Расскажем об этом продукте подробнее.

MSI NX8800GTS-T2D640E-HD-OC: упаковка и комплектация

Видеоадаптер прибыл в нашу лабораторию в розничном варианте – упакованный в красочную коробку вместе со всеми сопутствующими аксессуарами. Коробка оказалась сравнительно небольшой, особенно, в сравнении с коробкой от MSI NX6800 GT, которая в свое время могла поспорить по части габаритов с упаковками Asustek Computer. Несмотря на скромные размеры, упаковка MSI традиционно снабжена удобной ручкой для переноски.


Оформление коробки выполнено в спокойных бело-голубых тонах и не режет глаз; лицевую сторону украшает изображение симпатичной рыжеволосой девушки-ангела, так что об агрессивных мотивах, столь популярных среди производителей видеокарт, речи не идет. Три наклейки сообщают покупателю о том, что карта предварительно разогнана производителем, поддерживает HDCP и комплектуется полной версией игры Company of Heroes. На обратной стороне коробки можно найти информацию о технологиях Nvidia SLI и MSI D.O.T. Express. Последняя является технологией динамического разгона, и, по заявлению MSI, позволяет поднять производительность видеоадаптера на 2%-10%, в зависимости от используемого профиля разгона.

Открыв коробку, помимо самого видеоадаптера, мы обнаружили следующий набор аксессуаров:


Краткое руководство по установке
Краткое руководство пользователя
Переходник DVI-I -> D-Sub
Разветвитель YPbPr/S-Video/RCA
Кабель S-Video
Переходник питания 2хMolex -> 6-pin PCI Express
CD с драйверами и утилитами MSI
Двухдисковое издание игры Company of Heroes

Оба руководства выполнены в виде постеров; на наш взгляд, они слишком просты и содержат только самую базовую информацию. Погоня за количеством языков, а их в кратком руководстве пользователя 26, привело к тому, что ничего особенно полезного, кроме основных сведений по установке карты в систему, из него почерпнуть не удастся. Мы считаем, что руководства могли бы быть несколько поподробней, что дало бы некоторое преимущество неопытным пользователям.

Диск с драйверами содержит устаревшую версию Nvidia ForceWare 97.29, а также ряд фирменных утилит, среди которых отдельного упоминания заслуживают MSI DualCoreCenter и MSI Live Update 3. Первая представляет собой унифицированный центр управления, позволяющий осуществлять разгон как видеокарты, так и центрального процессора, однако, для полной функциональности программа требует наличия системной платы MSI, оснащенной чипом CoreCell и, следовательно, малополезна владельцам плат других производителей. Утилита MSI Live Update 3 предназначена для отслеживания обновлений драйверов и BIOS и удобного их обновления через Интернет. Это достаточно удобный способ, особенно для тех, кто не желает разбираться в тонкостях ручного процесса обновления BIOS видеоадаптера.

Наличие в комплекте полной версии популярной тактической RTS Company of Heroes заслуживает отдельной похвалы MSI. Это действительно игра высшей категории, с отличной графикой и досконально проработанным игровым процессом; многие игроки называют ее лучшей игрой в этом жанре, что подтверждается многочисленными наградами, в том числе – званием "Лучшая Стратегическая Игра E3 2006". Как мы уже отмечали, несмотря на принадлежность к жанру стратегий реального времени, Company of Heroes может похвастаться современной графикой на уровне неплохого шутера с видом от первого лица, поэтому игра отлично подходит для демонстрации возможностей GeForce 8800 GTS. Помимо Company of Heroes, на дисках можно найти демо-версию Warhammer 40.000: Dawn of War – Dark Crusade.

Комплектацию MSI NX8800GTS-T2D640E-HD-OC мы можем с уверенностью назвать хорошей благодаря наличию полной версии очень популярной тактической RTS Company of Heroes и удобному программному обеспечению от MSI.

MSI NX8800GTS-T2D640E-HD-OC: дизайн печатной платы

Для модели GeForce 8800 GTS Nvidia разработала отдельную, более компактную печатную плату, нежели та, что используется для производства GeForce 8800 GTX. Так как все GeForce 8800 поставляются партнерам Nvidia в уже готовом виде, практически все, что будет сказано ниже, относится не только к MSI NX8800GTS, но и к любой другой модели GeForce 8800 GTS, будь то вариант с 640 или 320 МБ видеопамяти.


Печатная плата GeForce 8800 GTS значительно короче платы GeForce 8800 GTX. Ее длина составляет всего 22.8 сантиметра против почти 28 сантиметров у флагманской модели GeForce 8. Фактически, габариты GeForce 8800 GTS те же, что и у Radeon X1950 XTX, даже чуть меньше, так как кулер не выступает за пределы PCB.

Наш экземпляр MSI NX8800GTS использует плату, покрытую маской зеленого цвета, хотя на сайте компании продукт изображен с PCB более привычного черного цвета. В настоящее время в продаже встречаются как "черные", так и "зеленые" GeForce 8800 GTX и GTS. Несмотря на многочисленные слухи, циркулирующие в Сети, никакой разницы, кроме, собственно, цвета PCB, между такими картами нет, что подтверждает и официальный веб-сайт Nvidia. Чем же обусловлен такой "возврат к корням"?

На этот счет есть немало противоречивых слухов. Согласно некоторым из них, состав черного покрытия более токсичен, нежели традиционного зеленого, другие считают, что черное покрытие сложнее в нанесении или более дорогое. На практике, скорее всего, это не так – как правило, цены на паяльные маски разных цветов одинаковы, что исключает дополнительные проблемы с масками определенных цветов. Наиболее вероятен самый простой и логичный сценарий – карты разных цветов выпускаются разными контрактными производителями – Foxconn и Flextronics. Причем, Foxconn, вероятно, использует покрытия обоих цветов, так как мы встречали и "черные" и "зеленые" карты этого производителя.


Система питания GeForce 8800 GTS почти не уступает по сложности аналогичной системе GeForce 8800 GTX и даже содержит большее количество электролитических конденсаторов, но имеет более плотную компоновку и только один разъем внешнего питания, благодаря чему, печатную плату удалось сделать значительно короче. За управление питанием GPU отвечает тот же цифровой ШИМ-контроллер, что и в GeForce 8800 GTX, Primarion PX3540. Управление питанием памяти осуществляет второй контроллер, Intersil ISL6549, который, к слову отсутствует на GeForce 8800 GTX, где схема питания памяти иная.

Левая часть печатной платы, где расположены основные компоненты GeForce 8800 GTS – GPU, NVIO и память, практически идентична аналогичному участку PCB GeForce 8800 GTX, что неудивительно, так как разработка всей платы с нуля потребовала бы значительных финансовых и временных затрат. Кроме того, значительно упростить плату для GeForce 8800 GTS, проектируя ее с нуля, скорее всего, не удалось бы, в свете необходимости использования того же тандема G80 и NVIO, что и на флагманской модели. Единственным видимым отличием от GeForce 8800 GTX является отсутствие второй "гребенки" интерфейса MIO (SLI), на месте которой находится место для установки технологического разъема с защелками-фиксаторами, возможно, выполняющего ту же функцию, но не распаянного. Сохранена даже 384-битная разводка шины памяти, а урезание самой шины до нужной ширины произведено простейшим способом: вместо 12 чипов GDDR3 установлено только 10. Так как каждый чип имеет 32-битную шину, 10 микросхем в сумме как раз и дают необходимые 320 бит. Теоретически, ничто не препятствует созданию GeForce 8800 GTS с 384-битной шиной памяти, но появление такой карты на практике крайне маловероятно, потому, большие шансы на выпуск имеет полноценная GeForce 8800 GTX с пониженными частотами.


На MSI NX8800GTS-T2D640E-HD-OC установлено 10 микросхем GDDR3 Samsung K4J52324QE-BC12 емкостью 512 Мбит, работающие при напряжении питания 1.8В и имеющие номинальную частоту 800 (1600) МГц. Согласно официальным спецификациям Nvidia на GeForce 8800 GTS, память этого видеоадаптера должна иметь именно такую частоту. Но рассматриваемая нами версия MSI NX8800GTS не зря имеет в названии буквы "OC" – она является предварительно разогнанной, поэтому память работает на несколько более высокой частоте 850 (1700) МГц, что дает прибавку в пропускной способности с 64 ГБ/сек. до 68 ГБ/сек.

Так как единственное отличие GeForce 8800 GTS 320MB от обычной модели заключается в уменьшенном вдвое объеме видеопамяти, на эту карту просто устанавливаются микросхемы памяти емкостью 256 Мбит, например, Samsung серии K4J55323QC/QI или Hynix HY5RS573225AFP. В остальном две модели GeForce 8800 GTS идентичны друг другу вплоть до мельчайших деталей.

Маркировка GPU NX8800GTS несколько отличается от маркировки процессора GeForce 8800 GTX и выглядит, как "G80-100-K0-A2", тогда, как в эталонной флагманской карте чип маркирован символами "G80-300-A2". Мы знаем, что на производство GeForce 8800 GTS могут пускаться экземпляры G80, имеющие дефекты в части функциональных блоков и/или не прошедшие отбора по частоте. Возможно, именно эти особенности и отражены в маркировке.

У процессора 8800 GTS активны 96 потоковых процессоров из 128, 24 TMU из 32 и 20 ROP из 24. Для стандартного варианта GeForce 8800 GTS базовая частота GPU составляет 500 МГц (513 МГц реальная частота), а частота работы шейдерных процессоров – 1200 МГц (1188 МГц реальная частота), но у MSI NX8800GTS-T2D640E-HD-OC эти параметры равны 576 и 1350 МГц, что соответствует частотам GeForce 8800 GTX. Насколько это отразится на производительности изделия MSI, мы выясним позднее, в разделе, посвященном результатам игровых тестов.

Конфигурация выходных разъемов NX8800GTS стандартна: два разъема DVI-I, способные работать в двухканальном режиме и универсальный семиконтактный разъем mini-DIN, позволяющий как подключение устройств HDTV по аналоговому интерфейсу YPbPr, так и устройств SDTV, использующих интерфейс S-Video или Composite. У продукта MSI оба разъема DVI заботливо прикрыты резиновыми защитными колпачками – достаточно бессмысленная, но приятная мелочь.

MSI NX8800GTS-T2D640E-HD-OC: конструкция системы охлаждения

Система охлаждения, установленная на MSI NX8800GTS, а также на подавляющем большинстве GeForce 8800 GTS других поставщиков графических карт, представляет собой укороченную версию системы охлаждения GeForce 8800 GTX, описанной в соответствующем обзоре.


Укорочены радиатор и тепловая трубка, передающая тепловой поток от медной подошвы, контактирующей с теплораспределителем графического процессора. Также по-иному расположена плоская U-образная тепловая трубка, впрессованная в основание и отвечающая за равномерное распределение теплового потока. Алюминиевая рама, на которой закреплены все детали кулера. имеет множество выступов в местах контакта с микросхемами памяти, силовыми транзисторами стабилизатора питания и кристаллом чипа NVIO. Надежный тепловой контакт обеспечивается традиционными подушечками из неорганического волокна, пропитанными белой термопастой. Для GPU используется другая, но также привычная нашим читателям густая темно-серая термопаста.

Благодаря тому, что в конструкции системы охлаждения сравнительно немного медных элементов, масса ее невелика, и крепление не требует применения специальных пластин, предотвращающих фатальный изгиб PCB. Восьми обычных подпружиненных болтов, крепящих кулер прямо к плате, вполне достаточно. Возможность повреждения графического процессора практически исключена, так как он снабжен крышкой-теплораспределителем и окружен широкой металлической рамкой, защищающей чип от возможного перекоса системы охлаждения, а плату – от излишнего изгиба.

За обдув радиатора отвечает радиальный вентилятор с диаметром крыльчатки примерно 75 миллиметров, имеющий те же электрические параметры, что и в системе охлаждения GeForce 8800 GTX – 0.48А/12В, и подключенный к плате посредством четырехконтактного разъема. Система закрыта полупрозрачным пластиковым кожухом таким образом, что горячий воздух выдувается наружу сквозь прорези в крепежной планке.

Конструкция кулеров GeForce 8800 GTX и 8800 GTS продумана, надежна, проверена временем, практически бесшумна в работе и обеспечивает высокую эффективность охлаждения, поэтому менять ее на что-либо другое бессмысленно. MSI заменила лишь наклейку Nvidia на кожухе на собственную, повторяющую рисунок на коробке и снабдила вентилятор еще одной наклейкой, со своим фирменным логотипом.

MSI NX8800GTS-T2D640E-HD-OC: шумность и уровень энергопотребления

Для оценки уровня шума, генерируемого системой охлаждения MSI NX8800GTS, был использован цифровой шумомер Velleman DVM1326 с разрешающей способностью 0.1 дБ. Измерения производились с использованием взвешенной кривой А. На момент проведения замеров, фоновый уровень шума в лаборатории составил 36 дБА, а уровень шума на расстоянии одного метра от работающего стенда, оснащенного графической картой с пассивным охлаждением, был равен 40 дБА.






С точки зрения шумности, система охлаждения NX8800GTS (и любого другого GeForce 8800 GTS) ведет себя совершенно так же, как и система, устанавливаемая на GeForce 8800 GTX. Уровень шума очень невысок во всех режимах; по этому параметру новая конструкция Nvidia превосходит даже великолепный кулер GeForce 7900 GTX, ранее по праву считавшийся лучшим в своем классе. Добиться полной бесшумности и не потерять в эффективности охлаждения в данном случае можно разве что путем установки водяной системы охлаждения, особенно, если планируется серьезный разгон.

Как известно нашим читателям, эталонные экземпляры GeForce 8800 GTX из первых партий отказывались запускаться на стенде, оборудованном для измерения уровня энергопотребления видеокарт. Однако, большинство новых карт, относящихся к семейству GeForce 8800, а среди них и MSI NX8800GTS-T2D640E-HD-OC, без проблем заработали на этой системе, имеющей следующую конфигурацию:

Процессор Intel Pentium 4 560 (3.60ГГц, 1МБ L2);
Системная плата Intel Desktop Board D925XCV (i925X);
Память PC-4300 DDR2 SDRAM (2x512МБ);
Жесткий диск Samsung SpinPoint SP1213C (120 ГБ, Serial ATA-150, буфер 8МБ);
Microsoft Windows XP Pro SP2, DirectX 9.0c.

Как мы сообщали, системная плата, являющаяся сердцем измерительной платформы, специальным образом модернизирована: в разрыв цепей питания слота PCI Express x16 включены измерительные шунты, оснащенные разъемами для подключения измерительной аппаратуры. Таким же шунтом оборудован и переходник питания 2xMolex -> 6-pin PCI Express. В качестве измерительного инструмента используется мультиметр Velleman DVM850BL, обладающий погрешностью измерений не более 0.5%.

Для создания нагрузки на видеоадаптер в режиме 3D применяется первый графический тест SM3.0/HDR, входящий в состав пакета Futuremark 3DMark06 и запускаемый в бесконечном цикле в разрешении 1600х1200 при форсированной анизотропной фильтрации 16х. Пиковый режим 2D эмулируется путем запуска теста 2D Transparent Windows, являющегося частью пакета Futuremark PCMark05.

Таким образом, проведя стандартную процедуру измерения, нам удалось получить достоверные данные об уровне энергопотребления не только MSI NX8800GTS-T2D640E-HD-OC, но и всего семейства Nvidia GeForce 8800.











GeForce 8800 GTX действительно опередил в плане энергопотребления предыдущего "лидера", Radeon X1950 XTX, но лишь на 7 Ватт. Учитывая огромную сложность G80, 131.5 Ватт в режиме 3D можно смело считать хорошим показателем. Оба дополнительных разъема питания GeForce 8800 GTX потребляют примерно одинаковую мощность, не превышающую 45 Ватт даже в самом тяжелом режиме. Хотя дизайн PCB GeForce 8800 GTX предполагает установку одного восьмиконтактного разъема питания вместо шестиконтактного, вряд ли она будет актуальной даже в случае значительного повышения тактовых частот GPU и памяти. В режиме простоя экономичность флагмана Nvidia оставляет желать много лучшего, но это расплата за 681 миллион транзисторов и огромную, по меркам GPU, частоту шейдерных процессоров. Отчасти столь высокий уровень энергопотребления в простое обусловлен и тем, что семейство GeForce 8800 не понижает тактовые частоты в этом режиме.

У обоих вариантов GeForce 8800 GTS показатели заметно скромнее, хоть и не могут похвастаться экономичностью на уровне карт Nvidia, использующих ядро предыдущего поколения, G71. На единственный разъем питания этих карт приходится значительно более серьезная нагрузка, в отдельных случаях могущая достигать 70 Ватт и более. Уровни энергопотребления вариантов GeForce 8800 GTS с 640 и 320 МБ видеопамяти отличаются незначительно, что неудивительно – ведь этот параметр является единственным отличием этих карт друг от друга. Продукт MSI, работающий на повышенных частотах, потребляет больше стандартной версии GeForce 8800 GTS - порядка 116 Ватт под нагрузкой в режиме 3D, что все равно меньше аналогичного показателя Radeon X1950 XTX. Конечно, в режиме 2D карта AMD значительно экономичнее, однако, видеоадаптеры этого класса приобретаются именно с целью использования в 3D, поэтому, этот параметр не столь критичен, как уровень энергопотребления в играх и трехмерных приложениях.

MSI NX8800GTS-T2D640E-HD-OC: особенности разгона

Разгон представителей семейства Nvidia GeForce 8800 сопряжен с рядом особенностей, о которых мы считаем нужным рассказать нашим читателям. Как вы, вероятно, помните, первые представители седьмого поколения GeForce, использующие 0.11-мкм ядро G70, могли повышать частоты блоков растеризации и пиксельных процессоров только с шагом 27 МГц, и если разгон оказывался меньше этого значения, прирост производительности практически отсутствовал. Позднее, в картах на базе G71 Nvidia вернулась к стандартной схеме разгона с шагом в 1 МГц, однако, в восьмом поколении GeForce дискретность изменения тактовых частот появилась вновь.

Схема распределения и изменения тактовых частот в GeForce 8800 достаточно нетривиальна, что связано с тем, что блоки шейдерных процессоров в G80 работают на значительно более высокой частоте, нежели остальные блоки GPU. Соотношение частот составляет примерно 2.3 к 1. Хотя основная частота графического ядра может меняться с меньшим шагом, нежели 27 МГц, частота шейдерных процессоров всегда изменяется с шагом 54 МГц (2х27 МГц), что создает дополнительные трудности при разгоне, ведь все утилиты манипулируют основной частотой, а вовсе не частотой шейдерного "домена". Существует, однако, несложная формула, позволяющая с достаточной точностью определить частоту потоковых процессоров GeForce 8800 после разгона:

OC shader clk = Default shader clk / Default core clk * OC core clk


Где OC shader clk – искомая частота (приблизительно), Default shader clk – начальная частота шейдерных процессоров, Default core clk - начальная частота ядра, а OC core clk – частота разогнанного ядра.

Рассмотрим характер поведения MSI NX8800GTS-T2D640E-HD-OC при разгоне с помощью утилиты RivaTuner2 FR, позволяющей отслеживать реальные частоты различных областей или, как их еще называют, "доменов" графического процессора G80. Поскольку продукт MSI имеет те же частоты GPU (576/1350), что и GeForce 8800 GTX, нижеследующая информация актуальна и для флагманской графической карты Nvidia. Мы будем повышать основную частоту GPU шагами по 5 МГц: это достаточно мелкий шаг и при этом он не кратен 27 МГц.


Эмпирическая проверка подтвердила: основная частота графического ядра действительно может меняться с переменным шагом – 9, 18 или 27 МГц, причем, закономерность изменения нам уловить не удалось. Частота шейдерных процессоров во всех случаях менялась шагами по 54 МГц. Из-за этого некоторые частоты основного "домена" G80 оказываются практически бесполезными при разгоне, и их использование приведет разве что к излишнему нагреву графического процессора. Например, нет никакого смысла добиваться прироста основной частоты ядра до 621 МГц – частота шейдерного блока все равно будет составлять 1458 МГц. Таким образом, разгон GeForce 8800 следует осуществлять тщательно, пользуясь вышеприведенной формулой и сверяясь с данными мониторинга Riva Tuner или другой утилиты с аналогичной функциональностью.

Ожидать серьезных результатов по разгону от версии NX8800GTS, уже разогнанной производителем, было бы нелогично, однако, карта неожиданно показала совсем неплохой потенциал, по крайней мере, со стороны графического процессора. Его частоты нам удалось поднять с заводских 576/1350 МГц до 675/1566 МГц, при этом, NX8800GTS устойчиво проходила несколько циклов 3DMark06 подряд без какого-либо дополнительного охлаждения. Температура процессора, по данным Riva Tuner, не превысила 70 градусов.

Память поддалась разгону значительно хуже, так как на NX8800GTX OC Edition были установлены микросхемы, рассчитанные на 800 (1600) МГц, работающие на частоте выше номинала – 850 (1700) МГц. В результате, нам пришлось остановиться на отметке 900 (1800) МГц, так как дальнейшие попытки поднятия частоты памяти неизменно приводили к зависанию или сбою в драйвере.

Таким образом, карта показала хороший потенциал к разгону, но только для графического процессора: сравнительно медленные микросхемы памяти не позволили значительно повысить ее частоту. Для них уровень GeForce 8800 GTX следует считать хорошим достижением, а 320-битная шина при такой частоте уже способна обеспечить серьезное превосходство в пропускной способности над Radeon X1950 XTX: 72 ГБ/сек против 64 ГБ/сек. Разумеется, результат разгона может варьироваться в зависимости от конкретного экземпляра MSI NX8800GTS OC Edition и применения дополнительных средств, таких, как модификация схемы питания карты или установка водяного охлаждения.

Конфигурация тестовой платформы и методы тестирования

Сравнительное исследование производительности GeForce 8800 GTX проводилось на платформах, имевших следующую конфигурацию.

Процессор AMD Athlon 64 FX-60 (2 x 2.60ГГц, 2 x 1МБ L2)
Системная плата Abit AN8 32X (nForce4 SLI X16) для карт Nvidia GeForce
Системная плата Asus A8R32-MVP Deluxe (ATI CrossFire Xpress 3200) для карт ATI Radeon
Память OCZ PC-3200 Platinum EL DDR SDRAM (2x1ГБ, CL2-3-2-5)
Жесткий диск Maxtor MaXLine III 7B250S0 (Serial ATA-150, буфер 16МБ)
Звуковая карта Creative SoundBlaster Audigy 2
Блок питания Enermax Liberty 620W (ELT620AWT, номинальная мощность 620W)
Монитор Dell 3007WFP (30", максимальное разрешение 2560x1600)
Microsoft Windows XP Pro SP2, DirectX 9.0c
AMD Catalyst 7.2
Nvidia ForceWare 97.92

Поскольку мы считаем применение оптимизаций трилинейной и анизотропной фильтрации неоправданным, драйверы были настроены стандартным образом, подразумевающим максимально возможное качество фильтрации текстур:

AMD Catalyst:

Catalyst A.I.: Standard
Mipmap Detail Level: High Quality
Wait for vertical refresh: Always off
Adaptive antialiasing: Off
Temporal antialiasing: Off
High Quality AF: On

Nvidia ForceWare:

Texture Filtering: High Quality
Vertical sync: Off
Trilinear optimization: Off
Anisotropic optimization: Off
Anisotropic sample optimization: Off
Gamma correct antialiasing: On
Transparency antialiasing: Off
Остальные настройки: по умолчанию

В каждой игре был установлен максимально возможный уровень качества графики, при этом, конфигурационные файлы игр модификациям не подвергались. Для снятия данных о производительности использовались либо встроенные возможности игры, либо, при их отсутствии, утилита Fraps. По возможности, фиксировались данные о минимальной производительности.

Тестирование проводилось в трех стандартных для принятой нами методики разрешениях: 1280х1024, 1600х1200 и 1920х1200. Одной из целей данного обзора является оценка влияния объема видеопамяти GeForce 8800 GTS на производительность. Помимо этого, технические характеристики и стоимость обоих вариантов этого видеоадаптера, позволяют рассчитывать на достаточно высокий уровень производительности в современных играх при использовании FSAA 4x, поэтому мы постарались использовать режим "eye candy" везде, где это возможно.

Активация FSAA и анизотропной фильтрации производилась средствами игры; в случае отсутствия таковых, их форсирование осуществлялось при помощи соответствующих настроек драйверов ATI Catalyst и Nvidia ForceWare. Тестирование без полноэкранного сглаживания применялось только для игр, не поддерживающих FSAA по техническим причинам, либо при использовании FP HDR одновременно с участием в тестировании представителей семейства GeForce 7, не поддерживающего одновременную работу этих возможностей.

Поскольку нашей задачей являлось, в том числе, и сравнение производительности графических карт, отличающихся только объемом видеопамяти, MSI NX8800GTS-T2D640E-HD-OC тестировалась 2 раза: при заводских частотах, и при частотах, пониженных до эталонных для GeForce 8800 GTS значений: 513/1188/800 (1600) МГц. Помимо продукта MSI и референсного экземпляра Nvidia GeForce 8800 GTS 320MB, в тестировании приняли участие следующие видеоадаптеры:

Nvidia GeForce 8800 GTX (G80, 576/1350/1900MHz, 128sp, 32tmu, 24rop, 384-bit, 768MB)
Nvidia GeForce 7950 GX2 (2xG71, 500/1200MHz, 48pp, 16vp, 48tmu, 32rop, 256-bit, 512MB)
AMD Radeon X1950 XTX (R580+, 650/2000MHz, 48pp, 8vp, 16tmu, 16rop, 256-bit, 512MB)

В качестве тестового программного обеспечения был использован следующий набор игр и приложений:

Трехмерные шутеры с видом от первого лица:

Battlefield 2142
Call of Juarez
Far Cry
F.E.A.R. Extraction Point
Tom Clancy"s Ghost Recon Advanced Warfighter
Half-Life 2: Episode One
Prey
Serious Sam 2
S.T.A.L.K.E.R.: Shadow of Chernobyl


Трехмерные шутеры с видом от третьего лица:

Tomb Raider: Legend


RPG:

Gothic 3
Neverwinter Nights 2
The Elder Scrolls IV: Oblivion


Симуляторы:


Стратегические игры:

Command & Conquer: Tiberium Wars
Company of Heroes
Supreme Commander


Синтетические игровые тесты:

Futuremark 3DMark05
Futuremark 3DMark06

Игровые тесты: Battlefield 2142


Между двумя вариантами GeForce 8800 GTS с разным объемом видеопамяти на борту не обнаруживается существенной разницы вплоть до разрешения 1920х1200, хотя в 1600х1200 младшая модель и уступает старшей порядка 4-5 кадров в секунду при вполне комфортной производительности обеих. Разрешение 1920х1440, однако, является переломным: GeForce 8800 GTS 320MB резко выбывает из игры с более чем 1.5-кратным отставанием в среднем и двукратным – в минимальном fps. Более того, она проигрывает и картам предыдущего поколения. Налицо нехватка видеопамяти или проблема с реализацией ее менеджмента у семейства GeForce 8800.

MSI NX8800GTS OC Edition заметно опережает эталонную модель, начиная с разрешения 1600х1200, но догнать GeForce 8800 GTX ему, конечно, не под силу, хотя в 1920х1440 разрыв между этими картами становится впечатляюще узким. Очевидно, что разница в ширине шины доступа к памяти у GeForce 8800 GTS и GTX здесь несущественна.

Игровые тесты: Call of Juarez


Обе модели GeForce 8800 GTS показывают одинаковый уровень производительности во всех разрешениях, включая 1920х1200. Это достаточно закономерно, учитывая тестирование с включенным HDR, но выключенным FSAA. Работая при номинальных частотах, карты уступают GeForce 7950 GX2.

Разогнанный вариант MSI позволяет добиться паритета в высоких разрешениях, использование которых в этой игре нецелесообразно даже в случае наличия в вашей системе GeForce 8800 GTX. К примеру, в 1600х1200 средняя производительности флагманской графической карты Nvidia составляет всего 40 fps с провалами в графически интенсивных сценах до 21 fps. Для шутера с видом от первого лица такие показатели едва ли можно назвать по настоящему комфортными.

Игровые тесты: Far Cry


Игра уже далеко не молода и плохо подходит для тестирования современных видеоадаптеров высокого класса. Несмотря на использование сглаживания, заметные отличия в их поведении можно увидеть только в разрешении 1920х1200. GeForce 8800 GTS 320MB сталкивается здесь с нехваткой видеопамяти, и поэтому уступает примерно 12% модели, оснащенной 640 МБ видеопамяти. Впрочем, из-за скромных по нынешним меркам требований Far Cry, потеря комфорта игроку не грозит.

MSI NX8800GTS OC Edition идет практически вровень с GeForce 8800 GTX: в Far Cry мощность последнего явно невостребована.


Из-за характера сцены, записанной на уровне Research, показания более разнообразны; уже в разрешении 1600х1200 можно увидеть отличия в производительности различных представителей семейства GeForce 8800. Причем, отставание версии с 320МБ памяти видно уже здесь, несмотря на то, что действие происходит в замкнутом пространстве подземной пещеры. Разница в производительности между продуктом MSI и GeForce 8800 GTX в разрешении 1920х1200 значительно больше, нежели в предыдущем случае, так как производительность шейдерных процессоров на этом уровне играет более важную роль.




В режиме FP HDR GeForce 8800 GTS 320MB более не испытывает проблем с объемом видеопамяти и ничем не уступает старшему собрату, обеспечивая достойный уровень производительности во всех разрешениях. Вариант, предлагаемый MSI, дает еще 15% прироста в скорости, но даже версия, работающая при стандартных тактовых частотах, достаточно быстра для использования разрешения 1920х1200, а GeForce 8800 GTX, вне сомнения, обеспечит комфортные условия игроку и в разрешении 2560х1600.

Игровые тесты: F.E.A.R. Extraction Point


Визуальное богатство F.E.A.R. требует соответствующих ресурсов от видеоадаптера, и 5%-отставание GeForce 8800 GTS 320MB видно уже в разрешении 1280х1024, а в следующем разрешении, 1600х1200, оно резко превращается в 40%.

Польза от разгона GeForce 8800 GTS неочевидна: как разогнанный, так и обычный варианты позволяют одинаково успешно играть в разрешении 1600х1200. В следующем же разрешении прироста скорости от разгона просто недостаточно, чтобы выйти на комфортный для шутеров с видом от первого лица уровень. Это под силу только GeForce 8800 GTX со 128 активными шейдерными процессорами и 384-битной подсистемой памяти.

Игровые тесты: Tom Clancy"s Ghost Recon Advanced Warfighter

Из-за использования отложенного рендеринга (deferred rendering) использование FSAA в GRAW невозможно технически, поэтому, данные приведены только для режима с анизотропной фильтрацией.


Преимущество MSI NX8800GTS OC Edition над обычной эталонной картой растет по мере роста разрешения, и в разрешении 1920х1200 достигает 19%. В данном случае именно эти 19% позволяют достичь средней производительности на уровне 55 fps, что вполне комфортно для игрока.

Что касается сравнения двух моделей GeForce 8800 GTS с разным объемом видеопамяти, то разница в их производительности отсутствует.

Игровые тесты: Half-Life 2: Episode One


В разрешении 1280х1024 налицо ограничение со стороны центрального процессора нашей тестовой системы – все карты показывают одинаковый результат. В 1600х1200 различия уже выявляются, но они непринципиальны, по крайней мере, для трех вариантов GeForce 8800 GTS: все три обеспечивают весьма комфортный уровень производительности. Аналогично можно сказать и про разрешение 1920х1200. Несмотря на качественную графику, игра нетребовательна к объему видеопамяти и проигрыш GeForce 8800 GTS 320MB старшей и значительно более дорогой модели с 640 МБ памяти на борту составляет лишь около 5%. Разогнанный вариант GeForce 8800 GTS, предлагаемый компанией MSI, уверенно занимает второе место после GeForce 8800 GTX.

Хотя GeForce 7950 GX2 и показывает лучшие результаты, нежели GeForce 8800 GTS в разрешении 1600х1200, не стоит забывать о проблемах, могущих возникнуть при использовании карты, являющейся, по сути, тандемом SLI, а также о значительно более низком качестве текстурной фильтрации у семейства GeForce 7. Новое решение Nvidia, конечно, пока также имеет проблемы с драйверами, но оно обладает перспективными возможностями, и, в отличие от GeForce 7950 GX2, имеет все шансы избавиться от "детских болезней" в кратчайшие сроки.

Игровые тесты: Prey


GeForce 8800 GTS 640MB не обнаруживает ни малейшего преимущества перед GeForce 8800 GTS 320MB, возможно, потому, что игра использует модифицированный движок Doom III и не проявляет особых аппетитов в смысле требований к объему видеопамяти. Как и в случае с GRAW, повышенная производительность NX8800GTS OC Edition позволяет рассчитывать владельцам этого видеоадаптера на достаточно комфортную игру в разрешении 1920х1200. Для сравнения, обычный GeForce 8800 GTS демонстрирует такие же цифры в разрешении 1600х1200. Флагман линейки, GeForce 8800 GTX вне конкуренции.

Игровые тесты: Serious Sam 2


Детище хорватских разработчиков из Croteam всегда жестко требовало от видеоадаптера наличия 512 МБ видеопамяти, в противном случае карая его чудовищным падением производительности. Объема, предоставляемого недорогим вариантом GeForce 8800 GTS, оказалось недостаточно, чтобы удовлетворить аппетиты игры, в результате чего, она смогла показать лишь 30 fps в разрешении 1280х1024, в то время как версия с 640 МБ памяти на борту оказалась быстрее более чем в два раза.

По неизвестной причине, минимальная производительность всех GeForce 8800 в Serious Sam 2 крайне низка, что может быть связано как с архитектурными особенностями семейства, имеющего, как известно, унифицированную архитектуру без разделения на пиксельные и вершинные шейдеры, так и с недоработками в драйверах ForceWare. По этой причине добиться полого комфорта владельцам GeForce 8800 в этой игре пока не удастся.

Игровые тесты: S.T.A.L.K.E.R.: Shadow of Chernobyl

С нетерпением ожидаемый многими игроками, проект GSC Game World после долгих лет разработки, наконец, увидел свет, спустя 6 или 7 лет после анонса. Игра получилась неоднозначной, но, тем не менее, достаточно многогранной, чтобы пытаться описать ее в нескольких фразах. Отметим лишь, что по сравнению с одной из первых версий, движок проекта был значительно усовершенствован. Игра получила поддержку ряда современных технологий, включая Shader Model 3.0, HDR, parallax mapping и другие, но не потеряла возможности работать в упрощенном режиме со статической моделью освещения, обеспечивая великолепную производительность на не очень мощных системах.

Поскольку мы ориентируемся на максимальный уровень качества изображения, мы тестировали игру в режиме полного динамического освещения с максимальной детализацией. В этом режиме, подразумевающим, в числе прочего, использование HDR, отсутствует поддержка FSAA; по крайней мере, так обстоят дела в текущей версии S.T.A.L.K.E.R. Поскольку при использовании статической модели освещения и эффектов DirectX 8, игра очень сильно теряет в привлекательности, мы ограничились анизотропной фильтрацией.


Игра отнюдь не страдает скромностью аппетитов – с максимальной детализацией даже GeForce 8800 GTX не в состоянии обеспечить в ней 60 fps в разрешении 1280х1024. Правда, надо отметить, что в низких разрешениях основным ограничивающим фактором является производительность CPU, так как разброс между картами невелик и их средние результаты довольно близки.

Тем не менее, некоторое отставание GeForce 8800 GTS 320MB от старшего собрата видно уже здесь, и с ростом разрешения оно лишь усугубляется, а в разрешении 1920х1200 младшему представителю семейства GeForce 8800 попросту не хватает имеющегося объема видеопамяти. Это неудивительно, учитывая масштабность игровых сцен и обилие спецэффектов, используемых в них.

В целом, можно сказать, что GeForce 8800 GTX не обеспечивает серьезного преимущества в S.T.A.L.K.E.R. перед GeForce 8800 GTS, а Radeon X1950 XTX выглядит столь же успешно, что и GeForce 8800 GTS 320MB. Решение AMD даже в чем-то превосходит решение Nvidia, так как оно работоспособно в разрешении 1920х1200, однако, практическое использование такого режима нецелесообразно из-за средней производительности на уровне 30-35 fps. Это же относится и к GeForce 7950 GX2, который, к слову, несколько опережает и непосредственного конкурента и младшую модель нового поколения.

Игровые тесты: Hitman: Blood Money


Ранее мы отметили, что наличие 512 МБ видеопамяти обеспечивает такому видеоадаптеру некоторый выигрыш в Hitman: Blood Money в высоких разрешениях. По-видимому, 320 МБ также достаточно, поскольку GeForce 8800 GTS 320MB практически не уступает обычному GeForce 8800 GTS вне зависимости от используемого разрешения; разница не превышает 5%.

Обе карты, а также разогнанный вариант GeForce 8800 GTS, предлагаемый MSI, позволяют успешно играть во всех разрешениях, а GeForce 8800 GTX даже допускает использование более качественных режимов FSAA, нежели обычный MSAA 4x, так как обладает необходимым для этого запасом производительности.

Игровые тесты: Tomb Raider: Legend


Несмотря на использование настроек, обеспечивающих максимальное качество графики, GeForce 8800 GTS 320MB справляется с игрой столь же успешно, как и обычный GeForce 8800 GTS. Обе карты делают доступным игроку разрешение 1920х1200 в режиме "eye candy". MSI NX8800GTS OC Edition несколько превосходит обе референсные карты, но только в среднем fps – минимальный остается таким же. Не больше он и у GeForce 8800 GTX, что может означать, что данный показатель обусловлен какими-то особенностями игрового движка.

Игровые тесты: Gothic 3

Текущая версия Gothic 3 не поддерживает FSAA, поэтому тестирование проводилось только с использованием анизотропной фильтрации.


Несмотря на отсутствие поддержки полноэкранного сглаживания, GeForce 8800 GTS 320MB серьезно уступает не только обычному GeForce 8800 GTS, но и Radeon X1950 XTX, немного опережая лишь GeForce 7950 GX2. Из-за производительности на уровне 26-27 fps в разрешении 1280х1024 эта карта подходит для Gothic 3 не лучшим образом.

Отметим, что GeForce 8800 GTX опережает GeForce 8800 GTS, в лучшем случае, на 20%. По всем видимости, что игра неспособна задействовать всех ресурсов, которыми располагает флагманская модель Nvidia. Об этом говорит и незначительная разница между обычным и разогнанным вариантом GeForce 8800 GTS.

Игровые тесты: Neverwinter Nights 2

Начиная с версии 1.04, игра позволяет использовать FSAA, но поддержка HDR все еще остается незавершенной, поэтому мы тестировали NWN 2 в режиме "eye candy".


Как уже упоминалось, минимальный барьер играбельности для Neverwinter Nights 2 составляет 15 кадров в секунду, и GeForce 8800 GTS 320MB балансирует на этой грани уже в разрешении 1600х1200, в то время как для версии с 640 МБ памяти 15 fps является минимальным показателем, ниже которого ее производительность не опускается.

Игровые тесты: The Elder Scrolls IV: Oblivion

Без HDR игра значительно теряет в привлекательности, и, хотя на этот счет мнения игроков расходятся, мы тестировали TES IV именно в режиме с включенным FP HDR.


Производительность GeForce 8800 GTS 320MB напрямую зависит от используемого разрешения: если в 1280х1024 новинка в состоянии конкурировать с наиболее производительными картами предыдущего поколения, то в 1600х1200 и, особенно, 1920х1200 она им проигрывает, уступая до 10% Radeon X1950 XTX и до 25% GeForce 7950 GX2. Тем не менее, это очень хороший результат для решения, имеющего официальную цену всего $299.

Обычный GeForce 8800 GTS и его разогнанный вариант, предлагаемый MSI, чувствуют себя более уверенно и обеспечивают комфортную производительность на уровне шутеров с видом от первого лица во всех разрешениях.


Исследуя две версии GeForce 7950 GT, различающиеся объемом видеопамяти, мы не зафиксировали серьезных расхождений в производительности в TES IV, однако, в аналогичной ситуации с двумя версиями GeForce 8800 GTS картина совершенно иная.
Если в 1280х1024 они ведут себя одинаково, то уже в 1600х1200 вариант с 320 МБ памяти более чем вдвое уступает варианту, оснащенному 640 МБ, а в разрешении 1920х1200 его производительность опускается до уровня Radeon X1650 XT. Совершенно очевидно, что дело здесь не в объеме видеопамяти, как таковом, а в особенностях ее распределения драйвером. Вероятно, проблема может быть исправлена путем доработки ForceWare, и с выходом новых версий драйверов Nvidia мы проверим это утверждение.

Что касается GeForce 8800 GTS и MSI NX8800GTS OC Edition, то даже на открытых пространствах мира Oblivion они обеспечивают высокий уровень комфорта во всех разрешениях, хотя, конечно, и не в районе 60 fps, как в закрытых помещениях. Наиболее мощные решения предыдущего поколения просто не в состоянии соперничать с ними.

Игровые тесты: X3: Reunion


Средняя производительность всех представителей семейства GeForce 8800 достаточно высока, но минимальная по-прежнему находится на низком уровне, что означает необходимость доработки драйверов. Результаты GeForce 8800 GTS 320MB те же, что и у GeForce 8800 GTS 640MB.

Игровые тесты: Command & Conquer 3: Tiberium Wars

Серия стратегий реального времени Command & Conquer, вероятно, знакома всем, кто мало-мальски увлекается компьютерными играми. Продолжение серии, недавно выпущенное Electronic Arts переносит игрока в хорошо знакомый мир противостояния GDI и Brotherhood of Nod, к которым, на этот раз, присоединилась третья фракция в лице инопланетных захватчиков. Движок игры выполнен на современном уровне и использует продвинутые спецэффекты; кроме того, он обладает одной особенностью – ограничителем fps, зафиксированным на отметке 30 кадров в секунду. Возможно, это сделано с целью ограничить скорость работы AI и, таким образом, избежать нечестного преимущества над игроком. Поскольку штатными средствами ограничитель не отключается, мы тестировали игру с ним, а значит, обращали внимание в первую очередь на минимальный fps.


30 fps способны обеспечить практически все участники тестирования во всех разрешениях, за исключением GeForce 7950 GX2, который испытывает проблемы с функционированием режима SLI. Скорее всего, в драйвере просто отсутствует соответствующая поддержка, так как последний раз официальный Windows XP драйвер Nvidia ForceWare для семейства GeForce 7 обновлялся более полугода назад.

Что касается обеих моделей GeForce 8800 GTS, то они демонстрируют одинаковый минимальный fps, и, следовательно, обеспечивают одинаковый уровень комфорта для игрока. Хотя модель с 320 МБ видеопамяти уступает старшей модели в разрешении 1920х1200, 2 кадра в секунду едва ли является критичной величиной, что, при одинаковой минимальной производительности, опять-таки, никак не влияет на игровой процесс. Полное отсутствие дискретности управления может обеспечить только GeForce 8800 GTX, чей минимальный fps не падает ниже отметки 25 кадров в секунду.

Игровые тесты: Company of Heroes

Из-за проблем с активацией FSAA в этой игре мы решили отказаться от использования режима "eye candy" и тестировали ее в режиме чистой производительности с включенной анизотропной фильтрацией.


Перед нами еще одна игра, где GeForce 8800 GTS 320MB уступает предыдущего поколения с неунифицированной архитектурой. По сути, решение Nvidia стоимостью $299 пригодно для использования в разрешениях не выше 1280х1024, даже несмотря на отключенное сглаживание, в то время как модель стоимостью $449, отличающаяся единственным параметром – объемом видеопамяти, позволяет успешно играть даже в 1920х1200. Впрочем, это доступно и владельцам AMD Radeon X1950 XTX.

Игровые тесты: Supreme Commander


А вот Supreme Commander, в отличие от Company of Heroes, не предъявляет жестких требований к объему видеопамяти. В этой игре GeForce 8800 GTS 320MB и GeForce 8800 GTS показывают одинаково высокий результат. Некоторый дополнительный прирост можно получить с помощью разгона, что демонстрирует изделие MSI, но достичь уровня GeForce 8800 GTX такой шаг все равно не даст. Впрочем, имеющейся производительности достаточно для использования всех разрешений, включая 1920х1200, тем более что ее флуктуации невелики, и минимальный fps лишь немногим уступает среднему.

Синтетические тесты: Futuremark 3DMark05


Так как по умолчанию 3DMark05 использует разрешение 1024х768 и не использует полноэкранного сглаживания, то GeForce 8800 GTS 320MB закономерно демонстрирует тот же результат, что и обычный вариант с 640 МБ видеопамяти. Разогнанная версия GeForce 8800 GTS, поставляемая на рынок Micro-Star International, может похвастаться красивым ровным результатом – 13800 очков.






В отличие от общего результата, получаемого в режиме по умолчанию, результаты отдельных тестов мы получаем, запуская их в режиме "eye candy". Но в данном случае это никак не сказалось на производительности GeForce 8800 GTS 320MB – сколько-нибудь заметного отставания от GeForce 8800 GTS зафиксировано не было даже в третьем, наиболее ресурсоемком тесте. MSI NX8800GTS OC Edition во всех случаях занял стабильное второе место после GeForce 8800 GTX, подтвердив результаты, полученные в общем зачете.

Синтетические тесты: Futuremark 3DMark06


Оба варианта GeForce 8800 GTS ведут себя так же, как и в предыдущем случае. Однако 3DMark06 использует более сложную графику, что, в сочетании с использованием FSAA 4x в отдельных тестах, может дать другую картину. Давайте посмотрим.






Результаты отдельных групп тестов также закономерны. В группе SM3.0/HDR используется большее количество более сложных шейдеров, поэтому преимущество GeForce 8800 GTX выражено ярче, нежели в группе SM2.0. AMD Radeon X1950 XTX также смотрится более выигрышно в случае активного использования Shader Model 3.0 и HDR, а GeForce 7950 GX2, напротив, в тестах SM2.0.




После включения FSAA GeForce 8800 GTS 320MB действительно начинает проигрывать GeForce 8800 GTS 640MB в разрешении 1600х1200, а в 1920х1200 новое решение Nvidia вообще не может пройти тесты из-за нехватки видеопамяти. Проигрыш близок к двукратному как в первом, так и во втором тесте SM2.0, несмотря на то, что по построению графических сцен они весьма отличаются.






В первом тесте SM3.0/HDR влияние объема видеопамяти на производительность отчетливо видно уже в разрешении 1280х1024. Младшая модель GeForce 8800 GTS уступает старшей около 33%, затем, в разрешении 1600х1200 отставание увеличивается до почти 50%. Второй тест, с гораздо менее сложной и масштабной сценой, не столь требователен объему видеопамяти, и здесь отставание составляет 5% и около 20%, соответственно.

Заключение

Время подведить итоги. Мы протестировали две модели Nvidia GeForce 8800 GTS, одна из которых является прямым конкурентом AMD Radeon X1950 XTX, а другая предназначена для сектора производительных массовых карт стоимостью $299. Что же мы можем сказать, располагая результатами игровых тестов?

Старшая модель, имеющая официальную стоимость $449, показала себя с хорошей стороны, если говорить о производительности. В большинстве тестов GeForce 8800 GTS опередил AMD Radeon X1950 XTX и лишь в отдельных случаях показал равную производительность с решением AMD и отставание от двухпроцессорного тандема GeForce 7950 GX2. Впрочем, учитывая исключительно высокую производительность GeForce 8800 GTS 640MB, мы не стали бы однозначно сравнивать его с продуктами предыдущего поколения: они не поддерживают DirectX 10, при этом у GeForce 7950 GX2 значительно худшее качество анизотропной фильтрации, и потенциальные проблемы, вызванные несовместимостью той или иной игры с технологией Nvidia SLI.

GeForce 8800 GTS 640MB можно уверенно назвать лучшим решением в ценовом диапазоне $449-$499. Однако, стоит отметить, что новое поколение продуктов Nvidia всё еще не вылечилось от детских болезней: в Call of Juarez всё еще наблюдаются мерцающие тени, а Splinter Cell: Double Agent , хотя и работает, но требует особого запуска на драйверах версии 97.94. По крайней мере, до появления на рынке карт на базе графического процессора AMD нового поколения у GeForce 8800 GTS есть все шансы занять подобающее ему место "лучшего ускорителя стоимостью $449". Тем не менее, перед приобретением GeForce 8800 GTS мы бы рекомендовали прояснить вопрос совместимости нового семейства Nvidia с вашими любимыми играми.

Новая GeForce 8800 GTS 320MB за $299 также является весьма неплохим приобретением за свои деньги: поддержка DirectX 10, высококачественной анизотропной фильтрации и не неплохой уровень производительности в типичных разрешениях – лишь некоторые преимущества новинки. Таким образом, если вы планируете играть в разрешениях 1280х1024 или же 1600х1200, GeForce 8800 GTS 320MB является отличным выбором.

К сожалению, весьма перспективная с технической точки зрения карта, отличающаяся от более дорогой версии только объемом видеопамяти, порой серьезно уступает GeForce 8800 GTS 640MB не только в играх с высокими требованиями к объему видеопамяти, таких, как Serious Sam 2 , но и там, где ранее разница в производительности карт с 512 и 256 МБ памяти не фиксировалась. В частности, к таким играм относятся TES IV: Oblivion, Neverwinter Nights 2, F.E.A.R. Extraction Point и некоторые другие. С учетом того, что 320 МБ видеопамяти однозначно больше, нежели 256 МБ, проблема явно связана с ее неэффективным распределением, но, к сожалению, мы не знаем, обусловлено ли оно недоработками в драйверах или чем-либо еще. Тем не менее, даже с учетом вышеописанных недостатков, GeForce 8800 GTS 320MB выглядит значительно привлекательнее GeForce 7950 GT и Radeon X1950 XT, хотя последние с появлением этого видеоадаптера неизбежно будут терять в цене.

Что касается MSI NX8800GTS-T2D640E-HD-OC, то перед нами продукт с хорошей комплектацией, отличающийся от референсной карты Nvidia не только упаковкой, аксессуарами и наклейкой на кулере. Видеоадаптер разогнан производителем и в большинстве игр обеспечивает заметный прирост производительности по сравнению со стандартным GeForce 8800 GTS 640MB. Конечно, до уровня GeForce 8800 GTX ему не дотянуться, но дополнительные fps никогда не бывают лишними. По всей видимости, эти карты проходят тщательный отбор на способность работать на повышенных частотах; по крайней мере, наш экземпляр показал достаточно хорошие результаты в области разгона и не исключено, что большинство экземпляров NX8800GTS OC Edition способны неплохо разгоняться сверх того, что уже сделано производителем.

Отдельной похвалы заслуживает наличие в комплекте двухдискового издания Company of Heroes, считаемой многими игровыми обозревателями лучшей стратегической игрой года. Если вы всерьез нацелены на покупку GeForce 8800 GTS, то данный продукт MSI имеет все шансы стать вашим выбором.

MSI NX8800GTS-T2D640E-HD-OC: достоинства и недостатки

Достоинства:

Повышенный уровень производительности в сравнении с эталонным GeForce 8800 GTS
Высокий уровень производительности в высоких разрешениях при использовании FSAA





Низкий уровень шума
Хороший разгонный потенциал
Хорошая комплектация

Недостатки:

Недостаточно отлаженные драйверы

GeForce 8800 GTS 320MB: достоинства и недостатки

Достоинства:

Высокий уровень производительности в своем классе
Поддержка новых режимов и методов сглаживания
Великолепное качество анизотропной фильтрации
Унифицированная архитектура с 96 шейдерными процессорами
Задел на будущее: поддержка DirectX 10 и Shader Model 4.0
Эффективная система охлаждения
Низкий уровень шума

Недостатки:

Недостаточно отлаженные драйверы (проблема с распределением видеопамяти, низкая производительность в некоторых играх и/или режимах)
Высокий уровень энергопотребления



Есть вопросы?

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: