Игровые возможности и воспроизведение видео теперь на новом уровне. Благодаря 128 молниеносным ядрам, каждое из которых работает на частоте 1836 МГц, это мощный одиночный графический процессор GeForce GTS 150. А с такими функциями, как картинка-в-картинке для интерактивного просмотра контента и “color stretch” для чистоты картинки эта видеокарта превзойдет ваши ожидания. Видеокарта по своим тех характеристикам представляет собой по сути разогнаную 9800GTX, но но сделаную на более тонком тех процессе.
Характеристики подсистемы GPU: Процессорные ядра 128 Частота ядра (МГц) 738 Частота процессора (МГц) 1836 Скорость наложения текстур (млрд./сек) 47.2 Характеристики памяти: Частота памяти (МГц) 1000 Стандартная конфигурация памяти 1GB Интерфейс памяти 256-bit Полоса пропускания памяти (ГБ/сек) 64 Поддерживаемые функции: Поддержка NVIDIA SLI® 2-way/3-way Технология NVIDIA PureVideo® Поддержка NVIDIA PhysX™ Технология NVIDIA CUDA™ Microsoft DirectX 10 OpenGL 2.1 Поддерживаемые шины PCI-E 2.0 x16 Сертифицировано для Windows Vista
Поддерживаемые дисплеи: Максимальное разрешение цифрового монитора 2560x1600 Максимальное VGA разрешение 3048x1536 Стандартные разъемы монитора Two Dual Link DVI Поддержка нескольких мониторов HDCP HDMI Аудио вход для HDMI SPDIF Стандартные размеры видеокарты: Высота 4.376 in Длина 10.5 in Ширина Dual-Slot Температура и мощность: Максимальная температура GPU (в C) 105 Максимальная мощность видеокарты (Вт) 141 Минимальные системные требования по питанию (Вт) 450 Дополнительные разъемы питания 6-pin x2
.......................« Take no prisoners, comrades! »
Видеокарта потребляет в среднем 141Вт, БП нужен минимум 450Вт, ведь у тя в корпусе неоднаж видюха будет, но и другие компоненты тож ! .......................« Take no prisoners, comrades! »
Вы знаете, как сделать карту за 100 долларов из карты за 200 за пару минут? - Нет, разумеется, не сломать ее пополам. Этак получится карта за 2 доллара по цене утиль-сырья.
А вот если на карту не поставить половину микросхем памяти, урезать ядро почти в 2 раза, то получится вот нечто такое. Именно так поступила компания Sapphire, которой из AMD предложили отходы от RV770 (это ядро, на котором базируются RADEON HD 4850 и 4870). Не секрет, что со временем, по мере производства тех или иных микросхем, особенно очень сложного плана, накапливается какое-то количество брака, то есть кристаллы, где какая-то часть транзисторов битая. Выбрасывать такое жаль, особенно если битых транзисторов всего 1-5% от общего количества. Но полноценно такое ядро работать уже не может.
Вот и придумали выпускать видеокарты, комплектуемые ядрами, внутри которых что-то да урезано (уменьшено число тех или иных блоков: потоковых процессоров, модулей текстурирования и т.д.). Это мы видим уже давно. Например, GeForce 9800 GT выпускается на базе того же G92, но с уменьшенным числом потоковых процессоров. Иногда маркетинговые интересы требуют срочного выпуска продукта с урезанными возможностями для малобюджетной ценовой ниши, тогда подчас нормальные полноценные ядра идут «под нож» ради достижения нужного результата (например, RADEON HD 4830). Однако же все равно очень жаль использовать полноценные кристаллы для такого. И, как в случае с 4830, его быстро заменили на 4770, где само ядро уже проще и имеет пониженные относительно RV770 параметры, что позволило больше не урезать нормальные RV770.
Однако какое-то количество брака RV770 все равно накопилось. Да, этих ядер немного, способных полноценно работать, но лишь с урезанным числом функциональных блоков. Но на партию видеокарт хватит. Поэтому AMD решила продать такие ядра только двум партнерам: Sapphire и TUL (PowerColor), разумеется, по очень низким ценам (с паршивой овцы хоть шерсти клок) и назвать новый продукт 4730.
У данного «обрезка» количество всех блоков, кроме потоковых процессоров и текстурных модулей, урезано в 2 раза, потому что тупо порезали шину обмена с памятью до 128 бит. А число потоковых процессоров сократили с 800 до 640 (как у 4830 и 4770) и число TMU упало до 32. Решили не выпускать специальную версию PCB, на которую устанавливался бы большой RV770-чип, расчитанный по разводке на 256 бит, но чтобы текстолит имел в себе разведенные лишь 128 бит. Это было бы дороже, чем использовать обычную PCB от 4870, на которую лишь не требуется устанавливать половину микросхем памяти. Таким макаром достигается сочетание 128бит и GDDR5 памяти (как у 4770, однако там разводка предусматривает посадочное место только под 128-битный RV740, туда RV770 не поставить).
При этом частоты оставлены как у 4870. То есть по логике вешей, 4730 получается почти в 2 раза урезанней, чем 4870 (за исключением числа потоковых процессоров), и чуть более медленным, чем 4770 засчет меньшего количества текстурных и ROP модулей. То есть номер 4730 вполне соответствует тому, что может дать данный продукт в плане производительности в 3D.
Подчеркну еще раз, что партия таких карт небольшая, в широкой продаже они могут и не появиться. Продукт идет как конкурент GeForce 9600 GT с аналогичной ценой около 100 долларов США.
Платa :
Sapphire RADEON HD 4730 512MB PCI-E
* GPU: RADEON HD 4870 (RV770) * Интерфейс: PCI-Express x16 * Частоты работы GPU (ROPs/Shaders): 750/750 MHz (номинал — 750/750 МГц) * Частоты работы памяти (физическая (эффективная)): 900 (3600) MHz (номинал — 900 (3600) МГц) * Ширина шины обмена с памятью: 128bit * Число вершинных процессоров: - * Число пиксельных процессоров: - * Число универсальных процессоров: 640 * Число текстурных процессоров: 32 (BLF/TLF) * Число ROPs: 8 * Размеры: 220x100x33 мм (последняя величина — максимальная толщина видеокарты). * Цвет текстолита: синий * RAMDACs/TDMS: интегрированы в GPU. * Выходные гнезда: 1xDVI (Dual-Link/HDMI), 1xVGA, 1xHDMI * VIVO: нет * TV-out: не выведен. * Поддержка многопроцессорной работы: CrossFire (Hardware).
Очевидно, что за основу была взята видеокарта Sapphire RADEON HD 4870 Vapor-X 1024 с кулером от Sapphire RADEON HD 4850 512MB PCI-E. Просто плату укомплектовали лишь половиной микросхем памяти, вследстие чего общий объем памяти с 1024 снизился до 512 мегабайт. Ну про урезанность ядра я уже выше писал.
Больше ничем карта от старшего полноценного собрата 4870 не отличается.
Подключение к аналоговым мониторам с d-Sub (VGA) производится через имеющеся у карты гнезло d-Sub. Также поставляется переходник HDMI-to-DVI для желающих подключить два DVI-монитора (у самой карты имеется гнездо HDMI).
Максимальные разрешения и частоты:
* 240 Hz Max Refresh Rate * 2048 x 1536 x 32bit x85Hz Max - по аналоговому интерфейсу * 2560 x 1600 @ 60Hz Max - по цифровому интерфейсу (DVI-гнездо с Dual-Link)
Что касается возможностей видеокарт по проигрыванию MPEG2 (DVD-Video), то еще в 2002 году мы изучали этот вопрос, с тех пор мало что поменялось. В зависимости от фильма загрузка CPU при проигрывании на современных видеокартах не поднимается выше 25%.
По поводу HDTV. Одно из исследований также проведено, и с ним можно ознакомиться здесь.
Напомним, что карта требует дополнительное питание, поэтому с платой поставляются переходники с молекс на 6-пиновый разъем, хотя уже все современные БП имеют такие «хвосты». Особо отмечу, что, несмотря на наличие двух гнехд питания достаточно подать питание только на одно из них.
О системе охлаждения писать не стану, поскольку мы ранее уже такой кулер изучали.
Проведенные исследования температурного режима с помощью утилиты RivaTuner (автор А.Николайчук AKA Unwinder) показывают следующие результаты:
Очевидно, что несмотря на урезанность по блокам, работа RV770 на частоте 750 МГц по-прежнему требует полноценного кулера от 4870-карт, когда как Sapphire пошел на упрощение СО, и установку кулера, который ранее охлаждал карту класса 4850. И в результате 82 градуса нагрева, что, конечно, не смертельно, но многовато для такого урезка ценой в 100 долларов США.
Впрочем, не забываем, что кулеры тоже не дешевые, и потому ставить дорогую СО на такую карту тоже невыгодно.
Теперь о комплектации.
Базовый комплект поставки должен включать в себя: руководство пользователя, диск с драйверами и утилитами, HDMI-to-DVI адаптер, а также разветвитель внешнего питания. Ниже мы покажем, что предлагается дополнительно.
Установка и драйверы
Конфигурация тестового стенда:
* Компьютер на базе Intel Core I7 CPU 920 (Socket 1366 LGA) o процессор Intel Core I7 CPU 920 (2667 MHz); o системная плата ASUS P6T Deluxe на чипсете Intel X58; o оперативная память 3 GB DDR3 SDRAM Corsair 1066MHz; o жесткий диск WD Caviar SE WD1600JD 160GB SATA. o блок питания Tagan TG900-BZ 900W. * операционная система Windows Vista 32bit SP1; DirectX 10.1; * монитор Dell 3007WFP (30"). * драйверы ATI версии CATALYST 9.6; NVIDIA версии 186.18.
VSync отключен.
В качестве инструментария мы использовали:
* Far Cry 2 (Ubisoft) — DirectX 10.0, shaders 4.0 (HDR), для тестирования использовалась утилита из комплекта игры (уровень Middle). Все настройки выставлены на максимальное качество.
* S.T.A.L.K.E.R. Clear Sky 1.509 (GSC Game World/THQ) — DirectX 10.0, демо для запуска. Файлы надо положить в рабочий каталог игры, где все savegames (Documents and settings). После запуска игры, загрузить уровень ixbt4 и, выйдя в консоль, запустить демо: demo_play ixbt4. Настройки тестирования — maximum (ВКЛЮЧЕНО ДИНАМИЧЕСКОЕ ОСВЕЩЕНИЕ). Поэтому игра не поддерживает AA.
* CRYSIS 1.2 (Crytek/EA), DirectX 10.0, shaders 4.0, (батник для запуска), настройки тестирования - Very High, используется уровень RESCUE). За получением timedemo просьба обращаться по e-mail.
* CRYSIS Warhead (Crytek/EA), DirectX 10.0, shaders 4.0, (батник для запуска), настройки тестирования - Very High, используется уровень CARGO). За получением timedemo просьба обращаться по e-mail.
* Company Of Heroes Opposing Fronts (Relic Entertainment/THQ) — DirectX 10.0, shaders 4.0, батник для запуска. После вхождения в игру вызвать опцию настроек, выбрать раздел по графике и нажать на кнопку с тестом. Тестирование проводилось при максимальном качестве.
* World In Conflict 1.007 (Massive Entertainment/Sierra) — DirectX 10.0, shaders 4.0, После вхождения в игру вызвать опцию настроек, выбрать раздел по графике и нажать на кнопку с тестом. Тестирование проводилось при максимальном качестве (very high с регулировкой АА и АФ).
* Devil May Cry 4 (CAPCOM) — DirectX 10.0, настройки тестирования — Super High (c регулировкой АА и АФ). Использовались результаты тестирования по Scene 1.
* Lost Planet Extreme Condition Colonies Edition (CAPCOM) — DirectX 10.0, настройки тестирования — Super High (c регулировкой АА и АФ). Использовались результаты тестирования по Scene 1.
Внимание! Насчет набора тестовых инструментов!
В обновленном и дополненном материале, посвященном инструменту тестирования FRAPS, мы наглядно показали, как неточны и ненадежны тесты, полученные с помощью этой утилиты, а иного инструмента, кроме встроенных в игры бенчмарков, у тестеров и нет.
Поэтому мы считаем, что пусть набор тестовых игр будет не столь большим, но все тесты будут прозрачными, точными, и, главное, прекрасно отражающими картину соотношения ускорителей.
.......................« Take no prisoners, comrades! »
Помню те "чудные" времена, когда у мня АГП и приходилось еще поискать карточки по городу. Вот тогда был очень доволен АТИ (еще не купленной). Теперь же почему-то с недоверием отношись к их видеокартам... Зато процессоры только АМД
История nVidia началась с чипа NV1, который производила SGS-THOMSON Microelectronics под названием STG-2000. На плату была интегрирована 2D-карта, 3D-ускоритель, звуковая карта и порт для игровых контроллеров Sega Saturn - всё на одной плате PCI. Больше всего данные видеокарты были известны под маркой Diamond Edge 3D, которые вышли через два года после начинания nVidia.
Главная проблема NV1 заключалась в обработке 3D: процессор использовал квадратичное наложение текстур (quadratic texture mapping, QTM) вместо принятой сегодня технологии на основе полигонов. DirectX появился как раз после выхода этой видеокарты, и он тоже использовал полигоны, так что в долгосрочной перспективе чип NV1 потерпел поражение. Среди особенностей, которые стоит упомянуть, отметим возможность увеличения видеопамяти на видеокарте (на некоторых моделях) с 2 до 4 Мбайт, да и многие оптимизированные под карту игры были портированы с приставки Saturn, поскольку карта использовала схожую архитектуру.
Чип NV2 использовал такой же механизм рендеринга и так и не появился на свет. Он должен был использоваться в приставке Dreamcast (которая была призвана заменить Saturn), но Sega всё же выбрала технологию на основе полигонов (PowerVR), а Nvidia отказалась от QTM в пользу полигонального рендеринга с чипом NV3.
Riva 128 и Direct3D
В 1997 году nVidia перешла на полигональный рендеринг с чипом NV3, который больше известен под названием Riva 128. Кстати, "Riva" расшифровывается как "Real-time Interactive Video and Animation accelerator" - интерактивный ускоритель видео и анимации в реальном времени. Существовало две версии чипа: Riva 128 и Riva 128ZX. Разница была невелика: у ZX использовался более скоростной RAMDAC и 8 Мбайт памяти вместо 4 Мбайт, а также поддерживалась AGP 2x. Ускоритель Riva 128 получил определённый успех, поскольку цена была привлекательной, несмотря на качество, которое в то время иногда оставляло желать лучшего при сравнении с продуктами 3Dfx. Карта nVidia обеспечивала поддержку одновременно 2D и 3D, а также и Direct3D. Драйверы OpenGL были выпущены только под 128ZX, хотя существовали специальные версии Quake (урезанный ICD).
Riva 128 из-за своей цены обрела популярность и среди OEM, поскольку карты стоили дешевле Voodoo Graphics, а производительность Direct3D они обеспечивали почти такую же. Это были одни из первых видеокарт AGP, хотя Riva 128 и использовала этот интерфейс только в качестве более скоростной шины PCI. Наконец, что забавно, у nVidia был ещё один хорошо известный конкурент по производительности с одной из своих видеокарт, а именно Intel с i740. Времена изменились.
NV4: Twin Texels и TNT
В 1998 году 3Dfx выпустила высокопроизводительную 3D-карту в виде Voodoo2, но у неё существовали ряд существенных ограничений. Среди них можно отметить архаичное управление памятью (раздельные текстуры), поддержку только 16-битного цвета, обязательное наличие раздельной 2D-карты и интерфейс только PCI (на практике, хотя модели под AGP тоже существовали). Затем на сцену ворвалась Riva TNT, первая скоростная 3D-видеокарта с большим объёмом памяти (на то время) и встроенными 2D-возможностями. За исключением производительности видео (у карты не было поддержки ускорения MPEG2, в отличие от карт ATI), TNT оказалась очень успешной. Это была первая видеокарта nVidia, способная накладывать две текстуры за один проход, отсюда карта получила название TNT - "TwiN Texel".
Видеокарта TNT оказалась не такой мощной, как планировалось изначально. nVidia хотела выпустить более скоростную карту, чем Voodoo2, используя 250-нм техпроцесс с тактовой частотой 110 МГц (200 МГц для памяти). Но на самом деле TNT использовала 350-нм техпроцесс и тактовую частоту 90 МГц, как и видеокарта 3Dfx, а память работала на 110 МГц.
Продолжение следует.
.......................« Take no prisoners, comrades! »
В 1999 году вышла видеокарта TNT2. Она была близка к тому, чем должна была стать оригинальная TNT, и её, в принципе, можно рассматривать как урезание кристалла TNT с 350 до 250 нм. Кроме того, в то время nVidia впервые выпустила в линейке карту Ultra.
Карты TNT2 распределялись по частотам. nVidia тогда решила использовать только две версии (далеко до сегодняшнего разнообразия, не правда ли?): TNT2 и TNT2 Ultra. TNT2 была весьма мощной видеокартой для своего времени, она могла легко поравняться с Voodoo3, обеспечивая при этом больше функций, хотя у неё по-прежнему не было поддержки декодирования MPEG2. Это была первая видеокарта nVidia AGP 4x, пусть даже этот стандарт для TNT2 был особо и не нужен.
NV6 которая тоже вышла в 1999 году, представляла собой урезанную версию TNT2. Она продавалась под названиями Vanta, Vanta LT и TNT2 M64. Эти видеокарты были существенно медленнее, чем TNT2 (и оригинальная TNT), в частности, из-за меньшей тактовой частоты и 64-битной шины памяти. Впрочем, они весьма успешно продавались OEM, которые использовали название "TNT2" как приманку.
GeForce: первый GPU
Позже в 1999 году nVidia анонсировала GeForce 256. Это была первая видеокарта, к которой nVidia применила название "GPU", но существенным шагом вперёд была поддержка трансформации и освещения (transform and lighting, T&L) видеокартой потребительского уровня. Эта технология, которая уже применялась в Open GL и профессиональной сфере 3D, производит вычисления над треугольниками на видеокарте, а не на CPU. В некоторых случаях прирост производительности был довольно существенен, поскольку видеокарта в то время была примерно в четыре раза мощнее, чем high-end CPU (15 млн. треугольников у GeForce против четырёх миллионов у 550-МГц Pentium III).
Видеокарта использовала отличную от TNT2 архитектуру. Вместо двух конвейеров рендеринга, каждый оснащённый текстурным блоком, было решено перейти на четыре конвейера с одним текстурным блоком на каждый, что давало GeForce более высокую производительность рендеринга при меньшей тактовой частоте. GeForce 256 также стала первой видеокартой, которая использовала память DDR SDRAM с более высокой пропускной способностью.
nVidia перешла напрямую с NV6 на NV10, представив GeForce 256, и затем номенклатура будущих моделей увеличивалась с шагом пять, с вариантами для моделей верхнего и нижнего уровней. Кроме того, видеокарта GeForce 256 оказалась первой моделью nVidia с поддержкой ускорения MPEG2, но только частично (Motion Compensation, компенсация движения). Наконец, это была первая видеокарта потребительского уровня с выходом DVI (реализован через внешний чип).
NV15: nVidia улучшает GeForce 256
В 2000 году nVidia выпустила быструю видеокарту GeForce 256 DDR, но и ATI стала более конкурентоспособна с появлением Radeon, который оказался и быстрее, и эффективнее. nVidia ответила новой видеокартой GeForce 2 GTS. Она использовала техпроцесс 180 нм и была существенно быстрее GeForce 256. У видеокарты удвоилось число текстурных блоков с 1 до 2 на конвейер рендеринга, что позволило накладывать восемь текстур за один проход. nVidia выпустила несколько версий видеокарты: GTS (GigaTexel Shader, 200/166), Pro (200/200) и Ti (250/200).
C
В августе 2000, до выхода GeForce 3, nVidia представила видеокарту NV16 (GeForce 2 Ultra). Это была не новая модель, а NV15 с увеличенными тактовыми частотами: 250 МГц для GPU и 230 МГц для памяти, по сравнению с 200 и 166 МГц, соответственно, у оригинальной видеокарты. Это была одна из самых дорогих моделей, когда-либо выпущенных nVidia.
NV11: первая low-end версия
Производительность у GeForce 2 GTS была великолепной, но и цена тоже "кусалась", поэтому nVidia нужно было представить модель для тех геймеров, которые не могут позволить себе тратить большие суммы на компьютер. И компания выпустила NV11 под названием GeForce 2 MX, которая вышла на рынок тоже в 2000 году. В отличие от TNT2 M64 и Vanta, которые представляли собой не больше, чем NV5 с 64-битной шиной памяти, у NV11 использовалась новая архитектура, унаследованная от GeForce 2 GTS. nVidia убрала часть конвейеров рендеринга, но по мультитекстурированию GeForce 2 MX была производительнее, чем GeForce 256.
Эта была первая видеокарта nVidia, к которой можно было подключать более одного дисплея, и данная функция оставалась уделом видеокарт nVidia среднего уровня ещё несколько лет. GeForce 2 MX работала только с памятью SDR, и эта же видеокарта стала первой моделью GeForce, появившейся в виде мобильной версии (GeForce 2 Go).
[C]
nVidia представила несколько версий GeForce 2 MX друг за другом кроме стандартной модели и варианта Go. Среди них можно отметить MX400 (с GPU на частоте 200 МГц), MX200 (с GPU на 175 МГц и 64-битной шиной памяти на 166 МГц) и очень слабую MX100, с GPU всего на 143 МГц и 32-битной шиной памяти (пропускная способность 0,6 Гбайт/с). Наконец, были некоторые редкие карты с 64-битной памятью DDR, которые, по сути, представляли собой аналог карт со 128-битной памятью SDR.
Продолжение следует. .......................« Take no prisoners, comrades! »
В 2001 году появилась видеокарта GeForce 3. Эта модель, первая, совместимая с DirectX 8, поддерживала программируемые пиксельные шейдеры. Обладая 57 млн. транзисторов, видеокарта работала на довольно консервативных тактовых частотах, и во многих случаях её обгоняла GeForce 2 Ultra (на момент выхода). Видеокарта привнесла несколько улучшений в подсистему работы с памятью, но её сложная архитектура не позволила nVidia разработать версию начального уровня.
nVidia выпустила ещё две версии GeForce 3: Ti 200, которая была чуть дороже оригинала, и Ti 500, которая была ощутимо дороже. Первая работала на частотах 175/200 (GPU/память), а последняя - на 240/250 МГц.
"Новая GeForce 4"
В 2002 году nVidia нужна была видеокарта с производительностью GeForce 3, но не такая сложная. Создавать новую видеокарту на основе её архитектуры (как это было сделано в случае NV11) было сложно, поэтому nVidia решила использовать для NV17 архитектуру GeForce 2, представив новую модель под названием GeForce 4 MX. Видеокарта использовала такую же архитектуру, что и GeForce 2 MX, то есть два конвейера могли выполнять рендеринг над двумя текстурами каждый, но на более высоких тактовых частотах. Видеокарта также использовала подсистему управления памятью, внедрённую с GeForce 3, обладала аппаратным декодированием MPEG2 и поддерживала несколько дисплеев. Однако она по-прежнему оставалась поколением DirectX 7, которое уже устарело к моменту выхода, пусть даже в некоторых случаях производительность была вполне адекватной.
В линейке присутствовало три модели: MX420, MX440 и MX460. Первая работала на 250 МГц для GPU и 166 МГц (SDR) для памяти; вторая - на 275/200 (DDR) и третья - на 300/275 (DDR).
В дополнение к версиям 420, 440 и 460, nVidia выпустила мобильные варианта (GeForce 4 Go), версии с интерфейсом AGP 8x (с чипом NV18, где это было единственным улучшением), и даже версии PCI Express в 2003 году: PCX4300, с мостом AGP 8x-to-PCI Express 16x.
NV2A: GeForce в приставке XBOX
В 2001 году Microsoft представила свою первую игровую приставку Xbox. По аппаратной начинке и архитектуре она была очень близка к ПК. Приставка использовала процессор x86 и работала под управлением Windows - а видеокарта была представлена nVidia. Она называлась NV2A и представляла собой промежуточный чип между GeForce 3 и GeForce 4. Она была хорошо оптимизирована под приставку и поддерживала DirectX DirectX 8.1 (через ядро приставки NT5), что позволяло создавать для Xbox графически мощные игры по тому времени.
Для Xbox 360 графический процессор стала поставлять уже ATI, а nVidia перешла в стан конкурента Microsoft, представив чип RSX для PlayStation 3.
Улучшенная GeForce 3: The GeForce 4 Ti
Преемница GeForce 3, представленная в феврале 2002, была названа GeForce 4 Ti. Архитектура новинки была схожей с NV20 (GeForce 3), но NV25 была существенно быстрее из-за 150-нм техпроцесса. nVidia дала GeForce 4 Ti примерно в три раза большую мощность расчёта вершинных шейдеров по сравнению с GeForce 3, увеличив тактовую частоту и удвоив число АЛУ. Кроме того, nVidia улучшила LMA, технологию, которая снижала нагрузку на пропускную способность памяти, не вычисляя те данные, которые не будут отображаться.
nVidia представила три версии видеокарты: Ti 4200, Ti 4400 и Ti 4600. Разница между ними заключалась в тактовой частоте: 250 МГц для GPU и 250 МГц для памяти (Ti 4200); 275/275 для Ti 4400; и 300/325 для high-end Ti 4600.
Позже в 2002 году появилась NV28. GPU был аналогичен NV25, но для видеокарт GeForce 4 Ti добавилась поддержка AGP 8x. Так, GeForce Ti 4800 (300/325) была идентична GeForce 4 Ti 4600 за исключением добавления интерфейса AGP 8x. GeForce Ti 4200 128 Мбайт обладала меньшей пропускной способностью памяти по сравнению с 64-Мбайт версией, поскольку память работала на частоте 222 МГц по сравнению с 250 МГц у 64-Мбайт карты.
Продолжение следует. .......................« Take no prisoners, comrades! »
Графический процессор NVIDIA® GeForce® GTX 275 с технологией CUDA™ дарит вам поразительную игровую производительность и ослепительные игровые эффекты PhysX, а также невероятную эффективность расчетов на GPU — от перекодирования видео до редактирования видео и фото.
Возможности и преимущества:
Quote
Унифицированная архитектура NVIDIA 2 поколения Архитектура второго поколения обеспечивает 50% прирост производительности при выполнении закраски по сравнению с первым поколением благодаря 240 усовершенствованным процессорным ядрам с невероятной мощью.
Технология 3-way SLI1 Технология 3-way NVIDIA SLI® обеспечивает потрясающий прирост производительности благодаря применению 3-way AFR (поочередной обработки кадров) в ведущих мировых играх под управлением Windows Vista® с установленной стабильной последней версией драйверов.
Поддержка DirectX 10 Microsoft® DirectX® 10 GPU с полной поддержкой Shader Model 4.0 дарит непревзойденный реализм графики и эффекты с кинематографическим качеством в самых горячих играх на сегодняшний день.
Технология CUDA2 Технология NVIDIA®CUDA™ раскрывает всю силу процессорных ядер GPU, ускоряя выполнение самых требовательных системных задач, таких как перекодирование видео, обеспечивая 20-тикратный прирост производительности по сравнению с традиционными CPU.
Поддержка PCI Express 2.0 Создано для новой архитектуры шины PCI Express 2.0 для высочайших скоростей передачи данных в самых требовательных к полосе пропускания играх и 3D приложениях с поддержкой обратной совместимости с современными PCI Express материнскими платами.
Поддержка SLI Multi-Monitor Плавно переключайтесь между режимом работы на нескольких мониторах и полноэкранной 3D игрой с технологией SLI. Более того, насладитесь полной поддержкой 3D игр, позволяющих работу на двух мониторах, например, World in Conflict, Supreme Commander Forged Alliance и Flight Simulator X, на нескольких GPU.
Технология GigaThread™ Массивная многопоточная архитектура поддерживает тысячи независимых параллельных потоков, обеспечивая невероятную вычислительную силу и работу усовершенствованных программ закраски следующего поколения.
Движок NVIDIA® Lumenex™ Обеспечивает потрясающее качество изображения и точность операций с плавающей точкой с самой высокой частотой смены кадров.
Технология 16-кратного сглаживания Молниеносно быстрое, высококачественное сглаживание с 16-кратной частотой выборки устраняет зазубренные края.
128-битное освещение с широким динамическим диапазоном (HDR) с плавающей точкой Удвоенная по сравнению с предыдущим поколением точность, обеспечивающая невероятно реалистичные эффекты освещения, теперь с поддержкой сглаживания.
Оптимизация и поддержка OpenGL 2.1 Обеспечивает непревзойденную совместимость и производительность в OpenGL приложениях.
Поддержка Dual Dual-link DVI Работает с самыми большими в индустрии плоскопанельными дисплеями с самым высоким разрешением (до 2560x1600 пикселей) и поддержкой защиты широкополосных цифровых данных (HDCP).3
HDMI выход4 Поддержка HDMI выхода позволяет посылать HD видео и аудио сигналы на HDTV через один кабель.
Технология NVIDIA® PureVideo® HD5 Это сочетание ускорения декодирования видео высокой четкости и постобработки, обеспечивающее беспрецедентную чистоту изображения, плавное видео, правильные цвета и точное масштабирование изображения для фильмов и видео.
Дискретный программируемый видео процессор PureVideo – это дискретное программируемое ядро в графических процессорах NVIDIA, которое обеспечивает превосходное качество картинки и ультра-плавное воспроизведение видео при минимальной нагрузке на CPU и потреблении энергии.
Двухпоточное аппаратное ускорение Поддержка режима «картинка-в-картинке» для интерактивного просмотра фильмов Blu-ray и HD DVD.
Динамическое повышение контраста и растягивание цвета Постобработка и оптимизация фильмов высокой четкости сцена за сценой для поразительной чистоты изображения.
Спецификации:
Quote
Характеристики подсистемы GPU: Процессорные ядра 240 Частота ядра (МГц) 633 Частота процессора (МГц) 1404 Скорость наложения текстур (млрд./сек) 50.6 Характеристики памяти: Частота памяти (МГц) 1134 Стандартная конфигурация памяти 896MB Интерфейс памяти 448-bit GDDR3 Полоса пропускания памяти (ГБ/сек) 127.0 Поддерживаемые функции: Поддержка NVIDIA SLI® 2-way/3-way Технология NVIDIA PureVideo® PVHD Поддержка NVIDIA PhysX™ Технология NVIDIA CUDA™ GeForce 3D Vision Ready Microsoft DirectX 10 OpenGL 3.0 Поддерживаемые шины PCI-E 2.0 x16 Сертифицировано для Windows Vista Поддерживаемые дисплеи: Максимальное разрешение цифрового монитора 2560x1600 Максимальное VGA разрешение 2048x1536 Стандартные разъемы монитора Two Dual Link DVI Поддержка нескольких мониторов HDCP HDMI Via Adapter Аудио вход для HDMI SPDIF Стандартные размеры видеокарты: Высота 4.376 in Длина 10.5 in Ширина Dual-Slot Температура и мощность: Максимальная температура GPU (в C) 105 Максимальная мощность видеокарты (Вт) 219 Минимальные системные требования по питанию (Вт) 550
Моё мнение: отличнейшая видеокарта, специально купленная мной для ре5. Адская мощность, разумное использование ресурсов делает её незаменимой для современных задротов и не только.
Плюсы: +Дьявольская производительность +Отличнейшее охлаждение +Стильный дизайн (правда накой он нужен внутри системника ) +цена (что-то около 10000 руб.)
Минусы: -размеры (мне пришлось поднимать жёсткий диск на два слотиа выше, чтоб она уместилась, у этой карточки немаленькая длина). -питание (минимум - 550 Ватт, но у мя и на 400 ватт отлично тянула, щас 1 Квт стоит.) -разьёмы (для нормальной работы карты в неё нужно вставить четыре(!) провода питания. Мне пришлось покупать разветвители, а не то остался бы я без привода и харда )
AMD Radeon HD 5870 Eyefinity 6 Edition: одна видеокарта, шесть мониторов.
В конце марта AMD представила новую видеокарту Radeon HD 5870 Eyefinity 6 Edition. Эта карта по характеру вывода на рынок значительно отличается от GeForce GTX 480, про которую сложно было узнать подробности до момента выхода. AMD же показала свою видеокарту ещё в сентябре 2009, когда объявляла первую Radeon HD 5870. Представители AMD в марте посетили немало изданий, демонстрируя конфигурации на шести дисплеях с разрешением 5760x2160 пикселей. Фотографии и видеоролики подобных конфигураций наводнили Интернет, да мы тоже попробовали в работе конфигурацию из нескольких мониторов, правда, установили панели вертикально, а не горизонтально, в отличие от большинства тех вариантов, что мы встречали.
Длина карты составляет 11 дюймов (27,9 см), то есть карта Eyefinity 6 имеет точно такую же длину, что и эталонная модель AMD Radeon HD 5870 1GB. Поскольку у карты есть второй гигабайт памяти GDDR5, она требует подключения одного восьмиконтактного и одного шестиконтактного гнёзд дополнительного питания (напомним, что 1-Гбайт Radeon HD 5870 требовала подключение двух шестиконтактных гнёзд). Энергопотребление в режиме бездействия увеличилось с 27 Вт у 1-Гбайт видеокарты до 34 Вт у 2-Гбайт версии (по информации AMD), а максимальное энергопотребление - со 188 до 228 Вт. Подобный 40-Вт прирост оказался для нас сюрпризом.
Зачем нужен кадровый буфер большего размера? Как вы уже знаете, видеокарта Eyefinity 6 оснащена шестью выходами на дисплеи в виде разъёмов Mini DisplayPort. Каждый выход поддерживает разрешение до 2560x1600. Сложите шесть выходов вместе - и вы получите поверхность до 7680x3200 - достаточно большую, чтобы "поставить на колени" любую 1-Гбайт видеокарту (на самом деле, в реальности количество пикселей настолько велико, что и 2-Гбайт видеокарта не всегда даёт плавную игру).
.......................« Take no prisoners, comrades! »
NVIDIA выпускает в продажу доступную видеокарту GeForce GTX 460
Как и ожидалось, 12 июля компания NVIDIA официально объявила о выпуске новой видеокарты GeForce GTX 460 для настольных компьютеров, которая обещает стать наиболее успешным продуктом в поколении 3D-ускорителей Fermi.
Основанный на 40-нм чипе GF104 с поддержкой DirectX 11 ускоритель охлаждается двухслотовым кулером активного типа с крупным алюминиевым радиатором, медными тепловыми трубками и большим вентилятором в центре и все это прикрыто сверху черным пластиковым кожухом. Вся эта конструкция позволяет GeForce GTX 460 работать при температуре не более 70 градусов по шкале Цельсия. Фотографии готовой видеокарты вы можете посмотреть здесь.
Что касается технологических параметров, то здесь новинка изобилует довольно неплохими показателями: 336 ядер CUDA, частотные показатели составляют 675/1350/3600 МГц для ядра, шейдерных блоков и памяти соответсвенно. Кстати говоря, на ваш выбор GeForce GTX 460 предлагается в двух модификациях, из которых одна располагает 768 Мб памяти GDDR5 с 192-битным интерфейсом, а вторая имеет на борту 1024 Мб такой же памяти, но уже с 256-битной шиной. Демократичное предложение. Дело в том, что большее разрешение и уровень сглаживания требуют больше видеопамяти, но если у вас небольшой монитор, то зачем переплачивать за лишние 256 Мб? Что же касается потребляемой мощности, то у менее производительной версии она составляет 150 Вт, тогда как у ее более «шустрой» сестрички (GeForce GTX 470) этот показатель на 10 Вт выше. Для организации дополнительного питания предусмотрена пара специальных 6-контактных разъемов.
В конечном счете, GeForce GTX 460 имеет все шансы заработать титул популярной видеокарты подобно GeForce GTX 260. Но для окончательного успеха ей необходима доступная цена. Рекомендованная стоимость GeForce GTX 460 в решении с 768 Мб видеопамяти для США составляет 199 долларов, а GeForce GTX 460 с 1024 Мб – 229 долларов. Российским покупателям новинки обойдутся намного дороже - 7999 и 8999 рублей за версию с 768 Мб и 1024 Мб, соответственно. Но это лишь рекомендованные цены. Так, североамериканские интернет-магазины накинули 3-5 процетов наценки. В российских магазинах наценка составляет, как правило, 15-30 процентов на подобные новинки. Впрочем, время все расставит по своим местам.
.......................« Take no prisoners, comrades! »
Ринат это зависит от фирмы производителя и конкретной модели... Хорошие карточки производит например Palit. .......................« Take no prisoners, comrades! »