Нерадостные вести для любителей Ати
Флагман Radeon HD 2900 XTX слил вчистую GeForce 8800 GTX, не помогли ни гиг памят ddr4, ни более высокие частоты. источник ixbt.com
Radeon HD 2900 XTX vs GeForce 8800 GTX:
Разрешение 1920x1200 точек, FPS
Company of Heroes
53,2/80
F.E.A.R.
53,7/81,7
Half Life 2: Episode 1
68,2/100,2
Elder Scrolls IV: Oblivion
75,1/98,4
Consul of Official K-D lab Perimeter clan --Russian Union of Legates-- =Психосфера постоянно расширяется=
Gunslinger :
Здрасьте господа форумчане ! Такой вапрос : че скажите по поводу GeForce 7600 GS ?
Хорошая карта! У меня стоит, и отслужила на 150%! Но скоро день рождение и куплю 8800!
Анасчёт R600 она слабее 8800. Это доказывают тесты сверху и вот ссылка их на том сайте:эти!
Так что радеоны проигрывают битву с нвидиа, пока что!
GREMeZ ixbt.com ето не очень качествений источник сам столкнулся с етим по их тестах взял себе пришущий двд привод уних по тестах он самй лутший посли ихнего самого лутшего поменял ище 5-7 приводов из разних партий самий лутший привод оказался много било емоций :)
overclocker или 3dnews что то ище более менее не купление сайты :)
Погодите, а разве Radeon X2900 XTX уже тестировали? Ведь он должен поступить в продажу в конце года. Хотя, журналисты всё достанут. А по тесту - рад за nVidia. Поддерживаю эту компанию.
nVIDIA последние время держится на первой ступени, и прочитав много статей с сайта overclocker.ru я могу сделать вывод, что так будет продолжаться ещё долго. ATI не будет на коме с выходом Radeon X2900 XTX. Заглянем в будущие:
G100 сразится с R700 через год
__Хотя исход битвы между G80 и R600 ещё не определён, NVIDIA и AMD уже вынуждены думать о графических решениях следующего поколения, которые выйдут через год. По крайней мере, NVIDIA уже выпустила программный инструментарий для разработчиков с поддержкой Shader Model 5.0 - соответствующие версии шейдеров могут стать элементом DirectX 10.1. Поддержку этого API могли бы обеспечить графические решения, выходящие в конце этого или начале следующего года. __По сведениям сайтов Fudzilla и VR-Zone, поддержку DirectX 10.1 вполне может обеспечить графическое решение класса high-end под кодовым именем G100, анонс которого намечен на первый квартал 2008 года. До того момента ещё должен выйти 65 нм последователь чипа G80 под кодовым именем G90, которому пока не приписывают существенных архитектурных изменений по сравнению с предшественником. __AMD тоже готовит продукт с поддержкой DirectX 10.1: по предварительным сведениям, им станет 55 нм видеочип R700, чей анонс может состояться в начале 2008 года. Конечно, эти сроки будут соблюдены только при условии, что задержки анонсов графических решений не станут хроническим заболеванием AMD.
А я исключительно за АТИ. Юзаю Х1650ХТ, пока хватает.
А Нвидиа терпеть не могу, у них раньше изображение было хуже атишного, замыленное немного.
А мне, с хорошим зрением смотреть на мутненькую картинку, сами понимаете.
Правда, может уже исправились они, но мнение осталось...
Nemezis
Насчет прожоривости и шумности правда... Но насчет слабости не совсем согласен, AMD ее позиционирует как соперник 8800GTS, с чем она успешно вообщем то, справляется.
Приведённые выше результаты - полный бред ! У HD2900 чип (R600) состоит из 700.000.000 транзисторов и 320 пиксельных процессоров ,это ВДВОЕ больше чем в G80 !!! По всем законам 3D графики такого быть не может !!!!!!
З.Ы. Почитайте лучш что умные люди в конференции написали !
З.З.Ы. Прежде чем что-то писать (давать ссылку) проверьте данные , хотя-бы здравым смыслом (ато на DJ.RU один раз посоветовали помыть печатную плату в тёплой воде !!!):lol)
отредактировал(а) vulgar: 25-05-2007 23:04 GMT3 час.
Между прочим тест старый. По новым тестам, нвидиа отдыхает по полной.
Да и тем более через пару месяцев свет увидит Х2400 и Х2600 - бюджетные версии, поддерживающие 10 директ и 4 шейдеры за (ВНИМАНИЕ!) цену 100 и 200 долларов соответственно! Это же просто сказка. Молодцы АТи, заботятся о людях.
юзаю разные модели обоих брендов.
Однозначно сказать нельзя, т.к. в обоих случаях есть свои плюсы и минусы.
Аффтар, нужен еще вариант - "Затрудняюсь ответить"
Обозначим спектральную мощность буквой икс омега квадрат среднее.
Желающие отвечать досрочно могут записаться на кафедре и обвести свою фамилию в черную рамку.
ИМХО, нет смысла ориентироваться тольао на сведения из Сети - у кого сколько ФПС и на каких видеокартах. Я предпочитаю более реальные весчи - т.е. свою машину, благо, есть возможность брать на пару дней разные железки и сравнивать. У большинства юзеров нет возможности покупать самую - самую свежую железяку, тем более такую конфигурацию, как на стенде у тестеров например из
3D News, поэтому и тесты их для нас - так, ля-ля на отвлечённые темы. А если толкаться от того, что мы имеем - то в большинстве своём - сборную солянку. В.карта - новая, проц - слабый, память - или мало, или частота занижена и т.д. Так что реально от покупки более "пордвинутой" железки можно поиметь гораздо меньше, чем рассчитывали, понятно почему. Протестив несколько в.адаптеров на своём реальном железе и руководствуясь здравым смыслом - могу я купить что-то, поменять другое и апгрейдить третье, я остановился на ATI SAPFAIR 1950 512mb DDR 4, т. к. она показала очень даже неплохой результат - 11 358 fps, а с другими железками, хотя и более навороченными - результат не очень сильно увеличился, не на столько, чтобы за пару-тройку сотен "попугаев" выкладывать + 500$ -
за GeForse 8800GTX, да ещё блок питания менять. Вот такик вот делишки.:-)
СЧАСТЬЕ ДЛЯ ВСЕХ, ДАРОМ, И ПУСТЬ НИКТО НЕ УЙДЕТ ОБИЖЕННЫЙ... А. и Б. Стругацкие.
Ну что же, лично познакомился с карточками Ati
с 6800gs на 1950pro
Наблюдаю жесткие глюки с тенями в игре Just Cause, которая шла с видеокартой, и ошибки рендеринга тумана войны в CoH. дрова 7,6. Не рад совсем.
Catalyst Control Center очень неудобен, хотя понравилась привьюшка 3д сцены при выборе настроек.
Не обнаружил профилей для 3д приложений по типу нВидивского, есть какой-то менеджер профилей. но он либо свосем не работает, либо работает через ж., поскольку результата нет + не пашет маштабирование экрана (у меня 1280*1024 и если игра работает в 1280*960 то я и хочу такое разрешение с черными полосками вверху и внизу, а не растягивание на весь экран)
Пока, по первому впечатлению, я сделал вывод, что это первый и последний раз когда я взял что-то от Ати.
отредактировал(а) GREMeZ: 14-07-2007 23:20 GMT3 час.
Consul of Official K-D lab Perimeter clan --Russian Union of Legates-- =Психосфера постоянно расширяется=
чип (R600) состоит из 700.000.000 транзисторов и 320 пиксельных процессоров ,это ВДВОЕ больше чем в G80 !!! По всем законам 3D графики такого быть не может !!!!!!
Чего больше то, пиксельных процессоров? А может быть все таки унифицированных (потоковых) процессоров? Проблема то в том что каждый такой унифицированный процессор содержит в себе то количество текстурных (TMU) блоков и блоков растеризации (ROP) (+ еще собственно самих ALU) сколько захочет сам производитель, так что сталкивать 128 этих самый процессоров у G80 с 320 у R600 это вроде того как судить о производительности разных CPU по частоте...
А уж о "законах 3D графики" я и не спрашиваю... "Тайна сия велика есть" (с) однако.
З.Ы. Почитайте лучш что умные люди в конференции написали !
С удовльствием бы почитал... Где спрашивается?
.Wes.
Между прочим тест старый. По новым тестам, нвидиа отдыхает по полной.
Да и тем более через пару месяцев свет увидит Х2400 и Х2600 - бюджетные версии, поддерживающие 10 директ и 4 шейдеры за (ВНИМАНИЕ!) цену 100 и 200 долларов соответственно! Это же просто сказка. Молодцы АТи, заботятся о людях.
Вышли)) и самое смешное стоят в районе 100-200 долларов! :lol), только вот в чем сказка мне если честно не совсем ясно ;-), ибо те же самые конкуренты стоят абсолютно столько же...
А уж про тесты где кто-то там отдыхает... Ну что ж приятных снов и всего прочего. Ну а если это все таки было наяву, то ждем ссылку...
set51
ИМХО, нет смысла ориентироваться только на сведения из Сети - у кого сколько ФПС и на каких видеокартах. Я предпочитаю более реальные вещи - т.е. свою машину, благо, есть возможность брать на пару дней разные железки и сравнивать. У большинства юзеров нет возможности покупать самую - самую свежую железяку, тем более такую конфигурацию, как на стенде у тестеров например из 3D News, поэтому и тесты их для нас - так, ля-ля на отвлечённые темы.
У большинства юзеров "есть возможность брать на пару дней разные железки и сравнивать"? У меня нет, поэтому для меня эти самые ля-ля-ля как вы их называете один из источников для размышления... А тестовая конфигурация то здесь причем? Сравниваются карты, а не конфигурация... Нужна дельта производительности между картами, а не относительные ФПС которое на каждой второй машине могут разниться как попало, а мощная же конфигурация у тестеров позволяет избавится от "слабых мест" которые могут сдержать производительность той или иной части системы, а не для того что бы пускать слюну у читающего.
SOC тут ты конечно прав. Не у всех есть такие возможности, но не расстраивайся, будет и на твоей улице праздник. Успокоил. Без обид. А считать разные шрейдеры и пиксюли - мне это уже давно надоело. Вот.
СЧАСТЬЕ ДЛЯ ВСЕХ, ДАРОМ, И ПУСТЬ НИКТО НЕ УЙДЕТ ОБИЖЕННЫЙ... А. и Б. Стругацкие.
Джон Кармак выступил с критикой физических ускорителей
20.07.2007 [14:04]
Джон Кармак (John Carmack), основатель id Software, довольно скептически прокомментировал растущий интерес к физическим ускорителям, заявив, что он не верит, будто такие устройства привносят в систему что-нибудь, что неподвластно многоядерным процессорам.
В интервью, данном им BootDaily, Кармак заявил: «Я не сторонник выделенных физических ускорителей. Несколько ядер процессора будут значительно полезнее; в общем, к тому же, когда GPU окончательно обретут продуманную систему переключения задач и диспетчеризацию, они смогут взять на себя часть задач».
Кармак, равно как Intel и NVIDIA, полагает, что распределение задач обработки физики между графическим и центральным процессором – это значительно лучшая идея, чем требование наличия дополнительной карты расширения. Кроме того, ожидаемые Half-Life 2: Episode 2 от Valve и Crysis от Crytek, ориентированы на использование многоядерных процессоров для сложных физических расчетов; таким образом, слова Кармака могут еще больше склонить чашу весов к этому подходу.
С другой стороны, Unreal Engine 3 использует физические ускорители, но пока что нет точных данных о том, как именно. Таким образом, в настоящее время, владельцам физических ускорителей остается только наслаждаться продвинутой физикой в Ghost Recon 2 и ждать выхода игр, использующих Unreal Engine 3.
Кармаку конечно проще со своего Олимпа, но всё равно несколько тенденциозно, ИМХО.
СЧАСТЬЕ ДЛЯ ВСЕХ, ДАРОМ, И ПУСТЬ НИКТО НЕ УЙДЕТ ОБИЖЕННЫЙ... А. и Б. Стругацкие.
Если бвыбор стоит межу ГФ 7900ГТ , 7950ГХ Или Ати радеон Х1900ХТ Х1950ХТХ Тоя возьму Ати ну а если междо Х2900 и 8800ГТХ то Конечно Жырафу
Core i7 3770K@4,2Ghz EK Water Blocks EK XT360
Geil EVO Corsa 16GB DDR3 2133Mhz PC3 17066U
ASrock Z77Extreme 6
SSD Intel X25 80GB + 256GB Samsung Series 830 SATA 6Gbyt
AMD HD7990 XT2 Malta GPU
Вопросик как можно охарактеризовать 8600GTX...и с чем сравнить из серии Radeon(овских) карт, сейчас видюшки дорогие но нужны как ни когда всему виной dx10///...что скажите по этому поваду...?
2600хт из АМД АТИ. Обе карты не требуют доп. питания. Но имелась в виду наверно 8600гтс или гс, в синтетике гтс по быстрее, но в играх с активным использованием шейдеров наверно будут на равне. Цены точно не помню, чтобы не дезинформировать.
добавлено спустя 2 минут
А насчет нужности, мое мнение глупо...
отредактировал(а) deadmazay: 15-08-2007 20:54 GMT3 час. Периодически гонит. Простой смертный.
Я б ничего не взял, ибо меня мой Radeon X1900XT устраивает. Ну а так, наверно 8600 гтс, ибо мой радеон такой трактор шумит, пыхтит, в общем впечатление от этой марки у меня испортилось, отдать за топовый продукт в свое время немалые деньги и терпеть такой шум и перегревы, больше я такой ошибки не совершу, если только что-нибудь сверхъестественного не случится, так что мой выбор нвидиа. Ты к биошоку готовишься? Кстати 8600 гс я щупал маленько, производительность ничего. Вот процитирую друга он на ней готику 3, говорит на максимуме запускал, без сглаживания конечно. Ну и остальная конфа у него тоже не хилая, 2гб рам и пенек д820 разогнанный.
deadmazay Поменяй кулер на карте. Ну а я на Х1900ХТ Наиграл много чисов и остался очень доволен , сталкер гамали на высоких настройках и без проблем.
Core i7 3770K@4,2Ghz EK Water Blocks EK XT360
Geil EVO Corsa 16GB DDR3 2133Mhz PC3 17066U
ASrock Z77Extreme 6
SSD Intel X25 80GB + 256GB Samsung Series 830 SATA 6Gbyt
AMD HD7990 XT2 Malta GPU
Да если ты поставиш толковый кулер то продаш карту дороже...
Core i7 3770K@4,2Ghz EK Water Blocks EK XT360
Geil EVO Corsa 16GB DDR3 2133Mhz PC3 17066U
ASrock Z77Extreme 6
SSD Intel X25 80GB + 256GB Samsung Series 830 SATA 6Gbyt
AMD HD7990 XT2 Malta GPU
Всeм потенциальным покупателям видеокарт 8 или 2ххх серии, подождите. Сегодня майкрософт выпустила директх10.1, функции которого не поддерживают ни новейшие карты от нвидиа ни от амд ати. Вот такие дела, хотя я все еще скептически отношусь к массовому появлению дх10 игр.
Я ето уже давно знал, такчто лутше подождать выхота другой карты в итоге Жырафа подешывеет на 45%
Core i7 3770K@4,2Ghz EK Water Blocks EK XT360
Geil EVO Corsa 16GB DDR3 2133Mhz PC3 17066U
ASrock Z77Extreme 6
SSD Intel X25 80GB + 256GB Samsung Series 830 SATA 6Gbyt
AMD HD7990 XT2 Malta GPU
deadmazay
ссылка на источник где? пока ищешь, я поищу ссылку на опровержение от Microsoft :-)
Нашел:
Microsoft's DirectX lead program manager has set the record straight on reports that DX10.1 will render the current crop of DX10-compatible hardware "obsolete."
Microsoft's Sam Glassenberg told Next-Gen in a phone interview, "DX10.1 fully supports DX10 hardware. No hardware support is being removed....It's strictly a superset. It's basically an update to DX10 that extends the hardware functionality slightly."
He said that the update is similar to what Microsoft did with DX9. "We did make updates to [DX9] that extended the supported feature set.
Sam Glassenberg из Microsoft в телефонном разговоре с next-gen.biz поведал следующее: “DX10.1 полностью поддерживает аппаратные средства DX10. Это - строго набор инструментов. Это - в основном, обновление к DX10, которые немного расширяет функциональные возможности аппаратных средств. Все предыдущие аппаратные средства поддержаны, все игры работают, все особенности DX10 включены, мы просто расширили набор инструментов и целую API. Иными словами это как выпуск DirectX 9.0a, DirectX 9.0b, DirectX 9.0c."
отредактировал(а) GREMeZ: 19-08-2007 11:28 GMT3 час.
Consul of Official K-D lab Perimeter clan --Russian Union of Legates-- =Психосфера постоянно расширяется=
Продолжая пользоваться сайтом, вы соглашаетесь с использованием файлов cookie. Страницы сайта могут содержать информацию, запрещенную для просмотра посетителям младше 18 лет. Авторское право на серию игр «S.T.A.L.K.E.R» и используемые в ней материалы принадлежит GSC Game World.