Помогите в выборе видеокарты между 3870Х2 и GTX 260.

Автор PRO-ROCK, 12 Листопад 2008, 14:24:18

Попередня тема - Наступна тема

IK91

Цитата: Неофит від 16 Листопад 2008, 13:11:39
Quadro наверно подходит,эта линейка для профессионального применения,она же оптимизирована для работы с Open GL
Спасибо кончено, что Америку открыл, но я бы все таки хотел услышать, чем же ATI лучше для 3D, а nVIDIA в свою очередь хуже ;)
Звонишь мэру в офис, и он высвечивает сигнал в небе, в виде <мораль не позволяет>.

Factiosus

i7-7700K\Zalman CNPS10X Optima\MSI Z270 Krait Gaming\MSI GTX 1080 Ti GAMING X\2X8 Patriot Viper 4\SSD Kingston SUV400\HDD Seagate Barracuda ST1000+Toshiba HDWD110\Razer BlackWidow Ultimate\Razer Abyssus Mirror\LG 24UD58 24"\Be Quite Pure Power L8 CM 730 W

DeeJay

конечно оффтоп, но скажу
Надо запретить родителям покупать детям дорогие компы, а то начинается мания величия, у кого больше видеокарт и мегагерц.  8)

Можно посмотреть еще тут http://www.ixbt.com/video3/i1008-video.shtml

rioplloper

Цитата: IGOR_KRUTOI_91 від 15 Листопад 2008, 15:27:20
Я как это прочитал, так сразу подумал - "чи лижі не їдуть чи я....."  :)

Во-первых, как вам удалось на х48 (чипсет Intel) который никогда не поддерживал SLI и имеет 2хРCI-E x16, построить SLI из трех GTX280, во-вторых, куда вы прелепили второй Zalman CNPS9700NT, и, в-третьих, если уж к этому бреду написал: "16x сглаживание играть просто невозможно, то есть 5fps и нельзя ничего разобрать на экране", то нужно было указать полные настройки, а ну и чуть не забыл, получи минус, за исключительно качественный бред.



ответ того чела
Gigabyte GA-X48T-DQ6 RTL
(16-11-2008 09:34)
Ты чё то спутал 3x GTX 280 Она поддерживает, там по моему таких 3 слота, или чё то  :D ещё во всяком случае, диспетчер устройств видит у меня 3x GTX 280. А там не знаю

graved1gger

Цитата: rioplloper від 16 Листопад 2008, 14:06:41

ответ того чела
Gigabyte GA-X48T-DQ6 RTL
(16-11-2008 09:34)
Ты чё то спутал 3x GTX 280 Она поддерживает, там по моему таких 3 слота, или чё то  :D ещё во всяком случае, диспетчер устройств видит у меня 3x GTX 280. А там не знаю

аааааааааа я плачу,
1-е - 2 пси-е х16 слота http://hotline.ua/tx/gigabyte_ga-x48t-dq6/
2-е - ну не поддерживается SLI на х48 чипсете, ты можешь две карточки от НВ поставить, но они не будут работать в SLI
this gravedigga is completely broken. all we want is an old version of that toxic angry guy who hates everything and everyone © link. А вот я не уверен,  что старая версия будет доступна.

IK91

Цитата: graved1gger від 16 Листопад 2008, 14:31:52
аааааааааа я плачу
Тоже самое писал уже выше, но тут еще больше хочется плакать, тот чувак говорит: "Ты чё то спутал 3x GTX 280 Она поддерживает", просто стало интересно куда это он третью GTX280 впихнул  :-[?
Звонишь мэру в офис, и он высвечивает сигнал в небе, в виде <мораль не позволяет>.

graved1gger

Цитата: IGOR_KRUTOI_91 від 16 Листопад 2008, 14:40:05
Тоже самое писал уже выше, но тут еще больше хочется плакать, тот чувак говорит: "Ты чё то спутал 3x GTX 280 Она поддерживает", просто стало интересно куда это он третью GTX280 впихнул  :-[?
так понимаешь, я и видел, что писал, но он все равно уперся, может двум разным людям поверит... "Ты чё то спутал 3x GTX 280 Она поддерживает" - ага именно с этого и плачу=)
this gravedigga is completely broken. all we want is an old version of that toxic angry guy who hates everything and everyone © link. А вот я не уверен,  что старая версия будет доступна.

rioplloper

#57
Цитата: graved1gger від 16 Листопад 2008, 14:31:52
аааааааааа я плачу,
1-е - 2 пси-е х16 слота http://hotline.ua/tx/gigabyte_ga-x48t-dq6/
2-е - ну не поддерживается SLI на х48 чипсете, ты можешь две карточки от НВ поставить, но они не будут работать в SLI

так вы меня не так понимаете
это ня моя  - это один чел написал на PlayGround.ru
да я уже давно посматрел - но он упертый я ему и описание и фоты - а он мне не ... три и все тут... :'(
кароче  ...перепись с ним закончил


DeeJay писал
Можно посмотреть еще тут http://www.ixbt.com/video3/i1008-video.shtml


а вот тут 4830 обгоняет 4850 - и как такое возможно  :-\
http://www.ixbt.com/video/itogi-video/1008/itogi-video-cr4-wxp-aaa-1280-pcie.html

PRO-ROCK

Цитата: Неофит від 15 Листопад 2008, 17:26:40
Я слышал,что Nvidia для игр подходит больше,её и бери
Radeon  лучше "рисует", из-за этого медленее чем NVIDIA.А то что больше игр "точатся" под GeForce-факт.

DEAD_RAT

Цитата: PRO-ROCK від 17 Листопад 2008, 20:02:38
Radeon  лучше "рисует", из-за этого медленее чем NVIDIA
Вы заколебали писать бред - в следущиц раз влеплю минус!

Это уже обсуждалось.

PRO-ROCK

Всеееееееееееееееее!!! Хватит спорить! Тот чувак после просмотра всего этого бреда решил взять GTX 280 и не мучаться.Каждий отстаивает свою сторону и это правильно, но в итоге все остались при своем мнении.
Всем спасибо за помощь!

DEAD_RAT

Цитата: PRO-ROCK від 17 Листопад 2008, 20:14:06
Всеееееееееееееееее!!! Хватит спорить! Тот чувак после просмотра всего этого бреда решил взять GTX 280 и не мучаться.Каждий отстаивает свою сторону и это правильно, но в итоге все остались при своем мнении.
Всем спасибо за помощь!
Да, все.
Извини, если был груб - мир :)


Edd.Dragon

Цитата: PRO-ROCK від 17 Листопад 2008, 20:02:38
Radeon  лучше "рисует", из-за этого медленее чем NVIDIA.А то что больше игр "точатся" под GeForce-факт.
Рисует Малевич. Точнее, дорисовался. А видеокарты - рендерят. При чем одинаково.

PRO-ROCK

Ничего подобного!GeForce- геймерское видео и не один программист не создает игры на нем.А рендерят они абсолютно по-разному.Хотя бы вспомни UVD декодер на Radeon 3800 и 4800 серий.Он позволяет улучшить качество картинки при просмотре видео и разгрузить систему.Особенно это актуально в случае с HD-форматами.UVD берет на себя обязанности по обработке видеопотока,есть поддержка  MPEG1, MPEG2, DivX, H.264.Плюс к этому,UVD проводит автоматическое масштабирование картинки,отслеживает правильность располажения пикселей,восстанавливает изначальный видеоряд из форматов PAL и NTSC,ускоряет работу с фильтрами и многое другое.

Edd.Dragon

#65
Цитата: PRO-ROCK від 17 Листопад 2008, 23:57:38
Хотя бы вспомни UVD декодер на Radeon 3800 и 4800 серий.Он позволяет улучшить качество картинки при просмотре видео и разгрузить систему.Особенно это актуально в случае с HD-форматами.
И каким это боком относится к 3D-рендерингу изображения в играх? Где мы тут обсуждали какая карта лучше для просмотра видео?


Цитата: PRO-ROCK від 17 Листопад 2008, 23:57:38
Ничего подобного!GeForce- геймерское видео и не один программист не создает игры на нем.
Не понял фразу.

1. Программисты пишут игры, используя промежуточные высокоуровневые API (DirectX, OpenGL). Кроме того, они пишут программы-шейдеры, задавая ими КАК нужно произвести ту или иную нестандартную обработку текстур или геометрии.

2. Дискретные видеокарты предназначены в первую очередь для вывода изображения на экран и аппаратного ускорения рендеринга реального времени. Т.е. хоть ATI, хоть nVidia - игровая видеокарта (или для работы в CADах) не зависимо от ее мощности. И если у ATI поддержка видео реализована более полно и качественно, то ни по какой логике отсюда не следует, что она является менее игрвой чем nVidia.

3. У ATI и nVidia несколько разные архитектуры, отсюда и возможность затачивать игры под того или иного производителя. Суть заточки состоит в том, чтобо как можно максимальнее использовать мощностной потенциал карты с учетом ее узких мест и сильных сторон. При этом на карте другого производителя использованный подход может не соответствовать реализованному ее архитектурой балансу, в результате чего какие-то блоки будут перегружены, а другие недогружены или же будет появляться дублирование, неоптимальное управление обработкой и т.д. В итоге казалось бы сильная карта будет проигрывать своему конкуренту.

4. Понятия "отрендерить такой-то объект, такой-то камерой", "наложить на него такую-то текстуру", "наложить освещение по такому-то алгоритму", "размыть по такому-то алгоритму" и т.д. это вполне конкретные понятия. Можно только заведомо сжульничать, например удаляя вершины из объекта, или вместо сглаживания 4х реально выполнять 2х или подменить указанный алгоритм освещения на другой. Если бы имело место подобное жульничество - интернет бы кишил разговорами об этом. Если же ты знаешь другие возможности получить различимую на глаз разницу в качестве при реализации одних и тех же известных алгоримов, то расскажи подробнее.

Желательно при этом определить понятие "качество". Чтобы не получилось например, что ты называешь возможную небольшую разницу в общем цветовом фоне освещения в некоторых играх относящейся к качеству картинки (оттенок не может быть качественным или не качественным, кроме того, он и там, и там например желтый, но не зеленый - т.е. ошибки тоже нет).

А так же упоминавшееся тобой понятие "абсолютно по разному". Мне кажется что это когда я даю картам шар, а на экране на одной вижу слона, на другой - немецкий крест.


PRO-ROCK

Цитата: edd_k від 18 Листопад 2008, 10:02:58
И каким это боком относится к 3D-рендерингу изображения в играх? Где мы тут обсуждали какая карта лучше для просмотра видео?

Не понял фразу.

1. Программисты пишут игры, используя промежуточные высокоуровневые API (DirectX, OpenGL). Кроме того, они пишут программы-шейдеры, задавая ими КАК нужно произвести ту или иную нестандартную обработку текстур или геометрии.

2. Дискретные видеокарты предназначены в первую очередь для вывода изображения на экран и аппаратного ускорения рендеринга реального времени. Т.е. хоть ATI, хоть nVidia - игровая видеокарта (или для работы в CADах) не зависимо от ее мощности. И если у ATI поддержка видео реализована более полно и качественно, то ни по какой логике отсюда не следует, что она является менее игрвой чем nVidia.

3. У ATI и nVidia несколько разные архитектуры, отсюда и возможность затачивать игры под того или иного производителя. Суть заточки состоит в том, чтобо как можно максимальнее использовать мощностной потенциал карты с учетом ее узких мест и сильных сторон. При этом на карте другого производителя использованный подход может не соответствовать реализованному ее архитектурой балансу, в результате чего какие-то блоки будут перегружены, а другие недогружены или же будет появляться дублирование, неоптимальное управление обработкой и т.д. В итоге казалось бы сильная карта будет проигрывать своему конкуренту.

4. Понятия "отрендерить такой-то объект, такой-то камерой", "наложить на него такую-то текстуру", "наложить освещение по такому-то алгоритму", "размыть по такому-то алгоритму" и т.д. это вполне конкретные понятия. Можно только заведомо сжульничать, например удаляя вершины из объекта, или вместо сглаживания 4х реально выполнять 2х или подменить указанный алгоритм освещения на другой. Если бы имело место подобное жульничество - интернет бы кишил разговорами об этом. Если же ты знаешь другие возможности получить различимую на глаз разницу в качестве при реализации одних и тех же известных алгоримов, то расскажи подробнее.

Желательно при этом определить понятие "качество". Чтобы не получилось например, что ты называешь возможную небольшую разницу в общем цветовом фоне освещения в некоторых играх относящейся к качеству картинки (оттенок не может быть качественным или не качественным, кроме того, он и там, и там например желтый, но не зеленый - т.е. ошибки тоже нет).

А так же упоминавшееся тобой понятие "абсолютно по разному". Мне кажется что это когда я даю картам шар, а на экране на одной вижу слона, на другой - немецкий крест.


Немного не правильное представление.edd_k,ты тестировал 9800GTX и Radeon 3870X2?По-мне в NFS CARBON на Radeon графика реализована лучше,особенно ночь.Возможно на "форсе" ацтойные дрова попались или еще бред какой-то,но графика понравилась на Radeon больше чем на Nvidia.А считать такую огромную разницу как слон и крест в графике между 2-мя экземплярами безсмысленно т.к. ее просто нет.Она присудствует, но если уж вглядываться.Друзьям больше нравится Radeon из-за графики.Правда и оценивают они видеокарты по-другому,по-профессиональному.Если судить как они оценивают, то разницы я вообще не вижу.Они видят мгновенноразницу в своих исследовательских приложениях.В играх же графика не сильно отлияается.

Edd.Dragon

ЦитатаВозможно на "форсе" ацтойные дрова попались или еще бред какой-то,но графика понравилась на Radeon больше чем на Nvidia
Скорее настройки дров, а не сами дрова
А что именно понравилось, т.е. в чем именно отличия были?

Dimi

Цитата: PRO-ROCK від 17 Листопад 2008, 23:57:38
Хотя бы вспомни UVD декодер на Radeon 3800 и 4800 серий.Он позволяет улучшить качество картинки при просмотре видео и разгрузить систему.Особенно это актуально в случае с HD-форматами.
А разве GeForc'ы этого неумеют? ;)

Edd.Dragon

Цитата: Dimi від 19 Листопад 2008, 16:01:34
А разве GeForc'ы этого неумеют? ;)
GeForc-овскими "улучшателями" качества видео лучше не пользоваться. По крайней мере теми, которые касаются цвета

Dimi

Цитата: edd_k від 19 Листопад 2008, 16:03:34
GeForc-овскими "улучшателями" качества видео лучше не пользоваться. По крайней мере теми, которые касаются цвета
Ты про те что в настройках драйвера можно включить? Да, они зло :)
Судя по обзорам на ТНG качество видео на равне, хотябы для производительных карт.

PRO-ROCK

Цитата: edd_k від 19 Листопад 2008, 10:14:10
Скорее настройки дров, а не сами дрова
А что именно понравилось, т.е. в чем именно отличия были?

Описать видео сложно,но постараюсь.Точность прорисовки объектов,но только определенных и сама ночь.По-мне, ночь показалась не объемной.Мне дали эти два экземпляра ненадолго и протестировать их в полной мере неуспел.NFS Carbon не густо, но хоть что-то.Судить по одной игре сложно, но сказал что видел.Самое итересное что я заметил на дровах в GeForce,так это качество изображения не меняется что при макс. качестве,что при макс. производительности с единственным отличием только в FPS,их становилось или в два раза меньше или в два раза больше.На Radeon ситуация была такова:ставишь макс. качество-все хорошо,картинка четкая и яркая,ставишь производительность-смазлявая и не четкая.FPS практически не изменялись.