Видеокарта: помощь центральному процессору

Автор RaveGenerator, 16 Квітень 2009, 20:16:17

Попередня тема - Наступна тема

RaveGenerator

Сабж.
Собственно, была такая статься, недавно в ДПК, но ни как не могу вспомнить название. И ещё, если есть где-нибудь статьи, где современные видеокарты за счёт своих ресурсов разгружают центральный процессор и прибавляют FPS - очень буду признателен. Особенно с картами ATI.
Rave - это не музыка. Rave - это движение.
Вообще то музыка Рейв есть, игралась в Манчестере в 1988-ом году, но любителям электроники слушать её не советую.

Обамка

Я помню такое было в статье ДПК(№11,ноябрь2008) о видеоконверторе Badaboom - он кодировал видео за счет графического процессора. И дела это значительно быстрее ЦП.

linuxdrom

Цитата: bogdanov від 16 Квітень 2009, 21:32:08
И дела это значительно быстрее ЦП.
И значительно менее качественно.

Обамка

Цитата: linuxdrom від 16 Квітень 2009, 22:35:59
И значительно менее качественно.
В статье ДПК про это не упоминали... :(

Edd.Dragon

#4
Цитата: linuxdrom від 16 Квітень 2009, 22:35:59
И значительно менее качественно.
Я так и не проследил за развитием событий - смогли они туда влепить хоть частично сжатие h.264 или идею (а точнее необходимость) тихонько и незаметно похоронили?


Цитата: bogdanov від 16 Квітень 2009, 22:32:08о видеоконверторе Badaboom - он кодировал видео за счет графического процессора.
За счет обоих процессоров. За счет почти исключительно GPU можно делать более тупые задачи. Например накладывать эффект на фотку - одна и та же последовательность заранее известных действий одновременно над несколькими десятками кусочков картинки. Это реализуется эффективно. Тот же плавный зум, быстрый ресайз и все такое.

Так что, использование GPU в Фотошопе, 3D Максе, просмотрщиках и видеоредакторах - это то, от чего реально можно получить пользу. И даже поохать от удивления поначалу ))

linuxdrom

Цитата: Edd.Dragon від 16 Квітень 2009, 22:40:28
Я так и не проследил за развитием событий - смогли они туда влепить хоть частично сжатие h.264 или идею (а точнее необходимость) тихонько и незаметно похоронили?
Если честно я тоже. После статьи я заинтересовался им, но потом почитал тематические форумы (дум9 в частности), посмотрел скриншоты и тесты производительности (Q6600 при одинаковом качестве не медленней 8800 GTS), и охладел к нему. Что сейчас не знаю (может посмотрю на досуге  :)). А частично сжатие h.264 там есть, но нет его главной фишки - САВАС, не говоря уже про остальные.

Drizid

Цитата: RaveGenerator від 16 Квітень 2009, 20:16:17
Сабж.
Собственно, была такая статься, недавно в ДПК, но ни как не могу вспомнить название. И ещё, если есть где-нибудь статьи, где современные видеокарты за счёт своих ресурсов разгружают центральный процессор и прибавляют FPS - очень буду признателен. Особенно с картами ATI.


http://www.overclockers.ru/hardnews/32689.shtml
Не об этом интересуешься?

Edd.Dragon


Dimi

Цитата: Drizid від 16 Квітень 2009, 23:32:12
http://www.overclockers.ru/hardnews/32689.shtml
Не об этом интересуешься?
Это вобще не то.

А что там с АТИшным конвертером, который к тому же бесплатный(в отличии от жлобов нВидиа)?

Edd.Dragon

Цитата: Dimi від 17 Квітень 2009, 00:35:47(в отличии от жлобов нВидиа
nVidia видеокарты делает, а конвертеры и прочее ПО - спонсирует. В целях популязиции своих технологий. Так что, конвертер не ее.


Dimi

#10
Цитата: Edd.Dragon від 16 Квітень 2009, 23:37:26
nVidia видеокарты делает, а конвертеры и прочее ПО - спонсирует. В целях популязиции своих технологий. Так что, конвертер не ее.
У АТИ ж бесплатно ;)

Вобщем, халтурный этот Badaboom: мало форматов, мало кодеков, всякие ошибки+покупаешь Badaboom1, а за Badaboom2(в котором обещают много новых и нужных возможностей) прийдётся платить по-новой. И ещё отстойный интерфейс. >:(

Drizid

Цитата: Edd.Dragon від 16 Квітень 2009, 23:34:28
При чем тут "nVidia критикует Larrabee"?  ???
Просто в статье описано, что в скором будущем GPU возьмет на себя часть работы CPU. Судя по названию темы я и предположил :)

Edd.Dragon

Цитата: Dimi від 16 Квітень 2009, 23:38:55
У АТИ ж бесплатно ;)
Все-равно не понял.

Я, Петя Забугорный, написал и продаю прогу, написанную под Windows. Значит Microsoft - жлобы, если аналог моей проги есть под Linux бксплатно? ))))

Dimi

#13
Цитата: Edd.Dragon від 16 Квітень 2009, 23:46:01
Все-равно не понял.
Ну эт, и ATI и nVidia спонсирует видеокодеры использующие мощь собственных GPU, этот софт ведь часть пиара их продукции. ;) Выходит любой обладатель современной карты ATI может свободно юзать прогу, а с nVidia всё не так гладко... Не думаю что Badaboom стоит чтоб за неё ещё платить. ;)

З.Ы. Дак что с АТИшной прогой, никто не знает? ???

Edd.Dragon

Цитата: Dimi від 17 Квітень 2009, 00:52:38Не думаю что Badaboom стоит чтоб за неё ещё платить.
Ну так это ж не к nVidia вопрос ))
А то выходит, что если бы они не были жлобы, то заставили бы Adobe раздавать фотошоп с поддержкой GeForce бесплатно? Чур, мне первому! ;D

В общем ты немного попутал, спонсирование с выкупом продукта для его последующего распространения в личных рекламных целях. Конвертера nVidia нет. Badaboom - это сторонний проект и его распространению причастен его владелец )) Точно так же Crysis из-за наличия логотипов Intel и nVidia бесплатным не стал и не должен был. Т.к. ни тому, ни другому он не принадлежит.


На счет атишной проги - если ты имеешь ввиду ATI Avivo video converter, то это именно ATI-шное произведение. Вроде как тоже не блещет. Но по крайней мере кроме GPU хорошо грузит и CPU. Т.е. теоритически можно предположить, что алгоритмы кодирования не были слишком упрощены.

Ну и...  мастер кодирования должен быть в Каталист Контрол Центре - так что проще всего попробовать ))

___________

http://ati.amd.com/technology/avivo/technology.html

The ATI Video Converter accepts almost any video file format as a source, and outputs to many different file formats, including MPEG-1, MPEG-4/DivX, WMV and H.264/AVC™(4).  MPEG-2 and H.264/AVC™(4) benefit from ATI Stream™ acceleration with ATI Radeon™ HD 4800 and ATI Radeon™ HD 4600 Series GPUs.

Сноска (4):
(4) H.264/AVC profile supported when using Apple iPod format.

Dimi

Ну мне нечего ответить ;) Ну разве что - эти проги пока прилично уступают ЦПУшным кодерам.

RaveGenerator

Почитал всё. Про кодеки я знал, мне бы хотелось узнать, а в играх, могут ли видеокарты помочь центральному процессору.
Грубо говоря, как помню: центральный проц рассчитывает координаты, что где и как должно стоять. GPU заливает их нужными текстурами + освещение и тп.
Отсюда, насколько я читал в том же ДПК, что процы GPU современных видеокарт по кол. транзисторов и вычисл. блоков во много раз превосходят CPU. По площади кристалла так в несколько раз.
Отсюда имеем. Берём средний проц и видеокарту с двумя gpu на борту. Плз, лох, зачем купим, давайте отставим. Одно ядро используется не полностью, даже если игра и поддерживает два gpu в дровах. Может ли второе ядро использовать свои вычислительные способности, чтобы помогать центральному процу вычислять координаты. Математическая помощь? Если да, нужны проги. Может кто знает? :-[
Rave - это не музыка. Rave - это движение.
Вообще то музыка Рейв есть, игралась в Манчестере в 1988-ом году, но любителям электроники слушать её не советую.

Обамка

Ну вообще технология PhysX(для расчета физических процессов) для видеокарт GeForce так и работает - одно ядро вычисляет графику, а другое - физику. Так и помогает снизить нагрузку на ЦП в тех приложениях и играх где это возможно. Эта технология включается во всех последних версиях драйверов NVIDIA.

linuxdrom

Цитата: RaveGenerator від 19 Квітень 2009, 19:54:38
Одно ядро используется не полностью, даже если игра и поддерживает два gpu в дровах. Может ли второе ядро использовать свои вычислительные способности, чтобы помогать центральному процу вычислять координаты.
RaveGenerator это все хорошо, плохо только что программистам писать движки которые хорошо используют мультипотоковость трудно/лень/не выгодно. Не замечал что абсолютное большинство игр даже все ядра процессора не используют на полную? А ты хочешь что б еще и видеокарта для этого использовалась  :) А это на порядок труднее, далеко не всегда вообще возможно, и тем более выгодно с точки зрения производительности. Я уже молчу про чисто финансовую сторону дела.

Цитата: bogdanov від 19 Квітень 2009, 21:20:01
Так и помогает снизить нагрузку на ЦП в тех приложениях и играх где это возможно.
На пример? А то обычно даже наоборот  :)

Обамка

Цитата: linuxdrom від 19 Квітень 2009, 21:53:39

На пример? А то обычно даже наоборот  :)
Ну..учитывая то, как эта технология пока реализована, то эффекта мало. Нужна очень ведь мощная вторая видеокарта. Физические расчеты ведь ЦП проводит обычно? Ну вот, при нормально поддержке со стороны разработчиков игр и драйверов это очень перспективная технология ;)

Ведь уже есть несколько карт для Unreal Tournament и для Анабиоза с поддержкой физических эффектов, выпущена заставка для Windows которая использует физический движок(толку мало, но красиво).

linuxdrom

Цитата: bogdanov від 19 Квітень 2009, 21:58:42
Ну..учитывая то, как эта технология пока реализована, то эффекта мало. Нужна очень ведь мощная вторая видеокарта. Физические расчеты ведь ЦП проводит обычно? Ну вот, при нормально поддержке со стороны разработчиков игр и драйверов это очень перспективная технология ;)
Дело в том, что пока на видеокартах PhysX считает физические эффекты, а не физику. И при включении этих эффектов нагрузка на ЦПУ только увеличивается, ведь должен кто-то готовить данные для видеокарты.
А вторая, именно "мощная"  видеокарта не нужна.
Собственно я писал по этому поводу, с тех пор не особо что поменялось.

Dimi

Расчёт физики и графики может производится и на одном GPU.

Обамка

Цитата: Dimi від 19 Квітень 2009, 22:17:40
Расчёт физики и графики может производится и на одном GPU.
Ну, как писал linuxdrom, ядро видеокарты и так нагружено на полную расчетами графики, а если еще и положить на его плечи и физические эффекты, то зачем нужна такая игра? Даже на сайте NVIDIA написано - "Одна видеокарта будет рассчитывать графику, а другая - физические эффекты."

linuxdrom

Цитата: Dimi від 19 Квітень 2009, 22:17:40
Расчёт физики и графики может производится и на одном GPU.
Спасибо Капитан Очевидность!

Dimi

#24
Цитата: linuxdrom від 19 Квітень 2009, 22:24:18
Спасибо Капитан Очевидность!
(с) Повторяешся ;)

В Анабиозе шло о основном без тормозов даже с расчётом физики, а игра просто супер :%)
А всё стояло на максимум, АА х4, 1280х1024

Edd.Dragon

Цитата: RaveGenerator від 19 Квітень 2009, 20:54:38а в играх, могут ли видеокарты помочь центральному процессору.
Грубо говоря, как помню: центральный проц рассчитывает координаты, что где и как должно стоять. GPU заливает их нужными текстурами + освещение и тп. Отсюда, насколько я читал в том же ДПК, что процы GPU современных видеокарт по кол. транзисторов и вычисл. блоков во много раз превосходят CPU.
Немного путано.

1. CPU занимается логикой. Для оптимизации этого процесса у него приличный кусок кристала зинимают кеш и разные блоки по предсказанию и управлению процессом. А GPU - тупо вычисляет одно и то же одновременно над большими пачками данных. С логикой у него туго, зато освободившееся место на кристале занимают силовые блоки. Отсюда и прирост в "силовой тяге".

2. Общее количество транзисторов на чипе примерно одинаково. Т.к. ограничено техпроцессом. По которому CPU даже лидируют зачастую. Видеокарты перейдут на 40 nm, а процессоры - на 32 mn. Так что - в этом плане они лидируют. Вопрос в том, на что эти транзисторы расходуются.

3. Собственно видиокарты издревле помогают CPU в играх. Задача современной видеокарты - рендерить(рисовать) сцену и выводить на экран. Именно под это и заточена архитектура. А раньше видео-адаптеры лишь выводили на экран. Рендеринг делал CPU, ни разу под это не заточенный. Так что, видеокарта и так является помощником CPU. При чем зачастую, нагружена на все 100%. В таких случаях твой вопрос не актуален. Если же производительности GPU с лихвой, то тогда и можно использовать ПОДОБНЫЕ рендерингу задачи - хорошо распаралеливаемые расчеты. Пока что это физ. эффекты.

Edd.Dragon

Ну вот. Nero Move It! (прога для обмена видиками между устройствами - комп, телы, фотик и т.д.) тоже обзавелся ускорением кодирования видео на GeForce-ах.

Скачал 111 метров чтобы "try it for free". Первым делом в настройки! Смешно. Настройки для блондинок: кодек, размер видео из списка стандартных размеров, битрейт видео. Всё. Т.е. настроек попросту нету.