Re[2]: Закат GPU?
От: Кэр  
Дата: 14.07.09 16:50
Оценка:
Здравствуйте, Sergey Chadov, Вы писали:

SC>Без шансов, у GPU есть объективные преимущества, которые позволяют на определенном классе алгоритмов давать существенный прирост производительности. И если сделают 128-ядерный CPU, то можно сделать и какой-нибудь 16384-ядерный GPU.


Как я написал здесь:
http://www.rsdn.ru/forum/philosophy/3466219.1.aspx
Автор: Кэр
Дата: 13.07.09


идея заключается в том, чтобы резко упростить задачу обработки графики. Сейчас логику обработки графики приходится выражать на очень узкоспециализированных процессорах. С очень ужатыми возможностями. Larrabee выглядит очень интересным проектом прежде всего потому, что приносит возможности полноформатных процессоров, которые стали достаточно дешевы чтобы тягаться в своем количестве с количеством GPU.
Теперь осталось посмотреть, заборет ли Larrabee решения от NVidia — противостояние должно начаться уже скоро (в случае с Radeon'ами — есть подозрение, что AMD копает в том же направлении).
Re[3]: Закат GPU?
От: Sergey Chadov Россия  
Дата: 14.07.09 17:13
Оценка: +2
Здравствуйте, Кэр, Вы писали:

Кэр>идея заключается в том, чтобы резко упростить задачу обработки графики. Сейчас логику обработки графики приходится выражать на очень узкоспециализированных процессорах. С очень ужатыми возможностями. Larrabee выглядит очень интересным проектом прежде всего потому, что приносит возможности полноформатных процессоров, которые стали достаточно дешевы чтобы тягаться в своем количестве с количеством GPU.

Кэр>Теперь осталось посмотреть, заборет ли Larrabee решения от NVidia — противостояние должно начаться уже скоро (в случае с Radeon'ами — есть подозрение, что AMD копает в том же направлении).

GPU — это уже далеко не только графика. К тому же, чем проще процессор — тем больше их можно сделать, в этом смысле без разницы, будет ли это GPU или какой-нибудь векторный сопроцессор. Чудес не бывает, если Larrabee приносит возможности полноформатных процессоров, то он что-то и уносит.
--
Sergey Chadov

... << RSDN@Home 1.2.0 alpha rev. 685>>
Re[4]: Закат GPU?
От: Кэр  
Дата: 14.07.09 17:42
Оценка:
Здравствуйте, Sergey Chadov, Вы писали:

SC>...чем проще процессор — тем больше их можно сделать...


Смотря кому. Intel в плане разработки процессоров впереди планеты всей. Да возможно NVidia чтобы сделать когерентный кэш придется потратить очень хорошие деньги и ресурсы. И тратить потом хорошие деньги на каждую копию. Intel возможно сможет это делать гораздо дешевле.
Сам же факт того, что команды процессора становятся полноценными — приносит невероятный простор в действиях. Если найдутся светлые головы, которые этот простор в действиях применят на практике могут получится очень крутые результаты. В таком случае слоган "эта крутая штука работает только на Larrabee" — может прикрыть бизнес NVidia очень быстро.
Причем надо заметить — для этого не придется оттягивать релиз игры на то время, когда новые видеокарточки наберут массу. И не нужно будет думать (или придется думать в меньшей степени) на тему — а как быть с предыдущим поколением процессоров, где нет набора этих команд.
Видео-карточка — это прежде всего платформа. Если под эту платформу легко разрабатывать — то это практически гарантия, что платформа будет успешна.
Re[5]: Закат GPU?
От: Sergey Chadov Россия  
Дата: 14.07.09 17:51
Оценка:
Здравствуйте, Кэр, Вы писали:

SC>>...чем проще процессор — тем больше их можно сделать...


Кэр>Сам же факт того, что команды процессора становятся полноценными — приносит невероятный простор в действиях. Если найдутся светлые головы, которые этот простор в действиях применят на практике могут получится очень крутые результаты.

Ключевой момент в том, что это дается не просто так. и на задачах, которые сейчас решаются на GPU все равно можно сделать быстрее путем упрощения процессоров и увеличения их количества.

Кэр> В таком случае слоган "эта крутая штука работает только на Larrabee" — может прикрыть бизнес NVidia очень быстро.

Даже если и так, почему ты думаешь, что Intel, уперевшись через несколько лет в предел производительности не пойдет другим путем?
--
Sergey Chadov

... << RSDN@Home 1.2.0 alpha rev. 685>>
Re[6]: Закат GPU?
От: Кэр  
Дата: 14.07.09 19:27
Оценка: 12 (1)
Здравствуйте, Sergey Chadov, Вы писали:

Кэр>>Сам же факт того, что команды процессора становятся полноценными — приносит невероятный простор в действиях. Если найдутся светлые головы, которые этот простор в действиях применят на практике могут получится очень крутые результаты.

SC>Ключевой момент в том, что это дается не просто так. и на задачах, которые сейчас решаются на GPU все равно можно сделать быстрее путем упрощения процессоров и увеличения их количества.

У меня это не тема моей специальности, поэтому я поговорил сейчас с другом, который занимается этим очень серьезно. Насколько я понял — основная проблема текущего подхода — из шейдеров невозможно сделать вторичный запрос к сцене. Т.е. эффект тени, например, приходится рендерить через ОЧЕНЬ большой изврат. Точнее целый набор таких извратов — каждый по случаю.

Larrabee предоставит возможность общаться со сценой напрямую и это мега-круто. Интел упирает на то, что сцену можно будет рендерить с помощью ray-tracing, а не растеризации. И если будет реально можно — то это кул. И это же будет означать Larrabee only.

Вот, кстати, интервью одного из мозгов Unreal Engine:
http://arstechnica.com/gaming/news/2008/09/gpu-sweeney-interview.ars
Re[7]: Закат GPU?
От: Sergey Chadov Россия  
Дата: 15.07.09 07:53
Оценка:
Здравствуйте, Кэр, Вы писали:


Кэр>У меня это не тема моей специальности, поэтому я поговорил сейчас с другом, который занимается этим очень серьезно. Насколько я понял — основная проблема текущего подхода — из шейдеров невозможно сделать вторичный запрос к сцене. Т.е. эффект тени, например, приходится рендерить через ОЧЕНЬ большой изврат. Точнее целый набор таких извратов — каждый по случаю.


Еще раз, GPU — это уже далеко не только графика, давно уже существуют технологии GPGPU, то есть general-purpose GPU. На GPU решаются самые разные задачи, от моделирования фолдинга белков до брутфорса паролей. На некоторых задачах сообщается о приросте производительности в несколько сотен раз.
В большинстве случаев конечно поскромнее, например может быть когда-нибудь выйдет-таки моя статья о реализации решения разреженных СЛАУ, там прирост производитеьности на GeForce GTX 260 по сравнению с Q6600 раз в 7, причем думаю это далеко не предел того, что можно из него выжать.

Кэр>Larrabee предоставит возможность общаться со сценой напрямую и это мега-круто. Интел упирает на то, что сцену можно будет рендерить с помощью ray-tracing, а не растеризации. И если будет реально можно — то это кул. И это же будет означать Larrabee only.


Я сейчас точно сказать не могу, но по-моему реализации raytracing на CUDA есть и показывают вполне неплохие результаты.
Re[7]: Закат GPU?
От: CreatorCray  
Дата: 15.07.09 08:21
Оценка:
Здравствуйте, Кэр, Вы писали:

Кэр>Т.е. эффект тени, например, приходится рендерить через ОЧЕНЬ большой изврат. Точнее целый набор таких извратов — каждый по случаю.

Какие именно тени? Насколько я помню что стенсильные что проективные ничего особо извратного в себе не содержат.

Кэр>И это же будет означать Larrabee only.

Для геймдевелопера это означает сильное сужение круга покупателей. Что есть сильно плохо.
... << RSDN@Home 1.1.4 stable SR1 rev. 568>>
Re[5]: Закат GPU?
От: gear nuke  
Дата: 15.07.09 11:07
Оценка: -1 :)
Здравствуйте, Cyberax, Вы писали:

C>Не-не. Ты нифига, значит, не знаешь что происходило в графике. Я перечислил именно качественные прорывы.


ДВС тоже можно называть качественным прорывом по сравнению с паровым котлом, однако для автомобиля это дало только количественуй бонус — меньше размер. А качественно новое транспортное средство получилось добавлением крыльев и пропеллера. Вот так же и те прорывы в GPU — на картинке они не особо отразились. Заявления о кинематографическом качестве я уж и не помню скорлько лет вижу

C>Не умрёт. Сама по себе архитектура GPU другая.


Архитектура CPU тоже не стоит на месте. Самое смешное будет через неск лет, мы посмотрим на это и увидим, что оба правы, но называться это будет всё же CPU

C>NVidia хвасталась, что их современный GPU по мощности равен примерно сотне CPU. Что где-то так и есть, в принципе, если посмотреть на результаты Folding@home.


Мощьность — отличная характеристика, можно посчитать насколько лучше современные GPU обогревают помещение И пример Folding@home тоже очень показателен — вычисления ведутся по сути "в пустую". Нам же важен конечный результат

C>Так с кем ускорители совместимость-то хранят?


Ни с кем, потому и отомрёт, в отличие от FPU.
.
People who are more than casually interested in computers should have at least some idea of what the underlying hardware is like. Otherwise the programs they write will be pretty weird (c) D.Knuth
Re[6]: Закат GPU?
От: Cyberax Марс  
Дата: 15.07.09 14:12
Оценка: +1
Здравствуйте, gear nuke, Вы писали:

C>>Не умрёт. Сама по себе архитектура GPU другая.

GN>Архитектура CPU тоже не стоит на месте. Самое смешное будет через неск лет, мы посмотрим на это и увидим, что оба правы, но называться это будет всё же CPU
Она идёт в другом направлении.

C>>NVidia хвасталась, что их современный GPU по мощности равен примерно сотне CPU. Что где-то так и есть, в принципе, если посмотреть на результаты Folding@home.

GN>Мощьность — отличная характеристика, можно посчитать насколько лучше современные GPU обогревают помещение И пример Folding@home тоже очень показателен — вычисления ведутся по сути "в пустую". Нам же важен конечный результат
Что значит 'ведутся по сути "в пустую"'? У GPU эффективность настолько высокая, что из них кластеры уже строят. На своих задачах они рвут CPU как тузик грелку.
Sapienti sat!
Re[8]: Закат GPU?
От: Кэр  
Дата: 15.07.09 14:52
Оценка:
Здравствуйте, Sergey Chadov, Вы писали:

SC>Еще раз, GPU — это уже далеко не только графика, давно уже существуют технологии GPGPU, то есть general-purpose GPU. На GPU решаются самые разные задачи, от моделирования фолдинга белков до брутфорса паролей. На некоторых задачах сообщается о приросте производительности в несколько сотен раз.


Давайте вы прочитаете статью, которую я привел. Статья поддерживает мою позицию практически по всем направлениям. Если вы начнете возражать аргументации из этой статьи — мы сразу пропустим несколько шагов в этом разговоре.

Конкретно в этом случае:

That's certainly the case with multicore CPUs. To take a simple 10-line sorting algorithm and translate that to run efficiently on a lot of cores requires exploding that to maybe 50 lines of code. You have significant productivity loss as you get into these more advanced architectures, so a key aspect of programmer productivity is to be able to write simple code that runs in parallel. NVIDIA has done some really cool work with CUDA to show that GPUs can actually run code written in a C-subset language. But can we take CUDA's restricted feature set—it doesn't support recursion or function pointers—and can we make that into a full C++ compatible language? There are a lot of open questions there.


Почему вообще смотрят в стороную поддержки полноценного С++ (т.е. речь по сути идет о софтверном рендере — все возвращается на круги своя):

JS: Ah, I see. So DirectX support in products like Larrabee will really be about backwards compatibility, and not so much a forward-looking feature. So then you think that DX10 is really the last gasp of this on the Windows side, in terms of what's actually being used... of course, I guess nobody's really using it right now.

TS: I think DirectX 9 was the last graphics API that really mattered. DirectX 9 was a revolution: completely programmable shaders of unlimited length with full floating-point precision support. Compared with the fixed-function, 8-bit pipeline it replaced, it was revolutionary. Everything since has been incremental, and kind of backward-looking.

So, DirectX 10 takes DirectX 9 and adds some weird fixed-function components on top of it, which fit in a very particular place in the pipeline, and are hard to use. I'm not saying that it's entirely unwarranted, but I think that DirectX 9 was the last game-changing step in the graphics APIs, and the next non-incremental step will be the move back to programming languages.

To take the long-term view of it, in the early 90s, we had the software rendering era—Quake, Doom, Unreal—all the genre-defining games based on software rendering. The next big step was the fixed-function, 8-bit rendering era; it started with 3Dfx Voodoo, and then NVIDIA, through DirectX 8. And then you got into the DirectX 9 era—where the shading pipeline was programmable, but everything else was fixed-function. The next step is just programmable everything, and back to C++.

There, you have four discrete steps that were the really big steps in consumer graphics. I see no more big steps until we're completely software, and I see that happening over the next few years. There's no doubt that's the design behind Larrabee—to enable programmers to do completely custom rendering from the ground up if they want to do that.


SC>В большинстве случаев конечно поскромнее, например может быть когда-нибудь выйдет-таки моя статья о реализации решения разреженных СЛАУ, там прирост производитеьности на GeForce GTX 260 по сравнению с Q6600 раз в 7, причем думаю это далеко не предел того, что можно из него выжать.


В данном случае надо "сравнивать" конечно с Larrabee и для полной честности — с новым поколением GeForce процессоров, которые тоже должны выйти в 2010 году. Но судя по всему оба этих процессора будут по большей части CPU чем GPU в том плане, что они будут fully programmable. Поживем, увидим.

SC>Я сейчас точно сказать не могу, но по-моему реализации raytracing на CUDA есть и показывают вполне неплохие результаты.


Так CUDA — на самом деле это и есть большой шаг в сторону CPU на самом деле. Сейчас там много ограничений — subset of C — это на самом деле грустно. С++ выглядит здесь гораздо более внушительно.
Re[8]: Закат GPU?
От: Кэр  
Дата: 15.07.09 15:09
Оценка: -2
Здравствуйте, CreatorCray, Вы писали:

Кэр>>Т.е. эффект тени, например, приходится рендерить через ОЧЕНЬ большой изврат. Точнее целый набор таких извратов — каждый по случаю.

CC>Какие именно тени? Насколько я помню что стенсильные что проективные ничего особо извратного в себе не содержат.

Если я не ошибаюсь вы довольно частый участник КСВ с аргументацией "в линуксе все то же самое, что и винде". У меня нет никакого желания вести здесь подобную дискуссию относительно степени извратности наложения теней с помощью шейдеров. В софтверном рендере — будет нормальный доступ к сцене и объектам описывающих эту сцену. В текущем графическом pipeline — такой возможности нет. При расчете теней — это очень сильное ограничение. Удастся ли резко здесь улучшить ситуацию с появлением Larrabee — неизвестно, нужно ставить эксперименты и смотреть. Но теоретически — шанс очень хороший.

Кэр>>И это же будет означать Larrabee only.

CC>Для геймдевелопера это означает сильное сужение круга покупателей. Что есть сильно плохо.

Ой да бросьте. Мы же говорим про индустрию развлечений. Будет новый Crysis требовать Larrabee — сразу круг пользователей расшириться очень сильно.
Re[9]: Закат GPU?
От: Sergey Chadov Россия  
Дата: 15.07.09 16:29
Оценка:
Здравствуйте, Кэр, Вы писали:

Кэр>Здравствуйте, Sergey Chadov, Вы писали:


SC>>Еще раз, GPU — это уже далеко не только графика, давно уже существуют технологии GPGPU, то есть general-purpose GPU. На GPU решаются самые разные задачи, от моделирования фолдинга белков до брутфорса паролей. На некоторых задачах сообщается о приросте производительности в несколько сотен раз.


Кэр>Давайте вы прочитаете статью, которую я привел. Статья поддерживает мою позицию практически по всем направлениям. Если вы начнете возражать аргументации из этой статьи — мы сразу пропустим несколько шагов в этом разговоре.


Это все к делу не относится. Дело обстоит так: существует две архитектуры вычислительных устройств, одна из них подразумевает относительно небольшое количество продвинутых процессоров, другая — большое количество процессоров-дебилов. Это грубо говоря, аналогично можно говорить и о памяти итп. Я не вижу никаких предпосылок, почему одна из этих арихтектур может вытеснить другую, поскольку существуют разные задачи, часть из которых объективно лучше(заметно лучше) решается на одной, часть — на другой. Возможно, эти архитектуры сблизятся: GPU станет ближе к CPU хотя бы для гибкости и простоты программироавния, CPU к GPU хотя бы потому, что при большом количестве ядер многие из используемых сейчас схем просто плохореализуемы.

SC>>Я сейчас точно сказать не могу, но по-моему реализации raytracing на CUDA есть и показывают вполне неплохие результаты.


Кэр>Так CUDA — на самом деле это и есть большой шаг в сторону CPU на самом деле. Сейчас там много ограничений — subset of C — это на самом деле грустно.


"subset of C++" вообще-то. В частости, шаблонные функции вполне работают.

Кэр> С++ выглядит здесь гораздо более внушительно.

Да, но чудес не бывает, за простоту программирования всегда приходится расплачиваться.
--
Sergey Chadov

... << RSDN@Home 1.2.0 alpha rev. 685>>
Re: Закат GPU?
От: Ikemefula Беларусь http://blogs.rsdn.org/ikemefula
Дата: 15.07.09 17:51
Оценка: +1
Здравствуйте, Кэр, Вы писали:

Кэр>В связи с тем, что не за горами CPU с 128 и более ядрами — вопрос, а нужны ли тогда будут GPU? Основная фича GPU — их много. Они тупые, умеют считать только шейдеры, но их много и обработка шейдеров хорошо параллелиться. Однако, существует целый паравоз проблем из-за того, что мы имеем отдельный вид процессоров: отдельная память, отдельные инструкции, просто отдельный вид ассемблерных инструкций.


Да, зато имеем ряд преимуществ — GPU на порядок минимум мощнее многоядерного процессора.

Кэр>Так что закономерный вопрос: когда CPU тоже станет очень много — не проще ли будет гонять графику прямо на CPU. Какие причины будут содержать GPU в комплекте? Не пора ли NVidia сворачивать бизнес?


Нет, не пора. Потребности в хорошей графике никогда не бывают достаточными, дашь бОльше CPU(ядер) значит надо дать больше памяти , шире и быстрее шина, и кеш посильне и тд и тд, и после всего этого всех этих ресурсов будет еле-еле хватать на игрушку последнего поколения.

Перформанс не растет линейно из за добавления CPU. Одноядрные CPU уже выдохлись, со временем выдохнутяс и многоядерные в том виде, как они сейчас.

Где взять перформансу — GPU(ну или специлизированые xPU) ! Кстати говоря, некоторые пробуют юзать GPU для ускорения вычислений не связаных с графикой.
Re[9]: Закат GPU?
От: CreatorCray  
Дата: 16.07.09 07:16
Оценка:
Здравствуйте, Кэр, Вы писали:

Кэр>>>Т.е. эффект тени, например, приходится рендерить через ОЧЕНЬ большой изврат. Точнее целый набор таких извратов — каждый по случаю.

CC>>Какие именно тени? Насколько я помню что стенсильные что проективные ничего особо извратного в себе не содержат.

Кэр>Если я не ошибаюсь вы довольно частый участник КСВ с аргументацией "в линуксе все то же самое, что и винде".

Тебе не передать как ты ошибаешься. Вообще считаю сие оскорблением.

Кэр> У меня нет никакого желания вести здесь подобную дискуссию относительно степени извратности наложения теней с помощью шейдеров.

Ты просто алгоритм назови.

Кэр>>>И это же будет означать Larrabee only.

CC>>Для геймдевелопера это означает сильное сужение круга покупателей. Что есть сильно плохо.
Кэр>Ой да бросьте. Мы же говорим про индустрию развлечений. Будет новый Crysis требовать Larrabee — сразу круг пользователей расшириться очень сильно.
Я в этой самой индустрии 4 года до недавнего времени работал.
Так что про зависимость круга пользователей в от системных требований мне рассказывать не надо.
... << RSDN@Home 1.1.4 stable SR1 rev. 568>>
Re[10]: Закат GPU?
От: Кэр  
Дата: 16.07.09 13:58
Оценка:
Здравствуйте, CreatorCray, Вы писали:

Кэр>>>>Т.е. эффект тени, например, приходится рендерить через ОЧЕНЬ большой изврат. Точнее целый набор таких извратов — каждый по случаю.

CC>>>Какие именно тени? Насколько я помню что стенсильные что проективные ничего особо извратного в себе не содержат.
Кэр>>Если я не ошибаюсь вы довольно частый участник КСВ с аргументацией "в линуксе все то же самое, что и винде".
CC>Тебе не передать как ты ошибаешься. Вообще считаю сие оскорблением.

Если ошибаюсь — тогда приношу извинения. Просто я стараюсь избегать дискуссий вида "Опен-офис также хорош как и MS офис" и дальше флейм на 500 страниц с подробным перечислением пунктов меню обоих офисов. В данный момент мне кажется, что разговор уходит в ту же сторону — сейчас мы выберем пару алгоритмов рендеринга теней, на базе которых будем утверждать, что доступ к сцене, например, при рендеринге теней вообще не особо нужен.

CC>Я в этой самой индустрии 4 года до недавнего времени работал.

CC>Так что про зависимость круга пользователей в от системных требований мне рассказывать не надо.

Мощно. Авторитетно. Т.е. толпа народа не покупала топовые карточки, чтобы только в Crysis побегать?
Re[10]: Закат GPU?
От: Кэр  
Дата: 16.07.09 14:17
Оценка:
Здравствуйте, Sergey Chadov, Вы писали:

SC>>>Еще раз, GPU — это уже далеко не только графика, давно уже существуют технологии GPGPU, то есть general-purpose GPU. На GPU решаются самые разные задачи, от моделирования фолдинга белков до брутфорса паролей. На некоторых задачах сообщается о приросте производительности в несколько сотен раз.


Кэр>>Давайте вы прочитаете статью, которую я привел. Статья поддерживает мою позицию практически по всем направлениям. Если вы начнете возражать аргументации из этой статьи — мы сразу пропустим несколько шагов в этом разговоре.


SC>Это все к делу не относится.


Может сразу стоит зафиксировать, о чем моя позиция — я говорю именно про использование GPU в игровой индустрии. Потому что если GPU в текущем виде не будут больше использоваться в game dev — то я считаю это закатом GPU. Биологи могут строить кластеры и писать вычисления на чем угодно. Если GPU уходят из game dev'а — то все остальные применения GPU — это капля в море.
И если при достаточном качестве картинки разработка игр под Larrabee вдруг будет стоить $1 mln вместо $10 mln — то игры будут выпускаться под Larrabee. Никого не будет волновать, что если сесть и напрячься, то можно вытянуть чуть побольше текстурок на обычных GPU. Это просто не стоит 9-ти миллионов.

SC>Дело обстоит так: существует две архитектуры вычислительных устройств, одна из них подразумевает относительно небольшое количество продвинутых процессоров, другая — большое количество процессоров-дебилов. Это грубо говоря, аналогично можно говорить и о памяти итп. Я не вижу никаких предпосылок, почему одна из этих арихтектур может вытеснить другую, поскольку существуют разные задачи, часть из которых объективно лучше(заметно лучше) решается на одной, часть — на другой. Возможно, эти архитектуры сблизятся: GPU станет ближе к CPU хотя бы для гибкости и простоты программироавния, CPU к GPU хотя бы потому, что при большом количестве ядер многие из используемых сейчас схем просто плохореализуемы.


Предпосылки вытеснения архитектуры, о которых я говорю конкретно для задач разработки игр — пока CPU рос вверх была ниша специальных процессоров. Они были относительное простые и их можно было сделать относительно много (больше чем CPU) и которые ускоряли конкретное софтверное решение рендеринга изображений изобретенное 25 лет назад. Это вовсе не означает, что это единственный способ, как можно рендерить изображение. Просто это способ, который умеют ускорять текущие GPU. Так вот пока CPU рос только вверх — ниша была гарантированна для подобных решений. Как только CPU достигли верхнего потолка и начали расти вширь — над текущим видом GPU навис большой такой меч. Просто потому что CPU предлагают модель, под которую разработывать будет гораздо проще.

SC>>>Я сейчас точно сказать не могу, но по-моему реализации raytracing на CUDA есть и показывают вполне неплохие результаты.

Кэр>>Так CUDA — на самом деле это и есть большой шаг в сторону CPU на самом деле. Сейчас там много ограничений — subset of C — это на самом деле грустно.
SC>"subset of C++" вообще-то. В частости, шаблонные функции вполне работают.

Шаблонные функции особенно в контексте отсутствия классов — это по сути макросы find&replace. Не достаточно чтобы можно было назвать CUDA subset of C++. Да и не так это важно — так как Larrabee будет исполнять x86 инструкции. Это означает, что у нас в руках огромное количество языков, которые будут исполняться на Larabee, а не один одинокий CUDA.

Кэр>> С++ выглядит здесь гораздо более внушительно.

SC>Да, но чудес не бывает, за простоту программирования всегда приходится расплачиваться.

Чудес не бывает. Но и простота и свобода реализации стоят очень многого.
Re[11]: Закат GPU?
От: CreatorCray  
Дата: 16.07.09 14:39
Оценка:
Здравствуйте, Кэр, Вы писали:

Кэр>Если ошибаюсь — тогда приношу извинения. Просто я стараюсь избегать дискуссий вида "Опен-офис также хорош как и MS офис" и дальше флейм на 500 страниц с подробным перечислением пунктов меню обоих офисов. В данный момент мне кажется, что разговор уходит в ту же сторону — сейчас мы выберем пару алгоритмов рендеринга теней, на базе которых будем утверждать, что доступ к сцене, например, при рендеринге теней вообще не особо нужен.

Опять мимо. Мне интересно было что это был за алгоритм, поскольку два мне известных под описание не подходят.

CC>>Я в этой самой индустрии 4 года до недавнего времени работал.

CC>>Так что про зависимость круга пользователей в от системных требований мне рассказывать не надо.
Кэр>Мощно. Авторитетно. Т.е. толпа народа не покупала топовые карточки, чтобы только в Crysis побегать?
Как ты думаешь, сколько толпа гиков будет в процентах от толпы, всех тех, кто купил Crysis?
... << RSDN@Home 1.1.4 stable SR1 rev. 568>>
Re[12]: Закат GPU?
От: Кэр  
Дата: 17.07.09 05:16
Оценка:
Здравствуйте, CreatorCray, Вы писали:

Кэр>>Если ошибаюсь — тогда приношу извинения. Просто я стараюсь избегать дискуссий вида "Опен-офис также хорош как и MS офис" и дальше флейм на 500 страниц с подробным перечислением пунктов меню обоих офисов. В данный момент мне кажется, что разговор уходит в ту же сторону — сейчас мы выберем пару алгоритмов рендеринга теней, на базе которых будем утверждать, что доступ к сцене, например, при рендеринге теней вообще не особо нужен.

CC>Опять мимо. Мне интересно было что это был за алгоритм, поскольку два мне известных под описание не подходят.

Под какое описание они не подходят? Они сделаны специально так чтобы прыгать вокруг GPU железа. В частности в стенсильных тенях (shadow volume видимо которые) есть четкая проблема — грани теней слишком резкие. Потому что как раз нельзя сделать вторичный запрос к сцене из шейдера.
Вот пример таких теней из DOOM3. Имхо, тени тошнотворные и нифига не реалистичные.
http://en.wikipedia.org/wiki/File:Doom3shadows.jpg

Кэр>>Мощно. Авторитетно. Т.е. толпа народа не покупала топовые карточки, чтобы только в Crysis побегать?

CC>Как ты думаешь, сколько толпа гиков будет в процентах от толпы, всех тех, кто купил Crysis?

Я вижу как продажи эксклюзивов на консолях бустят продажи. Думаю что здесь тоже можно применять подобный подход. Остальные втянуться. Лишь бы платформа получилась удобная. Как только можно будет опять софтверный рендер делать на уровне текущих рендереров — обратно дороги не будет.
Re[13]: Закат GPU?
От: CreatorCray  
Дата: 17.07.09 08:47
Оценка:
Здравствуйте, Кэр, Вы писали:

Кэр>>>Если ошибаюсь — тогда приношу извинения. Просто я стараюсь избегать дискуссий вида "Опен-офис также хорош как и MS офис" и дальше флейм на 500 страниц с подробным перечислением пунктов меню обоих офисов. В данный момент мне кажется, что разговор уходит в ту же сторону — сейчас мы выберем пару алгоритмов рендеринга теней, на базе которых будем утверждать, что доступ к сцене, например, при рендеринге теней вообще не особо нужен.

CC>>Опять мимо. Мне интересно было что это был за алгоритм, поскольку два мне известных под описание не подходят.
Кэр>Под какое описание они не подходят?
Под алгоритм, который требует обращений ко всей сцене при отрисовке тени.
Просто название скажи, мне интересно.

Кэр> Они сделаны специально так чтобы прыгать вокруг GPU железа.

Разумеется. А программы написанные под х86 написаны специально чтоб прыгать вокруг CPU железа.

Кэр>Вот пример таких теней из DOOM3. Имхо, тени тошнотворные и нифига не реалистичные.

Кэр>http://en.wikipedia.org/wiki/File:Doom3shadows.jpg
Нормальные стенсильные тени
Зубчатые проективные выглядят не лучше.
Для реалистичных реалтайм теней (да еще и с учетом переотражений) сильно дофига расчетов надо.

Кэр>>>Мощно. Авторитетно. Т.е. толпа народа не покупала топовые карточки, чтобы только в Crysis побегать?

CC>>Как ты думаешь, сколько толпа гиков будет в процентах от толпы, всех тех, кто купил Crysis?
Кэр>Я вижу как продажи эксклюзивов на консолях бустят продажи.
Консоль это жёстко фиксированное железо и жесткие требования к performance и даже времени запуска игры/загрузки уровня.
Какое отношение консоли имеют к покупке топовых карточек?
... << RSDN@Home 1.1.4 stable SR1 rev. 568>>
Re[2]: Закат GPU?
От: badcoder  
Дата: 17.07.09 09:40
Оценка:
Здравствуйте, Sergey Chadov, Вы писали:

SC>Без шансов, у GPU есть объективные преимущества, которые позволяют на определенном классе алгоритмов давать существенный прирост производительности. И если сделают 128-ядерный CPU, то можно сделать и какой-нибудь 16384-ядерный GPU.



Дайте-ка я сморожу, GPU ведь считает на float (страдает точность)? Или я уже отстал?
Подождите ...
Wait...
Пока на собственное сообщение не было ответов, его можно удалить.