Re[8]: Закат GPU?
От: IID Россия  
Дата: 17.07.09 09:43
Оценка:
Здравствуйте, Cyberax, Вы писали:

C>Меня после умножения Карацубы уже ничем не удивить


Кстати, умножение через таблицы квадратов использовалось в ранних компьютерных играх. Т.к. в те годы популярные процессоры домашних машин не имели команд умножения (Z-80, 6502, или же оно было медленным. Например, в культовой игре тех лет — Elite используется как раз такой метод. Для точного знакового/беззнакового умножения 8бит х 8бит == 16бит достаточно таблички всего в 1кб, двух команд косвенной адресации, и одного 16битного вычитания. Что вполне по силам домашним компьютерам тех лет.
kalsarikännit
Re[3]: Закат GPU?
От: CreatorCray  
Дата: 17.07.09 11:19
Оценка:
Здравствуйте, badcoder, Вы писали:

B>Дайте-ка я сморожу, GPU ведь считает на float (страдает точность)? Или я уже отстал?

Отстал чуток
Есть int, float и double
... << RSDN@Home 1.1.4 stable SR1 rev. 568>>
Re[3]: Закат GPU?
От: Sergey Chadov Россия  
Дата: 17.07.09 13:05
Оценка:
Здравствуйте, badcoder, Вы писали:

B>Здравствуйте, Sergey Chadov, Вы писали:


SC>>Без шансов, у GPU есть объективные преимущества, которые позволяют на определенном классе алгоритмов давать существенный прирост производительности. И если сделают 128-ядерный CPU, то можно сделать и какой-нибудь 16384-ядерный GPU.



B>Дайте-ка я сморожу, GPU ведь считает на float (страдает точность)? Или я уже отстал?


Во-первых, многим задачам на это наплевать, а в некоторых, которым не наплевать, можно выкрутиться . Во-вторых, считает уже и double, но очень хреново, поэтому все равно все считают во float. Ну так никто не идеален
--
Sergey Chadov

... << RSDN@Home 1.2.0 alpha rev. 685>>
Re[14]: Закат GPU?
От: Кэр  
Дата: 17.07.09 14:08
Оценка: :)))
Здравствуйте, CreatorCray, Вы писали:

Кэр>>Под какое описание они не подходят?

CC>Под алгоритм, который требует обращений ко всей сцене при отрисовке тени.
CC>Просто название скажи, мне интересно.

Вам нужен именнованный алгоритм, работающий на процессоре, который еще не вышел? Мне интересно зачем? Если вы не можете придумать вообще никакого алгоритма и вам нужно вообще хоть что-нибудь — при рендеринге тех же shadow volume теней — пробежаться по массиву пиксейлей подготовленных для рендеринга и навести blur эффект только на границы теней. В софтверном рендерере это будет возможно. Более того из-за локальности доступа (интересуют только соседи) и небольшого количества данных (интересуют только те пиксели, что должны попасть на экран) — это должно работать весьма шустро.

Кэр>> Они сделаны специально так чтобы прыгать вокруг GPU железа.

CC>Разумеется. А программы написанные под х86 написаны специально чтоб прыгать вокруг CPU железа.

Площадка для прыжков больше на сотни порядков. Никто не заставляет крутиться в рамках graphical pipeline придуманной более 20 лет назад.

CC>Для реалистичных реалтайм теней (да еще и с учетом переотражений) сильно дофига расчетов надо.


Да нет, надо всего-то получить побольше свободы в действиях и в определении того как это будет рендериться. Это область неизведанная. Не было еще такого количества CPU да еще и с векторными инструкциями собранных под одной крышей.

Кэр>>Я вижу как продажи эксклюзивов на консолях бустят продажи.

CC>Консоль это жёстко фиксированное железо и жесткие требования к performance и даже времени запуска игры/загрузки уровня.
CC>Какое отношение консоли имеют к покупке топовых карточек?

Они показывают пример, как наличие эксклюзивного софта может бустить продажи определенного hardware. Я не знаю, что там в Интел происходит, но будь я на их месте — я бы тесно сотрудничал с парой-тройкой ведущих гейм-дев компаний с целью выпуска чего-нибудь яркого на Larrabee к моменту выпуска. При условии, если Larrabee будет тянуть все современные игры и наличии таких эксклюзивов — буст продаж должен быть хороший.
Re[3]: а как же Larrabee?
От: thesz Россия http://thesz.livejournal.com
Дата: 20.07.09 08:53
Оценка:
Здравствуйте, minorlogic, Вы писали:

M>Здравствуйте, thesz, Вы писали:


T>>На компиляции с помощью одного ядра современный Core 2 будет рвать Лараби, как Тузик грелку.


M>Это очевидно, но в том то и дело что ядер будет много.


Компиляция плохо распараллеливается (на coarse grained parallelism, как в Лараби).
Yours truly, Serguey Zefirov (thesz NA mail TOCHKA ru)
Re[11]: Закат GPU?
От: thesz Россия http://thesz.livejournal.com
Дата: 20.07.09 10:42
Оценка: +1
Кэр>Шаблонные функции особенно в контексте отсутствия классов — это по сути макросы find&replace. Не достаточно чтобы можно было назвать CUDA subset of C++.

Примитив соединения двух векторов:
vector<T,LA+LB> concat(vector<T,LA>, vector<T,LB>).

Кэр>Да и не так это важно — так как Larrabee будет исполнять x86 инструкции. Это означает, что у нас в руках огромное количество языков, которые будут исполняться на Larabee, а не один одинокий CUDA.


x86 в контексте Лараби означает очень низкую производительность.
Yours truly, Serguey Zefirov (thesz NA mail TOCHKA ru)
Re[2]: Закат GPU?
От: thesz Россия http://thesz.livejournal.com
Дата: 20.07.09 10:50
Оценка: -1 :)
Кэр>>В связи с тем, что не за горами CPU с 128 и более ядрами — вопрос, а нужны ли тогда будут GPU? Основная фича GPU — их много. Они тупые, умеют считать только шейдеры, но их много и обработка шейдеров хорошо параллелиться. Однако, существует целый паравоз проблем из-за того, что мы имеем отдельный вид процессоров: отдельная память, отдельные инструкции, просто отдельный вид ассемблерных инструкций.
I>Да, зато имеем ряд преимуществ — GPU на порядок минимум мощнее многоядерного процессора.

На каких задачах?

I>Нет, не пора. Потребности в хорошей графике никогда не бывают достаточными, дашь бОльше CPU(ядер) значит надо дать больше памяти , шире и быстрее шина, и кеш посильне и тд и тд, и после всего этого всех этих ресурсов будет еле-еле хватать на игрушку последнего поколения.

I>Перформанс не растет линейно из за добавления CPU. Одноядрные CPU уже выдохлись, со временем выдохнутяс и многоядерные в том виде, как они сейчас.

http://wavescalar.cs.washington.edu/
http://en.wikipedia.org/wiki/Explicit_Data_Graph_Execution#EDGE

У любой технологии есть свои пределы. Так что "выдохнуться и многоядерные" не несёт собого смысла.

I>Где взять перформансу — GPU(ну или специлизированые xPU) ! Кстати говоря, некоторые пробуют юзать GPU для ускорения вычислений не связаных с графикой.


Если бы это было выгодно (по затраченным на сборку, поддержку и программирование усилиям), то IBM бы давно потеряла все контракты на суперкомпьютеры.
Yours truly, Serguey Zefirov (thesz NA mail TOCHKA ru)
Re[3]: Закат GPU?
От: Ikemefula Беларусь http://blogs.rsdn.org/ikemefula
Дата: 20.07.09 12:26
Оценка:
Здравствуйте, thesz, Вы писали:

Кэр>>>В связи с тем, что не за горами CPU с 128 и более ядрами — вопрос, а нужны ли тогда будут GPU? Основная фича GPU — их много. Они тупые, умеют считать только шейдеры, но их много и обработка шейдеров хорошо параллелиться. Однако, существует целый паравоз проблем из-за того, что мы имеем отдельный вид процессоров: отдельная память, отдельные инструкции, просто отдельный вид ассемблерных инструкций.

I>>Да, зато имеем ряд преимуществ — GPU на порядок минимум мощнее многоядерного процессора.

T>На каких задачах?


Обработка графической информации.

I>>Где взять перформансу — GPU(ну или специлизированые xPU) ! Кстати говоря, некоторые пробуют юзать GPU для ускорения вычислений не связаных с графикой.


T>Если бы это было выгодно (по затраченным на сборку, поддержку и программирование усилиям), то IBM бы давно потеряла все контракты на суперкомпьютеры.


GPU не избавляют от необходимости иметь супер-компьютеры.
Re[4]: Закат GPU?
От: thesz Россия http://thesz.livejournal.com
Дата: 20.07.09 12:48
Оценка: +1
Здравствуйте, Ikemefula, Вы писали:

I>Здравствуйте, thesz, Вы писали:


Кэр>>>>В связи с тем, что не за горами CPU с 128 и более ядрами — вопрос, а нужны ли тогда будут GPU? Основная фича GPU — их много. Они тупые, умеют считать только шейдеры, но их много и обработка шейдеров хорошо параллелиться. Однако, существует целый паравоз проблем из-за того, что мы имеем отдельный вид процессоров: отдельная память, отдельные инструкции, просто отдельный вид ассемблерных инструкций.

I>>>Да, зато имеем ряд преимуществ — GPU на порядок минимум мощнее многоядерного процессора.

T>>На каких задачах?

I>Обработка графической информации.

А на физике? Хотя бы игровой. Там оно как?

I>>>Где взять перформансу — GPU(ну или специлизированые xPU) ! Кстати говоря, некоторые пробуют юзать GPU для ускорения вычислений не связаных с графикой.

T>>Если бы это было выгодно (по затраченным на сборку, поддержку и программирование усилиям), то IBM бы давно потеряла все контракты на суперкомпьютеры.
I>GPU не избавляют от необходимости иметь супер-компьютеры.

А почему?
Yours truly, Serguey Zefirov (thesz NA mail TOCHKA ru)
Re[5]: Закат GPU?
От: Ikemefula Беларусь http://blogs.rsdn.org/ikemefula
Дата: 20.07.09 12:55
Оценка:
Здравствуйте, thesz, Вы писали:

Кэр>>>>>В связи с тем, что не за горами CPU с 128 и более ядрами — вопрос, а нужны ли тогда будут GPU? Основная фича GPU — их много. Они тупые, умеют считать только шейдеры, но их много и обработка шейдеров хорошо параллелиться. Однако, существует целый паравоз проблем из-за того, что мы имеем отдельный вид процессоров: отдельная память, отдельные инструкции, просто отдельный вид ассемблерных инструкций.

I>>>>Да, зато имеем ряд преимуществ — GPU на порядок минимум мощнее многоядерного процессора.

T>>>На каких задачах?

I>>Обработка графической информации.

T>А на физике? Хотя бы игровой. Там оно как?


Понемногу осваивается. Кроме того, есть GPGPU которая помогает ускорять многие вещи и разгрузить CPU.

I>>>>Где взять перформансу — GPU(ну или специлизированые xPU) ! Кстати говоря, некоторые пробуют юзать GPU для ускорения вычислений не связаных с графикой.

T>>>Если бы это было выгодно (по затраченным на сборку, поддержку и программирование усилиям), то IBM бы давно потеряла все контракты на суперкомпьютеры.
I>>GPU не избавляют от необходимости иметь супер-компьютеры.

T>А почему?


Потому что задачи и требования другие.
Re[2]: Закат GPU?
От: VGn Россия http://vassilsanych.livejournal.com
Дата: 20.07.09 13:12
Оценка:
Кэр>>Так что закономерный вопрос: когда CPU тоже станет очень много — не проще ли будет гонять графику прямо на CPU. Какие причины будут содержать GPU в комплекте? Не пора ли NVidia сворачивать бизнес?

M>На мой взгляд , тут идет сближение с обоих сторон. GPU учаться новым командам, ветвления и т.п. а CPU наращивают мускулы. Близится их соединение.


Подобное давно уже есть. Процессор Cell — именно соединение управляющего процессора с несколькими потоковыми.
Sony не жалуется.
... << RSDN@Home 1.2.0 alpha 4 rev. 1233>>
Re[2]: Закат GPU?
От: VGn Россия http://vassilsanych.livejournal.com
Дата: 20.07.09 13:29
Оценка:
AF>А я подозреваю, что намного ближе закат x86 CPU Архитектура плохо приспособлена для паралеллизма, чем больше ядер — тем меньше выигрыш и больше накладные расходы на синхронизацию. 4-ядерники в массовой продаже уже несколько лет, а программ которые могут использовать столько ядер — можно на пальцах пересчитать. И выигрыш они дают далеко не 4-кратный.

Ну PowerPC они вроде порвали причём на старте, если считать стартом освобождение IBM от ограничений лицензии.
Sun тоже еле движется со своим троглодитом.
Cell пока не очень популярен ибо сильно потоковый.

ИМХО скорее у интела получится снизить затраты на синхронизацию (или какие там ещё проблемы), чем конкурентам сделать что-то круче.
... << RSDN@Home 1.2.0 alpha 4 rev. 1233>>
Re[6]: Закат GPU?
От: thesz Россия http://thesz.livejournal.com
Дата: 20.07.09 13:36
Оценка:
Здравствуйте, Ikemefula, Вы писали:

I>Здравствуйте, thesz, Вы писали:


Кэр>>>>>>В связи с тем, что не за горами CPU с 128 и более ядрами — вопрос, а нужны ли тогда будут GPU? Основная фича GPU — их много. Они тупые, умеют считать только шейдеры, но их много и обработка шейдеров хорошо параллелиться. Однако, существует целый паравоз проблем из-за того, что мы имеем отдельный вид процессоров: отдельная память, отдельные инструкции, просто отдельный вид ассемблерных инструкций.

I>>>>>Да, зато имеем ряд преимуществ — GPU на порядок минимум мощнее многоядерного процессора.

T>>>>На каких задачах?

I>>>Обработка графической информации.
T>>А на физике? Хотя бы игровой. Там оно как?
I>Понемногу осваивается. Кроме того, есть GPGPU которая помогает ускорять многие вещи и разгрузить CPU.

И какие же вещи они, эти магические GPU, ускоряют?

(физика интересна вот, почему: решение "в лоб" приводит к необходимости решения задачи LCP, плохо решаемый без out-of-order, но можно брать очень маленький шаг времени — ~0,001 секунды и меньше, — и тогда можно не решать LCP, поскольку ошибка будет мала. прямой размен производительности на простоту программирования.)

I>>>GPU не избавляют от необходимости иметь супер-компьютеры.

T>>А почему?
I>Потому что задачи и требования другие.

И какие же?
Yours truly, Serguey Zefirov (thesz NA mail TOCHKA ru)
Re[6]: Закат GPU?
От: VGn Россия http://vassilsanych.livejournal.com
Дата: 20.07.09 13:46
Оценка:
WH>>>Лучше так: Много ли есть задач для которых нет эффективных параллельных алгоритмов?
CC>>"Ты не поверишь!" (С)
WH>Огласите весь список пожалуйста.

И отфильтруйте по тем задачам, которые могут подвесить по производительности ядро процессора ну допустим i7-950 допустим на пару секунд.
... << RSDN@Home 1.2.0 alpha 4 rev. 1233>>
Re[2]: Закат GPU?
От: VGn Россия http://vassilsanych.livejournal.com
Дата: 20.07.09 14:03
Оценка:
Л>Графические процессоры ближе к той архитектуре, которой следовало бы быть у компьютеров. А следовало бы не иметь разделения на процессор и память вообще. Т. е. выполнять операции с числами должна сама память. Разумеется, с возможностью параллелизма на всю свою ёмкость. Также, она должна программироваться на создание определённой структуры передачи и обработки потоков информации.

Ты проектировал процессоры? Или так, мысль вслух вшептнул?
... << RSDN@Home 1.2.0 alpha 4 rev. 1233>>
Re[6]: Закат GPU?
От: WinterMute Россия http://yarrr.ru
Дата: 20.07.09 14:33
Оценка: -1 :))
WH>>>Лучше так: Много ли есть задач для которых нет эффективных параллельных алгоритмов?
CC>>"Ты не поверишь!" (С)
WH>Огласите весь список пожалуйста.

Первое что приходит на ум: поиск в отсортированнном массиве. Не такая уж редкая задача.
Re[4]: а как же Larrabee?
От: Andrei F.  
Дата: 20.07.09 15:04
Оценка:
Здравствуйте, thesz, Вы писали:

T>Компиляция плохо распараллеливается (на coarse grained parallelism, как в Лараби).


Каждому ядру — по файлу исходника, и пусть компилируют.
... << RSDN@Home 1.2.0 alpha 4 rev. 1111>>
Re[7]: Закат GPU?
От: Ikemefula Беларусь http://blogs.rsdn.org/ikemefula
Дата: 20.07.09 19:12
Оценка:
Здравствуйте, thesz, Вы писали:

I>>>>Обработка графической информации.

T>>>А на физике? Хотя бы игровой. Там оно как?
I>>Понемногу осваивается. Кроме того, есть GPGPU которая помогает ускорять многие вещи и разгрузить CPU.

T>И какие же вещи они, эти магические GPU, ускоряют?


Это не магические GPU. Это обычные специализированые процессоры.

http://www.gpgpu.ru/

I>>>>GPU не избавляют от необходимости иметь супер-компьютеры.

T>>>А почему?
I>>Потому что задачи и требования другие.

T>И какие же?


В основном моделирование различных процессов, мега-вычисления различные
при чем, кстати говоря!, многие суперкомпьютеры построены на GPU, которыми управляют обычные СPU. В итоге можно в системе размером с настольный ПК выжать производительность минимум на порядок и даже два выше обычного ПК такого же размера.
Re[5]: а как же Larrabee?
От: thesz Россия http://thesz.livejournal.com
Дата: 20.07.09 20:00
Оценка:
Здравствуйте, Andrei F., Вы писали:

AF>Здравствуйте, thesz, Вы писали:


T>>Компиляция плохо распараллеливается (на coarse grained parallelism, как в Лараби).


AF>Каждому ядру — по файлу исходника, и пусть компилируют.


Значительное время в компиляции C++ занимает разбор, который — в случае gcc, — параллелизуется плохо.

И там на каждом ядре будет по копии всего синтаксического дерева всего проекта, ты не подумал об этом?
Yours truly, Serguey Zefirov (thesz NA mail TOCHKA ru)
Re[8]: Закат GPU?
От: thesz Россия http://thesz.livejournal.com
Дата: 20.07.09 20:03
Оценка:
Здравствуйте, Ikemefula, Вы писали:

I>Здравствуйте, thesz, Вы писали:


I>>>>>Обработка графической информации.

T>>>>А на физике? Хотя бы игровой. Там оно как?
I>>>Понемногу осваивается. Кроме того, есть GPGPU которая помогает ускорять многие вещи и разгрузить CPU.

T>>И какие же вещи они, эти магические GPU, ускоряют?

I>Это не магические GPU. Это обычные специализированые процессоры.

И какие же вещи они, эти магические обычные специализированные процессоры, ускоряют?

I>http://www.gpgpu.ru/


Перечисли, пожалуйста. А то я не понимаю, что ускоряется с помощью CUDA, а что с помощью OpenCL.

I>>>>>GPU не избавляют от необходимости иметь супер-компьютеры.

T>>>>А почему?
I>>>Потому что задачи и требования другие.
T>>И какие же?
I>В основном моделирование различных процессов, мега-вычисления различные
I>при чем, кстати говоря!, многие суперкомпьютеры построены на GPU, которыми управляют обычные СPU.

Как много таких в Top500?

I>В итоге можно в системе размером с настольный ПК выжать производительность минимум на порядок и даже два выше обычного ПК такого же размера.


На каких задачах? С числами какой точности?
Yours truly, Serguey Zefirov (thesz NA mail TOCHKA ru)
Подождите ...
Wait...
Пока на собственное сообщение не было ответов, его можно удалить.