Re[14]: Закат GPU?
От: thesz Россия http://thesz.livejournal.com
Дата: 12.08.09 19:23
Оценка:
Здравствуйте, Erop, Вы писали:

E>Здравствуйте, CreatorCray, Вы писали:


CC>>Например там нельзя никак сделать полноценную рекурсию, т.к. нету стека

E>Ну и фиг с ней. Кому она нужна на тех задачах? Там вообще ветвиться сильно стрёмно...

Трассировка лучей.

Глобальное освещение.

CC>>железо ж изначально затачивалось под конкретные задачи растеризации графики.

E>Ну там ограничения внеязыковой характер носят. Скорее некоторые алгоритмы запрещены, чем какие-то С++ конструкции...

Запрещены интересные алгоритмы.
Yours truly, Serguey Zefirov (thesz NA mail TOCHKA ru)
Re[15]: Закат GPU?
От: Cyberax Марс  
Дата: 12.08.09 19:25
Оценка:
Здравствуйте, thesz, Вы писали:

E>>Ну и фиг с ней. Кому она нужна на тех задачах? Там вообще ветвиться сильно стрёмно...

T>Трассировка лучей.
NVidia таки выпустила какой-то SDK с трассировкой. Значит, как-то забороли.
Sapienti sat!
Re[15]: Закат GPU?
От: Erop Россия  
Дата: 12.08.09 19:53
Оценка:
Здравствуйте, thesz, Вы писали:

T>Трассировка лучей.

T>Глобальное освещение.
T>Запрещены интересные алгоритмы.

Это всё никак не специфично для С++
Все эмоциональные формулировки не соотвествуют действительному положению вещей и приведены мной исключительно "ради красного словца". За корректными формулировками и неискажённым изложением идей, следует обращаться к их автором или воспользоваться поиском
Re: Закат GPU?
От: Andrei F.  
Дата: 01.10.09 13:33
Оценка: 7 (1)
Здравствуйте, Кэр, Вы писали:

Кэр>В связи с тем, что не за горами CPU с 128 и более ядрами — вопрос, а нужны ли тогда будут GPU? Основная фича GPU — их много. Они тупые, умеют считать только шейдеры, но их много и обработка шейдеров хорошо параллелиться. Однако, существует целый паравоз проблем из-за того, что мы имеем отдельный вид процессоров: отдельная память, отдельные инструкции, просто отдельный вид ассемблерных инструкций.

Кэр>Так что закономерный вопрос: когда CPU тоже станет очень много — не проще ли будет гонять графику прямо на CPU. Какие причины будут содержать GPU в комплекте? Не пора ли NVidia сворачивать бизнес?

Нет особой разницы какой там набор инструкций, если программист пишет на языке высокого уровня.
А тем временем, nVidia заявляет в своей новой видеокарте поддержку С++ http://www.geeks3d.com/20090930/nvidia-gt300-has-512-cores-and-supports-c/
... << RSDN@Home 1.2.0 alpha 4 rev. 1111>>
Re: more and more cores!
От: Golovach Ivan Украина http://kharkovitcourses.blogspot.com
Дата: 12.11.09 22:07
Оценка:
Здравствуйте, Кэр, Вы писали:

Кэр>В связи с тем, что не за горами CPU с 128 и более ядрами — вопрос, а нужны ли тогда будут GPU? Основная фича GPU — их много. Они тупые, умеют считать только шейдеры, но их много и обработка шейдеров хорошо параллелиться. Однако, существует целый паравоз проблем из-за того, что мы имеем отдельный вид процессоров: отдельная память, отдельные инструкции, просто отдельный вид ассемблерных инструкций.

Кэр>Так что закономерный вопрос: когда CPU тоже станет очень много — не проще ли будет гонять графику прямо на CPU. Какие причины будут содержать GPU в комплекте? Не пора ли NVidia сворачивать бизнес?

Radeon HD 5900: оружие против Fermi выйдет в конце ноября — http://kharkovconcurrencygroup.blogspot.com/2009/10/radeon-hd-5900-fermi.html
Собственно "Radeon HD 5900: оружие против Fermi выйдет в конце ноября". — http://www.3dnews.ru/news/radeon_hd_5900_oruzhie_protiv_fermi_viidet_v_kontse_noyabrya/
Цитаты:
"Поскольку ускорители Radeon HD 5950 и HD 5970 по сути являются сдвоенными версиями Radeon HD 5850 и HD 5870, логично предположить, что в распоряжении первого имеется 2880 универсальных потоковых процессоров, в распоряжении второго — 3200."
Похоже, Radeon-ATI-AMD пока ставят на кол-во процессоров, а не на распространение среди разработчиков (как CUDA-Fermi-nVidia(http://www.nvidia.com/object/fermi_architecture.html)). Хотя OpenCL уже поддерживают.
P.S. Ощущение, что настольные системы буквально "мгновенно" проскочат 1TFlop и приблизятся к 1PetaFlop (10^15 FLoating-point OPerations per second).
P.P.S. Ведь Radeon использует CrossFire(http://en.wikipedia.org/wiki/ATI_CrossFire), следовательно их можно вставлять по 4 в материнку, следовательно — !!!12.800!!! потоковых ядер в системе.
-----
у ATI — 12.800 будет в течении 1-2 лет
у Intel с ее Terraflop Research Chip будет 80 ядер лет через 3-4
как бы 2 порядка.
concurrency многопоточность
Re[2]: more and more cores!
От: Silver_s Ниоткуда  
Дата: 25.11.09 16:24
Оценка: +3
Здравствуйте, Golovach Ivan, Вы писали:
GI>Похоже, Radeon-ATI-AMD пока ставят на кол-во процессоров, а не на распространение среди разработчиков (как CUDA-Fermi-nVidia(http://www.nvidia.com/object/fermi_architecture.html)). Хотя OpenCL уже поддерживают.

Они Bulldozer делают. Обещают что когда сделают в 2011, мало не покажется. В одном кристалле, и GPU и CPU без медленной шины.

В ближайшие 3-4 года скорее всего бардак будет с паралельными вычислениями на настольных ПК. Потом какой нибудь стандарт примут.
Тут главное не сколько процессоров и не на каком языке программы писать (Cuda,c++,..). А какая архитектура окажется оптимальнее для каких задач. Пока все планируют разное(AMD,NVidia,Intel)
Сейчас даже на 2-4 ядрах не так то просто соптимизировать.
Re[9]: Закат GPU?
От: Turyst  
Дата: 25.11.09 16:30
Оценка: -1
Здравствуйте, thesz, Вы писали:

T>Здравствуйте, Ikemefula, Вы писали:


I>>Здравствуйте, thesz, Вы писали:


I>>>>>>Обработка графической информации.

T>>>>>А на физике? Хотя бы игровой. Там оно как?
I>>>>Понемногу осваивается. Кроме того, есть GPGPU которая помогает ускорять многие вещи и разгрузить CPU.

T>>>И какие же вещи они, эти магические GPU, ускоряют?

I>>Это не магические GPU. Это обычные специализированые процессоры.

T>И какие же вещи они, эти магические обычные специализированные процессоры, ускоряют?


I>>http://www.gpgpu.ru/


T>Перечисли, пожалуйста. А то я не понимаю, что ускоряется с помощью CUDA, а что с помощью OpenCL.


I>>>>>>GPU не избавляют от необходимости иметь супер-компьютеры.

T>>>>>А почему?
I>>>>Потому что задачи и требования другие.
T>>>И какие же?
I>>В основном моделирование различных процессов, мега-вычисления различные
I>>при чем, кстати говоря!, многие суперкомпьютеры построены на GPU, которыми управляют обычные СPU.

T>Как много таких в Top500?


I>>В итоге можно в системе размером с настольный ПК выжать производительность минимум на порядок и даже два выше обычного ПК такого же размера.


T>На каких задачах? С числами какой точности?


PhysX как раз щитает на GPU если есть возможность.
Re[8]: Закат GPU?
От: Mystic Украина http://mystic2000.newmail.ru
Дата: 25.11.09 17:27
Оценка:
Здравствуйте, WolfHound, Вы писали:

WH>Здравствуйте, WinterMute, Вы писали:


WM>>Первое что приходит на ум: поиск в отсортированнном массиве. Не такая уж редкая задача.

WH>1)"поиск в отсортированном массиве" это как правило часть конкретного решения конкретной задачи.
WH>2)Параллелить операцию со сложностью O(Log(N)) мягко говоря мало смысла в любом случае.

Эх... Вот только в нашей жизни конкретная задача как раз и состоит в том, чтобы взять значение, найти его в одном массиве, потом найденное поискать в другом, если не нашли, то добавить...

Ну а так все параллелится, но зачастую это отдельная задача, которую надо решать... Например, архивация. Да, можно брать разные куски исходных данных, но это надо модифицировать исходный алгоритм + следить за тем, чтобы куски были записаны на диск в правильной последовательности. Шифрование...
Re[6]: Закат GPU?
От: Mystic Украина http://mystic2000.newmail.ru
Дата: 25.11.09 17:33
Оценка: -1
Здравствуйте, minorlogic, Вы писали:

M>Я не продемонстрирую с силу банального незнания. Но какой из этого можно сделать вывод? Да никакой ..


Вывод сделать просто: распараллелить не просто. Потому как твоих знаний достаточно только для того, чтобы реализовать однопоточный вариант. А вот в случае многопоточного возникает банальное незнание: надо читать литературу, не всякий в ней разберется. А это время/деньги... И вечный вопрос "нафига"?
Re[4]: Закат GPU?
От: Mystic Украина http://mystic2000.newmail.ru
Дата: 25.11.09 17:47
Оценка:
Здравствуйте, WolfHound, Вы писали:

WH>Здравствуйте, CreatorCray, Вы писали:


CC>>Может зададимся вопросом: а так ли много есть алгоритмов, которые эффективно параллелятся?

WH>Лучше так: Много ли есть задач для которых нет эффективных параллельных алгоритмов?

Проблема в том, что придумывать и реализовывать эти такие эффективные параллельные алгоритмы в общем случае геморнее. А задачи всякие раз стоят уникальные.
Re: Закат GPU?
От: FR  
Дата: 08.12.09 09:32
Оценка:
Здравствуйте, Кэр, Вы писали:

Кэр>Так что закономерный вопрос: когда CPU тоже станет очень много — не проще ли будет гонять графику прямо на CPU. Какие причины будут содержать GPU в комплекте? Не пора ли NVidia сворачивать бизнес?


Что-то у интела похоже даже и отдельный GPU не получается http://cnews.ru/news/top/index.shtml?2009/12/08/372464#top_static
Re[2]: Закат GPU?
От: Aleх  
Дата: 08.12.09 22:32
Оценка:
Здравствуйте, FR, Вы писали:

FR>Здравствуйте, Кэр, Вы писали:


Кэр>>Так что закономерный вопрос: когда CPU тоже станет очень много — не проще ли будет гонять графику прямо на CPU. Какие причины будут содержать GPU в комплекте? Не пора ли NVidia сворачивать бизнес?


FR>Что-то у интела похоже даже и отдельный GPU не получается http://cnews.ru/news/top/index.shtml?2009/12/08/372464#top_static


Жалко. Только вот там написано:

По-видимому, Intel поняла, что Larrabee в его текущем состоянии не является конкурентоспособным продуктом. За несколько дней до сентябрьской конференции IDF компания AMD представила графический процессор Radeon HD 5870 с вычислительной мощностью около 3 терафлопс, а затем – Radeon HD 5970, мощность которого составила более 5 терафлопс. Рабочий образец Larrabee имел мощность 1 терафлопс, в проекте компании было увеличение мощности в два раза.

Не пойму, чего все так гонятся за этими терафлопсами? Они являются не единственной характеристикой процессора. Если я хочу запускать алгоритмы на графах, нафига мне флопсы вообще?
Re[3]: Закат GPU?
От: FR  
Дата: 09.12.09 05:12
Оценка:
Здравствуйте, Aleх, Вы писали:

A>Не пойму, чего все так гонятся за этими терафлопсами? Они являются не единственной характеристикой процессора. Если я хочу запускать алгоритмы на графах, нафига мне флопсы вообще?


Если характеристики опытного образца в несколько раз хуже чем у серийных образцов конкурентов, на рынке ловить нечего, разве что демпинговать или искать узкие ниши, ни то ни другое не в привычках интела
Re[3]: Закат GPU?
От: CreatorCray  
Дата: 10.12.09 14:52
Оценка:
Здравствуйте, Aleх, Вы писали:

A>Не пойму, чего все так гонятся за этими терафлопсами? Они являются не единственной характеристикой процессора. Если я хочу запускать алгоритмы на графах, нафига мне флопсы вообще?

Надо полагать тебе надо все таки быстрые алгоритмы.
... << RSDN@Home 1.1.4 stable SR1 rev. 568>>
Подождите ...
Wait...
Пока на собственное сообщение не было ответов, его можно удалить.