Здравствуйте, Erop, Вы писали:
E>Здравствуйте, CreatorCray, Вы писали:
CC>>Например там нельзя никак сделать полноценную рекурсию, т.к. нету стека E>Ну и фиг с ней. Кому она нужна на тех задачах? Там вообще ветвиться сильно стрёмно...
Трассировка лучей.
Глобальное освещение.
CC>>железо ж изначально затачивалось под конкретные задачи растеризации графики. E>Ну там ограничения внеязыковой характер носят. Скорее некоторые алгоритмы запрещены, чем какие-то С++ конструкции...
Запрещены интересные алгоритмы.
Yours truly, Serguey Zefirov (thesz NA mail TOCHKA ru)
Здравствуйте, thesz, Вы писали:
E>>Ну и фиг с ней. Кому она нужна на тех задачах? Там вообще ветвиться сильно стрёмно... T>Трассировка лучей.
NVidia таки выпустила какой-то SDK с трассировкой. Значит, как-то забороли.
Здравствуйте, thesz, Вы писали:
T>Трассировка лучей. T>Глобальное освещение. T>Запрещены интересные алгоритмы.
Это всё никак не специфично для С++
Все эмоциональные формулировки не соотвествуют действительному положению вещей и приведены мной исключительно "ради красного словца". За корректными формулировками и неискажённым изложением идей, следует обращаться к их автором или воспользоваться поиском
Здравствуйте, Кэр, Вы писали:
Кэр>В связи с тем, что не за горами CPU с 128 и более ядрами — вопрос, а нужны ли тогда будут GPU? Основная фича GPU — их много. Они тупые, умеют считать только шейдеры, но их много и обработка шейдеров хорошо параллелиться. Однако, существует целый паравоз проблем из-за того, что мы имеем отдельный вид процессоров: отдельная память, отдельные инструкции, просто отдельный вид ассемблерных инструкций. Кэр>Так что закономерный вопрос: когда CPU тоже станет очень много — не проще ли будет гонять графику прямо на CPU. Какие причины будут содержать GPU в комплекте? Не пора ли NVidia сворачивать бизнес?
Здравствуйте, Кэр, Вы писали:
Кэр>В связи с тем, что не за горами CPU с 128 и более ядрами — вопрос, а нужны ли тогда будут GPU? Основная фича GPU — их много. Они тупые, умеют считать только шейдеры, но их много и обработка шейдеров хорошо параллелиться. Однако, существует целый паравоз проблем из-за того, что мы имеем отдельный вид процессоров: отдельная память, отдельные инструкции, просто отдельный вид ассемблерных инструкций. Кэр>Так что закономерный вопрос: когда CPU тоже станет очень много — не проще ли будет гонять графику прямо на CPU. Какие причины будут содержать GPU в комплекте? Не пора ли NVidia сворачивать бизнес?
Radeon HD 5900: оружие против Fermi выйдет в конце ноября — http://kharkovconcurrencygroup.blogspot.com/2009/10/radeon-hd-5900-fermi.html
Собственно "Radeon HD 5900: оружие против Fermi выйдет в конце ноября". — http://www.3dnews.ru/news/radeon_hd_5900_oruzhie_protiv_fermi_viidet_v_kontse_noyabrya/
Цитаты:
"Поскольку ускорители Radeon HD 5950 и HD 5970 по сути являются сдвоенными версиями Radeon HD 5850 и HD 5870, логично предположить, что в распоряжении первого имеется 2880 универсальных потоковых процессоров, в распоряжении второго — 3200."
Похоже, Radeon-ATI-AMD пока ставят на кол-во процессоров, а не на распространение среди разработчиков (как CUDA-Fermi-nVidia(http://www.nvidia.com/object/fermi_architecture.html)). Хотя OpenCL уже поддерживают.
P.S. Ощущение, что настольные системы буквально "мгновенно" проскочат 1TFlop и приблизятся к 1PetaFlop (10^15 FLoating-point OPerations per second).
P.P.S. Ведь Radeon использует CrossFire(http://en.wikipedia.org/wiki/ATI_CrossFire), следовательно их можно вставлять по 4 в материнку, следовательно — !!!12.800!!! потоковых ядер в системе.
-----
у ATI — 12.800 будет в течении 1-2 лет
у Intel с ее Terraflop Research Chip будет 80 ядер лет через 3-4
как бы 2 порядка.
Здравствуйте, Golovach Ivan, Вы писали: GI>Похоже, Radeon-ATI-AMD пока ставят на кол-во процессоров, а не на распространение среди разработчиков (как CUDA-Fermi-nVidia(http://www.nvidia.com/object/fermi_architecture.html)). Хотя OpenCL уже поддерживают.
Они Bulldozer делают. Обещают что когда сделают в 2011, мало не покажется. В одном кристалле, и GPU и CPU без медленной шины.
В ближайшие 3-4 года скорее всего бардак будет с паралельными вычислениями на настольных ПК. Потом какой нибудь стандарт примут.
Тут главное не сколько процессоров и не на каком языке программы писать (Cuda,c++,..). А какая архитектура окажется оптимальнее для каких задач. Пока все планируют разное(AMD,NVidia,Intel)
Сейчас даже на 2-4 ядрах не так то просто соптимизировать.
Здравствуйте, thesz, Вы писали:
T>Здравствуйте, Ikemefula, Вы писали:
I>>Здравствуйте, thesz, Вы писали:
I>>>>>>Обработка графической информации. T>>>>>А на физике? Хотя бы игровой. Там оно как? I>>>>Понемногу осваивается. Кроме того, есть GPGPU которая помогает ускорять многие вещи и разгрузить CPU.
T>>>И какие же вещи они, эти магические GPU, ускоряют? I>>Это не магические GPU. Это обычные специализированые процессоры.
T>И какие же вещи они, эти магические обычные специализированные процессоры, ускоряют?
I>>http://www.gpgpu.ru/
T>Перечисли, пожалуйста. А то я не понимаю, что ускоряется с помощью CUDA, а что с помощью OpenCL.
I>>>>>>GPU не избавляют от необходимости иметь супер-компьютеры. T>>>>>А почему? I>>>>Потому что задачи и требования другие. T>>>И какие же? I>>В основном моделирование различных процессов, мега-вычисления различные I>>при чем, кстати говоря!, многие суперкомпьютеры построены на GPU, которыми управляют обычные СPU.
T>Как много таких в Top500?
I>>В итоге можно в системе размером с настольный ПК выжать производительность минимум на порядок и даже два выше обычного ПК такого же размера.
T>На каких задачах? С числами какой точности?
PhysX как раз щитает на GPU если есть возможность.
Здравствуйте, WolfHound, Вы писали:
WH>Здравствуйте, WinterMute, Вы писали:
WM>>Первое что приходит на ум: поиск в отсортированнном массиве. Не такая уж редкая задача. WH>1)"поиск в отсортированном массиве" это как правило часть конкретного решения конкретной задачи. WH>2)Параллелить операцию со сложностью O(Log(N)) мягко говоря мало смысла в любом случае.
Эх... Вот только в нашей жизни конкретная задача как раз и состоит в том, чтобы взять значение, найти его в одном массиве, потом найденное поискать в другом, если не нашли, то добавить...
Ну а так все параллелится, но зачастую это отдельная задача, которую надо решать... Например, архивация. Да, можно брать разные куски исходных данных, но это надо модифицировать исходный алгоритм + следить за тем, чтобы куски были записаны на диск в правильной последовательности. Шифрование...
Здравствуйте, minorlogic, Вы писали:
M>Я не продемонстрирую с силу банального незнания. Но какой из этого можно сделать вывод? Да никакой ..
Вывод сделать просто: распараллелить не просто. Потому как твоих знаний достаточно только для того, чтобы реализовать однопоточный вариант. А вот в случае многопоточного возникает банальное незнание: надо читать литературу, не всякий в ней разберется. А это время/деньги... И вечный вопрос "нафига"?
Здравствуйте, WolfHound, Вы писали:
WH>Здравствуйте, CreatorCray, Вы писали:
CC>>Может зададимся вопросом: а так ли много есть алгоритмов, которые эффективно параллелятся? WH>Лучше так: Много ли есть задач для которых нет эффективных параллельных алгоритмов?
Проблема в том, что придумывать и реализовывать эти такие эффективные параллельные алгоритмы в общем случае геморнее. А задачи всякие раз стоят уникальные.
Здравствуйте, Кэр, Вы писали:
Кэр>Так что закономерный вопрос: когда CPU тоже станет очень много — не проще ли будет гонять графику прямо на CPU. Какие причины будут содержать GPU в комплекте? Не пора ли NVidia сворачивать бизнес?
Здравствуйте, FR, Вы писали:
FR>Здравствуйте, Кэр, Вы писали:
Кэр>>Так что закономерный вопрос: когда CPU тоже станет очень много — не проще ли будет гонять графику прямо на CPU. Какие причины будут содержать GPU в комплекте? Не пора ли NVidia сворачивать бизнес?
FR>Что-то у интела похоже даже и отдельный GPU не получается http://cnews.ru/news/top/index.shtml?2009/12/08/372464#top_static
Жалко. Только вот там написано:
По-видимому, Intel поняла, что Larrabee в его текущем состоянии не является конкурентоспособным продуктом. За несколько дней до сентябрьской конференции IDF компания AMD представила графический процессор Radeon HD 5870 с вычислительной мощностью около 3 терафлопс, а затем – Radeon HD 5970, мощность которого составила более 5 терафлопс. Рабочий образец Larrabee имел мощность 1 терафлопс, в проекте компании было увеличение мощности в два раза.
Не пойму, чего все так гонятся за этими терафлопсами? Они являются не единственной характеристикой процессора. Если я хочу запускать алгоритмы на графах, нафига мне флопсы вообще?
Здравствуйте, Aleх, Вы писали:
A>Не пойму, чего все так гонятся за этими терафлопсами? Они являются не единственной характеристикой процессора. Если я хочу запускать алгоритмы на графах, нафига мне флопсы вообще?
Если характеристики опытного образца в несколько раз хуже чем у серийных образцов конкурентов, на рынке ловить нечего, разве что демпинговать или искать узкие ниши, ни то ни другое не в привычках интела
Здравствуйте, Aleх, Вы писали:
A>Не пойму, чего все так гонятся за этими терафлопсами? Они являются не единственной характеристикой процессора. Если я хочу запускать алгоритмы на графах, нафига мне флопсы вообще?
Надо полагать тебе надо все таки быстрые алгоритмы.
... << RSDN@Home 1.1.4 stable SR1 rev. 568>>
Забанили по IP, значит пора закрыть эту страницу.
Всем пока