Nvidia - могут ли выкинуть процессоры?
От: Shmj Ниоткуда  
Дата: 22.09.20 05:05
Оценка:
Nvidia из видеокарты сделали мощное вычислительное устройство, по сути компьютер со своей архитектурой, заточенной под графику.

Вопрос такой. Могут ли они сделать шаг, доработать видеокарту и сказать что теперь процессоры вообще не нужны — все в видеокарте — все в ней — мир, конец, начало — все здесь...
Re: Nvidia - могут ли выкинуть процессоры?
От: pagid Россия  
Дата: 22.09.20 05:15
Оценка: +1
Здравствуйте, Shmj, Вы писали:

S>Вопрос такой. Могут ли они сделать шаг, доработать видеокарту и сказать что теперь процессоры вообще не нужны — все в видеокарте — все в ней — мир, конец, начало — все здесь...

Зачем?
Re: Nvidia - могут ли выкинуть процессоры?
От: Homunculus Россия  
Дата: 22.09.20 05:18
Оценка: +1
Здравствуйте, Shmj, Вы писали:

Видюхи никогда не будут решать большой спектр задач. Например, базы данных.
Re: Nvidia - могут ли выкинуть процессоры?
От: Михaил  
Дата: 22.09.20 06:17
Оценка: -1
Здравствуйте, Shmj, Вы писали:

S>Nvidia из видеокарты сделали мощное вычислительное устройство, по сути компьютер со своей архитектурой, заточенной под графику.


S>Вопрос такой. Могут ли они сделать шаг, доработать видеокарту и сказать что теперь процессоры вообще не нужны — все в видеокарте — все в ней — мир, конец, начало — все здесь...


Думаю, это вполне может произойти, если предложат более выгодную и экономную мультиядерную архитектуру. Вообще, Интел, если не пошевелится, со своим легаси x86_64 загнется. Яблоки уже переползли на arm.
Re: Nvidia - могут ли выкинуть процессоры?
От: a7d3  
Дата: 22.09.20 07:00
Оценка: +2
Здравствуйте, Shmj, Вы писали:

S>Nvidia из видеокарты сделали мощное вычислительное устройство, по сути компьютер со своей архитектурой, заточенной под графику.


S>Вопрос такой. Могут ли они сделать шаг, доработать видеокарту и сказать что теперь процессоры вообще не нужны — все в видеокарте — все в ней — мир, конец, начало — все здесь...


Это впечатление проходит — строит познакомиться с тематикой GPGPU (general-purpose computing on graphics processing units) что на базе VLIW, что тензорных ядер.
Люди радовались как дети, когда выполнение Radix sort смогли реализовать на видяхах
А уж чего будет стоить переработать весь софт писанный под x86.
Re[2]: Nvidia - могут ли выкинуть процессоры?
От: Muxa  
Дата: 22.09.20 07:06
Оценка: +2 :))) :))
A>Люди радовались как дети, когда выполнение Radix sort смогли реализовать на видяхах
Зато представь какие перспективы откроются перед интервьюерами в плане новых вопросов на собеседовании: "А разверните-ка нам этот список используя RTX 3090".
Re[3]: Nvidia - могут ли выкинуть процессоры?
От: a7d3  
Дата: 22.09.20 07:13
Оценка:
Здравствуйте, Muxa, Вы писали:

A>>Люди радовались как дети, когда выполнение Radix sort смогли реализовать на видяхах

M>Зато представь какие перспективы откроются перед интервьюерами в плане новых вопросов на собеседовании: "А разверните-ка нам этот список используя RTX 3090".

А что, вопрос про разворачивание списка всё ещё встречается?
Наивно полагал, что это мем десятилетней давности, не менее.
Re: Nvidia - могут ли выкинуть процессоры?
От: velkin Удмуртия http://blogs.rsdn.org/effective/
Дата: 22.09.20 08:34
Оценка: 6 (2)
Здравствуйте, Shmj, Вы писали:

S>Вопрос такой. Могут ли они сделать шаг, доработать видеокарту и сказать что теперь процессоры вообще не нужны — все в видеокарте — все в ней — мир, конец, начало — все здесь...


Вопрос здесь в том, побегут ли люди покупать видеокарты. В наше время существуют как решения использующиеся майнерами, так и традиционные сервера в которые можно поместить множество видеокарт. Или вот, наглядный пример рендер фермы. Очевидно ли, что нужно покупать именно видеокарты, когда речь идёт о цене и потреблении энергии на производительность. Но нет, люди чаще берут сервера на CPU. Много ядер это хорошо, но особых чудес GPU по сравнению с теми же последними разработками от AMD не делают.

Дело в том, что в профессиональном сегменте NVidia по ценам офигела так же как Intel или AMD. И по сути в не профессиональном тоже. К тому же в конкурентной борьбе ничто не мешает скинуть цены производителям CPU на x64. И другой вопрос, почему так долго держится x86 и совместимая с ней x64. Именно совместимая, иначе она бы тоже не взлетела. Да можно изобрести всё что угодно, но софт по большей части придётся компилировать заново.

Немного сомнительной математики


CPU vs GPU рендеринг в Cycles
  Скрытый текст

GTX 1070 ~500
Ryzen 1700X ~1100

https://www.cpubenchmark.net/high_end_cpus.html
https://www.videocardbenchmark.net/high_end_gpus.html

GeForce GTX 1070 13,340 / $499.50 = 26.7
AMD Ryzen 7 1700X 15,539 / $213.98 = 72.6

500 | 26.7
1100 | 72.6

500 | 26.7
x | 72.6

x = 1359


Большая ли разница между 1100 и 1359?


Возможно кто-то скажет, что я занимаюсь необоснованными предположениями и это так:
1) Для CPU нужен блок питания, материнская плата, оперативная память, корпус. А для GPU всё тоже самое, что для CPU включая и сам CPU.
2) Какие CPU сравниваются, оверпрайснутые серверные вроде Xeon и Ryzen Threadreaper, с десктопными Core и Ryzen.
3) Какие GPU сравниваются, оверпрайснутые Tesla, Quadro, может что-то у AMD, с GTX, RTX.
4) Условная производительность это всё же не производительность в конкретных задачах.

Где-то я видел сравнения рендера по более современным процессорам, сейчас лень искать.

Тем не менее, что взять?

1) AMD Ryzen 9 3950X $709.99
2) GeForce RTX 2080 SUPER $719.99

1) Оба принадлежат к серииям для десктоповых решений.
2) На видеокартах не понадобится какого-то специального ускорения, вроде тензорных ядер и прочего.
3) Все вычисления будут вестись по честному.
4) И нет, выбор не обязательно будет в пользу 2080 Super.

7 проблем GPU рендеринга

1) Высокая стоимость видеокарт, дорогостоящее скалирование мощностей
2) Маленькое влияние крутых видеокарт на всю систему
3) Постоянный шум и тепловыделение
4) Вопросы масштабирования
5) Капризы видеокарт и драйверов
6) Ограниченная память
7) Ограниченный круг ПО

1) Первый пункт про то, что видеокарты по цене выгодны для покупки лишь в стиле майнеров, то есть игровые запихиваются в фермы представляющие дешёвый каркас, днищенский процессор, материнка на много PCIe, мощный блок питания. А в остальных случаях лучше рассуждать про стоимость с очень большой осторожностью. Там речь о сотнях тысяч рублей за одну видеокарту, что уже сопоставимо с полноценными серверами, и при этом чудес производительности не будет.

2) Второй пункт про не универсальность видеокарт. Топик как раз про это, а что если они станут универсальны. Но они не станут, выше уже написал про x86 и x64, которые хоть и считаются менее энергоэффективными, чем arm, но так же считаются более производительными. Это хороший такой сюрприз для всех, кто думает, что arm захватит весь мир. Да, дело не только в софте.

3) Третий пункт шум и тепловыделение это понятно. Кстати, знаете сколько нужно ватт последним игровым видеокартам от NVidia. А в магазинах уже объявлены характеристики на нереференсы с 320 Вт 8-pin x3 для 3080. Опять же это если кто думает, что вычисления на видеокартах прямо таки существенно дешевле по энергии.

4) Четвёртый пункт это то, что видеокарты в связке именно для рендера плохо масштабируются. Майнерам может и плевать, но мало того, что нет универсальности, см. пункт 2, да ещё и это.

5) Пятый пункт драйвера. Но мы вроде как в топике волшебным образом сделали из видеокарты процессор общего назначения, или хотя бы arm туда прикрутили, вместо x86 или x64. Кстати, просто взять arm и сделать копипасту пять тысяч раз как это делают в видеокартах не получится. А видеокарты предназначены для векторных вычислений, не общее назначение, впрочем не будем отвлекаться.

6) Шестой пункт, ограничение видеопамяти по объёму. Здесь всё понятно, если сцена не влазит, то она не влазит. Или покупай профессиональное решения за очень очень много денег, что не выгодно. Или если памяти всё ещё не хватает используй десктоповое решение с центральным процессором. Снова не хватило, есть Xeon с расширенным объёмами доступной оперативки.

7) И седьмой пункт, софта для видеокарт меньше. Да, можно сделать железо, а софта нет. Хуанг сделал видеокарты, а игр нет. Продолжать можно до бесконечности. Почему GNU/Lunux сосед, потому что приложения для него не всегда компилируют. Почему MacOS тоже стал сосед, потому что та же причина, что и в GNU/Lunux, которая усугубилась в последние годы не в последнюю очередь за счёт закручивания гаек яблочниками. Кстати, Windows 10 самая распространённая операционка на десктопах тоже начинает потихоньку сосед, это видно когда старый софт всё таки перестаёт на ней работать в отличие от 7 или 8.1.

Софт против железа, а так же о хайпе


Где-то видеокарты хороши, а где-то плохи. Использование игровых видеокарт в домашнем компьютере не то из-за чего нужно много рассуждать. При создании же вычислительных кластеров надо много раз подумать нужно ли это. Кластера на CPU можно переделать во что угодно, а вот с видеокартами не всё так просто и это проистекает аж из нескольких пунктов приведённых выше.

Не стоит забывать, что сейчас люди ловят хайп от презентаций "кожаной куртки". Как обычный пользователь я его тоже словил, хотя никакого улучшения графики в играх не произошло. Произошёл Crysis Remastered, это да. В прошлый раз был Control, "очень популярная" игра.

Но с точки зрения программирования могу сказать, что ничего не изменилось. Стала выше производительность видеокарт, но и энергопотребление возросло. Проприетарные фишки меня не волнуют, я не буду пробовать их тензорные ядра, а rt ядра это может и хорошо, но вот проблема, профессиональный софт работает на ядрах CUDA, а ими что-то не особо балуют.

То есть да, стало лучше, больше фпс, выше производительность в том числе и по CUDA ядрам. Но всё это в пределах ожиданий, а вау эффекта нет. И даже так, чисто теоретически предположим за раз подняли производительность не 20-30% во всех задачах, а в 4-8 раз, чтобы это дало.

Когда Хуанг рекламирует видеокарты, вроде всё нормально, люди начинают фантазировать, а что если. Но с точки зрения софта всё уныло.

А как тебе это Илон Маск: Nvidia переложила заботу о SLI на разработчиков игр

Софт по прежнему рулит, именно софт определяет успешность железа. Высокопроизводительное железо это хорошо, но что насчёт низкопроизводительного. Вместо того, чтобы набрасываться на новые вычислительные мощности есть и другие пути, например, подумать о том, чтобы приложение в реальном времени успевало работать на всех устройствах.
Re[2]: Nvidia - могут ли выкинуть процессоры?
От: pagid Россия  
Дата: 22.09.20 08:45
Оценка: +2
Здравствуйте, Михaил, Вы писали:

М>Думаю, это вполне может произойти, если предложат более выгодную и экономную мультиядерную архитектуру. Вообще, Интел, если не пошевелится, со своим легаси x86_64 загнется. Яблоки уже переползли на arm.

Не потому же, что x86_64 хуже ARM. Яблоки получают больший контроль над производством ключевого компонента.
Re: Nvidia - могут ли выкинуть процессоры?
От: Pzz Россия https://github.com/alexpevzner
Дата: 22.09.20 10:03
Оценка: +1
Здравствуйте, Shmj, Вы писали:

S>Вопрос такой. Могут ли они сделать шаг, доработать видеокарту и сказать что теперь процессоры вообще не нужны — все в видеокарте — все в ней — мир, конец, начало — все здесь...


Там устройство мощное, но при этом весьма специфическое, не для всяких програм подходящее. Поэтому нет, не могут.
Re[2]: Nvidia - могут ли выкинуть процессоры?
От: Codealot Земля  
Дата: 22.09.20 16:08
Оценка:
Здравствуйте, a7d3, Вы писали:

A>Люди радовались как дети, когда выполнение Radix sort смогли реализовать на видяхах


При этом сортировка на видяхах работает только самую малость быстрее, чем на процессорах. А то и вообще медленнее.
Ад пуст, все бесы здесь.
Re[3]: Nvidia - могут ли выкинуть процессоры?
От: Homunculus Россия  
Дата: 22.09.20 16:17
Оценка: :)))
Здравствуйте, Muxa, Вы писали:

M>"А разверните-ка нам этот список используя RTX 3090".


Я вот дичайшие извиняюсь, конечно, но много раз уже тут встречал фразу про якобы всем понятную задачу — развернуть список. А мне вот нифига не понятно. Список — это имеется ввиду который не вектор? А разве он как-то «свернут»? Что значит «развернуть»? Реализовать алгоритм unzip? Но при чем тут список? Какая-то бредовая формулировка, но все тут так потешаются над этим, как будто всем понятно, что это значит. Мне вот — не понятно.
Re: Nvidia - могут ли выкинуть процессоры?
От: vsb Казахстан  
Дата: 22.09.20 16:25
Оценка: +2
Здравствуйте, Shmj, Вы писали:

S>Nvidia из видеокарты сделали мощное вычислительное устройство, по сути компьютер со своей архитектурой, заточенной под графику.


Эта архитектура не подходит для большинства алгоритмов, применяемых в персональных компьютерах.

S>Вопрос такой. Могут ли они сделать шаг, доработать видеокарту и сказать что теперь процессоры вообще не нужны — все в видеокарте — все в ней — мир, конец, начало — все здесь...


Припаять какой-нибудь ARM процессор? Могут. Но зачем?
Re[3]: Nvidia - могут ли выкинуть процессоры?
От: vsb Казахстан  
Дата: 22.09.20 16:27
Оценка: :))
Здравствуйте, pagid, Вы писали:

М>>Думаю, это вполне может произойти, если предложат более выгодную и экономную мультиядерную архитектуру. Вообще, Интел, если не пошевелится, со своим легаси x86_64 загнется. Яблоки уже переползли на arm.

P>Не потому же, что x86_64 хуже ARM. Яблоки получают больший контроль над производством ключевого компонента.

Есть мнение, что ARM-процессоры Apple ощутимо лучше доступных x86_64 процессоров Intel и AMD. Впрочем насколько это обусловлено набором команд — я не знаю. Может быть у Apple инженеры лучше.
Re[4]: Nvidia - могут ли выкинуть процессоры?
От: vsb Казахстан  
Дата: 22.09.20 16:30
Оценка:
Здравствуйте, Homunculus, Вы писали:

M>>"А разверните-ка нам этот список используя RTX 3090".


H>Я вот дичайшие извиняюсь, конечно, но много раз уже тут встречал фразу про якобы всем понятную задачу — развернуть список. А мне вот нифига не понятно. Список — это имеется ввиду который не вектор?


Имеется в виду односвязный список. Что-то вроде

struct linked_list_node {
    void *data;
    struct linked_list_node *next;
};



H>А разве он как-то «свернут»? Что значит «развернуть»?


Развернуть значит перевернуть. Например на вход подаётся список v1 -> v2 -> v3 -> NULL. На выходе должен быть список v3 -> v2 -> v1 -> NULL.

H>Какая-то бредовая формулировка, но все тут так потешаются над этим, как будто всем понятно, что это значит. Мне вот — не понятно.


Рекомендую внимательно прочитать серию книг The Art of Computer Programming Дональда Кнута.
Отредактировано 22.09.2020 16:31 vsb . Предыдущая версия .
Re: Nvidia - могут ли выкинуть процессоры?
От: Serginio1 СССР https://habrahabr.ru/users/serginio1/topics/
Дата: 22.09.20 16:30
Оценка:
Здравствуйте, Shmj, Вы писали:

S>Nvidia из видеокарты сделали мощное вычислительное устройство, по сути компьютер со своей архитектурой, заточенной под графику.


S>Вопрос такой. Могут ли они сделать шаг, доработать видеокарту и сказать что теперь процессоры вообще не нужны — все в видеокарте — все в ней — мир, конец, начало — все здесь...


Если было бы так просто, то для игр не делали бы гибридных процессоров сочетающих CPU и GPU
https://www.overclockers.ua/news/hardware/2020-02-24/126320/
и солнце б утром не вставало, когда бы не было меня
Re[2]: Nvidia - могут ли выкинуть процессоры?
От: mike_rs Россия  
Дата: 22.09.20 16:33
Оценка: :)
Здравствуйте, Михaил, Вы писали:

М>Яблоки уже переползли на arm.


гниль не задает тренды, можно не смотреть даже
Re[5]: Nvidia - могут ли выкинуть процессоры?
От: Homunculus Россия  
Дата: 22.09.20 16:34
Оценка:
Здравствуйте, vsb, Вы писали:

Аааа. Пххх. Перевернуть. Так и надо говорить.
Re[4]: Nvidia - могут ли выкинуть процессоры?
От: pagid Россия  
Дата: 22.09.20 17:30
Оценка: +1
Здравствуйте, vsb, Вы писали:

vsb>Есть мнение, что ARM-процессоры Apple ощутимо лучше доступных x86_64 процессоров Intel и AMD. Впрочем насколько это обусловлено набором команд — я не знаю. Может быть у Apple инженеры лучше.

А может и PR-служба лучше.
Чем ARM-процессоры Apple ощутимо лучше доступных x86_64 процессоров Intel и AMD? пусть не углублясь в систему команд. И пусть даже не особо ощутимо.
Re[5]: Nvidia - могут ли выкинуть процессоры?
От: vsb Казахстан  
Дата: 22.09.20 18:14
Оценка:
Здравствуйте, pagid, Вы писали:

vsb>>Есть мнение, что ARM-процессоры Apple ощутимо лучше доступных x86_64 процессоров Intel и AMD. Впрочем насколько это обусловлено набором команд — я не знаю. Может быть у Apple инженеры лучше.

P>А может и PR-служба лучше.
P>Чем ARM-процессоры Apple ощутимо лучше доступных x86_64 процессоров Intel и AMD? пусть не углублясь в систему команд. И пусть даже не особо ощутимо.

Скоростью. iPhone 8 на некоторых задачах работает быстрей 8700K с потреблением в 10 раз меньше. Пока смысла нет делать детальное сравнение, т.к. скоро выйдут полноценные ноутбуки на ARM и смысл будет сравнивать уже именно их по всем параметрам, но сам факт того, что телефон работает быстрей топового настольного процессора уже очень сильно интригует.
Подождите ...
Wait...
Пока на собственное сообщение не было ответов, его можно удалить.