Re[2]: Nvidia - могут ли выкинуть процессоры?
От: Muxa  
Дата: 22.09.20 07:06
Оценка: +2 :))) :))
A>Люди радовались как дети, когда выполнение Radix sort смогли реализовать на видяхах
Зато представь какие перспективы откроются перед интервьюерами в плане новых вопросов на собеседовании: "А разверните-ка нам этот список используя RTX 3090".
Re[3]: Nvidia - могут ли выкинуть процессоры?
От: Homunculus Россия  
Дата: 22.09.20 16:17
Оценка: :)))
Здравствуйте, Muxa, Вы писали:

M>"А разверните-ка нам этот список используя RTX 3090".


Я вот дичайшие извиняюсь, конечно, но много раз уже тут встречал фразу про якобы всем понятную задачу — развернуть список. А мне вот нифига не понятно. Список — это имеется ввиду который не вектор? А разве он как-то «свернут»? Что значит «развернуть»? Реализовать алгоритм unzip? Но при чем тут список? Какая-то бредовая формулировка, но все тут так потешаются над этим, как будто всем понятно, что это значит. Мне вот — не понятно.
Re: Nvidia - могут ли выкинуть процессоры?
От: velkin Удмуртия http://blogs.rsdn.org/effective/
Дата: 22.09.20 08:34
Оценка: 6 (2)
Здравствуйте, Shmj, Вы писали:

S>Вопрос такой. Могут ли они сделать шаг, доработать видеокарту и сказать что теперь процессоры вообще не нужны — все в видеокарте — все в ней — мир, конец, начало — все здесь...


Вопрос здесь в том, побегут ли люди покупать видеокарты. В наше время существуют как решения использующиеся майнерами, так и традиционные сервера в которые можно поместить множество видеокарт. Или вот, наглядный пример рендер фермы. Очевидно ли, что нужно покупать именно видеокарты, когда речь идёт о цене и потреблении энергии на производительность. Но нет, люди чаще берут сервера на CPU. Много ядер это хорошо, но особых чудес GPU по сравнению с теми же последними разработками от AMD не делают.

Дело в том, что в профессиональном сегменте NVidia по ценам офигела так же как Intel или AMD. И по сути в не профессиональном тоже. К тому же в конкурентной борьбе ничто не мешает скинуть цены производителям CPU на x64. И другой вопрос, почему так долго держится x86 и совместимая с ней x64. Именно совместимая, иначе она бы тоже не взлетела. Да можно изобрести всё что угодно, но софт по большей части придётся компилировать заново.

Немного сомнительной математики


CPU vs GPU рендеринг в Cycles
  Скрытый текст

GTX 1070 ~500
Ryzen 1700X ~1100

https://www.cpubenchmark.net/high_end_cpus.html
https://www.videocardbenchmark.net/high_end_gpus.html

GeForce GTX 1070 13,340 / $499.50 = 26.7
AMD Ryzen 7 1700X 15,539 / $213.98 = 72.6

500 | 26.7
1100 | 72.6

500 | 26.7
x | 72.6

x = 1359


Большая ли разница между 1100 и 1359?


Возможно кто-то скажет, что я занимаюсь необоснованными предположениями и это так:
1) Для CPU нужен блок питания, материнская плата, оперативная память, корпус. А для GPU всё тоже самое, что для CPU включая и сам CPU.
2) Какие CPU сравниваются, оверпрайснутые серверные вроде Xeon и Ryzen Threadreaper, с десктопными Core и Ryzen.
3) Какие GPU сравниваются, оверпрайснутые Tesla, Quadro, может что-то у AMD, с GTX, RTX.
4) Условная производительность это всё же не производительность в конкретных задачах.

Где-то я видел сравнения рендера по более современным процессорам, сейчас лень искать.

Тем не менее, что взять?

1) AMD Ryzen 9 3950X $709.99
2) GeForce RTX 2080 SUPER $719.99

1) Оба принадлежат к серииям для десктоповых решений.
2) На видеокартах не понадобится какого-то специального ускорения, вроде тензорных ядер и прочего.
3) Все вычисления будут вестись по честному.
4) И нет, выбор не обязательно будет в пользу 2080 Super.

7 проблем GPU рендеринга

1) Высокая стоимость видеокарт, дорогостоящее скалирование мощностей
2) Маленькое влияние крутых видеокарт на всю систему
3) Постоянный шум и тепловыделение
4) Вопросы масштабирования
5) Капризы видеокарт и драйверов
6) Ограниченная память
7) Ограниченный круг ПО

1) Первый пункт про то, что видеокарты по цене выгодны для покупки лишь в стиле майнеров, то есть игровые запихиваются в фермы представляющие дешёвый каркас, днищенский процессор, материнка на много PCIe, мощный блок питания. А в остальных случаях лучше рассуждать про стоимость с очень большой осторожностью. Там речь о сотнях тысяч рублей за одну видеокарту, что уже сопоставимо с полноценными серверами, и при этом чудес производительности не будет.

2) Второй пункт про не универсальность видеокарт. Топик как раз про это, а что если они станут универсальны. Но они не станут, выше уже написал про x86 и x64, которые хоть и считаются менее энергоэффективными, чем arm, но так же считаются более производительными. Это хороший такой сюрприз для всех, кто думает, что arm захватит весь мир. Да, дело не только в софте.

3) Третий пункт шум и тепловыделение это понятно. Кстати, знаете сколько нужно ватт последним игровым видеокартам от NVidia. А в магазинах уже объявлены характеристики на нереференсы с 320 Вт 8-pin x3 для 3080. Опять же это если кто думает, что вычисления на видеокартах прямо таки существенно дешевле по энергии.

4) Четвёртый пункт это то, что видеокарты в связке именно для рендера плохо масштабируются. Майнерам может и плевать, но мало того, что нет универсальности, см. пункт 2, да ещё и это.

5) Пятый пункт драйвера. Но мы вроде как в топике волшебным образом сделали из видеокарты процессор общего назначения, или хотя бы arm туда прикрутили, вместо x86 или x64. Кстати, просто взять arm и сделать копипасту пять тысяч раз как это делают в видеокартах не получится. А видеокарты предназначены для векторных вычислений, не общее назначение, впрочем не будем отвлекаться.

6) Шестой пункт, ограничение видеопамяти по объёму. Здесь всё понятно, если сцена не влазит, то она не влазит. Или покупай профессиональное решения за очень очень много денег, что не выгодно. Или если памяти всё ещё не хватает используй десктоповое решение с центральным процессором. Снова не хватило, есть Xeon с расширенным объёмами доступной оперативки.

7) И седьмой пункт, софта для видеокарт меньше. Да, можно сделать железо, а софта нет. Хуанг сделал видеокарты, а игр нет. Продолжать можно до бесконечности. Почему GNU/Lunux сосед, потому что приложения для него не всегда компилируют. Почему MacOS тоже стал сосед, потому что та же причина, что и в GNU/Lunux, которая усугубилась в последние годы не в последнюю очередь за счёт закручивания гаек яблочниками. Кстати, Windows 10 самая распространённая операционка на десктопах тоже начинает потихоньку сосед, это видно когда старый софт всё таки перестаёт на ней работать в отличие от 7 или 8.1.

Софт против железа, а так же о хайпе


Где-то видеокарты хороши, а где-то плохи. Использование игровых видеокарт в домашнем компьютере не то из-за чего нужно много рассуждать. При создании же вычислительных кластеров надо много раз подумать нужно ли это. Кластера на CPU можно переделать во что угодно, а вот с видеокартами не всё так просто и это проистекает аж из нескольких пунктов приведённых выше.

Не стоит забывать, что сейчас люди ловят хайп от презентаций "кожаной куртки". Как обычный пользователь я его тоже словил, хотя никакого улучшения графики в играх не произошло. Произошёл Crysis Remastered, это да. В прошлый раз был Control, "очень популярная" игра.

Но с точки зрения программирования могу сказать, что ничего не изменилось. Стала выше производительность видеокарт, но и энергопотребление возросло. Проприетарные фишки меня не волнуют, я не буду пробовать их тензорные ядра, а rt ядра это может и хорошо, но вот проблема, профессиональный софт работает на ядрах CUDA, а ими что-то не особо балуют.

То есть да, стало лучше, больше фпс, выше производительность в том числе и по CUDA ядрам. Но всё это в пределах ожиданий, а вау эффекта нет. И даже так, чисто теоретически предположим за раз подняли производительность не 20-30% во всех задачах, а в 4-8 раз, чтобы это дало.

Когда Хуанг рекламирует видеокарты, вроде всё нормально, люди начинают фантазировать, а что если. Но с точки зрения софта всё уныло.

А как тебе это Илон Маск: Nvidia переложила заботу о SLI на разработчиков игр

Софт по прежнему рулит, именно софт определяет успешность железа. Высокопроизводительное железо это хорошо, но что насчёт низкопроизводительного. Вместо того, чтобы набрасываться на новые вычислительные мощности есть и другие пути, например, подумать о том, чтобы приложение в реальном времени успевало работать на всех устройствах.
Re: Nvidia - могут ли выкинуть процессоры?
От: a7d3  
Дата: 22.09.20 07:00
Оценка: +2
Здравствуйте, Shmj, Вы писали:

S>Nvidia из видеокарты сделали мощное вычислительное устройство, по сути компьютер со своей архитектурой, заточенной под графику.


S>Вопрос такой. Могут ли они сделать шаг, доработать видеокарту и сказать что теперь процессоры вообще не нужны — все в видеокарте — все в ней — мир, конец, начало — все здесь...


Это впечатление проходит — строит познакомиться с тематикой GPGPU (general-purpose computing on graphics processing units) что на базе VLIW, что тензорных ядер.
Люди радовались как дети, когда выполнение Radix sort смогли реализовать на видяхах
А уж чего будет стоить переработать весь софт писанный под x86.
Re[2]: Nvidia - могут ли выкинуть процессоры?
От: pagid Россия  
Дата: 22.09.20 08:45
Оценка: +2
Здравствуйте, Михaил, Вы писали:

М>Думаю, это вполне может произойти, если предложат более выгодную и экономную мультиядерную архитектуру. Вообще, Интел, если не пошевелится, со своим легаси x86_64 загнется. Яблоки уже переползли на arm.

Не потому же, что x86_64 хуже ARM. Яблоки получают больший контроль над производством ключевого компонента.
Re: Nvidia - могут ли выкинуть процессоры?
От: vsb Казахстан  
Дата: 22.09.20 16:25
Оценка: +2
Здравствуйте, Shmj, Вы писали:

S>Nvidia из видеокарты сделали мощное вычислительное устройство, по сути компьютер со своей архитектурой, заточенной под графику.


Эта архитектура не подходит для большинства алгоритмов, применяемых в персональных компьютерах.

S>Вопрос такой. Могут ли они сделать шаг, доработать видеокарту и сказать что теперь процессоры вообще не нужны — все в видеокарте — все в ней — мир, конец, начало — все здесь...


Припаять какой-нибудь ARM процессор? Могут. Но зачем?
Re[3]: Nvidia - могут ли выкинуть процессоры?
От: vsb Казахстан  
Дата: 22.09.20 16:27
Оценка: :))
Здравствуйте, pagid, Вы писали:

М>>Думаю, это вполне может произойти, если предложат более выгодную и экономную мультиядерную архитектуру. Вообще, Интел, если не пошевелится, со своим легаси x86_64 загнется. Яблоки уже переползли на arm.

P>Не потому же, что x86_64 хуже ARM. Яблоки получают больший контроль над производством ключевого компонента.

Есть мнение, что ARM-процессоры Apple ощутимо лучше доступных x86_64 процессоров Intel и AMD. Впрочем насколько это обусловлено набором команд — я не знаю. Может быть у Apple инженеры лучше.
Re: Nvidia - могут ли выкинуть процессоры?
От: pagid Россия  
Дата: 22.09.20 05:15
Оценка: +1
Здравствуйте, Shmj, Вы писали:

S>Вопрос такой. Могут ли они сделать шаг, доработать видеокарту и сказать что теперь процессоры вообще не нужны — все в видеокарте — все в ней — мир, конец, начало — все здесь...

Зачем?
Re: Nvidia - могут ли выкинуть процессоры?
От: Homunculus Россия  
Дата: 22.09.20 05:18
Оценка: +1
Здравствуйте, Shmj, Вы писали:

Видюхи никогда не будут решать большой спектр задач. Например, базы данных.
Re: Nvidia - могут ли выкинуть процессоры?
От: Михaил  
Дата: 22.09.20 06:17
Оценка: -1
Здравствуйте, Shmj, Вы писали:

S>Nvidia из видеокарты сделали мощное вычислительное устройство, по сути компьютер со своей архитектурой, заточенной под графику.


S>Вопрос такой. Могут ли они сделать шаг, доработать видеокарту и сказать что теперь процессоры вообще не нужны — все в видеокарте — все в ней — мир, конец, начало — все здесь...


Думаю, это вполне может произойти, если предложат более выгодную и экономную мультиядерную архитектуру. Вообще, Интел, если не пошевелится, со своим легаси x86_64 загнется. Яблоки уже переползли на arm.
Re: Nvidia - могут ли выкинуть процессоры?
От: Pzz Россия https://github.com/alexpevzner
Дата: 22.09.20 10:03
Оценка: +1
Здравствуйте, Shmj, Вы писали:

S>Вопрос такой. Могут ли они сделать шаг, доработать видеокарту и сказать что теперь процессоры вообще не нужны — все в видеокарте — все в ней — мир, конец, начало — все здесь...


Там устройство мощное, но при этом весьма специфическое, не для всяких програм подходящее. Поэтому нет, не могут.
Re[2]: Nvidia - могут ли выкинуть процессоры?
От: mike_rs Россия  
Дата: 22.09.20 16:33
Оценка: :)
Здравствуйте, Михaил, Вы писали:

М>Яблоки уже переползли на arm.


гниль не задает тренды, можно не смотреть даже
Re[4]: Nvidia - могут ли выкинуть процессоры?
От: pagid Россия  
Дата: 22.09.20 17:30
Оценка: +1
Здравствуйте, vsb, Вы писали:

vsb>Есть мнение, что ARM-процессоры Apple ощутимо лучше доступных x86_64 процессоров Intel и AMD. Впрочем насколько это обусловлено набором команд — я не знаю. Может быть у Apple инженеры лучше.

А может и PR-служба лучше.
Чем ARM-процессоры Apple ощутимо лучше доступных x86_64 процессоров Intel и AMD? пусть не углублясь в систему команд. И пусть даже не особо ощутимо.
Re[6]: Nvidia - могут ли выкинуть процессоры?
От: CreatorCray  
Дата: 22.09.20 18:18
Оценка: +1
Здравствуйте, Homunculus, Вы писали:

H>Аааа. Пххх. Перевернуть. Так и надо говорить.

А ты на дороге переворачиваешь или таки разворачиваешь машину если надо поехать в обратном направлении?
... << RSDN@Home 1.3.110 alpha 5 rev. 62>>
Re[8]: Nvidia - могут ли выкинуть процессоры?
От: _ilya_  
Дата: 22.09.20 19:38
Оценка: -1
Здравствуйте, vsb, Вы писали:

vsb>Да.


Xeon 2678v3 за 8т.р. с производительностью 400GFlops похоже должен подвинуться и уступить место мобильным процам, ха ха ха? Он аж 6 лет назад выпущен и по 22нм технологии.
Ничего, что он 1.5TB памяти поддерживает в двухпроцессорной материнке... а в телефоне/планшете/недокомпе видимо макс 16GB. "Всего разницы" на 2 порядка.
Отредактировано 22.09.2020 19:42 _ilya_ . Предыдущая версия . Еще …
Отредактировано 22.09.2020 19:42 _ilya_ . Предыдущая версия .
Отредактировано 22.09.2020 19:41 _ilya_ . Предыдущая версия .
Отредактировано 22.09.2020 19:39 _ilya_ . Предыдущая версия .
Re[5]: Nvidia - могут ли выкинуть процессоры?
От: a7d3  
Дата: 23.09.20 10:49
Оценка: :)
Здравствуйте, sambl74, Вы писали:

S>Здравствуйте, a7d3, Вы писали:


A>>А что, вопрос про разворачивание списка всё ещё встречается?

A>>Наивно полагал, что это мем десятилетней давности, не менее.

S>Вопрос для вайтбординга для разогрева кандидата — почему бы и нет.


Уволил бы сотрудника, узнав, что таким образом разогревает кандидата на собеседованиях.
Nvidia - могут ли выкинуть процессоры?
От: Shmj Ниоткуда  
Дата: 22.09.20 05:05
Оценка:
Nvidia из видеокарты сделали мощное вычислительное устройство, по сути компьютер со своей архитектурой, заточенной под графику.

Вопрос такой. Могут ли они сделать шаг, доработать видеокарту и сказать что теперь процессоры вообще не нужны — все в видеокарте — все в ней — мир, конец, начало — все здесь...
Re[3]: Nvidia - могут ли выкинуть процессоры?
От: a7d3  
Дата: 22.09.20 07:13
Оценка:
Здравствуйте, Muxa, Вы писали:

A>>Люди радовались как дети, когда выполнение Radix sort смогли реализовать на видяхах

M>Зато представь какие перспективы откроются перед интервьюерами в плане новых вопросов на собеседовании: "А разверните-ка нам этот список используя RTX 3090".

А что, вопрос про разворачивание списка всё ещё встречается?
Наивно полагал, что это мем десятилетней давности, не менее.
Re[2]: Nvidia - могут ли выкинуть процессоры?
От: Codealot Земля  
Дата: 22.09.20 16:08
Оценка:
Здравствуйте, a7d3, Вы писали:

A>Люди радовались как дети, когда выполнение Radix sort смогли реализовать на видяхах


При этом сортировка на видяхах работает только самую малость быстрее, чем на процессорах. А то и вообще медленнее.
Ад пуст, все бесы здесь.
Re[4]: Nvidia - могут ли выкинуть процессоры?
От: vsb Казахстан  
Дата: 22.09.20 16:30
Оценка:
Здравствуйте, Homunculus, Вы писали:

M>>"А разверните-ка нам этот список используя RTX 3090".


H>Я вот дичайшие извиняюсь, конечно, но много раз уже тут встречал фразу про якобы всем понятную задачу — развернуть список. А мне вот нифига не понятно. Список — это имеется ввиду который не вектор?


Имеется в виду односвязный список. Что-то вроде

struct linked_list_node {
    void *data;
    struct linked_list_node *next;
};



H>А разве он как-то «свернут»? Что значит «развернуть»?


Развернуть значит перевернуть. Например на вход подаётся список v1 -> v2 -> v3 -> NULL. На выходе должен быть список v3 -> v2 -> v1 -> NULL.

H>Какая-то бредовая формулировка, но все тут так потешаются над этим, как будто всем понятно, что это значит. Мне вот — не понятно.


Рекомендую внимательно прочитать серию книг The Art of Computer Programming Дональда Кнута.
Отредактировано 22.09.2020 16:31 vsb . Предыдущая версия .
Re: Nvidia - могут ли выкинуть процессоры?
От: Serginio1 СССР https://habrahabr.ru/users/serginio1/topics/
Дата: 22.09.20 16:30
Оценка:
Здравствуйте, Shmj, Вы писали:

S>Nvidia из видеокарты сделали мощное вычислительное устройство, по сути компьютер со своей архитектурой, заточенной под графику.


S>Вопрос такой. Могут ли они сделать шаг, доработать видеокарту и сказать что теперь процессоры вообще не нужны — все в видеокарте — все в ней — мир, конец, начало — все здесь...


Если было бы так просто, то для игр не делали бы гибридных процессоров сочетающих CPU и GPU
https://www.overclockers.ua/news/hardware/2020-02-24/126320/
и солнце б утром не вставало, когда бы не было меня
Re[5]: Nvidia - могут ли выкинуть процессоры?
От: Homunculus Россия  
Дата: 22.09.20 16:34
Оценка:
Здравствуйте, vsb, Вы писали:

Аааа. Пххх. Перевернуть. Так и надо говорить.
Re[5]: Nvidia - могут ли выкинуть процессоры?
От: vsb Казахстан  
Дата: 22.09.20 18:14
Оценка:
Здравствуйте, pagid, Вы писали:

vsb>>Есть мнение, что ARM-процессоры Apple ощутимо лучше доступных x86_64 процессоров Intel и AMD. Впрочем насколько это обусловлено набором команд — я не знаю. Может быть у Apple инженеры лучше.

P>А может и PR-служба лучше.
P>Чем ARM-процессоры Apple ощутимо лучше доступных x86_64 процессоров Intel и AMD? пусть не углублясь в систему команд. И пусть даже не особо ощутимо.

Скоростью. iPhone 8 на некоторых задачах работает быстрей 8700K с потреблением в 10 раз меньше. Пока смысла нет делать детальное сравнение, т.к. скоро выйдут полноценные ноутбуки на ARM и смысл будет сравнивать уже именно их по всем параметрам, но сам факт того, что телефон работает быстрей топового настольного процессора уже очень сильно интригует.
Re[5]: Nvidia - могут ли выкинуть процессоры?
От: CreatorCray  
Дата: 22.09.20 18:18
Оценка:
Здравствуйте, pagid, Вы писали:

P>Чем ARM-процессоры Apple ощутимо лучше доступных x86_64 процессоров Intel и AMD?

Производительностью.
... << RSDN@Home 1.3.110 alpha 5 rev. 62>>
Re[4]: Nvidia - могут ли выкинуть процессоры?
От: CreatorCray  
Дата: 22.09.20 18:18
Оценка:
Здравствуйте, Homunculus, Вы писали:

H>Я вот дичайшие извиняюсь, конечно, но много раз уже тут встречал фразу про якобы всем понятную задачу — развернуть список.

H>Что значит «развернуть»?
reverse
... << RSDN@Home 1.3.110 alpha 5 rev. 62>>
Re[6]: Nvidia - могут ли выкинуть процессоры?
От: pagid Россия  
Дата: 22.09.20 18:26
Оценка:
Здравствуйте, vsb, Вы писали:

vsb>Скоростью. iPhone 8 на некоторых задачах работает быстрей 8700K с потреблением в 10 раз меньше.

На одних и тех же задачах с одним объемом процессорной работы?

vsb>Пока смысла нет делать детальное сравнение, т.к. скоро выйдут полноценные ноутбуки на ARM и смысл будет сравнивать уже именно их по всем параметрам,

+1
Re[5]: Nvidia - могут ли выкинуть процессоры?
От: a7d3  
Дата: 22.09.20 18:33
Оценка:
Здравствуйте, vsb, Вы писали:

vsb>Рекомендую внимательно прочитать серию книг The Art of Computer Programming Дональда Кнута.


Это надо чтобы научиться разворачивать список?
Re[3]: Nvidia - могут ли выкинуть процессоры?
От: a7d3  
Дата: 22.09.20 18:51
Оценка:
Здравствуйте, Codealot, Вы писали:

C>Здравствуйте, a7d3, Вы писали:


A>>Люди радовались как дети, когда выполнение Radix sort смогли реализовать на видяхах


C>При этом сортировка на видяхах работает только самую малость быстрее, чем на процессорах. А то и вообще медленнее.


Ветвления кода и предсказание переходов — это классическая беда VLIW-архитектуры.

Как-то где-то объяснялось, что это решается через спекулятивное исполнение инструкций из нескольких веток сразу (на недогруженных исполнительных устройствах).
Что на VLIW-архитектура традиционно много исполнительных устройств и не в каждом «длинном слове» микрокода утилизируются вот прямо все исполнительные. Уж очень это сложная задача для оптимизирующего компилятора — генерировать плотный и эффективный в этом плане микрокод. В итоге, всегда некоторый процент исполнительных устройств простаивает и можно их загрузить спекулятивными вычислениями, ради удешевления ветвлений-переходов в программе.

Вот только в мире GPGPU мало кто так сильно заморачивается — пишут и исполняют VLIW-микрокод под каждую вычислительную задачу, чуть ли не вручную его оптимизируя. Полагая неприемлемым иметь недогруженные исполнительные устройства и потому оказываются в засаде с алгоритмами требующими ветвления.

Внутри процессоров архитектуры x86 и ARM тоже давно есть спекулятивное исполнение, поскольку встроенный в них предсказатель переходов ещё тот «оракул», а сброс и перезапуск конвейеров обходится очень дорого. С этим самым исполнением и связано большинство современных уязвимостей, вроде Meltdown.

Про VLIW последнее время много разговоров и не из-за GPGPU, а благодаря процессорам Эльбрусам и давно случившемся кризисе развития CISC-архитектур x86.
Re[7]: Nvidia - могут ли выкинуть процессоры?
От: vsb Казахстан  
Дата: 22.09.20 19:17
Оценка:
Здравствуйте, pagid, Вы писали:

vsb>>Скоростью. iPhone 8 на некоторых задачах работает быстрей 8700K с потреблением в 10 раз меньше.

P>На одних и тех же задачах с одним объемом процессорной работы?

Да.
Re[6]: Nvidia - могут ли выкинуть процессоры?
От: vsb Казахстан  
Дата: 22.09.20 19:18
Оценка:
Здравствуйте, a7d3, Вы писали:

vsb>>Рекомендую внимательно прочитать серию книг The Art of Computer Programming Дональда Кнута.


A>Это надо чтобы научиться разворачивать список?


Люблю по любому поводу с умным видом советовать TAoCP, который я так и не осилил до конца ) Вдруг кто-нибудь прочитает, хуже-то точно не будет.
Re[6]: Nvidia - могут ли выкинуть процессоры?
От: Codealot Земля  
Дата: 22.09.20 19:52
Оценка:
Здравствуйте, vsb, Вы писали:

vsb>Скоростью. iPhone 8 на некоторых задачах работает быстрей 8700K с потреблением в 10 раз меньше. Пока смысла нет делать детальное сравнение, т.к. скоро выйдут полноценные ноутбуки на ARM и смысл будет сравнивать уже именно их по всем параметрам, но сам факт того, что телефон работает быстрей топового настольного процессора уже очень сильно интригует.


Подозреваю что это не процессор, а встроенный в него ASIC для какой-то узкой задачи.
Ад пуст, все бесы здесь.
Re[7]: Nvidia - могут ли выкинуть процессоры?
От: a7d3  
Дата: 22.09.20 20:19
Оценка:
Здравствуйте, Codealot, Вы писали:

C>Здравствуйте, vsb, Вы писали:


vsb>>Скоростью. iPhone 8 на некоторых задачах работает быстрей 8700K с потреблением в 10 раз меньше. Пока смысла нет делать детальное сравнение, т.к. скоро выйдут полноценные ноутбуки на ARM и смысл будет сравнивать уже именно их по всем параметрам, но сам факт того, что телефон работает быстрей топового настольного процессора уже очень сильно интригует.


C>Подозреваю что это не процессор, а встроенный в него ASIC для какой-то узкой задачи.


Почти всё RISC-семейство было очень неплохими числодробилками, да и 64-битными они намнооого раньше x86.
Достаточно вспомнить UltraSPARC'ки разных поколений и то, на чём делается программа суперкопьютеров в Китае.
и ARM, и MIPS — это RISC'ки.
Re[9]: Nvidia - могут ли выкинуть процессоры?
От: vsb Казахстан  
Дата: 22.09.20 20:25
Оценка:
Здравствуйте, _ilya_, Вы писали:

vsb>>Да.


__>Xeon 2678v3 за 8т.р. с производительностью 400GFlops похоже должен подвинуться и уступить место мобильным процам, ха ха ха? Он аж 6 лет назад выпущен и по 22нм технологии.


В однопотоке — да. В многопотоке за счёт 12 ядер, думаю, со скрипом ещё выдержит конкуренцию, пока новый айфон не выпустят )

__>Ничего, что он 1.5TB памяти поддерживает в двухпроцессорной материнке... а в телефоне/планшете/недокомпе видимо макс 16GB. "Всего разницы" на 2 порядка.


Ты думаешь, поддержка 1.5 ТБ памяти фундаментально сказывается на скорости процессора? Mac Pro поддерживает такие объёмы, значит и процессор Apple будет поддерживать, когда они его переведут на ARM.
Отредактировано 22.09.2020 20:27 vsb . Предыдущая версия . Еще …
Отредактировано 22.09.2020 20:27 vsb . Предыдущая версия .
Re[7]: Nvidia - могут ли выкинуть процессоры?
От: vsb Казахстан  
Дата: 22.09.20 20:26
Оценка:
Здравствуйте, Codealot, Вы писали:

vsb>>Скоростью. iPhone 8 на некоторых задачах работает быстрей 8700K с потреблением в 10 раз меньше. Пока смысла нет делать детальное сравнение, т.к. скоро выйдут полноценные ноутбуки на ARM и смысл будет сравнивать уже именно их по всем параметрам, но сам факт того, что телефон работает быстрей топового настольного процессора уже очень сильно интригует.


C>Подозреваю что это не процессор, а встроенный в него ASIC для какой-то узкой задачи.


Нет, обычная задача, какая-то символьная математика. Тут читал: https://www.cs.utexas.edu/~bornholt/post/z3-iphone.html
Re: Nvidia - могут ли выкинуть процессоры?
От: Osaka  
Дата: 22.09.20 21:08
Оценка:
S>Вопрос такой. Могут ли они сделать шаг, доработать видеокарту и сказать что теперь процессоры вообще не нужны — все в видеокарте — все в ней — мир, конец, начало — все здесь...
Это к вопросу, ради чего затеяли поглощение ARM?
Интелу с эльбрусом приготовиться?
Re[8]: Nvidia - могут ли выкинуть процессоры?
От: pagid Россия  
Дата: 23.09.20 03:20
Оценка:
Здравствуйте, vsb, Вы писали:

vsb>Да.

Интересно. Как сравнивал?
Re[4]: Nvidia - могут ли выкинуть процессоры?
От: sambl74 Россия  
Дата: 23.09.20 06:11
Оценка:
Здравствуйте, a7d3, Вы писали:

A>А что, вопрос про разворачивание списка всё ещё встречается?

A>Наивно полагал, что это мем десятилетней давности, не менее.

Вопрос для вайтбординга для разогрева кандидата — почему бы и нет.
Re[6]: Nvidia - могут ли выкинуть процессоры?
От: sambl74 Россия  
Дата: 02.10.20 05:28
Оценка:
Здравствуйте, a7d3, Вы писали:

S>>Вопрос для вайтбординга для разогрева кандидата — почему бы и нет.


A>Уволил бы сотрудника, узнав, что таким образом разогревает кандидата на собеседованиях.


А вы как разогреваете?
Re[7]: Nvidia - могут ли выкинуть процессоры?
От: a7d3  
Дата: 02.10.20 05:38
Оценка:
Здравствуйте, sambl74, Вы писали:

S>Здравствуйте, a7d3, Вы писали:


S>>>Вопрос для вайтбординга для разогрева кандидата — почему бы и нет.


A>>Уволил бы сотрудника, узнав, что таким образом разогревает кандидата на собеседованиях.


S>А вы как разогреваете?


По тому же принципу как и при тесте на полиграфе — калибровка через несколько общих и нейтральных вопросов.
Но с моей стороны опыт собеседований довольно небольшой, не более четырёх-пяти сотен наберётся, в общей сумме.
Re: Nvidia - могут ли выкинуть процессоры?
От: a7d3  
Дата: 07.10.20 19:01
Оценка:
Здравствуйте, Shmj, Вы писали:

S>Nvidia из видеокарты сделали мощное вычислительное устройство, по сути компьютер со своей архитектурой, заточенной под графику.


S>Вопрос такой. Могут ли они сделать шаг, доработать видеокарту и сказать что теперь процессоры вообще не нужны — все в видеокарте — все в ней — мир, конец, начало — все здесь...


NVidia купили Arm чтобы идти в нишу микро-компов под ИИ-задачи.
https://www.youtube.com/watch?v=dVGEtWYkP2c
 
Подождите ...
Wait...
Пока на собственное сообщение не было ответов, его можно удалить.