EP>А как они относятся к этому топику?
Напрямую. Цитирую первое сообщение:
в игры играть мне не надо. мне надо компилировать и запускать много виртуальных машин одновременно.
В таких условиях, как я уже неоднократно написал, объем памяти намного важнее ее пропускной способности или латентности.
Вот если бы тредстартер спрашивал про обучение нейронных сетей, тогда имело бы смысл обратить внимание на параметры памяти (в первую очередь на, хехе, ECC).
EP>Видеокарты (и GPGPU в частности) выигрывают в том числе за счёт того что у их памяти throughput на порядок больше чем у памяти CPU.
Так у видеокарт тысячи потоковых процессоров. А не единицы.
EP>Например памяти столько, что в неё всё-всё помещается — и её добавление уже ничем не поможет
Вот именно это условие никогда не удовлетворяется при запуске "много виртуальных машин". Я много лет работаю с виртуализацией серверов, и уж поверьте, самое важное в этом деле — объем памяти (и IOPS/sec дисковой подсистемы — суть обязательное наличие SSD).
EP>Разница в memory read (тот самый throughput) между DDR3-2933 и DDR3-1600 — 30%. На фоне того что там есть(?) какие-никакие вещественные вычисления, которых нет во многих задачах — 9% как раз и показывают что скорость памяти влияет существенно.
Так а я что написал? Что
в лучшем случае можно получить 9% выигрыш на задачах без I/O. Это попросту не заметить в домашнем применении. А вот тормоза от 3-4 виртуалок, которые свопятся, видны будут самым что ни на есть невооруженным глазом.
EP>А я не говорил что нужно ставить меньше памяти до такой степени что начнётся I/O.
Виртуалки ведут постоянный I/O. Немного, но этого хватает, чтобы скоростные характеристики памяти не дадут даже 9% прироста. На самом деле, да 2-3% не факт что будет.
И я не говорил про нехватку памяти до свопа. Даже без этого — дисковое кэширование куда эффективнее при наличии большого количества свободной памяти.