Здравствуйте, Cyberax, Вы писали:
C>Без понятия. Я вообще не понимаю причём тут ядра и оперативка, чтение блобов — это обычный HTTPS-запрос, который в современных клиентах реализуется вообще с минимальными накладными расходами на поток.
Они точно не нулевые, эти расходы. И на создание каждого треда нужна оперативка под стек.
Кстати, когда ты говорил про терабиты, то это какое хранилище имелось в виду? А то Azure P80 обещает всего лишь 1,000 MB/sec максимум, да и то в прыжке.
Здравствуйте, Codealot, Вы писали:
НС>>Ну вот я и говорю — значит тебе не повезло. Ну и гугль подсказывает, что варианты есть. C>А зачем мне S3?
Чтобы воспользоваться MinIO.
НС>>А использование хранилища в эксклюзивном режиме строго с одной единственной ноды — это сильно далеко за пределами тех сценариев, под которые оно заточено. C>Но внятных альтернатив в Azure нет.
Здравствуйте, Codealot, Вы писали:
C>Кстати, когда ты говорил про терабиты, то это какое хранилище имелось в виду? А то Azure P80 обещает всего лишь 1,000 MB/sec максимум, да и то в прыжке.
В AWS обещают.
Здравствуйте, Cyberax, Вы писали:
C>Без понятия. Я вообще не понимаю причём тут ядра и оперативка, чтение блобов — это обычный HTTPS-запрос, который в современных клиентах реализуется вообще с минимальными накладными расходами на поток.
А как перегонка данных между 2мя io операциями может без памяти обходится? DMA один на всех или для каждого процесса своя область?
Здравствуйте, Sharov, Вы писали:
C>>Без понятия. Я вообще не понимаю причём тут ядра и оперативка, чтение блобов — это обычный HTTPS-запрос, который в современных клиентах реализуется вообще с минимальными накладными расходами на поток. S>А как перегонка данных между 2мя io операциями может без памяти обходится? DMA один на всех или для каждого процесса своя область?
Пропускная способность памяти и кэша — заведомо превышает сетевую скорость.
Здравствуйте, Codealot, Вы писали:
C>Ковыряясь в одной облачной системе с большим количеством баззвордов на предмет "выяснить, почему оно так бешено тормозит", я решил сделать небольшой тест — скачивать данные из storage account на виртуальную машину, которая хостится в том же регионе. Скорость — около 60 мб в секунду То есть даже на гигабитный эзернет не тянет. В связи с чем возник вопрос — это вообще нормально?
Tы замерил throughput. А какой паттерн доступа основной в твоей системе, стриминг, или обмен запросами?
Если стриминг, то тебе нужен throughput и тогда ограничение в 60мб. Тут только закупать более продвинутые инстанцы-стораджы и тд.
А если обмен запросами, то твои замеры нерелевантны, т.к. при обмене запросами основное препятствие это задержки, т.е. latency. Througput влияет а это относительно слабо, скажем, условных 10кб на запрос — твои 60мб в секунду дают условно тыщ 6 запросов в секунду между двумя этими точками при последовательном обмен. При этом latency имеет намного бОльшее влияние. Скажем, задерка всего в 1мс ограничивает количество запросов до 1000 штук при последовательном взаимодействии если используется 1 ядро. На самом деле в клауде задержки гораздо больше 1мс.
Здравствуйте, Codealot, Вы писали:
I>>На самом деле в клауде задержки гораздо больше 1мс.
C>Да уж кто бы сомневался. Реальная скорость чтения — около 50 блобов в секунду на тред.
Так а паттерн взаимодействия какой? Ты сделал на самом деле некоторый микробенчмарк для измерения какой то пропускной способности. А приложение то что представляет собой? Сильно вряд ли в приложухе скачивание файлов из одной зоны в другую.
Здравствуйте, Codealot, Вы писали:
C>Ковыряясь в одной облачной системе с большим количеством баззвордов на предмет "выяснить, почему оно так бешено тормозит", я решил сделать небольшой тест — скачивать данные из storage account на виртуальную машину, которая хостится в том же регионе. Скорость — около 60 мб в секунду То есть даже на гигабитный эзернет не тянет. В связи с чем возник вопрос — это вообще нормально?
вот буквально вчера наблюдал как кластер из трех машин читает из GCS примерно 2.5Гб/с не напрягаясь даже
Здравствуйте, Ikemefula, Вы писали:
I>Так а паттерн взаимодействия какой? Ты сделал на самом деле некоторый микробенчмарк для измерения какой то пропускной способности. А приложение то что представляет собой? Сильно вряд ли в приложухе скачивание файлов из одной зоны в другую.
Случайное чтение данных, в основном.
При чем тут "из одной зоны в другую"?
C>Во первых — три машины с черт знает каким количеством тредов. Во вторых — это в разы меньше, чем скорость даже самого обычного потребительского SSD
топовые десктопные m2 зачастую не вытягивают игры, без спец мер, а при постоянных 2.5Gbs оно уже в первые 10 минут перегреется и уйдет в тротлинг. у меня samsung 98 pro на alder lake, это сейчас топ. 3.4Gbs выдает на рандомном чтении по 65 мб. т.е. не в разы даже на фоне топа.
Здравствуйте, Gt_, Вы писали:
Gt_>топовые десктопные m2 зачастую не вытягивают игры, без спец мер, а при постоянных 2.5Gbs оно уже в первые 10 минут перегреется и уйдет в тротлинг. у меня samsung 98 pro на alder lake, это сейчас топ. 3.4Gbs выдает на рандомном чтении по 65 мб. т.е. не в разы даже на фоне топа.
Это не проблема SSD, это проблема твоей сборки. Сделай нормальное охлаждение — и будет в разы. Один (!) SSD, даже не RAID. К тому же потребительский (!!).
C>Во первых — три машины с черт знает каким количеством тредов. Во вторых — это в разы меньше, чем скорость даже самого обычного потребительского SSD
48 тредов, если правильно помню, я не утверждал что это топ, нам просто больше не надо было, сколько в систему писали, столько и уходило в GCS. Сколько всего туда может пролезть я не измерял, подозреваю что сильно больше, особенно если использовать под это дело отдельный NIC.
Обычный потребительский SSD столько не потянет, для этого нужен NVMe через PCIe, разница в том, что такой сторадж имеет космическую стоимость за TiB, особенно если машина в облаке. Bare metal инстансы с быстрым стораджем в облаке стоят очень дорого если тебе нужно хранить сотни террабайт. AWS S3 или GCS по сравнению с этим стоит копейки и масштабируется до тех же самых GiB/sec скоростей. При этом надежность хранения у тебя намного выше чем в случае локального стораджа. Если это не понятно, зачем ты вообще взялся что-то такое использовать?
C>Это не проблема SSD, это проблема твоей сборки. Сделай нормальное охлаждение — и будет в разы. Один (!) SSD, даже не RAID. К тому же потребительский (!!).
учитывай размер своего потребительского SSD, за сколько он заполнится при записи 2.4GiB/s?
скорость может падать не только из-за теплового троттлинга, но и из-за сборки мусора в FTL
C>Это не проблема SSD, это проблема твоей сборки. Сделай нормальное охлаждение — и будет в разы. Один (!) SSD, даже не RAID. К тому же потребительский (!!).
это проблема в отсутствии у тебя опыта. у меня Fractal Design Define R5, это считай топ. потребительская дребедень рассчитана лишь на кратковременные пиковые нагрузки игр, не более того.
я так понимаю у тебя даже игрового пк в жизни не было, отсюда и глупые ожидания.
Здравствуйте, bitboi, Вы писали:
B>48 тредов, если правильно помню, я не утверждал что это топ, нам просто больше не надо было, сколько в систему писали, столько и уходило в GCS. Сколько всего туда может пролезть я не измерял, подозреваю что сильно больше, особенно если использовать под это дело отдельный NIC.
А, то есть ты подозреваешь. С этим конечно хрен поспоришь.
B>Обычный потребительский SSD столько не потянет, для этого нужен NVMe через PCIe, разница в том, что такой сторадж имеет космическую стоимость за TiB
Цифры где?
B>особенно если машина в облаке.
Без сомнений. Сколько с тебя сдерут, столько и заплатишь.
B>Если это не понятно, зачем ты вообще взялся что-то такое использовать?
Я уже раз 10 писал, что особая надежность нужна далеко не всегда. Чукчанечитатель?