Информация об изменениях

Сообщение Re[6]: JSON vs BSON: очередное торжество больного воображени от 20.03.2023 18:26

Изменено 20.03.2023 18:28 ·

Re[6]: JSON vs BSON: очередное торжество больного воображени
Здравствуйте, swame, Вы писали:

S>>>Но он ориентирован на более скоростную и экономичную обработку, чем при обычном использовании JSON высокоуровневыми обертками.

S>·>Но ведь тебе всё равно придётся где-то парсить содержимое твоих строк. Ты просто перенёс код из парсера наружу. И т.к. как парсер стал делать меньше работы, то и не удивительно замеры показали типа повысилась скорость. Но работа-то никуда не делась... просто ты исключил её из замеров.
S>Работы меньше. Размер файла меньше раза в 2-3.
Непонятно засчёт чего. "0,analog_0,0,0,10,90,18" практически такого же размера как и [0,"analog_0",0,0,10,90,18]. Ну и зипануть можно. И разницы в микроскоп не заметишь.

S>Число узлов в DOM дереве при парсинге меньше на порядок. Соответственно и занимаемая память.

Ну кто ж такое DOM-ом парсит.. Возьми событийный парсер и раскладывай в памяти как угодно...

S>При обработке (на последнем, самом объемном уровне дерева)вместо создания хэш таблицы или поиска перебором по атрибуту идет обращение к элементу массива.

S>Мой маленький парсер достаточно быстрый. Естественно, его работа включена в общий замер.
Не понял. Как к элементу строки "0,analog_0,0,0,10,90,18" по индексу обратишься? Придётся пропарсить и разложить в массив.

S>·>Хотя возможно у тебя какой-то корявый медленный json-парсер, который лень фиксить или заменить, и проще обойти вот такими строками.

S>Обычный, хороший парсер, просто, условно, вместо обработки миллиона атрибутов в секунду я обработаю 3 миллиона.
...или вообще поди в память не надо складывать, а можно обрабатывать поточно на порядок быстрее.

S>У меня объемы очень большие, лишняя скорость не помешает.

С DOM хорошей скорости вообще практически никак не обеспечить.

S>Да, я такие случаи отрабатываю, и более сложные. наверняка найдутся супернавороченные, котороые я не обрабатываю, пока не встретились, но и в этом топике приведена куча примеров, которые json не пережевывает.

Если это какой-то особый случай, достаточно взять более подходящий формат, их как грязи, а изобретать ещё один — моветон.
Re[6]: JSON vs BSON: очередное торжество больного воображени
Здравствуйте, swame, Вы писали:

S>>>Но он ориентирован на более скоростную и экономичную обработку, чем при обычном использовании JSON высокоуровневыми обертками.

S>·>Но ведь тебе всё равно придётся где-то парсить содержимое твоих строк. Ты просто перенёс код из парсера наружу. И т.к. как парсер стал делать меньше работы, то и не удивительно замеры показали типа повысилась скорость. Но работа-то никуда не делась... просто ты исключил её из замеров.
S>Работы меньше. Размер файла меньше раза в 2-3.
Непонятно засчёт чего. "0,analog_0,0,0,10,90,18" практически такого же размера как и [0,"analog_0",0,0,10,90,18]. Ну и зипануть можно. И разницы в микроскоп не заметишь.

S>Число узлов в DOM дереве при парсинге меньше на порядок. Соответственно и занимаемая память.

Ну кто ж такое DOM-ом парсит.. Возьми событийный парсер и раскладывай в памяти как угодно...

S>При обработке (на последнем, самом объемном уровне дерева)вместо создания хэш таблицы или поиска перебором по атрибуту идет обращение к элементу массива.

S>Мой маленький парсер достаточно быстрый. Естественно, его работа включена в общий замер.
Не понял. Как к элементу строки "0,analog_0,0,0,10,90,18" по индексу обратишься? Придётся пропарсить и разложить в массив (т.е. сделать работу json-парсера).

S>·>Хотя возможно у тебя какой-то корявый медленный json-парсер, который лень фиксить или заменить, и проще обойти вот такими строками.

S>Обычный, хороший парсер, просто, условно, вместо обработки миллиона атрибутов в секунду я обработаю 3 миллиона.
...или вообще поди в память не надо складывать, а можно обрабатывать поточно на порядок быстрее.

S>У меня объемы очень большие, лишняя скорость не помешает.

С DOM хорошей скорости вообще практически никак не обеспечить.

S>Да, я такие случаи отрабатываю, и более сложные. наверняка найдутся супернавороченные, котороые я не обрабатываю, пока не встретились, но и в этом топике приведена куча примеров, которые json не пережевывает.

Если это какой-то особый случай, достаточно взять более подходящий формат, их как грязи, а изобретать ещё один — моветон.