Re[4]: Борьба с битыми ссылками в html5
От: m2user  
Дата: 06.05.24 17:39
Оценка:
V>>Далеко там люди не уедут, слишком малые объёмы и практически нет систематизации. Вообще я хочу увидеть базу не в 100-1000 страниц, а от 10'000-100'000 тысяч страниц. И причём не случайных страниц, которые напихали разные люди, а систематизированные записи.

SK>На 100 тысячах могут быть проблемы, из за ограничений файловой системы.


На сайте MyTetra кстати есть описание формата данных и тесты производительности:
Формат хранения данных в MyTetra
Вызывает беспокойство, что список записей, их метаданных и связей хранится в одном XML файле.

Нагрузочное тестирование MyTetra 1.42 на 100 000 записей
Автор исходит из предположения, что 100K записей накопится за 50 лет. Но это не случай ТС.

Замеры:

Создание новой записи: 2.38 сек.
Редактирование атрибутов записи: 2.35 сек.
Поиск записи с использованием только метаинформации (название, текстовые метки): 6.17 сек.
Полнотекстовый поиск записи по всей базе: 1 мин. 11 сек.

Размер файла дерева mytetra.xml 40.5Мб.


К сожалению не приведено потребление памяти.

Я полагаю, что добавление новой/редактирование метаданных существующей записи будет приводить к полной перезаписи mytetra.xml, что неоптимально.

Также не вполне понятно, что версионностью заметок.
В описании упоминается следующее:

Программа имеет настраиваемую директорию-корзину, куда автоматическискладывает предыдущие версии всех записей

mytetra
 
Подождите ...
Wait...
Пока на собственное сообщение не было ответов, его можно удалить.