V>>Далеко там люди не уедут, слишком малые объёмы и практически нет систематизации. Вообще я хочу увидеть базу не в 100-1000 страниц, а от 10'000-100'000 тысяч страниц. И причём не случайных страниц, которые напихали разные люди, а систематизированные записи.
SK>На 100 тысячах могут быть проблемы, из за ограничений файловой системы.
На сайте MyTetra кстати есть описание формата данных и тесты производительности:
Формат хранения данных в MyTetra
Вызывает беспокойство, что список записей, их метаданных и связей хранится в одном XML файле.
Нагрузочное тестирование MyTetra 1.42 на 100 000 записей
Автор исходит из предположения, что 100K записей накопится за 50 лет. Но это не случай ТС.
Замеры:
Создание новой записи: 2.38 сек.
Редактирование атрибутов записи: 2.35 сек.
Поиск записи с использованием только метаинформации (название, текстовые метки): 6.17 сек.
Полнотекстовый поиск записи по всей базе: 1 мин. 11 сек.
Размер файла дерева mytetra.xml 40.5Мб.
К сожалению не приведено потребление памяти.
Я полагаю, что добавление новой/редактирование метаданных существующей записи будет приводить к полной перезаписи mytetra.xml, что неоптимально.
Также не вполне понятно, что версионностью заметок.
В описании упоминается следующее:
Программа имеет настраиваемую директорию-корзину, куда автоматическискладывает предыдущие версии всех записей