Подкиньте пожалуйста идейку. Для тестирования производительности необходимо забить две реплицируемые между собой БД данными от 100 000 строк, каждая из которых содержит xml (именно тип данных в PostgreSQL) документ размером не меньше 1 кб. Дальше буду в ней искать всевозможными способами.
Быть может существуют какие-то ресурсы для этого? Или идем на любой торрент, качаем большую книжку, и, допустим, по абзацам закидываем в БД?
БД, как уже упоминал, PostgreSQL.
Здравствуйте, dosik, Вы писали:
D>Добрый день.
D>Подкиньте пожалуйста идейку. Для тестирования производительности необходимо забить две реплицируемые между собой БД данными от 100 000 строк, каждая из которых содержит xml (именно тип данных в PostgreSQL) документ размером не меньше 1 кб. Дальше буду в ней искать всевозможными способами. D>Быть может существуют какие-то ресурсы для этого? Или идем на любой торрент, качаем большую книжку, и, допустим, по абзацам закидываем в БД? D>БД, как уже упоминал, PostgreSQL.
В Oracle для этой цели часто используются обращения к системному представлению all_objects (объектов БД). Там гарантировано есть несколько тысяч объектов. Если у PostgreSQL тоже есть системные таблицы, то удобно использовать именно их, а не привлекать внешнюю информацию. Написать скрипт который мультиплицирует исходное кол-во записей до требуемого объема. В общем я бы в этом направлении смотрел.
SQL> create table t
2 as
3 select *
4 from all_objects;
Table created.
Здравствуйте, merlin88, Вы писали: M>В Oracle для этой цели часто используются обращения к системному представлению all_objects (объектов БД). Там гарантировано есть несколько тысяч объектов. Если у PostgreSQL тоже есть системные таблицы, то удобно использовать именно их, а не привлекать внешнюю информацию. Написать скрипт который мультиплицирует исходное кол-во записей до требуемого объема. В общем я бы в этом направлении смотрел.
Спасибо за ответ, но мне нужны именно XML документы, чтоб погонять на прочность именно этот тип данных.
Может попробовать через API ВКонтакте стены пользователей по скачивать, да могут забанить после первой условной тысячи запросов.
Здравствуйте, dosik, Вы писали:
D>Спасибо за ответ, но мне нужны именно XML документы, чтоб погонять на прочность именно этот тип данных. D>Может попробовать через API ВКонтакте стены пользователей по скачивать, да могут забанить после первой условной тысячи запросов.
XML обертку для данных легко реализовать в том же скрипте. Т.е. у вас будет к примеру некая структура XML, в которую вы будете заталкивать текстовые данные.
В конце концов любой текстовый файл можно использовать как источник данных, при этом не потребуется подгружать соцсети )
Здравствуйте, merlin88, Вы писали:
M>XML обертку для данных легко реализовать в том же скрипте. Т.е. у вас будет к примеру некая структура XML, в которую вы будете заталкивать текстовые данные. M>В конце концов любой текстовый файл можно использовать как источник данных, при этом не потребуется подгружать соцсети )
Тоже об этом подумывал, что-то типа БСЭ и струтктура типа <название/><статья/>. Больше по сути для теста не надо.
Re[2]: Забить БД тестовыми данными от 100 000 строк
Здравствуйте, dosik, Вы писали:
D>Добрый день. D>Подкиньте пожалуйста идейку. Для тестирования производительности необходимо забить две реплицируемые между собой БД данными от 100 000 строк, каждая из которых содержит xml (именно тип данных в PostgreSQL) документ размером не меньше 1 кб. Дальше буду в ней искать всевозможными способами. D>Быть может существуют какие-то ресурсы для этого? Или идем на любой торрент, качаем большую книжку, и, допустим, по абзацам закидываем в БД? D>БД, как уже упоминал, PostgreSQL.