Здравствуйте, Аноним, Вы писали:
А>Есть задача — хранить статистику с веб-ресурсов(логи) и генерить по ней отчеты. Нагрузка предполагается очень приличная, даже после агрегации 50-100млн( в пиках до полумиллиарда) записей в сутки. Выборки не сложные: диапазон, точное совпадение, group by.
А насколько сложные отчеты и какие требования к производительности?
А то для нескольких десятков гигов логов в сутки для отчетов вполне хватало текстовых файлов и стандартных средств типа grep, awk и всяких построителей графиков.
А>Какой сторадж посоветуете?
Ну, если писать данные большими блоками и анализировать "потоком", то почти любой

Ну или смотреть в сторону Hadoop, оно как раз для таких задач....