Если жирнющий файл — база SQLite, несколько десятков гигов, собрана через инет. Она постоянно обновляется — но, скорее всего, основная запись идёт в конец, да может в начале какие-то указатели обновляются. Ничего не удаляется. Хотелось бы её использовать в нескольких местах. Везде заново формировать — не вариант — очень долго. Хочется, чтобы можно было шарить основную базу, чтобы она скачивалась сразу, ну, а потом уже может и пусть каждый обновляется, это уже не критично. Но, или если клиент долго сам не обновлялся, то ему проще скачать обновления с актуальной базы с сервака, чем самому обновляться.
На флешке носить — не вариант.
Закачивать на какой-то сервак ftp/http — тоже так себе вариант, хоть и автоматом можно попробовать настроить.
Думал было на торренты — но вроде как если файл поменялся, он ему просто всему хэш пересчитает, и файл будет заново весь качаться. Или я не прав?
В какую сторону ещё можно посмотреть?
Тут подумалось — надо, во-первых, таки проверить свои догадки, по поводу того, какие места в файле меняются. И вторая идея — если основная масса не меняется и не перемещается — то тогда может ручками нарезать хоть по гигу, и тогда с большой вероятностью целиком будет перекачиваться только первый и последние файлы?