Завалялось у меня после апгрейдов несколько SSD размером ~250 Gb, разного размера и разной скорости. И подумалось — а не написал ли кто-нибудь умный такую программу, чтобы можно было объединить их в один логический диск, чтобы мелкие файлы раскидывались по дискам, а большие разделялись на части и тоже раскидывались?
Здравствуйте, CoderMonkey, Вы писали:
CM>Завалялось у меня после апгрейдов несколько SSD размером ~250 Gb, разного размера и разной скорости. И подумалось — а не написал ли кто-нибудь умный такую программу, чтобы можно было объединить их в один логический диск, чтобы мелкие файлы раскидывались по дискам, а большие разделялись на части и тоже раскидывались?
У меня матплата позволяет делать RAID из разных дисков. Я делал RAID 0 из двух разных SSD на 120 GB, вероятно и размер был немного разный, уже не помню.
Здравствуйте, CoderMonkey, Вы писали:
CM>Завалялось у меня после апгрейдов несколько SSD размером ~250 Gb, разного размера и разной скорости. И подумалось — а не написал ли кто-нибудь умный такую программу, чтобы можно было объединить их в один логический диск, чтобы мелкие файлы раскидывались по дискам, а большие разделялись на части и тоже раскидывались?
Звучит похоже. Но, насколько я понимаю, это работает на низком уровне. То есть, сделать разное поведение для больших и маленьких файлов нельзя. Либо только mirror, либо только stripe.
Здравствуйте, CoderMonkey, Вы писали:
CM>Звучит похоже. Но, насколько я понимаю, это работает на низком уровне. То есть, сделать разное поведение для больших и маленьких файлов нельзя. Либо только mirror, либо только stripe.
Мне интересно, как вы себе представляете этот процесс "разделения" ?
Вот открыла моя программа файл и собирается в него писать.
Я должен заранее сказать драйверу, что хочу туда гигабайт записать, а не килобайт?
Или драйвер должен сначала писать всё на один диск, а потом в бэкграунде размазывать, если размер превысил лимит?
--------------------------------------------------------------
Правильно заданный вопрос содержит в себе половину ответа
Здравствуйте, CoderMonkey, Вы писали:
CM>Завалялось у меня после апгрейдов несколько SSD размером ~250 Gb, разного размера и разной скорости. И подумалось — а не написал ли кто-нибудь умный такую программу, чтобы можно было объединить их в один логический диск, чтобы мелкие файлы раскидывались по дискам, а большие разделялись на части и тоже раскидывались?
Здравствуйте, iZEN, Вы писали:
_>>Ничего против zfs не имею, кроме как монструозность, не юниксвейненько. _>>
ZEN>Код ZFS по размеру сравним с объёмом кода XFS. Он наиболее документированный и прозрачный для отладочных механизмов (ZDB, DTrace).
А вот xfs я вообще не перевариваю, по сравнению с zfs, можно сказать, ничего не умеет при сравнимой сложности кода и прожорливости в работе, монстр-немогутор.
Здравствуйте, fin_81, Вы писали:
_>Здравствуйте, iZEN, Вы писали:
ZEN>>ZFS
_>Думаешь, осилит win-сообщество ZFSonWin? _>Ничего против zfs не имею, кроме как монструозность, не юниксвейненько. _>
Для zfs надо овер дофига ресурсов https://icesquare.com/wordpress/how-to-improve-zfs-performance
Здравствуйте, AndrewN, Вы писали:
AN>Мне интересно, как вы себе представляете этот процесс "разделения" ? AN>Вот открыла моя программа файл и собирается в него писать. AN>Я должен заранее сказать драйверу, что хочу туда гигабайт записать, а не килобайт?
А кэш записи уже кто-то отменил, что ли? Ну и самый простой вариант — первый кластер пишем на первый диск, следующий на второй и так далее по кругу.