Здравствуйте, CreatorCray, Вы писали:
CC>Но вот на моём рабочем макабуке выход из сна каждый раз по разному. Порой приходится тыкать в power button потому что на открывание крышки реакции нету. Порой приходится тыкать несколько раз, потому что реакции даже на это нету.
Та же ерунда. Иной раз впадает в какой-то особенно глубокий сон, что просыпание занимает пару минут. Не реагирует ни на что. У меня есть (ничем не обоснованное) подозрение, что это как-то с доступностью сети связано.
Здравствуйте, vdimas, Вы писали:
V>Что есть "виртуалка"? Если что-то типа VMWare или VirtualBox, то да, можно произносить с долей презрения. V>Но докер в 10-й винде работает под HyperV, а это полноценный супервизор
В VMware ващета давно тоже полноценный hypervisor с аппаратной виртуализацией и все дела.
Здравствуйте, Иван Дубров, Вы писали:
ИД>Та же ерунда. Иной раз впадает в какой-то особенно глубокий сон, что просыпание занимает пару минут. Не реагирует ни на что. У меня есть (ничем не обоснованное) подозрение, что это как-то с доступностью сети связано.
SSD/HDD?
Дойдут руки — сам посмотрю что там происходит. По хорошему надо написать радар но каждый раз когда оно случается мне просто некогда.
Здравствуйте, Cyberax, Вы писали:
C>>>Не поддерживается. В виртуалке запускается Линукс, а в нём Докер. V>>Что есть "виртуалка"? Если что-то типа VMWare или VirtualBox, то да, можно произносить с долей презрения. V>>Но докер в 10-й винде работает под HyperV, а это полноценный супервизор C>HyperV — это не просто виртуалка, а плохая виртуалка.
И у тебя есть соответствующие тесты или балабол?
HyperV — это один из двух лучших гипервизоров на сегодня. Все остальные нервно курят в сторонке.
Собсно, тем Windows 10 и отличается от Windows 7, что сама Win10 является лишь одной из "гостевых ос" в этом гипервизоре. ))
В общем, любая другая гостевая ОС работает в HyperV-based операционках ровно так же, как "основная". Потому что они в равных условиях.
И как всегда, тебе не хватает хотя бы немного RTFM.
V>>под которым Linux работает порой быстрее, чем родной, особенно в плане сетки. C>LOL.
Здравствуйте, CreatorCray, Вы писали:
V>>Что есть "виртуалка"? Если что-то типа VMWare или VirtualBox, то да, можно произносить с долей презрения. V>>Но докер в 10-й винде работает под HyperV, а это полноценный супервизор CC>В VMware ващета давно тоже полноценный hypervisor с аппаратной виртуализацией и все дела.
Ммм... речь была примерно об этом:
Все эти VirtualBox, WMWare и прочие — это "нашлепка" на уже имеющуюся ОСь (картинка справа).
С эффективностью ввода-вывода в них хуже.
Если же сама ОС построена как гипервизор (картинка слева), то "основная" ОС выполняется с той же эффективностью, как гостевые.
Т.е. Windows 10 pro с установленной ролью гипервизора работает как Windows Server 2008 или выше. )))
Собсно, в схеме слева идёт "дробление" происходящего не столько на ОСи, сколько на процессы. Т.е. процессы разных ОС представляют из себя общую "кучу" клиентов к аппаратуре и находятся м/у собой на равных правах (за исключением права управления гипервизором).
Поэтому, в этой схеме без проблем получается, например, полноценное 3D на GPU, бо принцип ровно такой же, как если бы несколько процессов из единственной ОС делили м/у собой ресурсы GPU.
Ну а если брать "голые вычисления" без IO, то они давно работают во всех виртуалках примерно одинаково, с родной скоростью проца.
Здравствуйте, Cyberax, Вы писали:
V>>Но докер в 10-й винде работает под HyperV, а это полноценный супервизор C>HyperV — это не просто виртуалка, а плохая виртуалка.
Здравствуйте, vdimas, Вы писали:
C>>HyperV — это не просто виртуалка, а плохая виртуалка. V>И у тебя есть соответствующие тесты или балабол?
Есть, есть.
V>HyperV — это один из двух лучших гипервизоров на сегодня. Все остальные нервно курят в сторонке.
HyperV — это рвотная масса от MS. Оно плохо масштабируется, device passthrough работает нормально только для сетевых устройств, отсутствует hard real time и т.д.
KVM же нормально работает на сотнях машин на одном узле и с терабайтами памяти и hard realtime. При этом возможно гарантировать производительность отдельных виртуалок благодаря поддержке CAT в Haswell и более старших CPU.
V>Собсно, тем Windows 10 и отличается от Windows 7, что сама Win10 является лишь одной из "гостевых ос" в этом гипервизоре. ))
V>В общем, любая другая гостевая ОС работает в HyperV-based операционках ровно так же, как "основная". Потому что они в равных условиях.
V>>>под которым Linux работает порой быстрее, чем родной, особенно в плане сетки. C>>LOL. V>Медицинский факт.
Как там теорема Котельникова поживает?
Здравствуйте, vdimas, Вы писали:
V>>>Но докер в 10-й винде работает под HyperV, а это полноценный супервизор C>>HyperV — это не просто виртуалка, а плохая виртуалка. V>Я просто оставлю это здесь: V>https://cloudbase.it/openstack-kvm-vs-hyper-v-part-2/
LOL. "Один журнал поместим в серную кислоту, а другой в дистилированную воду".
Так benchmark'и делают только идиоты. Кстати, и KVM ещё взяли двухлетней давности.
Здравствуйте, vdimas, Вы писали:
V>Image: 4071a3886784426fae41c3d78007fab4.jpg V>Все эти VirtualBox, WMWare и прочие — это "нашлепка" на уже имеющуюся ОСь (картинка справа). V>С эффективностью ввода-вывода в них хуже.
Ой вей...
Microsoft изобрёл bare-metal виртуализацию. Которая поддерживается в Xen с самого начала (2003-й год) и в VMWare с выхода ESXi (2004-й год?).
V>Если же сама ОС построена как гипервизор (картинка слева), то "основная" ОС выполняется с той же эффективностью, как гостевые.
Внимание, вопрос! Где находятся драйвера устройств, которые предоставляются клиентским ОС, в модели bare metal? Второй вопрос: как называется то, в чём находятся драйвера устройств, которые предоставляются клиентским ОС?
but hypervisors offer better performance, have security advantages, and juggle the competing needs of multiple virtual machines better [...]
In order to [deliver Virtual Infrastructure], you need the separate hypervisor layer.
LOL.
V>Поэтому, в этой схеме без проблем получается, например, полноценное 3D на GPU, бо принцип ровно такой же, как если бы несколько процессов из единственной ОС делили м/у собой ресурсы GPU.
Если GPU разделяется между клиентами, то никакой разницы нет. Что KVM, что Hyper-V используют одинаковую технологию — виртуализуют потоки команд. При это реальный драйвер GPU будет работать в хост-системе.
Здравствуйте, Cyberax, Вы писали:
C>>>HyperV — это не просто виртуалка, а плохая виртуалка. V>>И у тебя есть соответствующие тесты или балабол? C>Есть, есть.
Да нету у тебя ничего. И не было никогда. Потому что ни у кого нет, а из пальца даже ты насосать не сможешь.
V>>HyperV — это один из двух лучших гипервизоров на сегодня. Все остальные нервно курят в сторонке. C>HyperV — это рвотная масса от MS.
У тебя рвотная масса от аббревиатуры MS и периодические приступы ангажированности.
Но то, что контейнеры в виндовом докере работают пошустрее, чем в линуховом — весьма забавный современный факт, как по мне. )))
C>Оно плохо масштабируется
Из цикла "нет ты, нет ты".
То, за что все ругают KVM, ты решил приписать Hyper-V.
Ссы в глаза божья роса. ))
По-факту на KVM сидят облака средней размерности, до тысячи узлов, тут по статистике KVM обходит Hyper-V по числу инсталляций, дооо.
А вот когда выше — резко сливает согласно сухой статистике.
C>KVM же нормально работает на сотнях машин на одном узле и с терабайтами памяти и hard realtime. При этом возможно гарантировать производительность отдельных виртуалок благодаря поддержке CAT в Haswell и более старших CPU.
Если уж обсуждать, то весь целиком набор фич, а не пытаться судорожно выхватывать некоторые из них.
По общему набору фич KVM всё еще сосёт не нагибаясь перед Hyper-V. Это если оставить за скобками банальную эффективность, по которой оно отставало всю дорогу и продолжает отставать до сих пор.
V>>Собсно, тем Windows 10 и отличается от Windows 7, что сама Win10 является лишь одной из "гостевых ос" в этом гипервизоре. )) C> V>>В общем, любая другая гостевая ОС работает в HyperV-based операционках ровно так же, как "основная". Потому что они в равных условиях. C>
Я же говорил, что ты ничего не знаешь, но бежишь-торопишься клеймить.
Чудес не бывает. Эффективность Hyper-V достигается за счёт наилучшей архитектуры на основе микроядра (самый удачный гибрид на прямо сейчас). Линухам еще малость подрасти надо в этом направлении. Хотя, они постепенно двигаются куда надо, но уж очень медленно.
Здравствуйте, vdimas, Вы писали:
C>>Есть, есть. V>Да нету у тебя ничего. И не было никогда. Потому что ни у кого нет, а из пальца даже ты насосать не сможешь.
Скоро будут, подождите re:Invent'а.
V>Но то, что контейнеры в виндовом докере работают пошустрее, чем в линуховом — весьма забавный современный факт, как по мне. )))
Контейнеры чего?
V>По-факту на KVM сидят облака средней размерности, до тысячи узлов, тут по статистике KVM обходит Hyper-V по числу инсталляций, дооо.
LOLOLOLOLOLOLOLLLL!
Я в Амазоне работаю, если что.
C>>KVM же нормально работает на сотнях машин на одном узле и с терабайтами памяти и hard realtime. При этом возможно гарантировать производительность отдельных виртуалок благодаря поддержке CAT в Haswell и более старших CPU. V>Если уж обсуждать, то весь целиком набор фич, а не пытаться судорожно выхватывать некоторые из них.
Ну вот я и смотрю на весь набор фич. HyperV — это приблуда для венды для запуска WinXP в режиме эмуляции, с красивой консолькой для детей, не освоивших CLI.
KVM — это промышленная система для разворачивания крупномасштабных сетей в миллионы узлов.
V>По общему набору фич KVM всё еще сосёт не нагибаясь перед Hyper-V. Это если оставить за скобками банальную эффективность, по которой оно отставало всю дорогу и продолжает отставать до сих пор.
По эффективности современный KVM оставляет Hyper-V. В частности, в KVM правильно реализовано управление питанием, из-за чего кластера на KVM эффективнее Hyper-V в разы.
V>Чудес не бывает. Эффективность Hyper-V достигается за счёт наилучшей архитектуры на основе микроядра (самый удачный гибрид на прямо сейчас). Линухам еще малость подрасти надо в этом направлении. Хотя, они постепенно двигаются куда надо, но уж очень медленно.
Эта орхитектура была придумана в Xen в 2003-м году. И была выброшена за ненадобностью в KVM.
C>>Как там теорема Котельникова поживает? V>А что с ней не так?
Да я вспоминаю предыдущие выбросы того же масштаба 'ности.
Здравствуйте, vdimas, Вы писали:
C>>LOL. "Один журнал поместим в серную кислоту, а другой в дистилированную воду". V>Тест одинаков для обоих. V>И тест довольно остроумный, заметь.
В тесте сравнивается KVM почти трёхлетней давности.
C>>Так benchmark'и делают только идиоты. V>Такие тесты делают лишь циничные практики, не страдающие ангажированностью.
Нет, я про методологию. См. на графики и дикие скачки на них.
Здравствуйте, Cyberax, Вы писали:
V>>Image: 4071a3886784426fae41c3d78007fab4.jpg V>>Все эти VirtualBox, WMWare и прочие — это "нашлепка" на уже имеющуюся ОСь (картинка справа). V>>С эффективностью ввода-вывода в них хуже. C>Ой вей... C>Microsoft изобрёл bare-metal виртуализацию. Которая поддерживается в Xen с самого начала (2003-й год)
"С самого начала" и последующие 5-6 лет Xen была не пригодна ни для чего абсолютно.
Студенческая поделка, proof-of-concept. Не умаляя заслуг студентов, разумеется, м/у "просто технологией гипервизора" и готовой к использованию сложнейшей инфраструктуры — пропасть.
И вообще, смыл переводить стрелки от сути вещей в несущественное? ОК, даже если тебе захотелось ответвиться на обсуждение "кто первый", то я с полноценной виртуализацией баловался еще на EC-1035 которая аналог IBM 370 (там бесконечное кол-во "матрёшек" виртуализации при возможности практически прямого доступа к оборудованию или же к его эмуляции — на выбор для каждого конкретного устройства). Поэтому, ты тут свой пенис разве что в глубину мог измерить. )) Ничего нового в такой технологии нет, все грабли были набиты уже очень давно. Речь о частностях реализации в конкретной архитектуре процов и железа вокруг них.
А вообще глупое ответвление вышло, потому что ни ты ни я к этим процессам не имеют никакого отношения. Мы лишь потребители таких технологий, но не их разработчики.
V>>Если же сама ОС построена как гипервизор (картинка слева), то "основная" ОС выполняется с той же эффективностью, как гостевые. C>Внимание, вопрос! Где находятся драйвера устройств, которые предоставляются клиентским ОС, в модели bare metal?
Виртуализация в модели "bare metal"???
Переварились вы там в собственном соку смотрю.
C>Второй вопрос: как называется то, в чём находятся драйвера устройств, которые предоставляются клиентским ОС?
Конкретно в Hyper-V каждый драйвер разделён на две части — на "клиентскую" и "микроядерную". Ты о какой части спрашивал?
Например, клиентские части этих драйверов поставляются в RedHat и SUSE еще с 2012-го года. Именно поэтому они под Hyper-V умудряются работать чуть быстрее, чем в случае "bare metal" (тут я применил этот сленг по-делу, в отличие от). На KVM стабильно работает на пару процентов медленней, чем в железе, дело известное.
Что касается виндов, то клиентская часть этих дров в Windows 8.1 и выше живет в связке "новой модели драйверов" (так и называют порой). Например, пришла новая НЕСОВМЕСТИМАЯ модель WDDM (поотлетали многие старые драйвера видюх) и для многих других классов устройств тоже. Нововведения заключаются именно в таком разделении и описании внутреннего VMB-интерфейса на каждый класс устройств.
C> but hypervisors offer better performance, have security advantages, and juggle the competing needs of multiple virtual machines better [...]
C> In order to [deliver Virtual Infrastructure], you need the separate hypervisor layer.
C>LOL.
Веселая статья, почитал. Автор на полном серьёзе считает, что WMWare сдулось благодаря KVM, а не Hyper-V, бггг...
Напиши автору, чтобы он открыл для себя такую вещь, как сухую статистику, и не позорился более.
V>>Поэтому, в этой схеме без проблем получается, например, полноценное 3D на GPU, бо принцип ровно такой же, как если бы несколько процессов из единственной ОС делили м/у собой ресурсы GPU. C>Если GPU разделяется между клиентами, то никакой разницы нет. Что KVM, что Hyper-V используют одинаковую технологию — виртуализуют потоки команд. При это реальный драйвер GPU будет работать в хост-системе.
Ты утомил своим невежеством, натурально.
Да нет такого понятия "хост-системы" в случае установленной роли Hyper-V.
Все системы — гостевые...
Пффф, кароч... повторяется старая история, дай боже мине терпения...
В общем, есть т.н. "материнская патриция" (она же "родительская") и "дочерние патриции".
В этом-то и суть, бро. Остальное — лишь детали исполнения.
Т.е. самая мегасуть такого подхода в том, что вылизывая по-максимуму эффективность работы родительской патриции, автоматом вылизывается эффективность дочерних. Что хорошо видно уже в Server 2012 и совсем достойно в Windows 10 pro и в Server 2016.
Сейчас можно сравнивать лишь удобство управления различными облачными системами на основе виртуализации, но не о самих технологиях. Потому что де-факто Hyper-V — самый эффективный. ))
Просто, самые навороченные системы управления облаками — они всё-равно всегда третьесторонние. Т.е. этот спор будет о третьесторонних утилитных продуктах и мне не интересен.
ЧТД, не понимаешь.
"Одному клиенту" означает "одной гостевой ОС" или "одному процессу"?
Блин, неужели всё так плохо с пониманием?
Если ты говорил про "отдать устройство гостевой ОС", то внутри неё в любом случае живет драйвер GPU, т.е. ну никак не получится сделать эту "прокладку" тоньше, чем это на сейчас в WDDM. Тут всё, упёрлись уже в минимально-возможное кол-во считанных единиц тактов процессора, необходимых на разыменование и косвенный вызов ф-ии по адресу.
Собсно, если уж ты гонишься за минимальной толщиной "прокладки", то потрать хотя бы пол-часа своей жизни на знакомство с DirectX 12 поверх новой WDDM. Тоньше не бывает. Причём, толщина не зависит от того, из "материнской" ли системы обращаются к GPU, или из гостевой.
Здравствуйте, Cyberax, Вы писали:
C>>>Есть, есть. V>>Да нету у тебя ничего. И не было никогда. Потому что ни у кого нет, а из пальца даже ты насосать не сможешь. C>Скоро будут, подождите re:Invent'а.
Да-да, я помню. Про Server 2008 так же говорили. Потом про Server 2012. Сейчас говорят про Server 2016.
Не напомнишь, почему все предыдущие разы сдувались?
V>>Но то, что контейнеры в виндовом докере работают пошустрее, чем в линуховом — весьма забавный современный факт, как по мне. ))) C>Контейнеры чего?
Чего угодно. У меня самые ходовые — линейка CentOS (бесплатный вариант RedHat).
V>>По-факту на KVM сидят облака средней размерности, до тысячи узлов, тут по статистике KVM обходит Hyper-V по числу инсталляций, дооо. C>LOLOLOLOLOLOLOLLLL! C>Я в Амазоне работаю, если что.
И как один твой Амазон повлияет на статистику? ))
Я же не написал, что их под KVM нет вообще, я написал, что в сегменте выше 1000 железных узлов согласно сухой статистики Hyper-V давно и прочно в лидерах.
C>>>KVM же нормально работает на сотнях машин на одном узле и с терабайтами памяти и hard realtime. При этом возможно гарантировать производительность отдельных виртуалок благодаря поддержке CAT в Haswell и более старших CPU. V>>Если уж обсуждать, то весь целиком набор фич, а не пытаться судорожно выхватывать некоторые из них. C>Ну вот я и смотрю на весь набор фич. HyperV — это приблуда для венды для запуска WinXP в режиме эмуляции, с красивой консолькой для детей, не освоивших CLI.
Я рядом так и написал, что тебя тянет сравнивать набор утилит под технологию, а не саму технологию, ы-ы-ы.
Ну так и давай сравнивать третьесторонние тулзы, фиг ле, их многие десятки под Hyper-V.
C>KVM — это промышленная система для разворачивания крупномасштабных сетей в миллионы узлов.
Э, нет, KVM — это система виртуализации.
А системы управления — это ортогональная функциональность.
Тем более, что ты пытаешься лукавить — я-то говорил о "железных" узлах, а не виртуальных.
С кол-вом виртуальных в Hyper-V проблем нет. Спокойно работающий виртуальный узел переезжает на другое железо "по-горячему". Т.е. нарастил себе железо в кластер и перегнал на него работающие виртуальные узлы, сбалансировав нагрузку.
Такую фичу в KVM уже сделали или как? Еще пару лет назад ругали за отсутствие такого же гладкого переезда в рантайме.
C>По эффективности современный KVM оставляет Hyper-V. В частности, в KVM правильно реализовано управление питанием, из-за чего кластера на KVM эффективнее Hyper-V в разы.
И опять история повторяется.
Еще в прошлом году KVM ругали за недостаточные ср-ва по управлению питанием. И тут ты такой выскакиваешь и говоришь, что в KVM с управлением питанием лучше. Из какого пальца ты это насасываешь? Ты можешь сделать сухое сравнение этого вопроса с Hyper-V или тупо варишься в своём соку?
V>>Чудес не бывает. Эффективность Hyper-V достигается за счёт наилучшей архитектуры на основе микроядра (самый удачный гибрид на прямо сейчас). Линухам еще малость подрасти надо в этом направлении. Хотя, они постепенно двигаются куда надо, но уж очень медленно. C>Эта орхитектура была придумана в Xen в 2003-м году. И была выброшена за ненадобностью в KVM.
Эта архитектура была придумана за 40 лет до них, если что. И выброшена не была. Чистое микроядро имеет свои проблемы, да. Поэтому, современные качественные микроядра — они всегда гибридные. Т.е., каждый класс устройств имеет СВОЮ наиболее эффективную для этого класса устройств модель. Т.е. сейчас идёт вылизывание эффективности буквально до такта процессора.
В этом, собсно и состоит боль и разочарование линухов, что её ядерная модель "всё является файлом" — это как гиря на ногах. 19-й век, блин. )) И не переплюнешь. Много глупых лишних тактов проца в итоге.
Не зря именно в линухах сетевые картейки гоняют в юзер-левельном режиме, что эту архаичность по-другому не переплюнуть.
В виндах без всяких юзерных дров получается такая же эффективность. Я это уже высмеивал, помнится.
C>>>Как там теорема Котельникова поживает? V>>А что с ней не так? C>Да я вспоминаю предыдущие выбросы того же масштаба 'ности.
Т.е., сформулировать не можешь?
Ну напомни, хотя бы, а то прям заинтриговал. ))
Здравствуйте, vdimas, Вы писали:
V>я написал, что в сегменте выше 1000 железных узлов согласно сухой статистики Hyper-V давно и прочно в лидерах.
Вот не наблюдал я никогда такого: VMware ESX — полно, KVM — полно. HyperV же всегда был в следовых количествах.
Просто потому что они пришли на этот рынок сильно позже и сковырнуть толстых заказчиков, уже плотно на чём то сидящих довольно сложно.
V>С кол-вом виртуальных в Hyper-V проблем нет. Спокойно работающий виртуальный узел переезжает на другое железо "по-горячему". Т.е. нарастил себе железо в кластер и перегнал на него работающие виртуальные узлы, сбалансировав нагрузку.
В ESX есть.
Здравствуйте, vdimas, Вы писали:
C>>Скоро будут, подождите re:Invent'а. V>Да-да, я помню. Про Server 2008 так же говорили. Потом про Server 2012. Сейчас говорят про Server 2016. V>Не напомнишь, почему все предыдущие разы сдувались?
Что именно? KVM на большей части своей жизни — быстрее последней изданной версии Windows.
V>>>Но то, что контейнеры в виндовом докере работают пошустрее, чем в линуховом — весьма забавный современный факт, как по мне. ))) C>>Контейнеры чего? V>Чего угодно. У меня самые ходовые — линейка CentOS (бесплатный вариант RedHat).
Вот не надо бредить. Под Виндой контейнеры работают через виртуалку, а значит быстрее могут работать, только если виртуалка занимается читингом (например, игнорирует барьеры при работе с диском).
C>>Я в Амазоне работаю, если что. V>И как один твой Амазон повлияет на статистику? ))
Он один больше, чем все остальные облачные провайдеры вместе взятые.
V>Я же не написал, что их под KVM нет вообще, я написал, что в сегменте выше 1000 железных узлов согласно сухой статистики Hyper-V давно и прочно в лидерах.
LOL. Я знаю большинство крупных кластеров — Hyper-V там нет и близко.
C>>Ну вот я и смотрю на весь набор фич. HyperV — это приблуда для венды для запуска WinXP в режиме эмуляции, с красивой консолькой для детей, не освоивших CLI. V>Я рядом так и написал, что тебя тянет сравнивать набор утилит под технологию, а не саму технологию, ы-ы-ы.
А самая технолигя — ровно слизана с Xen, примерно 15-летней давности. Нынешний Xen за это время дорос до realtime и high-reliability.
C>>KVM — это промышленная система для разворачивания крупномасштабных сетей в миллионы узлов. V>Э, нет, KVM — это система виртуализации.
Ага, и оно самая продвинутая.
V>С кол-вом виртуальных в Hyper-V проблем нет. Спокойно работающий виртуальный узел переезжает на другое железо "по-горячему". Т.е. нарастил себе железо в кластер и перегнал на него работающие виртуальные узлы, сбалансировав нагрузку. V>Такую фичу в KVM уже сделали или как? Еще пару лет назад ругали за отсутствие такого же гладкого переезда в рантайме. Такая фича была в Xen с 2004-го, в KVM с 2008-го. Нынешний state-of-the-art — это запуск виртуалки на параллельных узлах для обеспечения защиты от аппаратных сбоев.
V>Еще в прошлом году KVM ругали за недостаточные ср-ва по управлению питанием. И тут ты такой выскакиваешь и говоришь, что в KVM с управлением питанием лучше. Из какого пальца ты это насасываешь? Ты можешь сделать сухое сравнение этого вопроса с Hyper-V или тупо варишься в своём соку?
Где ругали?
C>>Эта орхитектура была придумана в Xen в 2003-м году. И была выброшена за ненадобностью в KVM. V>Эта архитектура была придумана за 40 лет до них, если что. И выброшена не была.
Была. В Линуксе сейчас лучший в мире планировщик задач и менеджер памяти, масштабирующиеся на любое железо. Потому его и легко можно использовать в качестве гипервизора, процессы KVM интегрируются с SELinux, маршрутизацией и т.д. При желании стандартными средствами делается и passthrough для железа — IOMMU в Линуксе является естественными расширением обычного MMU.
Но в Винде планировщик задач и менеджер памяти не меняли фундаментально с незапамятных времён, и они лишь чуть лучше гуана мамонта. Потому MS и пришлось создать, фактически, ещё одно ядро для гипервизора, которое может нормально планировать задачи. Причём это полноценное ядро — с драйверами и защитой памяти.
V>Не зря именно в линухах сетевые картейки гоняют в юзер-левельном режиме, что эту архаичность по-другому не переплюнуть.
Да-да. Скажи это haproxy.
V>Т.е., сформулировать не можешь? V>Ну напомни, хотя бы, а то прям заинтриговал. ))
Поищи поиском.
Здравствуйте, CreatorCray, Вы писали:
V>>я написал, что в сегменте выше 1000 железных узлов согласно сухой статистики Hyper-V давно и прочно в лидерах. CC>Вот не наблюдал я никогда такого: VMware ESX — полно, KVM — полно.
Есть статистика по сегментам.
V>>С кол-вом виртуальных в Hyper-V проблем нет. Спокойно работающий виртуальный узел переезжает на другое железо "по-горячему". Т.е. нарастил себе железо в кластер и перегнал на него работающие виртуальные узлы, сбалансировав нагрузку. CC>В ESX есть.
Здравствуйте, Философ, Вы писали:
Ф>Ценна ведь не ОС сама по себе, а приложения, которые под ней запускаются.
Пул приложений основополагающий критерий для большинства пользователей.
Ф>А что такого в MacOS?
MacOS [ˌmak ˌoʊ ˌɛs] (изначально была представлена как Mac OS X, в 2012 переименована в OS X, в 2016 переименована в macOS) — проприетарная операционная система производства Apple. Является преемницей Mac OS 9.
Значит потёрли, что иксы победили, теперь это снова MacOS, вот только не тот:
MacOS 9 — последняя версия «классической» Macintosh Operating System (Mac OS), представленная Apple 23 октября 1999 года, в то время, когда уже велась разработка Mac OS X.
Ну и железо у них там поменялось.
Macintosh
Первоначально семейство Macintosh объединяло платформы, созданные на базе процессоров Motorola (68000, 68020), впоследствии заменённые более мощными процессорами IBM PowerPC (использовались в моделях компьютеров PowerMac), а затем процессорами Intel.
Последние настольные компьютеры и серверы на базе PowerPC оснащались 64-разрядными процессорами G5, а ноутбуки — 32-разрядными G4. Из-за большого тепловыделения и потребления энергии процессорами G5, с чем IBM так и не удалось справиться, они так и не нашли применения в ноутбуках. Эта проблема, а также неспособность IBM выпустить процессоры с большей тактовой частотой, заставили Apple начать поиски нового поставщика процессоров. Такой поставщик был найден, и в 2006 году Apple начала переход на процессоры Intel. Запуск существующих приложений для платформы PowerPC на новых компьютерах происходил в режиме эмуляции с использованием технологии Rosetta. К концу 2006 года вся линейка компьютеров была переведена на новые процессоры. Архитектура Intel в то время поддерживалась операционной системой Mac OS X 10.4 только в 32-разрядном режиме.
К 2010 году все выпускаемые модели оснащаются процессорами 64-разрядными Intel Core 2 Duo и Xeon, предыдущая версия Mac OS X 10.5 поддерживает как 64-разрядный, так и 32-разрядный режимы на платформах Intel и PowerPC. Начиная с версии 10.6, Mac OS X работает только на платформе Intel, хотя поддержка приложений, скомпилированных под PowerPC, в режиме эмуляции пока оставлена. Mac OS X 10.6 Snow Leopard полностью 64-битная, как и большинство приложений.
Плюс Windows с её Win32 несёт старое наследие гораздо дольше.
Переход на архитектуру Intel
Со сменой архитектуры появилась проблема несовместимости команд процессоров: старые приложения, написанные для процессоров PowerPC, не могут запускаться на процессорах Intel. Решение этой проблемы ведётся в двух направлениях. Все новые приложения предлагается выпускать в рамках стратегии Universal binary (англ. Universal binary), когда один и тот же код может запускаться на обоих типах процессоров, а следовательно и на старых, и на новых компьютерах Macintosh. Старые же приложения запускаются на новых процессорах через специальный транслятор команд Rosetta, который переводит команды Intel в PowerPC и обратно. Для клиента этот процесс происходит абсолютно прозрачно, хотя и несколько замедляет работу приложения. Однако транслятор Rosetta имеет некоторые ограничения, главным из которых является то, что с его помощью можно запускать только приложения, написанные специально для Mac OS X, то есть созданные в среде Cocoa или Carbon (версии, разработанной специально для Mac OS X), облегчающая перенос приложений из предыдущих систем). Приложения, перешедшие из более ранней версии операционной системы, Mac OS 9 (которую ещё называют Classic), то есть не разработанные в среде Carbon, не могут запускаться через транслятор Rosetta, следовательно, уже не могут быть запущены на новых процессорах. К счастью, таких приложений осталось очень немного.
А у GNU/Linux такая идеология, что программы можно портировать на всё, что угодно, так как одно из условий открытый код. К тому же сейчас для GNU/Linux делают и проприетарщину. Таким образом основное различие это пул приложений и сила привычки. Так то можно было сидеть на чём угодно, ведь пользователям важно решать свои задачи.