M4 выигрывает по потреблению энергии
По перформансу чаще выигрывают AMD и Intel
У Интела не все печально, как тут Артёмка рассказывал.
Во многих тестах лидирует Интел, пример https://www.phoronix.com/review/apple-m4-intel-amd-linux/5
Здравствуйте, Pauel, Вы писали:
P>Кучка графиков на самые разные темы P>- перформанс P>- перформанс на ватт P>- ватт
Цена еще важна. Топовые Intel могут стоить дороже.
Так же в Apple Silicon уже встроена видеокарта, которая соответствует видеокарте Nvidia средне-начального уровня. Не топовая, конечно (т.к. топовые видяхи стоят в разы дороже ноутбука Apple). Но получается что для усредненных нужд, как-то генерация картинок — оно годится.
Здравствуйте, Shmj, Вы писали:
P>>Кучка графиков на самые разные темы P>>- перформанс P>>- перформанс на ватт P>>- ватт
S>Цена еще важна. Топовые Intel могут стоить дороже.
Здравствуйте, Shmj, Вы писали:
S>Так же в Apple Silicon уже встроена видеокарта, которая соответствует видеокарте Nvidia средне-начального уровня. Не топовая, конечно (т.к. топовые видяхи стоят в разы дороже ноутбука Apple). Но получается что для усредненных нужд, как-то генерация картинок — оно годится.
Так и у Интела, и у АМД видеокарта встроена. Тоже для чего-то сгодится.
Здравствуйте, Свободу Анжеле Девис и Юрию Деточкину, Вы писали:
САД>не, ну да. сравнивать ппростенький м4 в мак миним, с кор 9 ультра, это нужно много ума. САД>почему бы не взять м4 макс? САД>и что значит линукс? на маке тестировали под линуксом?
Потому что для ответа на эти вопросы надо прочитать статью? Например:
So this initial round of Mac Mini M4 testing is using macOS 15.1 compared to various modern AMD Ryzen and Intel Core desktop chips plus an AMD Ryzen AI 9 HX 370 laptop (ASUS Zenbook S 16) as well for reference. The laptops were tested on the latest Ubuntu Linux and its respective software components there... With using the stock environment of each platform, that means LLVM/Clang Xcode on macOS and GCC with Ubuntu Linux, etc. Once Asahi Linux is well supporting the Apple M4 chip it will make for more interesting 1:1 comparisons but for now is thus a higher level look at how the M4 Mac Mini with macOS compares to Intel/AMD x86_64 performance on Ubuntu Linux as a whole.
Здравствуйте, Nuzhny, Вы писали:
N>Так и у Интела, и у АМД видеокарта встроена. Тоже для чего-то сгодится.
Я уже писал — для Apple Silicon есть оптимизированные коробочные решения — бесплатные — для работы с моделями Stable Diffustion. Это удобные программы, а не консолька и браузер.
Оно генерит картинку за секунды — примерно как GEFORCE RTX 4060, которая сама по себе стоит $400.
ADM Radeon же вообще не работает со Stable Diffustion — вообще никак
Итого, комп Apple стоит $600, при этом бьет видяху за $400 + дополнительно это полноценный маленький комп, а не просто видяха большая, которую еще нужно куда-то вставлять.
Что не говори — а Apple сейчас выдала очень дешевое решение, качественное, легкое, быстрое. Именно что ценой и размером берет. Ну а дизайн красивый — уже как бонус.
Здравствуйте, Shmj, Вы писали:
N>>Так и у Интела, и у АМД видеокарта встроена. Тоже для чего-то сгодится. S>Я уже писал — для Apple Silicon есть оптимизированные коробочные решения — бесплатные — для работы с моделями Stable Diffustion. Это удобные программы, а не консолька и браузер.
Ну это ты берёшь одну узкую задачу и выясняешь, что для неё нет коробочного решения в два клика. Ну, ок. А причём тут Intel и AMD? При этом, никто не мешает интегрировать в виде плагина для Gimp и использовать не просто для развлечения, а сразу из рабочего инструмента.
S>ADM Radeon же вообще не работает со Stable Diffustion — вообще никак
Ну бред же. Зайди к ним на официальный сайт и посмотри, что не просто работает, а ещё и быстро работает.
S>Итого, комп Apple стоит $600, при этом бьет видяху за $400 + дополнительно это полноценный маленький комп, а не просто видяха большая, которую еще нужно куда-то вставлять.
Да, полноценный комп, производительность которого будет во многих задач ниже. Ну, ок.
S>Что не говори — а Apple сейчас выдала очень дешевое решение, качественное, легкое, быстрое. Именно что ценой и размером берет. Ну а дизайн красивый — уже как бонус.
Ой, у меня на столе лежит nvidia jetson orin nx, который на свои 20 Вт может в реальном времени 4 видеопотока анализировать и при этом быть десктопом в том числе. Легче и дешевле твоего Мака.
Здравствуйте, Shmj, Вы писали:
S>Оно генерит картинку за секунды — примерно как GEFORCE RTX 4060, которая сама по себе стоит $400.
Это преувеличение. Карточка у эпла гораздо скромнее.
S>Итого, комп Apple стоит $600, при этом бьет видяху за $400 + дополнительно это полноценный маленький комп, а не просто видяха большая, которую еще нужно куда-то вставлять. S>Что не говори — а Apple сейчас выдала очень дешевое решение, качественное, легкое, быстрое. Именно что ценой и размером берет. Ну а дизайн красивый — уже как бонус.
Здравствуйте, Свободу Анжеле Девис и Юрию Деточкину, Вы писали:
P>>Во многих тестах лидирует Интел, пример https://www.phoronix.com/review/apple-m4-intel-amd-linux/5
САД>не, ну да. сравнивать ппростенький м4 в мак миним, с кор 9 ультра, это нужно много ума. САД>почему бы не взять м4 макс?
Здравствуйте, Артём, Вы писали:
P>>У Интела не все печально, как тут Артёмка рассказывал. Аё>Интел слил предыдущему собственному поколению 14 series, а оно в свою очередь, деградирует за 1 год. Это не печально? Это замечательно? Ну ок.
У вас неадекватное преувеличение, как всегда.
У интела энергопотребление стало намного лучше — это факт, при чем в разы, буквально.
Скажем, ноут на Meteor Lake съел за день 80% батареи. Я его случайно забыл к питанию подсоединить. Раньше интеловские ноуты у меня держались ажно 3-4 часа высаживая батарею в ноль.
Здравствуйте, Nuzhny, Вы писали:
N>Ну это ты берёшь одну узкую задачу и выясняешь, что для неё нет коробочного решения в два клика. Ну, ок. А причём тут Intel и AMD? При этом, никто не мешает интегрировать в виде плагина для Gimp и использовать не просто для развлечения, а сразу из рабочего инструмента.
Когда коснешься — то реально ничего не работает. А у Apple все работает из коробки как часы. Почему?
S>>ADM Radeon же вообще не работает со Stable Diffustion — вообще никак N>Ну бред же. Зайди к ним на официальный сайт и посмотри, что не просто работает, а ещё и быстро работает.
В отличие от видеокарт NVIDIA, которые используют CUDA, AMD-карты работают через ROCm (Radeon Open Compute) или OpenCL. Однако поддержка AMD-карт для Stable Diffusion менее развита и требует определённых настроек.
...
Stable Diffusion использует PyTorch. Чтобы PyTorch работал с AMD, нужно установить его с поддержкой ROCm (например, pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/rocm5.4.2).
Вы проходили этот квест?
S>>Итого, комп Apple стоит $600, при этом бьет видяху за $400 + дополнительно это полноценный маленький комп, а не просто видяха большая, которую еще нужно куда-то вставлять. N>Да, полноценный комп, производительность которого будет во многих задач ниже. Ну, ок.
M4 еще нет, но есть M2 Pro — и оно одинаково с RTX 4060, но зато имеет 16 ГБ объединенной памяти — можно запускать большие LM модели и оно будет работать быстро из коробки. 4060 Ti с 16 Гб памяти стоит примерно как целый комп. от Apple, но то видяха а то комп.
S>>Что не говори — а Apple сейчас выдала очень дешевое решение, качественное, легкое, быстрое. Именно что ценой и размером берет. Ну а дизайн красивый — уже как бонус. N>Ой, у меня на столе лежит nvidia jetson orin nx, который на свои 20 Вт может в реальном времени 4 видеопотока анализировать и при этом быть десктопом в том числе. Легче и дешевле твоего Мака.
Можно ли на нем запустить Stable Diffustion, к примеру? Как быстро будет работать? Что там еще готовое коробочное можно запустить?
Здравствуйте, Pauel, Вы писали:
S>>Оно генерит картинку за секунды — примерно как GEFORCE RTX 4060, которая сама по себе стоит $400. P>Это преувеличение. Карточка у эпла гораздо скромнее.
На удивление — практически одинаково терафлопс. Притом что 4060 с 16 ГБ памяти стоит практически столько же. Но то просто видяха, а то готовый компьютер в сборке с блоком питания да еще и в мини корпусе.
Здравствуйте, Shmj, Вы писали:
S>https://github.com/blueturtleai/gimp-stable-diffusion S>This plugin is no longer actively developed S>Когда коснешься — то реально ничего не работает. А у Apple все работает из коробки как часы. Почему?
Их несколько, я с каким-то играл. Этот или другой — пофиг. Оно работает.
S>>>ADM Radeon же вообще не работает со Stable Diffustion — вообще никак N>>Ну бред же. Зайди к ним на официальный сайт и посмотри, что не просто работает, а ещё и быстро работает.
S>Вы проходили этот квест?
S>M4 еще нет, но есть M2 Pro — и оно одинаково с RTX 4060, но зато имеет 16 ГБ объединенной памяти — можно запускать большие LM модели и оно будет работать быстро из коробки. 4060 Ti с 16 Гб памяти стоит примерно как целый комп. от Apple, но то видяха а то комп.
Ну, если ты смотришь на ИИ приложения, то актуальный не на флопсы, а на топсы смотреть. И тот факт, что только одна видеокарта начального уровня мощнее всего компа наводит на мысль, что комп не такой и мощный.
S>Можно ли на нем запустить Stable Diffustion, к примеру? Как быстро будет работать? Что там еще готовое коробочное можно запустить?
Понятия не имею, кстати. Если посмотреть на размеры сеток — они небольшие, то наверное и можно. Но зачем? Жжетсоны делают для другого. Его можно поставить на коптер и распознавать с него машинки или считать полистать над полем и посчитать вегетационный индекс, например. А Мак можно поставить на коптер и сделать так, чтобы он анализировал видео с камер?
Кстати, а почему ты именно на SD так сконцентрировался? Тема про сравнение CPU, а ты про сравнение с видеокартами.
С точки зрения максимальной и беспроблемной совместимости для AI надо брать карты Nvidia. Но по опыту можно иметь дело и с AMD картами. Можно ли и насколько хорошо с Apple — не знаю. Судя по табличке на сайте https://pytorch.org/get-started/locally/ — можно, имеются версии PyTorch для M-чипов. А почти все сетки сейчас делаются на PyTorch.
Но я бы на твоем месте тщательно изучил бы какие могут быть подводные камни. Навскидку, что может быть — надо проверить какой объем памяти доступен для нейросеток на M4. Если меньше 16 Гб — нафиг. Причем нужна быстрая память, а не использование основной RAM. Или основная должна быть достаточно быстрая Получше к совместимости бы присмотрелся.
И да, как ты сказал квест с установкой PyTorch необходим во всех случаях — и для Nvidia и для AMD и наверное для M4, т.к. в базовой поставке для питона нет поддержки GPU.
Здравствуйте, Michael7, Вы писали:
M>Но я бы на твоем месте тщательно изучил бы какие могут быть подводные камни. Навскидку, что может быть — надо проверить какой объем памяти доступен для нейросеток на M4. Если меньше 16 Гб — нафиг. Причем нужна быстрая память, а не использование основной RAM. Или основная должна быть достаточно быстрая Получше к совместимости бы присмотрелся.
Там эти 16 Гб совмещенные с процессором и достаточно быстрые.
M>И да, как ты сказал квест с установкой PyTorch необходим во всех случаях — и для Nvidia и для AMD и наверное для M4, т.к. в базовой поставке для питона нет поддержки GPU.
Наоборот у меня на M2 — что DiffusionBee что Draw Things — установились и заработали в режиме блондинки. В том то и фишка. На Windows таких программ нет — там нужно быть гиком, чтобы все заработало.
И генерят картинку очень быстро, фактически так же как онлайн сервис — секунды. Ну ок, если задать сложные параметры — могут долго генерить, зависит от разрешения, самплера и т.д.
Т.е. для чисто генерации — их достаточно. А вот для обучения — скорее всего что нет, не проверял.
Здравствуйте, Shmj, Вы писали:
S>Там эти 16 Гб совмещенные с процессором и достаточно быстрые.
Кроме RAM для нейросетки ещё нужно же с чем-то и CPU работать. Так что для серьезной работы, по-видимому, надо брать MacMini с 32 Гб и более. Но опять же смотря чего ты хочешь? Если запускать SD — то хорошо, что оно у тебя на M2 работает и этого достаточно. А вот достаточно ли и заработают ли языковые модели? LLM 3-я и другие?
Для тренировки сеток (да и для генерации потихоньку), чем больше RAM тем лучше. И даже 24 Гб у RTX 4090 — это детский размер. Но совсем минимум на сейчас — это наверное 16 Гб. Просто при меньшем объеме с изображениями еще можно работать, а на языковые модели уже совсем не хватит без ухищрений.
M>>И да, как ты сказал квест с установкой PyTorch необходим во всех случаях — и для Nvidia и для AMD и наверное для M4, т.к. в базовой поставке для питона нет поддержки GPU.
S>Наоборот у меня на M2 — что DiffusionBee что Draw Things — установились и заработали в режиме блондинки. В том то и фишка. На Windows таких программ нет — там нужно быть гиком, чтобы все заработало.
Значит, оно просто в комплекте было, но вообще для нейросеток надо хоть немного освоить питон и загрузку разных моделей с сайтов типа hugginface.co и других. Просто потому что готовых "для блондинок" моделей явно на пару порядков меньше.
Здравствуйте, Michael7, Вы писали:
M>Кроме RAM для нейросетки ещё нужно же с чем-то и CPU работать. Так что для серьезной работы, по-видимому, надо брать MacMini с 32 Гб и более. Но опять же смотря чего ты хочешь? Если запускать SD — то хорошо, что оно у тебя на M2 работает и этого достаточно. А вот достаточно ли и заработают ли языковые модели? LLM 3-я и другие?
Ollama и LM Studio — работают из коробки, никаких тормозов — пишешь вопрос и сразу начинает писать ответ. Но не проверял 900-гигабайтовую (или сколько там) модель.
S>>Наоборот у меня на M2 — что DiffusionBee что Draw Things — установились и заработали в режиме блондинки. В том то и фишка. На Windows таких программ нет — там нужно быть гиком, чтобы все заработало.
M>Значит, оно просто в комплекте было, но вообще для нейросеток надо хоть немного освоить питон и загрузку разных моделей с сайтов типа hugginface.co и других. Просто потому что готовых "для блондинок" моделей явно на пару порядков меньше.
Там есть из этих прог в том числе импорт с hugginface — все по нажатию кнопочки. Там все чем вы гордитесь как неким эксклюзивным умением — работает просто из коробки в режиме блондинки.
N>Ой, у меня на столе лежит nvidia jetson orin nx, который на свои 20 Вт может в реальном времени 4 видеопотока анализировать и при этом быть десктопом в том числе. Легче и дешевле твоего Мака.