M4 выигрывает по потреблению энергии
По перформансу чаще выигрывают AMD и Intel
У Интела не все печально, как тут Артёмка рассказывал.
Во многих тестах лидирует Интел, пример https://www.phoronix.com/review/apple-m4-intel-amd-linux/5
Здравствуйте, Pauel, Вы писали:
P>Кучка графиков на самые разные темы P>- перформанс P>- перформанс на ватт P>- ватт
Цена еще важна. Топовые Intel могут стоить дороже.
Так же в Apple Silicon уже встроена видеокарта, которая соответствует видеокарте Nvidia средне-начального уровня. Не топовая, конечно (т.к. топовые видяхи стоят в разы дороже ноутбука Apple). Но получается что для усредненных нужд, как-то генерация картинок — оно годится.
Здравствуйте, Shmj, Вы писали:
P>>Кучка графиков на самые разные темы P>>- перформанс P>>- перформанс на ватт P>>- ватт
S>Цена еще важна. Топовые Intel могут стоить дороже.
Здравствуйте, Shmj, Вы писали:
S>Так же в Apple Silicon уже встроена видеокарта, которая соответствует видеокарте Nvidia средне-начального уровня. Не топовая, конечно (т.к. топовые видяхи стоят в разы дороже ноутбука Apple). Но получается что для усредненных нужд, как-то генерация картинок — оно годится.
Так и у Интела, и у АМД видеокарта встроена. Тоже для чего-то сгодится.
Здравствуйте, Свободу Анжеле Девис и Юрию Деточкину, Вы писали:
САД>не, ну да. сравнивать ппростенький м4 в мак миним, с кор 9 ультра, это нужно много ума. САД>почему бы не взять м4 макс? САД>и что значит линукс? на маке тестировали под линуксом?
Потому что для ответа на эти вопросы надо прочитать статью? Например:
So this initial round of Mac Mini M4 testing is using macOS 15.1 compared to various modern AMD Ryzen and Intel Core desktop chips plus an AMD Ryzen AI 9 HX 370 laptop (ASUS Zenbook S 16) as well for reference. The laptops were tested on the latest Ubuntu Linux and its respective software components there... With using the stock environment of each platform, that means LLVM/Clang Xcode on macOS and GCC with Ubuntu Linux, etc. Once Asahi Linux is well supporting the Apple M4 chip it will make for more interesting 1:1 comparisons but for now is thus a higher level look at how the M4 Mac Mini with macOS compares to Intel/AMD x86_64 performance on Ubuntu Linux as a whole.
Здравствуйте, Nuzhny, Вы писали:
N>Так и у Интела, и у АМД видеокарта встроена. Тоже для чего-то сгодится.
Я уже писал — для Apple Silicon есть оптимизированные коробочные решения — бесплатные — для работы с моделями Stable Diffustion. Это удобные программы, а не консолька и браузер.
Оно генерит картинку за секунды — примерно как GEFORCE RTX 4060, которая сама по себе стоит $400.
ADM Radeon же вообще не работает со Stable Diffustion — вообще никак
Итого, комп Apple стоит $600, при этом бьет видяху за $400 + дополнительно это полноценный маленький комп, а не просто видяха большая, которую еще нужно куда-то вставлять.
Что не говори — а Apple сейчас выдала очень дешевое решение, качественное, легкое, быстрое. Именно что ценой и размером берет. Ну а дизайн красивый — уже как бонус.
Здравствуйте, Shmj, Вы писали:
N>>Так и у Интела, и у АМД видеокарта встроена. Тоже для чего-то сгодится. S>Я уже писал — для Apple Silicon есть оптимизированные коробочные решения — бесплатные — для работы с моделями Stable Diffustion. Это удобные программы, а не консолька и браузер.
Ну это ты берёшь одну узкую задачу и выясняешь, что для неё нет коробочного решения в два клика. Ну, ок. А причём тут Intel и AMD? При этом, никто не мешает интегрировать в виде плагина для Gimp и использовать не просто для развлечения, а сразу из рабочего инструмента.
S>ADM Radeon же вообще не работает со Stable Diffustion — вообще никак
Ну бред же. Зайди к ним на официальный сайт и посмотри, что не просто работает, а ещё и быстро работает.
S>Итого, комп Apple стоит $600, при этом бьет видяху за $400 + дополнительно это полноценный маленький комп, а не просто видяха большая, которую еще нужно куда-то вставлять.
Да, полноценный комп, производительность которого будет во многих задач ниже. Ну, ок.
S>Что не говори — а Apple сейчас выдала очень дешевое решение, качественное, легкое, быстрое. Именно что ценой и размером берет. Ну а дизайн красивый — уже как бонус.
Ой, у меня на столе лежит nvidia jetson orin nx, который на свои 20 Вт может в реальном времени 4 видеопотока анализировать и при этом быть десктопом в том числе. Легче и дешевле твоего Мака.
Здравствуйте, Shmj, Вы писали:
S>Оно генерит картинку за секунды — примерно как GEFORCE RTX 4060, которая сама по себе стоит $400.
Это преувеличение. Карточка у эпла гораздо скромнее.
S>Итого, комп Apple стоит $600, при этом бьет видяху за $400 + дополнительно это полноценный маленький комп, а не просто видяха большая, которую еще нужно куда-то вставлять. S>Что не говори — а Apple сейчас выдала очень дешевое решение, качественное, легкое, быстрое. Именно что ценой и размером берет. Ну а дизайн красивый — уже как бонус.
Здравствуйте, Свободу Анжеле Девис и Юрию Деточкину, Вы писали:
P>>Во многих тестах лидирует Интел, пример https://www.phoronix.com/review/apple-m4-intel-amd-linux/5
САД>не, ну да. сравнивать ппростенький м4 в мак миним, с кор 9 ультра, это нужно много ума. САД>почему бы не взять м4 макс?
Здравствуйте, Артём, Вы писали:
P>>У Интела не все печально, как тут Артёмка рассказывал. Аё>Интел слил предыдущему собственному поколению 14 series, а оно в свою очередь, деградирует за 1 год. Это не печально? Это замечательно? Ну ок.
У вас неадекватное преувеличение, как всегда.
У интела энергопотребление стало намного лучше — это факт, при чем в разы, буквально.
Скажем, ноут на Meteor Lake съел за день 80% батареи. Я его случайно забыл к питанию подсоединить. Раньше интеловские ноуты у меня держались ажно 3-4 часа высаживая батарею в ноль.
Здравствуйте, Nuzhny, Вы писали:
N>Ну это ты берёшь одну узкую задачу и выясняешь, что для неё нет коробочного решения в два клика. Ну, ок. А причём тут Intel и AMD? При этом, никто не мешает интегрировать в виде плагина для Gimp и использовать не просто для развлечения, а сразу из рабочего инструмента.
Когда коснешься — то реально ничего не работает. А у Apple все работает из коробки как часы. Почему?
S>>ADM Radeon же вообще не работает со Stable Diffustion — вообще никак N>Ну бред же. Зайди к ним на официальный сайт и посмотри, что не просто работает, а ещё и быстро работает.
В отличие от видеокарт NVIDIA, которые используют CUDA, AMD-карты работают через ROCm (Radeon Open Compute) или OpenCL. Однако поддержка AMD-карт для Stable Diffusion менее развита и требует определённых настроек.
...
Stable Diffusion использует PyTorch. Чтобы PyTorch работал с AMD, нужно установить его с поддержкой ROCm (например, pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/rocm5.4.2).
Вы проходили этот квест?
S>>Итого, комп Apple стоит $600, при этом бьет видяху за $400 + дополнительно это полноценный маленький комп, а не просто видяха большая, которую еще нужно куда-то вставлять. N>Да, полноценный комп, производительность которого будет во многих задач ниже. Ну, ок.
M4 еще нет, но есть M2 Pro — и оно одинаково с RTX 4060, но зато имеет 16 ГБ объединенной памяти — можно запускать большие LM модели и оно будет работать быстро из коробки. 4060 Ti с 16 Гб памяти стоит примерно как целый комп. от Apple, но то видяха а то комп.
S>>Что не говори — а Apple сейчас выдала очень дешевое решение, качественное, легкое, быстрое. Именно что ценой и размером берет. Ну а дизайн красивый — уже как бонус. N>Ой, у меня на столе лежит nvidia jetson orin nx, который на свои 20 Вт может в реальном времени 4 видеопотока анализировать и при этом быть десктопом в том числе. Легче и дешевле твоего Мака.
Можно ли на нем запустить Stable Diffustion, к примеру? Как быстро будет работать? Что там еще готовое коробочное можно запустить?
Здравствуйте, Pauel, Вы писали:
S>>Оно генерит картинку за секунды — примерно как GEFORCE RTX 4060, которая сама по себе стоит $400. P>Это преувеличение. Карточка у эпла гораздо скромнее.
На удивление — практически одинаково терафлопс. Притом что 4060 с 16 ГБ памяти стоит практически столько же. Но то просто видяха, а то готовый компьютер в сборке с блоком питания да еще и в мини корпусе.
Здравствуйте, Shmj, Вы писали:
S>https://github.com/blueturtleai/gimp-stable-diffusion S>This plugin is no longer actively developed S>Когда коснешься — то реально ничего не работает. А у Apple все работает из коробки как часы. Почему?
Их несколько, я с каким-то играл. Этот или другой — пофиг. Оно работает.
S>>>ADM Radeon же вообще не работает со Stable Diffustion — вообще никак N>>Ну бред же. Зайди к ним на официальный сайт и посмотри, что не просто работает, а ещё и быстро работает.
S>Вы проходили этот квест?
S>M4 еще нет, но есть M2 Pro — и оно одинаково с RTX 4060, но зато имеет 16 ГБ объединенной памяти — можно запускать большие LM модели и оно будет работать быстро из коробки. 4060 Ti с 16 Гб памяти стоит примерно как целый комп. от Apple, но то видяха а то комп.
Ну, если ты смотришь на ИИ приложения, то актуальный не на флопсы, а на топсы смотреть. И тот факт, что только одна видеокарта начального уровня мощнее всего компа наводит на мысль, что комп не такой и мощный.
S>Можно ли на нем запустить Stable Diffustion, к примеру? Как быстро будет работать? Что там еще готовое коробочное можно запустить?
Понятия не имею, кстати. Если посмотреть на размеры сеток — они небольшие, то наверное и можно. Но зачем? Жжетсоны делают для другого. Его можно поставить на коптер и распознавать с него машинки или считать полистать над полем и посчитать вегетационный индекс, например. А Мак можно поставить на коптер и сделать так, чтобы он анализировал видео с камер?
Кстати, а почему ты именно на SD так сконцентрировался? Тема про сравнение CPU, а ты про сравнение с видеокартами.
С точки зрения максимальной и беспроблемной совместимости для AI надо брать карты Nvidia. Но по опыту можно иметь дело и с AMD картами. Можно ли и насколько хорошо с Apple — не знаю. Судя по табличке на сайте https://pytorch.org/get-started/locally/ — можно, имеются версии PyTorch для M-чипов. А почти все сетки сейчас делаются на PyTorch.
Но я бы на твоем месте тщательно изучил бы какие могут быть подводные камни. Навскидку, что может быть — надо проверить какой объем памяти доступен для нейросеток на M4. Если меньше 16 Гб — нафиг. Причем нужна быстрая память, а не использование основной RAM. Или основная должна быть достаточно быстрая Получше к совместимости бы присмотрелся.
И да, как ты сказал квест с установкой PyTorch необходим во всех случаях — и для Nvidia и для AMD и наверное для M4, т.к. в базовой поставке для питона нет поддержки GPU.
Здравствуйте, Michael7, Вы писали:
M>Но я бы на твоем месте тщательно изучил бы какие могут быть подводные камни. Навскидку, что может быть — надо проверить какой объем памяти доступен для нейросеток на M4. Если меньше 16 Гб — нафиг. Причем нужна быстрая память, а не использование основной RAM. Или основная должна быть достаточно быстрая Получше к совместимости бы присмотрелся.
Там эти 16 Гб совмещенные с процессором и достаточно быстрые.
M>И да, как ты сказал квест с установкой PyTorch необходим во всех случаях — и для Nvidia и для AMD и наверное для M4, т.к. в базовой поставке для питона нет поддержки GPU.
Наоборот у меня на M2 — что DiffusionBee что Draw Things — установились и заработали в режиме блондинки. В том то и фишка. На Windows таких программ нет — там нужно быть гиком, чтобы все заработало.
И генерят картинку очень быстро, фактически так же как онлайн сервис — секунды. Ну ок, если задать сложные параметры — могут долго генерить, зависит от разрешения, самплера и т.д.
Т.е. для чисто генерации — их достаточно. А вот для обучения — скорее всего что нет, не проверял.
Здравствуйте, Shmj, Вы писали:
S>Там эти 16 Гб совмещенные с процессором и достаточно быстрые.
Кроме RAM для нейросетки ещё нужно же с чем-то и CPU работать. Так что для серьезной работы, по-видимому, надо брать MacMini с 32 Гб и более. Но опять же смотря чего ты хочешь? Если запускать SD — то хорошо, что оно у тебя на M2 работает и этого достаточно. А вот достаточно ли и заработают ли языковые модели? LLM 3-я и другие?
Для тренировки сеток (да и для генерации потихоньку), чем больше RAM тем лучше. И даже 24 Гб у RTX 4090 — это детский размер. Но совсем минимум на сейчас — это наверное 16 Гб. Просто при меньшем объеме с изображениями еще можно работать, а на языковые модели уже совсем не хватит без ухищрений.
M>>И да, как ты сказал квест с установкой PyTorch необходим во всех случаях — и для Nvidia и для AMD и наверное для M4, т.к. в базовой поставке для питона нет поддержки GPU.
S>Наоборот у меня на M2 — что DiffusionBee что Draw Things — установились и заработали в режиме блондинки. В том то и фишка. На Windows таких программ нет — там нужно быть гиком, чтобы все заработало.
Значит, оно просто в комплекте было, но вообще для нейросеток надо хоть немного освоить питон и загрузку разных моделей с сайтов типа hugginface.co и других. Просто потому что готовых "для блондинок" моделей явно на пару порядков меньше.
Здравствуйте, Michael7, Вы писали:
M>Кроме RAM для нейросетки ещё нужно же с чем-то и CPU работать. Так что для серьезной работы, по-видимому, надо брать MacMini с 32 Гб и более. Но опять же смотря чего ты хочешь? Если запускать SD — то хорошо, что оно у тебя на M2 работает и этого достаточно. А вот достаточно ли и заработают ли языковые модели? LLM 3-я и другие?
Ollama и LM Studio — работают из коробки, никаких тормозов — пишешь вопрос и сразу начинает писать ответ. Но не проверял 900-гигабайтовую (или сколько там) модель.
S>>Наоборот у меня на M2 — что DiffusionBee что Draw Things — установились и заработали в режиме блондинки. В том то и фишка. На Windows таких программ нет — там нужно быть гиком, чтобы все заработало.
M>Значит, оно просто в комплекте было, но вообще для нейросеток надо хоть немного освоить питон и загрузку разных моделей с сайтов типа hugginface.co и других. Просто потому что готовых "для блондинок" моделей явно на пару порядков меньше.
Там есть из этих прог в том числе импорт с hugginface — все по нажатию кнопочки. Там все чем вы гордитесь как неким эксклюзивным умением — работает просто из коробки в режиме блондинки.
N>Ой, у меня на столе лежит nvidia jetson orin nx, который на свои 20 Вт может в реальном времени 4 видеопотока анализировать и при этом быть десктопом в том числе. Легче и дешевле твоего Мака.
Здравствуйте, Michael7, Вы писали:
M>Значит, оно просто в комплекте было, но вообще для нейросеток надо хоть немного освоить питон и загрузку разных моделей с сайтов типа hugginface.co и других. Просто потому что готовых "для блондинок" моделей явно на пару порядков меньше.
Смотрите как тут просто сделано: https://download.ru/files/UqFbYo3J Просто ID модели с huggingface указываешь и оно в режиме блондинки все само скачивает и устанавливает. Так же можно использовать файл с компьютера.
Во второй проге — Image Things — там еще проще — целый большой список официальных и комьюнити моделей — несколько десятков штук — доступны по клику (сама все скачает) + возможность импорта.
Т.е. в том то и дело — во всех передовых вопросах — как то ИИ, модели — пока другие еще думает — у Apple почему-то есть готовое простое решение, которое просто работает.
Здравствуйте, Nuzhny, Вы писали:
S>>https://github.com/blueturtleai/gimp-stable-diffusion S>>This plugin is no longer actively developed S>>Когда коснешься — то реально ничего не работает. А у Apple все работает из коробки как часы. Почему?
N>Их несколько, я с каким-то играл. Этот или другой — пофиг. Оно работает.
Или работало. Т.е. какое-то время проработало — а потом перестало, о чем сейчас написано. И вам нужно будет тратить человеко-часы, чтобы его запустить — по стоимости может быть выше той разницы, на которую компьютер Apple дороже. В том то и фишка.
Здравствуйте, Shmj, Вы писали:
S>Смотрите как тут просто сделано: https://download.ru/files/UqFbYo3J Просто ID модели с huggingface указываешь и оно в режиме блондинки все само скачивает и устанавливает. Так же можно использовать файл с компьютера.
Любопытно. Неужели никто кроме Apple так не сделал?
Но вообще, у моделей с huggingface интерфейс хотя и унифицированный (по неким общим правилам), но все же по-моему не без индивидуальных особенностей.
S>Т.е. в том то и дело — во всех передовых вопросах — как то ИИ, модели — пока другие еще думает — у Apple почему-то есть готовое простое решение, которое просто работает.
Может я не прав, но сильно подозреваю, что "просто работает" оно в неких границах.
Здравствуйте, Nuzhny, Вы писали: N>А Мак можно поставить на коптер и сделать так, чтобы он анализировал видео с камер?
при чём тут коптер? Ниша маков — креаклы-ютуберы-стримеры и официозники, для которых мак — это как мерс в мире компов.
Даже с веб-девелопментом у маков проблемы, т.к. нет нативной поддержки контейнеров docker/podman, и приходится городить велосипеды.
Здравствуйте, Michael7, Вы писали:
M>Любопытно. Неужели никто кроме Apple так не сделал?
Это даже не Apple делали — проги от сторонних разработчиков. Но работают они только на MacOS.
Почему-то на MacOS работает все самое передовое. Игрушки не работают, а вот все самые перспективные и передовые проги — почему то в первую очередь делают для MacOS. Почему так — я пытался понять в другой теме.
M>Но вообще, у моделей с huggingface интерфейс хотя и унифицированный (по неким общим правилам), но все же по-моему не без индивидуальных особенностей.
Эти две проги — и рекомендуются на самом huggingface в списке моделей. Но не для всех, конечно. Только работа с графикой.
S>>Т.е. в том то и дело — во всех передовых вопросах — как то ИИ, модели — пока другие еще думает — у Apple почему-то есть готовое простое решение, которое просто работает. M>Может я не прав, но сильно подозреваю, что "просто работает" оно в неких границах.
Ну да, там же есть текстовые модели — это для LM Studio. На самом huggingface указаны проги, которыми нужно открыть модель. Для SD — только эти две проги + Web-интерфейс.
Здравствуйте, student__, Вы писали:
__>при чём тут коптер? Ниша маков — креаклы-ютуберы-стримеры и официозники, для которых мак — это как мерс в мире компов.
Вот и я удивляюсь, причём тут SD, почему перешли на него (даже не на него, а на наличие коробочных продуктов на нём).
Здравствуйте, Shmj, Вы писали:
S>Или работало. Т.е. какое-то время проработало — а потом перестало, о чем сейчас написано. И вам нужно будет тратить человеко-часы, чтобы его запустить — по стоимости может быть выше той разницы, на которую компьютер Apple дороже. В том то и фишка.
Или так. Не нравится — возьми Фотошоп, там точно будет работать. Короче, ты придумываешь сейчас какую-то фигню: нашёл программу, точного аналога которой нет. Ну нет и нет в точности, много других варантов. Ладно, ещё могу понять, что тебе не нравится консоль или Питон, но почему веб версия не угодила — хз.
Здравствуйте, Nuzhny, Вы писали:
N>Или так. Не нравится — возьми Фотошоп, там точно будет работать. Короче, ты придумываешь сейчас какую-то фигню: нашёл программу, точного аналога которой нет. Ну нет и нет в точности, много других варантов. Ладно, ещё могу понять, что тебе не нравится консоль или Питон, но почему веб версия не угодила — хз.
Плагин использует вашу локально установленную копию Stable Diffusion, которая должна быть настроена на вашем компьютере. Это означает, что вам необходимо:
Скачать модель Stable Diffusion (например, с сайта Hugging Face).
Установить соответствующие зависимости, такие как Python, PyTorch, и другие.
Убедиться, что у вас есть достаточно мощная видеокарта (например, NVIDIA с поддержкой CUDA).
Т.е. это не решение из коробки. Сначала все настрой ручками, потом уже в плагине пропиши адрес сервера и тогда быть может заработает.
Здравствуйте, student__, Вы писали:
__>при чём тут коптер? Ниша маков — креаклы-ютуберы-стримеры и официозники, для которых мак — это как мерс в мире компов.
Скорее винда — для домохозяек. В MacOS есть командная строка, которая работает практически как на Linux, с небольшими отличиями.
__>Даже с веб-девелопментом у маков проблемы, т.к. нет нативной поддержки контейнеров docker/podman, и приходится городить велосипеды.
Все работает по клику — ничего городить не нужно.
С контейнерами x86_64 работает через Rosetta, но вы об этом даже не узнаете — там все настолько оптимизировано что проблем нет.
Здравствуйте, Nuzhny, Вы писали:
__>>при чём тут коптер? Ниша маков — креаклы-ютуберы-стримеры и официозники, для которых мак — это как мерс в мире компов. N>Вот и я удивляюсь, причём тут SD, почему перешли на него (даже не на него, а на наличие коробочных продуктов на нём).
Так обсуждаем же фишки процессоров. Одна из фишек, которая сейчас в тренде — это генерация картинок нейросетями. И хорошо когда процессор пригоден для этого.
Вроде договорились что M2 Pro и, возможно, M4 будет работать на скорости как Nvidia 3060 Ti 16 GB.
На мой взгляд АРМ он по объективной причине должен быть экономичнее и при этом производительнее.
Просто за счет более продуманных инструкций процессора — для той же задачи что на x32/x64 требуется меньше байт обработать.
Ничего удивительного — АРМ придуман намного позже и соотвественно можно считать новым поколением команд процессора.
х86 это старые команды но Intel даже на базе них умудрился придумать разные архитектуры чтобы их сделать быстрее.
АРМ ранее в основном использовался для процессоров предназначенных для мобильных устройств где энергопотребление было крайне важным.
Но вот Apple похоже решил создать уже десктоп процессор на АРМ архитектуре. Ведь он используется не только в макбуках но и в мак десктопах.
но будущее имхо за АРМ архитектурой, возможно у нее есть какие-то весомые недостатки, но я не знаю , не считаю себя экспертом в настоящее время по процессорам и архитектурам.
”Жить стало лучше... но противнее. Люди которые ставят точку после слова лучше становятся сторонниками Путина, наши же сторонники делают акцент на слове противнее ( ложь, воровство, лицемерие, вражда )." (с) Борис Немцов