Re[3]: Llama-3.2-3B-Q8 проходит интервью
От: Слава  
Дата: 03.11.24 04:23
Оценка: 1 (1)
Здравствуйте, Артём, Вы писали:

С>>Возьмите https://huggingface.co/bartowski/DeepSeek-V2.5-GGUF/tree/main/DeepSeek-V2.5-Q8_0 и запустите его на 4 H100 на runpod.

Аё>У меня лаптоп на райзене и 32г рамы... 48г не влезет целиком. Или оно умеет мапить файл на память? Вон на "AI" лаптопах вообще 16г рамы кушайте не подавитесь.

Ни в какой лаптоп это не влезет, для запуска такой модели потребуется 320 гигабайт VRAM, как раз 4 H100. На runpod это делается за деньги, будет примерно 12 долларов в час + примерно 40 минут на первоначальную загрузку модели в их хранилище + минут 10-15 на загрузку модели в GPU при каждом старте + ежедневная плата за хранилище, но там немного.

С>>Ну и — обычно люди не на тупой локальной LLM пытаются работать, а на каком-нибудь Claude Sonnet.

Аё>В смысле в облаке? Но там наверное, с смс и регистрацией?

Конечно с регистрацией, за деньги.
 
Подождите ...
Wait...
Пока на собственное сообщение не было ответов, его можно удалить.