Re[2]: Запустить LLM локально.
От: fk0 Россия https://fk0.name
Дата: 24.02.25 12:34
Оценка:
Здравствуйте, hi_octane, Вы писали:

fk0>> На Reddit вопрос кажется

fk0>>уже расмотрели вдоль и поперёк и запускают LLM у себя дома. Если
fk0>>отдельный дом это более реалистично чем квартира (уходит вопрос
fk0>>охлаждения, шума и ограничения мощности).
_>Запускал LLM в квартире ещё до того как это стало мейнстримом

_>КМК, обычной 4090 (даже не 5090), достаточно, чтобы получать ответы от локальной модели, которые ещё год назад даже для подписчиков на облако были недоступны. И прогресс продолжается. От чего, планов городить какой-то сервер с тонной памяти под это дело (у меня) мотивации нет.


У модели полностью помещающейся в ОЗУ видеокарты, так ведь?
И это очень ограниченная модель. А тот же DeepSeek потребует
почти террабайт памяти у вычислителей, не важно каких, важно
чтобы это была непосредственно доступная вычислителю память,
пусть и распределённая по большому количеству вычислителей
(и вычисления будут распараллелены). Использовать вычислитель
"по очереди", постоянно перегружая его содержимое памяти из какой-то
другой отдельной памяти (системной памяти компьютера) -- не выйдет,
здесь будет бутылочное горлышко. Так же?


_>Обычное физлицо, обычные проблемы уже может закрыть, просто подгружая отдельную LLM под текущую задачу.

_> Типа собрался работать с кодом — запусти Qwen,

Маленькую LLM. Умещающуюася в видеокарту.
 
Подождите ...
Wait...
Пока на собственное сообщение не было ответов, его можно удалить.