Re[4]: Тест для определения уровня интеллекта LLM
От: hi_octane Беларусь  
Дата: 23.09.24 03:26
Оценка: 4 (1)
__>Я недавно игрался с ollama llama3 и llava, очень удобно, а какой самый простой способ локально запустить ее и лучше бы без gpu?
Я без GPU не запускал, так что х-з запустится или нет. Но "vllm serve ..." в инструкции на странице Вихря, вроде поддерживает кучу разных CPU/GPU, включая AMD (что в мире нейросетей редкость из-за повсеместной CUDA).
 
Подождите ...
Wait...
Пока на собственное сообщение не было ответов, его можно удалить.