Сам проект
Это не просто чат, с которым можно переписываться, теперь можно с ним общаться голосом и видеть лицо собеседника. Да, он подтупливает, но лишь потому, что запущен на слабом домашнем железе. Поставь конфиг помощнее и можно модель покруче поставить и от лагов избавиться. Как будто всё по отдельности не впечатляет, но собранное воедино — вау!
N>Сам проект N>Это не просто чат, с которым можно переписываться, теперь можно с ним общаться голосом и видеть лицо собеседника. Да, он подтупливает, но лишь потому, что запущен на слабом домашнем железе. Поставь конфиг помощнее и можно модель покруче поставить и от лагов избавиться. Как будто всё по отдельности не впечатляет, но собранное воедино — вау!
Коммент
"The russian version is crazy realistic"
Серьёзно- меня тошнит от искажённого голоса в этом видео. Но при этом, если вызывать text out из Хрома или Edge- там значительно улучшено качество. В PoC годичной давности (март-апрель 2023) продукта, я использовал тексты из локализации интерфейса и матчил нужный язык в api- русский, английский, американский английский, испанский, французский звучат реалистично. Почти как настоящая речь- только мелкие нестыковки выдают робота. Тот же самое в FF- выводило речь Стивена Хокинга.
Генеративное видео прикольное , только нафига там искажения вносить?
PS интересно чтоб поскромней размером модель LLM, чтобы крутить на проце смартфона.
Здравствуйте, Nuzhny, Вы писали:
N> запущен на слабом домашнем железе.
Попробовал это https://whisper.ggerganov.com/stream/ tiny.en 75Mb на рабочем лаптопе с igpu и 32г рамы. Тупит и глючит .
К сожалению, для LLM в веб реалтайма нужен доступ к NPU / GPGPU, а его пока что официально не завезли afaik.
Здравствуйте, Nuzhny, Вы писали:
Аё>>PS интересно чтоб поскромней размером модель LLM, чтобы крутить на проце смартфона.
N>На смартфоне пока нереально. У чувака GF 3060, на нём всё это крутится. Была бы 4090, можно было бы все модели взять классом выше.
Я пробовал какие-то small language model на смартфоне, в веб- работало. Только время на закачку 260Мб модели при слабом сигнале 5G требовало. Теоретически, браузер кеширует файлы модели, так что можно показать какой-то интерфейс "Закачивается, ждите, сообщим как только так сразу".
Причём, эта SLM крутилась на ONNX Runtime, с включённой WebGPU, на андроидном хроме. айДевайсы пока без WebGPU.