Видеочат
От: Nuzhny Россия https://github.com/Nuzhny007
Дата: 12.04.24 19:40
Оценка: 49 (6)
  Видео
https://youtu.be/ORDfSG4ltD4?si=PdTzPhLIRcmc2wsZ

Сам проект
Это не просто чат, с которым можно переписываться, теперь можно с ним общаться голосом и видеть лицо собеседника. Да, он подтупливает, но лишь потому, что запущен на слабом домашнем железе. Поставь конфиг помощнее и можно модель покруче поставить и от лагов избавиться. Как будто всё по отдельности не впечатляет, но собранное воедино — вау!
Re: Видеочат
От: Артём Австралия жж
Дата: 15.04.24 22:46
Оценка:
Здравствуйте, Nuzhny, Вы писали:


N>
  Видео
N>https://youtu.be/ORDfSG4ltD4?si=PdTzPhLIRcmc2wsZ

N>Сам проект
N>Это не просто чат, с которым можно переписываться, теперь можно с ним общаться голосом и видеть лицо собеседника. Да, он подтупливает, но лишь потому, что запущен на слабом домашнем железе. Поставь конфиг помощнее и можно модель покруче поставить и от лагов избавиться. Как будто всё по отдельности не впечатляет, но собранное воедино — вау!

Коммент
"The russian version is crazy realistic"

Серьёзно- меня тошнит от искажённого голоса в этом видео. Но при этом, если вызывать text out из Хрома или Edge- там значительно улучшено качество. В PoC годичной давности (март-апрель 2023) продукта, я использовал тексты из локализации интерфейса и матчил нужный язык в api- русский, английский, американский английский, испанский, французский звучат реалистично. Почти как настоящая речь- только мелкие нестыковки выдают робота. Тот же самое в FF- выводило речь Стивена Хокинга.

Генеративное видео прикольное , только нафига там искажения вносить?

PS интересно чтоб поскромней размером модель LLM, чтобы крутить на проце смартфона.
Отредактировано 15.04.2024 22:49 Артём . Предыдущая версия .
Re: Видеочат
От: Артём Австралия жж
Дата: 16.04.24 01:02
Оценка: +1
Здравствуйте, Nuzhny, Вы писали:

N> запущен на слабом домашнем железе.

Попробовал это https://whisper.ggerganov.com/stream/ tiny.en 75Mb на рабочем лаптопе с igpu и 32г рамы. Тупит и глючит .

К сожалению, для LLM в веб реалтайма нужен доступ к NPU / GPGPU, а его пока что официально не завезли afaik.
Re[2]: Видеочат
От: Nuzhny Россия https://github.com/Nuzhny007
Дата: 16.04.24 04:48
Оценка:
Здравствуйте, Артём, Вы писали:

Аё>PS интересно чтоб поскромней размером модель LLM, чтобы крутить на проце смартфона.


На смартфоне пока нереально. У чувака GF 3060, на нём всё это крутится. Была бы 4090, можно было бы все модели взять классом выше.
Re[3]: Видеочат
От: Артём Австралия жж
Дата: 30.06.24 03:57
Оценка:
Здравствуйте, Nuzhny, Вы писали:

Аё>>PS интересно чтоб поскромней размером модель LLM, чтобы крутить на проце смартфона.


N>На смартфоне пока нереально. У чувака GF 3060, на нём всё это крутится. Была бы 4090, можно было бы все модели взять классом выше.


Я пробовал какие-то small language model на смартфоне, в веб- работало. Только время на закачку 260Мб модели при слабом сигнале 5G требовало. Теоретически, браузер кеширует файлы модели, так что можно показать какой-то интерфейс "Закачивается, ждите, сообщим как только так сразу".

Причём, эта SLM крутилась на ONNX Runtime, с включённой WebGPU, на андроидном хроме. айДевайсы пока без WebGPU.
Отредактировано 30.06.2024 4:00 Артём . Предыдущая версия .
 
Подождите ...
Wait...
Пока на собственное сообщение не было ответов, его можно удалить.