Здравствуйте, xma, Вы писали:
xma>4 года назад даже SUNO/Udio не было
первые версии SUNO пару лет назад слухал ? прогресс небывалый ..
Так и где твой прототип?
xma>теория без практики ничто в данном случае (обоснование одно — личный опыт, у вас его нету),
Так ты же программно-аппаратный результат получить хочешь. Как тут без теории? Ты на ощущениях его делать собираешься?
xma>а механизм работы я уже сто раз описывал:
Сначала надо показать, что оно хотя бы теоретически возможно. То есть, что музыка в принципе может привести к описываемому тобой состоянию. Прежде чем что-то генерировать, надо понять, как это делать. У твоей работы должно быть:
1. Теоретическое обоснование того, что музыка может привести к цели. Что это за цель. Для этого не надо иметь супер сервер и приборы, надо учить матчасть, писать статьи, получать фидбек от биологов-медиков-психологов.
2. Потом уже выбирать аппаратную платформу для интерфейса мозг-компьютер, которая позволит обеспечить получение отклика.
3. Только тут находятся нейронки, датасеты.
Почему ты начинаешь с конца, то есть с SUNO и ему подобных?
xma>(только в идеале с обобщением результатов миллионов людей на центральном сервере, и периодической раздачи им новых локальных моделей которые максимально соответствуют их интересам и предполагаемо вызывают у них наибольший резонанс наслаждения из доступного), brain in the loop
Это детали реализации.
xma>во первых авито твоё нахер, ибо я не настолько богат чтобы покупать б/у говно непонятного качества без гарантии
xma>во-вторых, те нейро гарнитуры что есть сейчас — во 1) дорогие для меня (баксов 700$+ стоят), ибо я не могу пока работать (а на пособия не разгуляешься), а во 2) имеют сильно зашумлённый сигнал с мозга (но ближе к 2030+ гг должны по идее решить эти проблемы, там обещают чуть ли не сёрфинг по инету силой мысли в AR очках на диване, а может даже и кодинг)
Понятно, то есть пока не уверен сам в результате.
xma>у тебя есть варианты :
xma>1) фигеть
xma>2) разрабатывать самому
xma>3) проспонсировать тех кто готов уделять проекту время
xma>4) просто ждать когда сделают другие
xma>но ты выбрал фигеть
Нет, я выбрал сам делать.
1. Пока у меня рождались дети, я немного беспокоился о синдроме внезапной детской смерти (СВДС). Я знал, что есть работы по вычислению пульса по видео. Прочитал статьи, закодил несколько алгоритмов, поставил веб-камеру над кроваткой — не работает. Выложил код на гитхаб.
2. Начал внимательнее читать статьи, списался с чуваком, который написал диплом и защитил диссертацию по этой теме в Баумановке. Он рассказал, что сильно важна аппаратная платформа, надо брать камеру, снимающую raw и т.д.
3. Я нашёл через знакомых такую камеру, начал делать решение, работало нестабильно. На взрослом человеке лучше, но тоже плохо.
4. Нашёл коллегу, который выбирал тему для кандидатской, он взял эту, я ему помогал.
5. Навели контакты с голландской компанией Noldus, которая делала анализ эмоций по видео для исследований аудитории при просмотре рекламы. Они также начали пытаться сделать алгоритм для вычисления пульса по видео. Они дали свои контакты, дали демку своей программы, мы с ними начали сотрудничать.
6. Нашёл бывшего коллегу, который разбирается в ЦОС, он теоретически показал, как получить результат, расписал математику в Матлабе, запустил тестовый пример.
7. Параллельно я сделал детектор лица, детектор кожи, вычирал места на лице, где сосуды ближе к поверхности.
8. Договорились с частной клиникой, где мы могли подключиться к аппарату ЭКГ и проводить свои эксперименты в контролируемых условиях.
9. Договорились с инвестиционным фондом из РФ, который выделил нам менеджера и помог найти несколько предприятий, где могла бы пригодиться технология.
10. Нас с проектом свозили в Москву в лабораторию Samsung AI Research на Samsung Connection day, где мы перед аудиторией презентовали совю идею. Надо было ответить на все технические вопросы.
11. Какое-то время сотрудник Самсунга из Израиля с нами сотрудничал.
12. Результат был не очень, я сконнектился с крупной организацией из РФ, которая занималась тем же, выдала нам обучающие видео, где актёры на камеру изображали различные эмоции, там был и контроль пульса.
13. Получалось так себе, прогресс застопорился.
14. В РФ тогда ещё была исследовательская лаборатория Филлипса, где они в том числе делали медицинский прибор для контроля пульса по видео у новорожденных. Продукт на рынок ещё не вышел, но мне выслали на него некоторые документы и рассказали, почему он пока не может выйти, хотя сама технология работает у них неплохо.
15. В итоге мы поняли, что проблемы, которые возникли у Филлипса, сами решить тоже не сможем. Мотивация упала, коллега устроился на другую работу в другой стране, ещё один занялся своими делами.
Вот. В доказательство у меня есть и старый проект на гитхабе, и видео с ЭКГ на Ютьюбе, и зарегистрированная в реестре ПО программа, и фото с Samsung Connection Day. Как это всё происходило: я работал фуллтайм на работе, у меня по очереди в течение 3-х лет родилось трое детей, никто мне денег не платил я тоже на этот проект тратил исключительно свои силы и время сна, просыпаясь в 5-6 утра. Да, проект потерпел неудачу, но я знаю, что сдела всё, что мог.
А какой выбор сделал ты? Вижу, что на форумах рассказываешь, что с LLM советуешься. Что-то ещё?
Здравствуйте, Nuzhny, Вы писали:
N>Так и где твой прототип?
проспонсируешь будет

иначе жди когда я сам накоплю (или кто нить из крупных корпов не склепает, что почти неизбежно но долго)
N>Так ты же программно-аппаратный результат получить хочешь. Как ту без теории?
ну какая тут может быть теория (надо всё экспериментально проверять, есть ли хотя бы статистически значимый шанс выделить полезный сигнал с нейрогарнтируры, хватит ли 5060Ti@16 ГБ для не только инференса в реальном времени но и до обучения),
N>Потом уже выбирать аппаратную платформу для интерфейса мозг-компьютер, которая позволит обеспечить получение отклика.
есть существенное подозрение что на одном человеке прогресс будет слишком медленный чтобы его можно было ощутить, поэтому это скорее всё for FUN
N>Понятно, то есть пока не уверен сам в результате.
на современном оборудовании не уверен, но в ближайшие 5-10 лет шансы должны существенно вырасти

и не позднее чем через четверть века синтез ИИ музыки должен существенно выйти за пределы человеческих возможностей (в плане ощущаемого наслаждения от прослушивания)
N>надо учить матчасть, писать статьи, получать фидбек от биологов-медиков-психологов.
давай вперёд, "у нищих слуг нет" (c)
а мне по барабану, я делаю лишь то что мне по кайфу — прогресс и без меня идёт семимильными шагами по экспоненте, если смогу подтолкнуть его то замечательно (нет, ну и похеру, просто появится позже, на крайняк в следующей жизни послушаю)
N>Это детали реализации.
это существенные детали, нейрогарнитуры пока не особо популярны — поэтому на миллионах мартышек даже с распределённой основой AI (без центрального сервера) вряд ли бы удалось рассчитывать (выделяя полезный сигнал), а чтобы "обезьяны" начали проявлять интерес то нужен ощутимый для них прогресс, в т.ч. личный (иначе нахер это кому надо)
N>А выбор сделал ты? Виже, что на форумах рассказываешь, что с LLM советуешься. Что-то ещё?
что то не нравится, дорога на .. всегда свободна
N>Так и где твой прототип?
ну и да, что касается моих прототипов в рамках доступных мне технологических возможностей — в 2015 году накатал демку после которой меня приглашали в NVidia

а год назад накатал поддержку трассировки лучей для WebGPU (
демо) (с поддержкой анимированных и динамических сцен)
P.S.:
а в проработке всяких даунских теорий для зашоренных обезьян (которые слаще Киркорова ничего никогда не слыхали), как то не нуждаюсь .. (нет понимания если где зарыты перспективы, слушайте Пугачёву и дальше)