Здравствуйте, sergey2b, Вы писали:
S>посоветуйте что можно написать на “Senior GPU Engineer” project S>что бы можно было показать на собеседованиях
S>а то то что я расказываю с последней работы не производит вау эффекта
Раньше было модно что-то из криптовалют на gpu писать типа майнера, сейчас я бы что-нибудь для нейросети сделал
Здравствуйте, __kot2, Вы писали:
S>>а то то что я расказываю с последней работы не производит вау эффекта __>Раньше было модно что-то из криптовалют на gpu писать типа майнера, сейчас я бы что-нибудь для нейросети сделал
Ты в нейронках сам в видюху не лезешь, все фреймворки делают
Здравствуйте, __kot2, Вы писали:
S>>а то то что я расказываю с последней работы не производит вау эффекта __>Раньше было модно что-то из криптовалют на gpu писать типа майнера, сейчас я бы что-нибудь для нейросети сделал
с майнерами я не хочу связываться
я показал пример связанный енкодиром видео и zero-copy GPU buffers, сказали не круто надо что то связанное с вычислениями
Здравствуйте, sergey2b, Вы писали:
S>а то то что я расказываю с последней работы не производит вау эффекта
Говорят, сейчашние GPU (которые для нейронок, а не картинки рисовать) упираются в то, как развести между памятью и вычислителями такие потоки данных, с которыми они оперируют.
Здравствуйте, Pzz, Вы писали:
Pzz>Здравствуйте, sergey2b, Вы писали:
S>>а то то что я расказываю с последней работы не производит вау эффекта
Pzz>Говорят, сейчашние GPU (которые для нейронок, а не картинки рисовать) упираются в то, как развести между памятью и вычислителями такие потоки данных, с которыми они оперируют.
Да не обязательно. Сейчас сами нейронки могут иметь сжатое (например сильно разреженное)представление и можно делать кастомный код на gpu который работают прямо на сжатом представлении.
Здравствуйте, Hоmunculus, Вы писали:
H>Ты в нейронках сам в видюху не лезешь, все фреймворки делают
Не везде и не всегда.
0. Это старый пример, но самый популярный детектор объектов YOLO написан был одним человеком и пережил несколько реинкарнаций только на С + CUDA: раз, два, три.
1. В половине известных программ для LLM лежит в основе llama.cpp, которую просто для себя сделал Georgi Gerganov. Теперь это перешло под крыло Huggingface.
2. Можно посмотреть, что регулярно выпускает antirez.
3. Ну или по классике Fabrice Bellard тоже пишет свои имплементации нейросетей.
4. Нужны молодые и модные — Andrej karpathy реализует все те же LLM.
5. Ещё могу поперечислять, если интересно.
Всё это говорит о том, что реализация этого дела не такая и сложная, область молодая, под конкретное устройство senior GPU developer может написать свою конкретную реализацию так, что она обгонит все текущие general фреймворки. Ну и такие проекты регулярно выходят и становятся популярными. Не говоря уже о компаниях, которые пилят свои закрытые решения и никому их не показывают — таких тоже парочку знаю в РФ.