Re[19]: RIP Никлаус Вирт
От: novitk США  
Дата: 08.01.24 04:37
Оценка:
Здравствуйте, CreatorCray, Вы писали:

CC>При наличии нормального FW с готовыми компонентами — на любом языке делается очень быстро.

Taк покажи, не стесняйся. Примерно представляю себе ситуацию с QT, но может у тебя все круче.

CC>А нафига там веб?

Потому же почему и у амазона с гуглом. Код работает под linux, а у клиента win.

CC>Безотносительно — а нафига оно нужно то? Сколько девелоплю — как то не было реальной необходимости именно в таком.

map/filter/sort/groupby/reduce? Грязные данные кроме строк никуда не запихаешь.

CC>Интеграцию чего с чем? Я чот не очень понимаю что именно ты хочешь?

Те самые 50 строчек, которые используют твой крутейший фреймворк.

N>> В Apple тоже?

CC>Тех, кто проектировал IOKit и CF хочется забить тапком. Такого рукожопия я давно не видел.
CC>Swift тот ещё кусок говна. Язык, в котором крайне геморройно оперировать байтами совершенно непригоден для системного программирования.
Самооценка у тебя я смотрю на уровне. Так и надо: "Все дебилы и только Я крутой!"

CC>Этож всё подкапотное, банально операция над массивом данных. К приведённому тобой гуёвому примеру вообще никак не относится.

Эти пример показывает сколь быстро можно к мат.модели на раннем этапе R&D присобачит какой-то UI. Ессно сама модель тоже на Питоне, ну или в моем случае Скале, но это местный калорит. UI нужен для разработки, калибровки и т.д., а так же для придания уверенности пользователям, что модель работает. Часто можно обойтись просто Jupyter, но не всегда. Так сейчас это работает чуть менее чем везде, где разрабатывают мат. модели: в Lockheed, Pfizer, OpenAI, у нас на WallSt, думаю и у вас в Apple.

N>>Бывает для ее перевода на numpy/XLA/numba нужно время и первую версию проще делать циклом

CC>В мою бытность мы эту трахомудию пытались затолкать в видюху на Cuda 1.0
Tы просто не владеешь темой. XLA это и есть оболочка для cuda.

CC>...

CC>Все эти формулы создаются однократно, а когда меняются какие то входные значения то кэш инвалидируется и граф лениво пересчитывается.
Просто оbserver pattern или явнoe построение computational graph через метапрограммирование? Если второе было бы интересно посмотреть. Пo второму варианту все эти tflow с pytorch и работают, но там правда еще много чего. Разберешься как они реализованы, поймешь почему все на питоне ML модели программируют, а не на плюсах.
Отредактировано 08.01.2024 4:57 novitk . Предыдущая версия . Еще …
Отредактировано 08.01.2024 4:46 novitk . Предыдущая версия .
Отредактировано 08.01.2024 4:42 novitk . Предыдущая версия .
Отредактировано 08.01.2024 4:41 novitk . Предыдущая версия .
Отредактировано 08.01.2024 4:39 novitk . Предыдущая версия .
 
Подождите ...
Wait...
Пока на собственное сообщение не было ответов, его можно удалить.