Здравствуйте, VladD2, Вы писали:
VD>А какая связь с Руби и МЛ? Я понимаю Elixir это развитие Элранга. Он конечно похож чем-то МЛ, так как тоже ФП. Но как-то это все натянуто.
МЛ это машин лёрнинг, а не ML как язык.
Здравствуйте, SkyDance, Вы писали:
SD>Так это же твой выбор — "прикрутить". Посмотри на того же Jose Valim, он ведь тоже мог бы "прикрутить pytorch" (и да, прикрутил). SD>Но есть и другой подход. Реализовать на родном языке, Erlang/Elixir/..., а то и вовсе изобрести.
Это выбор обусловленный необходимостью разрабатывать коммерческий продукт. По большому счету, то что ты пишешь можно применить практически к любому языку, даже к тому же C++. Там тоже можно что угодно взять да прикрутить. А на практике, в коммерческой разработке, приходится исходить из того что уже прикручено. А к Elixir полноценно прикручен исключительно CRUD, ну и само собой OTP доставшийся по наследству.
SD>Мы о разных вещах говорим просто. Я о фундаментальных. Ты — о прикладных.
Фундаментально на JS можно написать эмулятор компьютера, и даже кто-то написал. Но на практике эта идея так себе.
KP>Это выбор обусловленный необходимостью разрабатывать коммерческий продукт. По большому счету, то что ты пишешь можно применить практически к любому языку, даже к тому же C++. Там тоже можно что угодно взять да прикрутить.
Ага, помню-помню. Важно не то, какого качества продукт, а то, что оно запахло раньше других.
Странно, что народ так возмущается копроэкономикой.
Здравствуйте, Kernan, Вы писали:
K>МЛ это машин лёрнинг, а не ML как язык.
Так не надо использовать устоявшиеся названия. Тем более, что МЛ — это официальное имя зыка.
А какое на фиг машинное обучение может быть на медленных интерпретируемых языках? Народ вон видюхи задействует и мега-процессоры с морем ядер. Там любое вычисление на счету и оптимизируете. Эрланг здесь не по назначению получается.
Есть логика намерений и логика обстоятельств, последняя всегда сильнее.
Здравствуйте, VladD2, Вы писали:
VD>Так не надо использовать устоявшиеся названия. Тем более, что МЛ — это официальное имя зыка.
Влад, у меня есть подозрение, что то, что ML — это язык, знают куда меньше разработчиков чем про то, что ML — это machine learning.
VD>А какое на фиг машинное обучение может быть на медленных интерпретируемых языках? Народ вон видюхи задействует и мега-процессоры с морем ядер. Там любое вычисление на счету и оптимизируете. Эрланг здесь не по назначению получается.
Модель учат, тестируют и т.д. на Python, который еще медленнее Erlang-а. Тут скорее про удобные биндинги к плюсовым библиотекам.
VD>А какое на фиг машинное обучение может быть на медленных интерпретируемых языках? Народ вон видюхи задействует и мега-процессоры с морем ядер. Там любое вычисление на счету и оптимизируете. Эрланг здесь не по назначению получается.
Erlang может точно так же задействовать "мега-процессоры и видяхи". Да уже и не совсем интерпретируемый, ибо реализован JIT (точнее, AoT, — изначально шли к JIT, но выяснилось, что иногда лучше как проще, чем как круче, и весь эрланг, однако, как раз про это).
Здравствуйте, VladD2, Вы писали:
VD>Так не надо использовать устоявшиеся названия. Тем более, что МЛ — это официальное имя зыка.
Мужик, ты застрял в 2000, всё же поменялось давно и не один раз. VD>А какое на фиг машинное обучение может быть на медленных интерпретируемых языках?
Ну вот мы и увидим что нам предложит Жозе Валим.
Здравствуйте, SkyDance, Вы писали:
SD>Erlang может точно так же задействовать "мега-процессоры и видяхи". Да уже и не совсем интерпретируемый, ибо реализован JIT (точнее, AoT, — изначально шли к JIT, но выяснилось, что иногда лучше как проще, чем как круче, и весь эрланг, однако, как раз про это).
Эрланг принципиально не оптимизируем. Ну как скрипт для склеивания, конечно проканает. Но идея бредовая.
Есть логика намерений и логика обстоятельств, последняя всегда сильнее.
Здравствуйте, kaa.python, Вы писали:
KP>Влад, у меня есть подозрение, что то, что ML — это язык, знают куда меньше разработчиков чем про то, что ML — это machine learning.
А ты демал, что на сайт домохозяек зашел?
KP>Модель учат, тестируют и т.д. на Python, который еще медленнее Erlang-а. Тут скорее про удобные биндинги к плюсовым библиотекам.
Не ну учить и на китайском можно, но писать придется на чем то более подходящем.
Есть логика намерений и логика обстоятельств, последняя всегда сильнее.
Здравствуйте, VladD2, Вы писали:
KP>>Модель учат, тестируют и т.д. на Python, который еще медленнее Erlang-а. Тут скорее про удобные биндинги к плюсовым библиотекам. VD>Не ну учить и на китайском можно, но писать придется на чем то более подходящем.
Писать что? Сейчас пишут пайплайн обучения практически все на Питоне, что-то другое — доли процента. Инференс уже часто на другом (и это другое С++), но кажется, что Питон и тут один из лидеров на серверах: обучили модельку, соптимизировали, может сконвертировали в, например, TensorRT, завернули в докер и поставили. На мобилках — да, там Питона будет меньше.
Так что в текущей реальности ты не прав.
N>Писать что? Сейчас пишут пайплайн обучения практически все на Питоне, что-то другое — доли процента. Инференс уже часто на другом (и это другое С++)
Именно это и будет с Erlang/Elixir/Nx: C++ bindings для инференса будут запускаться из BEAM. По крайней мере такова задумка. Так что Nerves получит второе дыхание, Peer уже радостно потирает руки
Здравствуйте, SkyDance, Вы писали:
SD>Именно это и будет с Erlang/Elixir/Nx: C++ bindings для инференса будут запускаться из BEAM. По крайней мере такова задумка. Так что Nerves получит второе дыхание, Peer уже радостно потирает руки
Но для этого уже есть Python в купе с NumPy, Pandas, Matplot и еще кучей библиотек и, конечно же, Jupyter. Чего такого есть в Elixir чего нет в экосистеме Python? Вернее как, всего вышеперечисленного нет, так за счет чего ожидается откусывание куска пирога?
KP>Но для этого уже есть Python в купе с NumPy, Pandas, Matplot и еще кучей библиотек и, конечно же, Jupyter. Чего такого есть в Elixir чего нет в экосистеме Python? Вернее как, всего вышеперечисленного нет, так за счет чего ожидается откусывание куска пирога?
Есть Phoenix всякие там, вкупе со всей телеметрией, а также BEAM — concurrency, distribution, fault tolerance.
Вопрос лишь в том, хватит ли сил научить людей пользоваться всем этим. Это основная сложность. Вот если б в школе преподавать все эти вещи (не обязательно на эрланге/эликсире), было бы куда лучше.
Здравствуйте, SkyDance, Вы писали:
SD>Erlang может точно так же задействовать "мега-процессоры и видяхи".
Эрланг — не может. С Эрланга — можно. Но сразу встает вопрос, а на фиг он там уперся, если сами вычисления производятся не на нем и не с его помощью.
SD>Да уже и не совсем интерпретируемый, ибо реализован JIT (точнее, AoT, — изначально шли к JIT, но выяснилось, что иногда лучше как проще, чем как круче, и весь эрланг, однако, как раз про это).
Это принципиально скрптовый язык. Он не может быть быстрым в числодробильных целях. Ну, и опять таки повторюсь, если переносить вычисления на видюхи, все свойства хост-языка вообще рояли не играют. Скорее будет важно насколько язык позволяет разные выкрутасы позволяющие упросить написание и выполнение этих самых алгоритмов на видюхах. У меня начальник на дотнете этим делом занимается, например. Участвует в пенесометриях где очень разные языки используются. И вроде как в топы выбиваются.
Эрланг же интересен своей рантайм-средой позволяющей распределять вычисления и делать отказоустойчивые решения. К подходам принятым в машин-лернинге это как-то не очень близко.
Есть логика намерений и логика обстоятельств, последняя всегда сильнее.
Здравствуйте, Kernan, Вы писали:
K>Мужик, ты застрял в 2000, всё же поменялось давно и не один раз.
С падения Римской империи прошло до нашей эры. Но термины придуманные в то время живут до сих пор и не меняются.
K>Ну вот мы и увидим что нам предложит Жозе Валим.
Не думаю, что увидим. Но хуже не будет.
Есть логика намерений и логика обстоятельств, последняя всегда сильнее.
Здравствуйте, Nuzhny, Вы писали:
N>Писать что? Сейчас пишут пайплайн обучения практически все на Питоне, что-то другое — доли процента.
Это в твоем воображении. А в реальности много на чем делают. У меня начальник на Шарпе пишет. Причем и код что на видюхе это считает, тоже.
N>Инференс уже часто на другом (и это другое С++), но кажется, что Питон и тут один из лидеров на серверах: обучили модельку, соптимизировали, может сконвертировали в, например, TensorRT, завернули в докер и поставили. На мобилках — да, там Питона будет меньше.
Да запускалка она какой угодно может быть. Вопрос в том на чем и как написаны сами вычислительные алгоритмы. Ну, и в самих алгоритмах, конечно.
N>Так что в текущей реальности ты не прав.
Да, конечно. Один ты прав.
Есть логика намерений и логика обстоятельств, последняя всегда сильнее.
Здравствуйте, VladD2, Вы писали:
VD>Это в твоем воображении. А в реальности много на чем делают. У меня начальник на Шарпе пишет. Причем и код что на видюхе это считает, тоже.
Интересно. А код во что потом транслируется? Это C# поверх LLVM? Или NVPTX?
VD>Да запускалка она какой угодно может быть. Вопрос в том на чем и как написаны сами вычислительные алгоритмы. Ну, и в самих алгоритмах, конечно.
Пока тут вариантов практически и нет: С, С++, CUDA. Далее уже идут всякие ПЛИС, TPU и другие нейроускорители, для них я даже не знаю на чём пишут.
VD>А ты ник прочесть не можешь? Лучше бы разобрался в причинах или спросил у тех кто разбирался.
Окей, спрашиваю про причины.
Про "кто разбирался" тоже интересно. А то ведь заявление ну очень сильное: "VD>Эрланг принципиально не оптимизируем."
Он настолько не оптимизируем, что свежий RC1 работает в среднем на 40% быстрее предыдуших версий. Для некоторых случаев вообще в 2-3 раза ускорение (как раз для вычислительных ворклоадов).
PS: ты б тоже разобрался, кто здесь кто. А то ведь, внезапно, здесь есть люди, не по наслышке знакомые даже с темными закоулками Эрланга и его виртуальной машины.