Дистилляция LLM в код
От: TheBeginner  
Дата: 23.03.26 05:04
Оценка: 2 (1) +1
Была такая статья: https://sysblok.ru/blog/gorkij-urok-abbyy-kak-lingvisty-proigrali-poslednjuju-bitvu-za-nlp/
Это про компанию ABBYY и ее попытку построить "вавилонскую башню" моделей описания языков для своего переводчика над которым работали сотни лингвистов и проигрыш сначала google translate с его статистическими методами и big data, а затем и llm. В общем, ABBYY не потянула масштаб задачи и "необъяснимая эффективность больших данных" победила.

А вот интересно — с развитием генерацией кода llm (вайб кодинг) у первого подхода (т.е. больших детерминированных алгоритмов и моделей) есть шанс? Это же практически дистилляция знаний в конкретной области llm в код.
И этот код работает намного быстрее топовых llm. Что думаете, был бы у ABBYY сейчас шанс?
Re: Дистилляция LLM в код
От: GlebЗ Россия  
Дата: 23.03.26 21:51
Оценка: +1
Здравствуйте, TheBeginner, Вы писали:

TB>Что думаете, был бы у ABBYY сейчас шанс?

Пока у ABBYY монополия на распознавание. Если нужно распознавать большое количество LLM курят, а абби запускается на обычных процах и работают очень быстро. Это знание у АББИ проприетарно. И я думаю многое под патентами.
Re: Дистилляция LLM в код
От: Sharov Россия  
Дата: 24.03.26 11:32
Оценка:
Здравствуйте, TheBeginner, Вы писали:

TB>А вот интересно — с развитием генерацией кода llm (вайб кодинг) у первого подхода (т.е. больших детерминированных алгоритмов и моделей) есть шанс? Это же практически дистилляция знаний в конкретной области llm в код.


Можете эту фразу объяснить, не понятно о чем речь? Дистиляция знаний чего (каких моделей?) в код? Что с чем сравнивается?
Кодом людям нужно помогать!
Re: Дистилляция LLM в код
От: SkyDance Земля  
Дата: 24.03.26 18:59
Оценка: 10 (1) -1
TB>Это про компанию ABBYY и ее попытку построить "вавилонскую башню" моделей описания языков для своего переводчика над которым работали сотни лингвистов и проигрыш сначала google translate с его статистическими методами и big data, а затем и llm. В общем, ABBYY не потянула масштаб задачи и "необъяснимая эффективность больших данных" победила.

Статью не читал, но отмечу один из известных принципов — экстенсивное развитие вычислительных мощностей делает ненужным сложные алгоритмические решения. Как это случилось, скажем, с шахматными программами. Или с Го (игрой, не языком). Ровно то же случилось и с переводом, тупо залить мощностью оказалось проще и надежнее.

Была классная статья на эту тему (на английском), но я потерял ссылку.
Re[2]: Дистилляция LLM в код
От: Nuzhny Россия https://github.com/Nuzhny007
Дата: 24.03.26 19:42
Оценка: 5 (1) +1
Здравствуйте, SkyDance, Вы писали:

SD>Была классная статья на эту тему (на английском), но я потерял ссылку.


Горький урок Саттона?
Re[2]: Дистилляция LLM в код
От: AlexMld Россия  
Дата: 24.03.26 20:24
Оценка: +1
Здравствуйте, SkyDance, Вы писали:

SD>Была классная статья на эту тему (на английском), но я потерял ссылку.


Как раз в той стаье, что ты не читал, есть эта ссылка, и ссылка на более раннюю статью от Гугл с примерно тем же мотивом.
https://static.googleusercontent.com/media/research.google.com/ru//pubs/archive/35179.pdf
http://www.incompleteideas.net/IncIdeas/BitterLesson.html
Re[3]: Дистилляция LLM в код
От: SkyDance Земля  
Дата: 24.03.26 22:52
Оценка:
N>Горький урок Саттона?

Ага
Вот чего я не знал, но заглянув в заглавную статью, узнал, — так это что гугл еще в 2009 опубликовал примерно тот же манифест. Я до этого дошел лет на 10 позже. Что, конечно, объясняет успех Гугл — там не только очень умные люди, но и очень большие возможности. Которых попросту не могло быть у маленьких компаний. Это, в свою очередь, объясняет столь ярко выраженное стремление бизнесов вести себя подобно раку: стремиться к максимальному разрастанию. Даже если это приведет к смерти носителя.
 
Подождите ...
Wait...
Пока на собственное сообщение не было ответов, его можно удалить.