Сообщение дебаг LLM от 26.02.2026 21:09
Изменено 28.02.2026 21:44 ботаныч
экспоненциальный взрыв в ИИ
Б>начало дискуссии тут
Б>https://rsdn.org/forum/ai/9053164.1
vdimas, ответим на вопросы.
1. контекстно зависимая грамматика — если нетерминал стоит в левой части правила.
Эффективных алгоритмов нет. для регулярок — появление backrefference переводит регэксп в класс контекстно зависимых грамматик. Собственно ты ошибаешься утверждая что от regex c рекурсией и тем паче бэкреф строится ДКА. Это справедливо только для клакссических регекспов без рекурсии. А в реализованном языке компилатор регекспов — только небольшая часть )
2. word2vec — ниже написал.
Б>>Таки есть непонимание того, что в моем случае никакой ДКА не был возможен.
) мы вообще о чем говорим? О возможности анализа нейроного в больших LLM?
V>Я понял из твоих слов так, что "длина"
1.5м ркегекспоборазное выражение в контексте бустового кода — данность. И вполне решаемая задача.
V>всех правил — полтора метра (1.5*1024*1024 в символах грамматики?)
ято ты тут пишешь? полтораметра — данность.
V>Тут всё еще возможно построение минимизированного ДКА.
что ты ? 1. ДКА из рекурсивных выражений уже не постороишь. 2. В нашем случае они были с бэкрефересами, где, даже КСГ
для чего нужен Word2Vec? (трансформер решает примерно теже вопросы).
И вообще, совесть имей)) было 10 лет назад (или ты подозреваешь меня во вранье — так там вон и язык и люди иди поспрашивай). В моем случае регексп (расширенное выражение с дописанными операторами) — внутреннее представление NLP системы.
ИИ:
Рекурсивные регулярные выражения (РРВ) — это расширение стандартных регулярных выражений, позволяющее использовать рекурсию (например, для парсинга вложенных структур вида (a(b)c)), что делает их эквивалентными контекстно-свободным грамматикам. В отличие от них, ДКА (Детерминированные Конечные Автоматы) распознают только регулярные языки и не поддерживают вложенность.
V>(грамотнее сказать "показательной функцией", бо без указания контекста экспонентой называют показательную ф-ию с
основанием e)
Ты о чем ?
V>Но в общем случае комбинаторика оперирует не только степенями (комбинации), но и "полустепенями" — факториалами (перестановки/сочетания).
Ты о чем ?
V>Отсылка к "числу атомов во вселенной" — это, с одной стороны расхожий мем, указывающий на "очень большое число",
мне этот мем не известен
V>Например, можно заменить таблицу функцией, которая выдаёт комбинацию по её номеру.
V>В ИИ зашивается связь данных и интерполирующих ф-ий над этими данными при обучении.
отлично, что делает это не поддающемуся анализу?
V>Я занимался этим в самом начале нулевых безо всякого ИИ — строил графы синонимичности слов.
V>Делалась попытка скормить системе обычный толковый словарь для построения этой базы синонимичности.
Отлично, что мешает анализировать LLM?
V>Конкретно бизон мы не изучали, мы писали "кучи бизонов", по вариантам несколько раз с разными грамматиками, бо бизон имеет внутри стековый автоматон для LR(1), а на деле ограничен LALR(1). А мы писали вплоть до GLR, какой там в опу бизон, о чём ты? Это даже несравнимо... ))
я не знаю, что ты конретно там писал, я бизон использовал для компилятора. С контекстно зависимым токенайзером. Потом на этом языке писались, генерировались правила. Конечно там речи о бизон нет.
V>Атрибутные грамматики плохо живут без генерализированного разбора.
от ты тут о чем?
V>>>Во-вторых, связаны по контекстно-зависимым грамматикам.
Б>> как всетаки криво ты bison называешь ))
V>Класс всех контекстно-зависимых грамматик где-то в количество атомов во вселенной мощнее класса, поддерживаемого конкретно бизоном.
а давай ьез атомов во вселенной?))
V>>>В-третьих, связь не только с дисциплинами парсинга, но и с дисциплинами кодирования данных и знаний.
V>>>В-четвертых, связаны по общему пониманию работы синтаксического разбора, представлению графов разбора, результатов и т.д.
Б>> и чем контекстно свободные от контекстно зависимых отличаются ?
V>))
V>Различить их можно после факторизации и минимизации всех правил.
садись. все много проще. наличие нетерминала в левой части правила делает ее контекстно зависимой. В бизоне по моему есть флажочек для использования КЗГ
V>Ты спрашивай, не стесняйся.
ты куда-то уходишь все время. Ты утверждал, что LLM не подлежат анализу, я с этим не согласен.
V>Как раз курсовики по генераторам парсеров и лексеров были.
от меня твое темное прошлое не интересует.
V>Сначала генерация ДКА как раз из языка расширенных регулярных выражений, отдал потом наработку студенту на год меня младше (не тебе случаем, ты не 73 г.р., бгг?)
)) нет я на год старше. тем паче мне за разработку того языка день платили. Я к тому времени уже пару фреймворков на плюсах реализовал
V>>>И этот (уже устаревший) алгоритм, и любые другие алгоритмы (более новым учат в наших ВУЗ-ах) — всего лишь частный случай более фундаментальных знаний.
Б>> ))ты или теоретик, или ... хз в общем. 2013 год алгоритму
V>В общем, мне уже хочется ругаться матом ))
V>Word2Vec — это открытая и бесплатная реализация векторизации слов.
V>Т.е. вот были до этого "черные ящики", делающие то же самое, после этого заменили Word2Vec, потому что даром, проще в архитектуре, допиливалось и ускорялось всем миром.
Т.е. про word2vec мы тоже плаваем?
V>А матом хочется ругаться за путание реализации с функциональностью.
подозреваю, что у тебя и тут шансов мало. СА дает экспиеренс для построения многоэтажек )
V>Да, можно сказать, что Word2Vec — это новый алгоритм, решающий задачу, которую ранее решали другими алгоритмами.
V>(но сам алгорим появился не с 0-ля а как развитие уже известных алгоритмов, а те, в свою очередь, тоже не с 0ля)
новый — не новый разницы нет. Есть одно, ранее аппроксимационные ИИ и символные (грамматики) были два разных направвления, их часто противопоставляли.
так вот через word2vec произошел своеобразный мердж этих двух направлений, т.е. аппроксимационные ИИ (статистика, линейная алгебра) стали исполььзоваться фактически
совместно с алгоритмами из символьных ИИ.
V>Почему возникла потребность в новом алгоритме для решения старой задачи?
V>Потому что индустрия подошла к такому уровню развития, когда потребовалось векторизовать все слова у всех хотя бы немного популярных языков.
дело не в ворд2век, я выше написал.
V>Банально выросла размерность задачи.
V>Но не появилась новая задача.
V>Ладно, сорри, тут я и прервусь, пожалуй, бо это всё несколько вызывающе для нашего форума, а нецензурщиной отвечать неохота.
V>(попытка гонять меня по студенческой программе,
где я пытался ? я договариваюсь о терминах. пока
V>безграмотные попытки меня "поправлять", непонимание отличий решений задачи от феномена существования самой задачи в отрыве от различных вариантов её решения, в свою очередь демонстрация приличных пробелов в базовом профильном образовании, т.е. профильного образования с сбольшой вероятностью не было вовсе, ты пришёл в IT из других специальностей... Про бизон — это огромных размеров маркер, что обсуждать с тобой эти темы более чем бесполезно... надеяюсь, я достаточно обосновал своё невежливое желание проигнорить остаток текста, дважды сорри если что)
ты о чем вообще??
Б>https://rsdn.org/forum/ai/9053164.1
Автор: vdimas
Дата: 05.02 00:25
Дата: 05.02 00:25
vdimas, ответим на вопросы.
1. контекстно зависимая грамматика — если нетерминал стоит в левой части правила.
Эффективных алгоритмов нет. для регулярок — появление backrefference переводит регэксп в класс контекстно зависимых грамматик. Собственно ты ошибаешься утверждая что от regex c рекурсией и тем паче бэкреф строится ДКА. Это справедливо только для клакссических регекспов без рекурсии. А в реализованном языке компилатор регекспов — только небольшая часть )
2. word2vec — ниже написал.
Б>>Таки есть непонимание того, что в моем случае никакой ДКА не был возможен.
) мы вообще о чем говорим? О возможности анализа нейроного в больших LLM?
V>Я понял из твоих слов так, что "длина"
1.5м ркегекспоборазное выражение в контексте бустового кода — данность. И вполне решаемая задача.
V>всех правил — полтора метра (1.5*1024*1024 в символах грамматики?)
ято ты тут пишешь? полтораметра — данность.
V>Тут всё еще возможно построение минимизированного ДКА.
что ты ? 1. ДКА из рекурсивных выражений уже не постороишь. 2. В нашем случае они были с бэкрефересами, где, даже КСГ
для чего нужен Word2Vec? (трансформер решает примерно теже вопросы).
И вообще, совесть имей)) было 10 лет назад (или ты подозреваешь меня во вранье — так там вон и язык и люди иди поспрашивай). В моем случае регексп (расширенное выражение с дописанными операторами) — внутреннее представление NLP системы.
ИИ:
Рекурсивные регулярные выражения (РРВ) — это расширение стандартных регулярных выражений, позволяющее использовать рекурсию (например, для парсинга вложенных структур вида (a(b)c)), что делает их эквивалентными контекстно-свободным грамматикам. В отличие от них, ДКА (Детерминированные Конечные Автоматы) распознают только регулярные языки и не поддерживают вложенность.
V>(грамотнее сказать "показательной функцией", бо без указания контекста экспонентой называют показательную ф-ию с
основанием e)
Ты о чем ?
V>Но в общем случае комбинаторика оперирует не только степенями (комбинации), но и "полустепенями" — факториалами (перестановки/сочетания).
Ты о чем ?
V>Отсылка к "числу атомов во вселенной" — это, с одной стороны расхожий мем, указывающий на "очень большое число",
мне этот мем не известен
V>Например, можно заменить таблицу функцией, которая выдаёт комбинацию по её номеру.
V>В ИИ зашивается связь данных и интерполирующих ф-ий над этими данными при обучении.
отлично, что делает это не поддающемуся анализу?
V>Я занимался этим в самом начале нулевых безо всякого ИИ — строил графы синонимичности слов.
V>Делалась попытка скормить системе обычный толковый словарь для построения этой базы синонимичности.
Отлично, что мешает анализировать LLM?
V>Конкретно бизон мы не изучали, мы писали "кучи бизонов", по вариантам несколько раз с разными грамматиками, бо бизон имеет внутри стековый автоматон для LR(1), а на деле ограничен LALR(1). А мы писали вплоть до GLR, какой там в опу бизон, о чём ты? Это даже несравнимо... ))
я не знаю, что ты конретно там писал, я бизон использовал для компилятора. С контекстно зависимым токенайзером. Потом на этом языке писались, генерировались правила. Конечно там речи о бизон нет.
V>Атрибутные грамматики плохо живут без генерализированного разбора.
от ты тут о чем?
V>>>Во-вторых, связаны по контекстно-зависимым грамматикам.
Б>> как всетаки криво ты bison называешь ))
V>Класс всех контекстно-зависимых грамматик где-то в количество атомов во вселенной мощнее класса, поддерживаемого конкретно бизоном.
а давай ьез атомов во вселенной?))
V>>>В-третьих, связь не только с дисциплинами парсинга, но и с дисциплинами кодирования данных и знаний.
V>>>В-четвертых, связаны по общему пониманию работы синтаксического разбора, представлению графов разбора, результатов и т.д.
Б>> и чем контекстно свободные от контекстно зависимых отличаются ?
V>))
V>Различить их можно после факторизации и минимизации всех правил.
садись. все много проще. наличие нетерминала в левой части правила делает ее контекстно зависимой. В бизоне по моему есть флажочек для использования КЗГ
V>Ты спрашивай, не стесняйся.
ты куда-то уходишь все время. Ты утверждал, что LLM не подлежат анализу, я с этим не согласен.
V>Как раз курсовики по генераторам парсеров и лексеров были.
от меня твое темное прошлое не интересует.
V>Сначала генерация ДКА как раз из языка расширенных регулярных выражений, отдал потом наработку студенту на год меня младше (не тебе случаем, ты не 73 г.р., бгг?)
)) нет я на год старше. тем паче мне за разработку того языка день платили. Я к тому времени уже пару фреймворков на плюсах реализовал
V>>>И этот (уже устаревший) алгоритм, и любые другие алгоритмы (более новым учат в наших ВУЗ-ах) — всего лишь частный случай более фундаментальных знаний.
Б>> ))ты или теоретик, или ... хз в общем. 2013 год алгоритму
V>В общем, мне уже хочется ругаться матом ))
V>Word2Vec — это открытая и бесплатная реализация векторизации слов.
V>Т.е. вот были до этого "черные ящики", делающие то же самое, после этого заменили Word2Vec, потому что даром, проще в архитектуре, допиливалось и ускорялось всем миром.
Т.е. про word2vec мы тоже плаваем?
V>А матом хочется ругаться за путание реализации с функциональностью.
подозреваю, что у тебя и тут шансов мало. СА дает экспиеренс для построения многоэтажек )
V>Да, можно сказать, что Word2Vec — это новый алгоритм, решающий задачу, которую ранее решали другими алгоритмами.
V>(но сам алгорим появился не с 0-ля а как развитие уже известных алгоритмов, а те, в свою очередь, тоже не с 0ля)
новый — не новый разницы нет. Есть одно, ранее аппроксимационные ИИ и символные (грамматики) были два разных направвления, их часто противопоставляли.
так вот через word2vec произошел своеобразный мердж этих двух направлений, т.е. аппроксимационные ИИ (статистика, линейная алгебра) стали исполььзоваться фактически
совместно с алгоритмами из символьных ИИ.
V>Почему возникла потребность в новом алгоритме для решения старой задачи?
V>Потому что индустрия подошла к такому уровню развития, когда потребовалось векторизовать все слова у всех хотя бы немного популярных языков.
дело не в ворд2век, я выше написал.
V>Банально выросла размерность задачи.
V>Но не появилась новая задача.
V>Ладно, сорри, тут я и прервусь, пожалуй, бо это всё несколько вызывающе для нашего форума, а нецензурщиной отвечать неохота.
V>(попытка гонять меня по студенческой программе,
где я пытался ? я договариваюсь о терминах. пока
V>безграмотные попытки меня "поправлять", непонимание отличий решений задачи от феномена существования самой задачи в отрыве от различных вариантов её решения, в свою очередь демонстрация приличных пробелов в базовом профильном образовании, т.е. профильного образования с сбольшой вероятностью не было вовсе, ты пришёл в IT из других специальностей... Про бизон — это огромных размеров маркер, что обсуждать с тобой эти темы более чем бесполезно... надеяюсь, я достаточно обосновал своё невежливое желание проигнорить остаток текста, дважды сорри если что)
ты о чем вообще??
дебаг LLM
word2vec, transformer
Б>начало дискуссии тут
Б>https://rsdn.org/forum/ai/9053164.1
vdimas, ответим на вопросы.
1. контекстно зависимая грамматика — если нетерминал стоит в левой части правила.
Эффективных алгоритмов нет. для регулярок — появление backrefference переводит регэксп в класс контекстно зависимых грамматик. Собственно ты ошибаешься утверждая что от regex c рекурсией и тем паче бэкреф строится ДКА. Это справедливо только для клакссических регекспов без рекурсии. А в реализованном языке компилатор регекспов — только небольшая часть )
2. word2vec — ниже написал.
Б>>Таки есть непонимание того, что в моем случае никакой ДКА не был возможен.
) мы вообще о чем говорим? О возможности анализа нейроного в больших LLM?
V>Я понял из твоих слов так, что "длина"
1.5м ркегекспоборазное выражение в контексте бустового кода — данность. И вполне решаемая задача.
V>всех правил — полтора метра (1.5*1024*1024 в символах грамматики?)
ято ты тут пишешь? полтораметра — данность.
V>Тут всё еще возможно построение минимизированного ДКА.
что ты ? 1. ДКА из рекурсивных выражений уже не постороишь. 2. В нашем случае они были с бэкрефересами, где, даже КСГ
для чего нужен Word2Vec? (трансформер решает примерно теже вопросы).
И вообще, совесть имей)) было 10 лет назад (или ты подозреваешь меня во вранье — так там вон и язык и люди иди поспрашивай). В моем случае регексп (расширенное выражение с дописанными операторами) — внутреннее представление NLP системы.
ИИ:
Рекурсивные регулярные выражения (РРВ) — это расширение стандартных регулярных выражений, позволяющее использовать рекурсию (например, для парсинга вложенных структур вида (a(b)c)), что делает их эквивалентными контекстно-свободным грамматикам. В отличие от них, ДКА (Детерминированные Конечные Автоматы) распознают только регулярные языки и не поддерживают вложенность.
V>(грамотнее сказать "показательной функцией", бо без указания контекста экспонентой называют показательную ф-ию с
основанием e)
Ты о чем ?
V>Но в общем случае комбинаторика оперирует не только степенями (комбинации), но и "полустепенями" — факториалами (перестановки/сочетания).
Ты о чем ?
V>Отсылка к "числу атомов во вселенной" — это, с одной стороны расхожий мем, указывающий на "очень большое число",
мне этот мем не известен
V>Например, можно заменить таблицу функцией, которая выдаёт комбинацию по её номеру.
V>В ИИ зашивается связь данных и интерполирующих ф-ий над этими данными при обучении.
отлично, что делает это не поддающемуся анализу?
V>Я занимался этим в самом начале нулевых безо всякого ИИ — строил графы синонимичности слов.
V>Делалась попытка скормить системе обычный толковый словарь для построения этой базы синонимичности.
Отлично, что мешает анализировать LLM?
V>Конкретно бизон мы не изучали, мы писали "кучи бизонов", по вариантам несколько раз с разными грамматиками, бо бизон имеет внутри стековый автоматон для LR(1), а на деле ограничен LALR(1). А мы писали вплоть до GLR, какой там в опу бизон, о чём ты? Это даже несравнимо... ))
я не знаю, что ты конретно там писал, я бизон использовал для компилятора. С контекстно зависимым токенайзером. Потом на этом языке писались, генерировались правила. Конечно там речи о бизон нет.
V>Атрибутные грамматики плохо живут без генерализированного разбора.
от ты тут о чем?
V>>>Во-вторых, связаны по контекстно-зависимым грамматикам.
Б>> как всетаки криво ты bison называешь ))
V>Класс всех контекстно-зависимых грамматик где-то в количество атомов во вселенной мощнее класса, поддерживаемого конкретно бизоном.
а давай ьез атомов во вселенной?))
V>>>В-третьих, связь не только с дисциплинами парсинга, но и с дисциплинами кодирования данных и знаний.
V>>>В-четвертых, связаны по общему пониманию работы синтаксического разбора, представлению графов разбора, результатов и т.д.
Б>> и чем контекстно свободные от контекстно зависимых отличаются ?
V>))
V>Различить их можно после факторизации и минимизации всех правил.
садись. все много проще. наличие нетерминала в левой части правила делает ее контекстно зависимой. В бизоне по моему есть флажочек для использования КЗГ
V>Ты спрашивай, не стесняйся.
ты куда-то уходишь все время. Ты утверждал, что LLM не подлежат анализу, я с этим не согласен.
V>Как раз курсовики по генераторам парсеров и лексеров были.
от меня твое темное прошлое не интересует.
V>Сначала генерация ДКА как раз из языка расширенных регулярных выражений, отдал потом наработку студенту на год меня младше (не тебе случаем, ты не 73 г.р., бгг?)
)) нет я на год старше. тем паче мне за разработку того языка день платили. Я к тому времени уже пару фреймворков на плюсах реализовал
V>>>И этот (уже устаревший) алгоритм, и любые другие алгоритмы (более новым учат в наших ВУЗ-ах) — всего лишь частный случай более фундаментальных знаний.
Б>> ))ты или теоретик, или ... хз в общем. 2013 год алгоритму
V>В общем, мне уже хочется ругаться матом ))
V>Word2Vec — это открытая и бесплатная реализация векторизации слов.
V>Т.е. вот были до этого "черные ящики", делающие то же самое, после этого заменили Word2Vec, потому что даром, проще в архитектуре, допиливалось и ускорялось всем миром.
Т.е. про word2vec мы тоже плаваем?
V>А матом хочется ругаться за путание реализации с функциональностью.
подозреваю, что у тебя и тут шансов мало. СА дает экспиеренс для построения многоэтажек )
V>Да, можно сказать, что Word2Vec — это новый алгоритм, решающий задачу, которую ранее решали другими алгоритмами.
V>(но сам алгорим появился не с 0-ля а как развитие уже известных алгоритмов, а те, в свою очередь, тоже не с 0ля)
новый — не новый разницы нет. Есть одно, ранее аппроксимационные ИИ и символные (грамматики) были два разных направвления, их часто противопоставляли.
так вот через word2vec произошел своеобразный мердж этих двух направлений, т.е. аппроксимационные ИИ (статистика, линейная алгебра) стали исполььзоваться фактически
совместно с алгоритмами из символьных ИИ.
V>Почему возникла потребность в новом алгоритме для решения старой задачи?
V>Потому что индустрия подошла к такому уровню развития, когда потребовалось векторизовать все слова у всех хотя бы немного популярных языков.
дело не в ворд2век, я выше написал.
V>Банально выросла размерность задачи.
V>Но не появилась новая задача.
V>Ладно, сорри, тут я и прервусь, пожалуй, бо это всё несколько вызывающе для нашего форума, а нецензурщиной отвечать неохота.
V>(попытка гонять меня по студенческой программе,
где я пытался ? я договариваюсь о терминах. пока
V>безграмотные попытки меня "поправлять", непонимание отличий решений задачи от феномена существования самой задачи в отрыве от различных вариантов её решения, в свою очередь демонстрация приличных пробелов в базовом профильном образовании, т.е. профильного образования с сбольшой вероятностью не было вовсе, ты пришёл в IT из других специальностей... Про бизон — это огромных размеров маркер, что обсуждать с тобой эти темы более чем бесполезно... надеяюсь, я достаточно обосновал своё невежливое желание проигнорить остаток текста, дважды сорри если что)
ты о чем вообще??
Б>начало дискуссии тут
Б>https://rsdn.org/forum/ai/9053164.1
Автор: vdimas
Дата: 05.02 00:25
Дата: 05.02 00:25
vdimas, ответим на вопросы.
1. контекстно зависимая грамматика — если нетерминал стоит в левой части правила.
Эффективных алгоритмов нет. для регулярок — появление backrefference переводит регэксп в класс контекстно зависимых грамматик. Собственно ты ошибаешься утверждая что от regex c рекурсией и тем паче бэкреф строится ДКА. Это справедливо только для клакссических регекспов без рекурсии. А в реализованном языке компилатор регекспов — только небольшая часть )
2. word2vec — ниже написал.
Б>>Таки есть непонимание того, что в моем случае никакой ДКА не был возможен.
) мы вообще о чем говорим? О возможности анализа нейроного в больших LLM?
V>Я понял из твоих слов так, что "длина"
1.5м ркегекспоборазное выражение в контексте бустового кода — данность. И вполне решаемая задача.
V>всех правил — полтора метра (1.5*1024*1024 в символах грамматики?)
ято ты тут пишешь? полтораметра — данность.
V>Тут всё еще возможно построение минимизированного ДКА.
что ты ? 1. ДКА из рекурсивных выражений уже не постороишь. 2. В нашем случае они были с бэкрефересами, где, даже КСГ
для чего нужен Word2Vec? (трансформер решает примерно теже вопросы).
И вообще, совесть имей)) было 10 лет назад (или ты подозреваешь меня во вранье — так там вон и язык и люди иди поспрашивай). В моем случае регексп (расширенное выражение с дописанными операторами) — внутреннее представление NLP системы.
ИИ:
Рекурсивные регулярные выражения (РРВ) — это расширение стандартных регулярных выражений, позволяющее использовать рекурсию (например, для парсинга вложенных структур вида (a(b)c)), что делает их эквивалентными контекстно-свободным грамматикам. В отличие от них, ДКА (Детерминированные Конечные Автоматы) распознают только регулярные языки и не поддерживают вложенность.
V>(грамотнее сказать "показательной функцией", бо без указания контекста экспонентой называют показательную ф-ию с
основанием e)
Ты о чем ?
V>Но в общем случае комбинаторика оперирует не только степенями (комбинации), но и "полустепенями" — факториалами (перестановки/сочетания).
Ты о чем ?
V>Отсылка к "числу атомов во вселенной" — это, с одной стороны расхожий мем, указывающий на "очень большое число",
мне этот мем не известен
V>Например, можно заменить таблицу функцией, которая выдаёт комбинацию по её номеру.
V>В ИИ зашивается связь данных и интерполирующих ф-ий над этими данными при обучении.
отлично, что делает это не поддающемуся анализу?
V>Я занимался этим в самом начале нулевых безо всякого ИИ — строил графы синонимичности слов.
V>Делалась попытка скормить системе обычный толковый словарь для построения этой базы синонимичности.
Отлично, что мешает анализировать LLM?
V>Конкретно бизон мы не изучали, мы писали "кучи бизонов", по вариантам несколько раз с разными грамматиками, бо бизон имеет внутри стековый автоматон для LR(1), а на деле ограничен LALR(1). А мы писали вплоть до GLR, какой там в опу бизон, о чём ты? Это даже несравнимо... ))
я не знаю, что ты конретно там писал, я бизон использовал для компилятора. С контекстно зависимым токенайзером. Потом на этом языке писались, генерировались правила. Конечно там речи о бизон нет.
V>Атрибутные грамматики плохо живут без генерализированного разбора.
от ты тут о чем?
V>>>Во-вторых, связаны по контекстно-зависимым грамматикам.
Б>> как всетаки криво ты bison называешь ))
V>Класс всех контекстно-зависимых грамматик где-то в количество атомов во вселенной мощнее класса, поддерживаемого конкретно бизоном.
а давай ьез атомов во вселенной?))
V>>>В-третьих, связь не только с дисциплинами парсинга, но и с дисциплинами кодирования данных и знаний.
V>>>В-четвертых, связаны по общему пониманию работы синтаксического разбора, представлению графов разбора, результатов и т.д.
Б>> и чем контекстно свободные от контекстно зависимых отличаются ?
V>))
V>Различить их можно после факторизации и минимизации всех правил.
садись. все много проще. наличие нетерминала в левой части правила делает ее контекстно зависимой. В бизоне по моему есть флажочек для использования КЗГ
V>Ты спрашивай, не стесняйся.
ты куда-то уходишь все время. Ты утверждал, что LLM не подлежат анализу, я с этим не согласен.
V>Как раз курсовики по генераторам парсеров и лексеров были.
от меня твое темное прошлое не интересует.
V>Сначала генерация ДКА как раз из языка расширенных регулярных выражений, отдал потом наработку студенту на год меня младше (не тебе случаем, ты не 73 г.р., бгг?)
)) нет я на год старше. тем паче мне за разработку того языка день платили. Я к тому времени уже пару фреймворков на плюсах реализовал
V>>>И этот (уже устаревший) алгоритм, и любые другие алгоритмы (более новым учат в наших ВУЗ-ах) — всего лишь частный случай более фундаментальных знаний.
Б>> ))ты или теоретик, или ... хз в общем. 2013 год алгоритму
V>В общем, мне уже хочется ругаться матом ))
V>Word2Vec — это открытая и бесплатная реализация векторизации слов.
V>Т.е. вот были до этого "черные ящики", делающие то же самое, после этого заменили Word2Vec, потому что даром, проще в архитектуре, допиливалось и ускорялось всем миром.
Т.е. про word2vec мы тоже плаваем?
V>А матом хочется ругаться за путание реализации с функциональностью.
подозреваю, что у тебя и тут шансов мало. СА дает экспиеренс для построения многоэтажек )
V>Да, можно сказать, что Word2Vec — это новый алгоритм, решающий задачу, которую ранее решали другими алгоритмами.
V>(но сам алгорим появился не с 0-ля а как развитие уже известных алгоритмов, а те, в свою очередь, тоже не с 0ля)
новый — не новый разницы нет. Есть одно, ранее аппроксимационные ИИ и символные (грамматики) были два разных направвления, их часто противопоставляли.
так вот через word2vec произошел своеобразный мердж этих двух направлений, т.е. аппроксимационные ИИ (статистика, линейная алгебра) стали исполььзоваться фактически
совместно с алгоритмами из символьных ИИ.
V>Почему возникла потребность в новом алгоритме для решения старой задачи?
V>Потому что индустрия подошла к такому уровню развития, когда потребовалось векторизовать все слова у всех хотя бы немного популярных языков.
дело не в ворд2век, я выше написал.
V>Банально выросла размерность задачи.
V>Но не появилась новая задача.
V>Ладно, сорри, тут я и прервусь, пожалуй, бо это всё несколько вызывающе для нашего форума, а нецензурщиной отвечать неохота.
V>(попытка гонять меня по студенческой программе,
где я пытался ? я договариваюсь о терминах. пока
V>безграмотные попытки меня "поправлять", непонимание отличий решений задачи от феномена существования самой задачи в отрыве от различных вариантов её решения, в свою очередь демонстрация приличных пробелов в базовом профильном образовании, т.е. профильного образования с сбольшой вероятностью не было вовсе, ты пришёл в IT из других специальностей... Про бизон — это огромных размеров маркер, что обсуждать с тобой эти темы более чем бесполезно... надеяюсь, я достаточно обосновал своё невежливое желание проигнорить остаток текста, дважды сорри если что)
ты о чем вообще??