Здравствуйте, vdimas, Вы писали:
V>Там же рядом коммент:
V>V>Замеры делали в самом начале разработки. 5.тыс «рыбных» комментариев(1 комментарий ~ 400 символов) с 20 простыми цепочками обработались за ~10сек
(5000*400)/10=200'000
Всё ещё нужно поднять скорость на порядок.
V>"В самом начале" я тоже для Эрли замеры делал, когда выбирал технологию обобщенного парсинга.
V>Это был кошмар.
Кошмар это твой ГЛР. Причём во всех работах пишут, что он кошмар.
V>У алгоритма Пакрата есть расширения (для левой рекурсии).
Причём тут вообще левая рекурсия?
V>>>Блин, а чего вы мне голову морочите, если у вас вообще Эрли??? ))
WH>>Эрли только до неоднозначностей и для восстановления.
V>Т.е. для нормального процесса набития текста, где 90% времени текст невалиден?
Но и в этом случае 99% кода в файле валидно. И валидный код разбирается основным парсером даже если в файле есть ошибки.
WH>>И это если забыть про мелочи типа оценки качества восстановления прямо во время разбора. Ибо способов восстановиться после ошибки много и нужно взять не какой попало, а лучший.
V>Чтобы взять лучший, надо иметь выбор. У тебя выбора не было.
Конечно... я ничего не понимаю в восстановлении после ошибок. Вот только мой генератор парсеров восстанавливается лучше всех...
WH>>Так ты покажи мне ГЛР парсер который восстанавливается также хорошо, как парсер нитры.
V>У тебя прямо в таблице LR-разбора ДКА/НКА содержатся допустимые нетерминалы.
Ты давай не языком болтай, а код покажи. Можно чужой.
Засунем в него этот пример и посмотрим, что будет.
... << RSDN@Home 1.0.0 alpha 5 rev. 0>>