Здравствуйте, B0FEE664, Вы писали:
BFE>·>Токенайзер этим занимается. Иначе, например, \" он не сможет правильно на токены побить. BFE>Что мешает токенайзеру пропустить все пары \" до одиночного символа " ?
json спека? \", \u и прочие \n определены одинаково. Почему токенайзер каким-то escape-последовательностям отдавать предпочтение — неясно.
но это не зря, хотя, может быть, невзначай
гÅрмония мира не знает границ — сейчас мы будем пить чай