Вот пример общения с квеном для делителя перед умножителем. Собственно проблема: в какой-то момент квен то-ли забыл, то-ли не учёл что у меня меандр, а не синусоида. Из-за этого он привёл кривой расчёт.
косячина
Обратите внимание, что на этом скриншоте есть слово "меандр", но посчитало оно всё равно неверно.
вы совершенно правы
Я не понимаю в чём причина — каждый раз из-за подобных косяков приходится перепроверять его ответы. Дипсика тоже касается.
В чём причина? Можно как-то иначе строить диалог, чтоб не было необходимости перепроверять.
Раздражает ппц, равно как и их кривые упрощения, не подходящие для заданного случая. Пример кривых упрощений — использование сосредоточенных электрических параметров там, где должна быть длинная линия — там, где телеграфные уравнения. Там проблема в том, что физические размеры проводников сопоставимы с длинной волны, а оно идёт по накатанной — как в школе...
Всё сказанное выше — личное мнение, если не указано обратное.
Ф>В чём причина? Можно как-то иначе строить диалог, чтоб не было необходимости перепроверять.
Ну там где участвуют формулы я часто прошу не "посчитай" а "напиши программу на python, которая посчитает и запусти её". У них уже наверное у всех встроенный питон есть. В случае с физикой я бы ещё просил проверить размерности величин. Пару раз видел как они глазом не моргнув умножают метры на сантиметры.
И ещё — бесплатные ИИ, и Дипсик и Квен всё-таки сильно уступают платным Claude и последнему GPT, так что попробуй сделать подписку на месяц и посмотреть насколько они решают твои задачи.
Re: Научите пользоваться Qwen'ом (вы совершенно правы...)
Ф>Вот пример общения с квеном для делителя перед умножителем. Собственно проблема: в какой-то момент квен то-ли забыл, то-ли не учёл что у меня меандр, а не синусоида. Из-за этого он привёл кривой расчёт.
Открою тебе секрет — Квен тупой. Дальше можно не продолжать.
Есть логика намерений и логика обстоятельств, последняя всегда сильнее.
Re: Научите пользоваться Qwen'ом (вы совершенно правы...)
Здравствуйте, Философ, Вы писали:
Ф>Я не понимаю в чём причина — каждый раз из-за подобных косяков приходится перепроверять его ответы. Дипсика тоже касается. Ф>В чём причина? Можно как-то иначе строить диалог, чтоб не было необходимости перепроверять.
Нет такой возможности. Почитай уже что такое LLM.
Кратко, на твой запрос оно выдает тебе наиболее вероятный ответ из датасета на котором обучали. Логику оно не умеет совсем и уметь не может.
Re: Научите пользоваться Qwen'ом (вы совершенно правы...)
Здравствуйте, hi_octane, Вы писали:
Ф>>В чём причина? Можно как-то иначе строить диалог, чтоб не было необходимости перепроверять.
_>Ну там где участвуют формулы я часто прошу не "посчитай" а "напиши программу на python, которая посчитает и запусти её". У них уже наверное у всех встроенный питон есть. В случае с физикой я бы ещё просил проверить размерности величин. Пару раз видел как они глазом не моргнув умножают метры на сантиметры.
Встроенный питон в агенте, а не в модели. Можно взять просто агента для компьютера и дать ему баш
(в котором и python, и что надо ещё).
_>И ещё — бесплатные ИИ, и Дипсик и Квен всё-таки сильно уступают платным Claude и последнему GPT, так что попробуй сделать подписку на месяц и посмотреть насколько они решают твои задачи.
Немного не так. Уехать нафиг из кровавого мордора (потому, что в следующем году всё равно никаких
агентов и интернетов уже не будет). Ну или как-то завладеть платёжной иностранной картой.
Далее идти на 1) DeepInfra, 2) SiliconFlow, 3) Fireworks (всё с суффиксом ai).
Логин, пароль, первый взнос.
1) дешевле, подвисает;
2) вроде дешевле, но дороже т.к. нет кеша, зато есть не4-битные, а 8-битные модели,
бывает отваливается а у саппорта китайский новый год;
3) дороже, не подвисает.
Потом идти к какому-то заграничному хостинг-провайдеру (всё равно ВПН потребуется),
и настроить там nginx для проксирования траффика из РФ в 1-2-3 (некоторые инференс
провайдеры не пускают из РФ, некоторые пускают, но не пускает роскомпозор).
Всё, можно пользоваться. Платить будешь как пользуешься, а не $20 (если очень много
пользуешься, подписка может оказаться выгодней, но с подпиской у тебя 1-2-3 модели,
а тут широкий выбор). И с подпиской у тебя НУЛЕВАЯ приватность, всё записывается за тобой.
Перечисленные инференс провайдеры пишут, что у них только спецслужбы траффик пишут,
а не сам провадер, он дескать вообще на диск ничего не сохраняет.
Re: Научите пользоваться Qwen'ом (вы совершенно правы...)
Здравствуйте, Философ, Вы писали:
Ф>[cut=вы совершенно правы]
1) сменить модель на более приличную;
2) использовать не более половины контекста;
3) направлять её в промпте, чтоб у ней язык не повернулся отвечать не подходящими вариантами.
Самое важное -- п.3. Но здесь чёткого рецепта нет. Можно её заставить проверить всё
в обратную сторону, например, чтоб сама наткнулась на ошибку, задумалась и переделала.
Можно подсказать метод решения. Вообще по принципу их работы ВСЁ ЗАВИСИТ ОТ ПРОМПТА.
Можно попросить, мол условия задачи заданы не точно, если ты видишь какие-то неоднозначности,
давай спрашивай, а потом только будешь решать. Если пошла не туда, может нет смысла
её поправлять, а начать всё сначала, а все правки сразу дать в начальном промпте.
Re[2]: Научите пользоваться Qwen'ом (вы совершенно правы...)
Здравствуйте, fk0, Вы писали:
fk0> 1) сменить модель на более приличную;
Qwen3 Max — неприличная? Напомню, тут речь про Qwen.
fk0> 2) использовать не более половины контекста;
У меня большой контекст?
fk0> 3) направлять её в промпте, чтоб у ней язык не повернулся отвечать не подходящими вариантами.
Это как?
fk0>Самое важное -- п.3. Но здесь чёткого рецепта нет. Можно её заставить проверить всё fk0>в обратную сторону, например, чтоб сама наткнулась на ошибку, задумалась и переделала.
Есть гарантия, что "задумается"? Или мне нужно контролировать?
fk0>Можно подсказать метод решения. Вообще по принципу их работы ВСЁ ЗАВИСИТ ОТ ПРОМПТА.
Подскажи. Что не так с моим проптом?
fk0>Можно попросить, мол условия задачи заданы не точно, если ты видишь какие-то неоднозначности, fk0>давай спрашивай....
Ты предлагаешь спрашивать о задаче?
Всё сказанное выше — личное мнение, если не указано обратное.
Re[3]: Научите пользоваться Qwen'ом (вы совершенно правы...)
Здравствуйте, Философ, Вы писали:
fk0>> 1) сменить модель на более приличную; Ф>Qwen3 Max — неприличная? Напомню, тут речь про Qwen.
Х.з. А ты уверен, что у тебя оно, а не что-то другое, и не квантованное до двух бит?
fk0>> 2) использовать не более половины контекста; Ф>У меня большой контекст?
Тебе видней. Может ты ему учебник целый скормил до того.
fk0>> 3) направлять её в промпте, чтоб у ней язык не повернулся отвечать не подходящими вариантами. Ф>Это как?
Дать ей определённое направление, чтоб другие решения не подходили.
fk0>>Самое важное -- п.3. Но здесь чёткого рецепта нет. Можно её заставить проверить всё fk0>>в обратную сторону, например, чтоб сама наткнулась на ошибку, задумалась и переделала. Ф>Есть гарантия, что "задумается"? Или мне нужно контролировать?
Никаких гарантий нет с LLMками. Может начать повторять одну фразу без конца.
fk0>>Можно подсказать метод решения. Вообще по принципу их работы ВСЁ ЗАВИСИТ ОТ ПРОМПТА. Ф>Подскажи. Что не так с моим проптом?
Без понятия. Я вижу очень часто дают короткий промпт, из которого человеку
не знакомому с проблемой ничего не понятно. Модели понятно не больше.
fk0>>Можно попросить, мол условия задачи заданы не точно, если ты видишь какие-то неоднозначности, fk0>>давай спрашивай.... Ф>Ты предлагаешь спрашивать о задаче?
Я предлагаю сказать ей, что если мол она не понимает, пусть переспрашивает и уточняет.
Потому, что изначально она научена "помочь", а не вопросы спрашивать. И будет стараться отвечать
своими силами, как может.
Re: Научите пользоваться Qwen'ом (вы совершенно правы...)
Здравствуйте, Философ, Вы писали:
Ф>Обратите внимание, что на этом скриншоте есть слово "меандр", но посчитало оно всё равно неверно.
LLM это не AI, это надо в первую очередь понять. Это поиск подходящего следующего слова в контексте. Вообще LLM создавались для перевода с одного языка на другой, там видимо тоже фраза и контекст на другой язык переводится, в этом максимально преуспели. LLM даже картинки успешно в слова переводят.
У модели скорее есть параметр — температура. Если в облаке — может быть даже доступно и его изменение (если локально то запускаете LLM с этим параметром = 0), чтобы было меньше рандома и вранья (LLM лишь выдает наиболее вероятный ответ из тех знаний что в нее запрессовали с потерями, температура более 0 добавляет "творчество", т.е. рандом, а не точный ответ без выдумываний). LLM это ни разу не искусственный интеллект. Это новый поиск среди пережатых данных с потерями — выдает и результат с потерями от сжатия (видимо следующий этап эволюции это чекать выдачу от LLM и дооснащать правильными данными, что уже и делают с MCP).
P.S. Чем больше в вопросе данных, тем точнее результат. Нужно приложить хотябы страницы методичек по теме расчёта. Чем больше нужного приложено — тем более вероятен правильный ответ. LLM полностью тупа пока не впихнут достаточно данных.
Здравствуйте, Vzhyk2, Вы писали:
V>Нет такой возможности. Почитай уже что такое LLM. V>Кратко, на твой запрос оно выдает тебе наиболее вероятный ответ из датасета на котором обучали. Логику оно не умеет совсем и уметь не может.
Человеки тоже не умеют, за редким исключением.
Человеки перепроверяют себя. Например, тестами. Оно бы тоже могло.
Re: Научите пользоваться Qwen'ом (вы совершенно правы...)
Здравствуйте, Философ, Вы писали:
Ф>Я не понимаю в чём причина — каждый раз из-за подобных косяков приходится перепроверять его ответы. Дипсика тоже касается. Ф>В чём причина? Можно как-то иначе строить диалог, чтоб не было необходимости перепроверять.
Это нормально. Оно так устроено.
Re[2]: Научите пользоваться Qwen'ом (вы совершенно правы...)
Здравствуйте, Pzz, Вы писали:
Pzz>Это нормально. Оно так устроено.
Ну и как им тогда пользоваться, если даже то, что в пределах моих компетенций приходится перепроверять — что делать с тем, в чём я плаваю? Я не могу знать всё и следить за всем. Как им тогда пользоваться, ессли ссылки на литературные источники оно генерирует!?
Всё сказанное выше — личное мнение, если не указано обратное.
Re[3]: Научите пользоваться Qwen'ом (вы совершенно правы...)
Здравствуйте, Философ, Вы писали:
Pzz>>Это нормально. Оно так устроено.
Ф>Ну и как им тогда пользоваться, если даже то, что в пределах моих компетенций приходится перепроверять — что делать с тем, в чём я плаваю? Я не могу знать всё и следить за всем. Как им тогда пользоваться, ессли ссылки на литературные источники оно генерирует!?
Ну, например, оно хорошо редактирует за человеком тексты на английском языке. Лучше, чем я (хотя я за ним всегда вычитываю)
Содержательно, за ним надо перепроверять. Но так хоть будешь перепроверять его относительно сфокусированный выхлоп, а не всё подряд, что найдётся в интернете.
Re[3]: Научите пользоваться Qwen'ом (вы совершенно правы...)
Здравствуйте, Философ, Вы писали:
Ф>Ну и как им тогда пользоваться, если даже то, что в пределах моих компетенций приходится перепроверять — что делать с тем, в чём я плаваю? Я не могу знать всё и следить за всем. Как им тогда пользоваться, ессли ссылки на литературные источники оно генерирует!?
Я видел, как ими делают исследования в медицине.
1. Используют сразу 3 разных модели: ChatGPT, Claude, Gemini. Настроили процесс так, чтобы они друг друга проверяли, направляли и приходили к консенсусу.
2. Используют тулинг. Не помню, что было у них, но примерно как у программистов: если пишешь код, то даётся среда, в которой он пишется и цикл с выхлопом компилятора и анализом логов. Или как у математиков, когда доказательство пишется в Lean.
Такой подход по максимуму уменьшает простор для галлюцинаций, но он не дёшев и требовал ручной настройки процесса исследования. Насколько я понимаю, область ещё новая и такую оркестрацию моделей чуть ли не каждый пишет под себя сам. Ни на что другое с требованиями к надёжности современные LLM ещё не годятся.
Re[2]: Научите пользоваться Qwen'ом (вы совершенно правы...)
Здравствуйте, Vzhyk2, Вы писали:
Ф>>В чём причина? Можно как-то иначе строить диалог, чтоб не было необходимости перепроверять. V>Нет такой возможности. Почитай уже что такое LLM. V>Кратко, на твой запрос оно выдает тебе наиболее вероятный ответ из датасета на котором обучали. Логику оно не умеет совсем и уметь не может.
Я как-то наблюдал за работой модели, и у меня сложилось впечатление (возможно, ложное), что при расчётах он не берёт цифры из датасетов, а генерирует на Питоне код для расчётов по формулма (которые как-раз и берёт из датасетов), а потом подставляет в них твои цифры и считает.
Брать цифры из датасетов — это был бы настоящий комбинаторный взрыв, кол-во вариаций датасетов было бы неисчислимым.
Re: Научите пользоваться Qwen'ом (вы совершенно правы...)
Здравствуйте, Философ, Вы писали:
Ф>общения с квеном для делителя перед умножителем. Собственно проблема: в какой-то момент квен то-ли забыл, то-ли не учёл что у меня меандр, а не синусоида. Из-за этого он привёл кривой расчёт.
Общение с каким именно Квеном?
Вам всё правильно написали: купите подписку, используйте жирные большие модели, вроде Kimi K2.5, MiniMax и тому подобного. Не будет умной модель, у которой размер меньше 300ГБ
Всем моделям нужен полигон, они должны иметь возможность проверить правоту своего высказывания, написать код и запустить. Для этого нужен уже агент.
Re[2]: Научите пользоваться Qwen'ом (вы совершенно правы...)
Здравствуйте, Философ, Вы писали:
С>>Общение с каким именно Квеном? Ф>Qwen3.5-Plus
С>>...Не будет умной модель, у которой размер меньше 300ГБ Ф>А какой размер у этой? Где смотреть?
Так я не знаю. Покажите мне, где вы им пользуетесь.
Здравствуйте, Слава, Вы писали:
С> Не будет умной модель, у которой размер меньше 300ГБ
Все модели не умные. Ошибаться будет любая. Зависит какого качества данные туда запихали, запихивают скорее уже экзабайты, но качества такое может и не повысить.
Так что не соглашусь, хорошо обученные 30B модельки скорее лучше старых в 5-10 раз больших. Но самые большие, в которые пихают самые качественные данные — они естественно будут лучше. Ибо это не ИИ, это LLM — поиск данных внутри того чего запихали в LLM. "Черный ящик" же всем понятен — в него засовывают огромное количество данных (могут засунуть и фейковое, типа форумов и неправильные ответы на вопросы...) далее LLM выдает наиболее вероятностный из всего запиханного и пережатого с потерями результат. Неплохие 30B могут вполне работать если знать что они есть и применять соответствующе. До AI текущим LLM далеко, в них нет никакого интеллекта, можно обучить чем угодно абсолютной хренью этот "черный ящик", и они будут честно выдавать ту дичь чему обучили на выходе.
Re[3]: Научите пользоваться Qwen'ом (вы совершенно правы...)
Здравствуйте, gyraboo, Вы писали:
G>Брать цифры из датасетов — это был бы настоящий комбинаторный взрыв, кол-во вариаций датасетов было бы неисчислимым.
Там вообщне маленький гениальный американец сидит и тебе на запросы отвечает.
Re: Научите пользоваться Qwen'ом (вы совершенно правы...)
Здравствуйте, Философ, Вы писали:
Ф>Я не понимаю в чём причина — каждый раз из-за подобных косяков приходится перепроверять его ответы. Дипсика тоже касается.
Так пиши сразу в промпте — будь аккуратен и перепроверь результат. Или с помощью агентской логики — попроси перепроверить результат по доверенным источником в интернете. Зачем тебе это самому делать?
LLM — по определению плохая машина для цитирования. Но оно нивелируется способностью создавать новые текста.