| | Скрытый текст |
| |  |
| | |
Я давно пишу про "принцип суммирования аргументов", которым пользуются абсолютно все в своём мышлении, но далеко не все это признают. Множество слабых аргументов в пользу какой-либо гипотезы могут вместе превратиться в один сильный, только для этого нужно исключить возможность "сговора аргументов", наличия у них единой причины. В теории вероятностей это ещё называется “теорема сложения произвольных событий”, и её можно проиллюстрировать следующими примерами:
1) Предположим, произошло убийство и у суда есть подозреваемый. Один из свидетелей заявляет, что он видел, как подозреваемый совершил преступление. Это заявление, скорее всего, сочтут недостаточно убедительным для доказательства вины обвиняемого. Но если много разных людей заявляют одно и то же – что они видели этого обвиняемого на месте преступления – суд может счесть это доказательством. При этом, однако, надо исключить возможность сговора между этими свидетелями;
2) Если вы играете с кем-то на деньги в азартную игру, и обнаруживается что систематически проигрываете — это может говорить о мошенничестве со стороны оппонента. Когда игр сыграно немного, средний проигрыш является только слабым аргументом в пользу гипотезы о мошенничестве, но чем больше партий сыграно и чем больше суммарный средний проигрыш — тем вероятнее становится верность этой гипотезы;
3) В химии при структурной идентификации веществ по спектрам совпадения отдельных полос образца и эталона могут быть слабыми аргументами, но чем этих совпавших полос больше, тем увереннее будет идентификация;
4) При идентификации человека по биометрическим данным, отдельные совпадения, опять же, могут быть слабыми аргументами, но когда совпадений много, это превращается в доказательство.
Теперь предлагаю обсудить, как применять этот принцип при поиске информации с помощью ИИ/LLM. Я пользуюсь платным чатомгпт, а здесь ещё возможно многие пробовали дипсик или грок.
Все знают что главная проблема LLM-ок — они постоянно врут, и их надо проверять. Обычно я пользуюсь таким подходом: ИИ мне сообщает наводящую информацию, названия, имена и т.п., далее я по этой информации гуглю и так его проверяю. Но возможно есть и ещё один приём для разбора его вранья: это враньё касается конкретных фактов, и очень маловероятно что он врёт сразу по многим пунктам. Поэтому, если задать ему подробный вопрос, и он развёрнуто на это ответит, ссылаясь для аргументации на множество разных фактов — то скорее всего этому можно верить. Что думаете?
"Ты должен сделать добро из зла, потому что его больше не из чего сделать." Р.П. Уоррен