Здравствуйте, rm2, Вы писали:
rm2>у меня на данный момент просто — идешь в чат, начинаешь беседу, и это просто длинный чат. rm2>а хотелось бы как то структурировать, откладывать интересные разговоры, строить по ним связи. rm2>есть какие то средства для этого?
А что есть разница между "разговором" с ИИ и чтением книг и документации. Ты же понимаешь, что ИИ тебе просто всучивает те же книги и документацию просто перегенерировав текст, сам он не мыслит. По сути тебе надо тренировать не ИИ, а свой мозг, отсюда и другие инструменты.
Здравствуйте, velkin, Вы писали:
V>Ты же понимаешь, что ИИ тебе просто всучивает те же книги и документацию просто перегенерировав текст, сам он не мыслит.
Давай эксперимент проведем.
Сможешь ли найти в документации или где-то в открытых вопросах-ответах Интернета арифметическую прогрессию — вычисление ряда, на С++ в режиме компиляции?
Если этого нет в открытом доступе — то по идее ведь ИИ не сможет сам написать? Или сможет?
Здравствуйте, gyraboo, Вы писали:
rm2>>есть какие то средства для этого? G>Копируй в обсидиан и строй связи в виде графа.
Я не буду критиковать этот совет, но давай просто расскажу свою историю. Давным давно, в далёкой далёкой галактике на планете Земля началось повальное увлечение майндмапперами, то есть картами разума. Это я ещё даже на этом форуме не был зарегистрирован.
Карты разума представлялись как панацея от всех болезней. Очень крутая программа так и называлась MindMapper. Да версию только под винду, но как же хорошо она работала. Но в принципе были более универсальные бесплатные версии вроде Freemind.
А что из себя представляли карты разума. Обычный граф, чаще просто древовидный. Со временем мне стало понятно, что возможности графов можно расширить воспользовавшись более продвинутым софтом. Так появилась идея использовать Compendium.
Так то штука хорошая, но написана на Java да ещё и на основе баз данных. И она очень быстро перегрузилась от ввода данных. Чем больше данных, тем больше зависонов. И здесь мне пришла в голову другая идея, ну ладно там узлы и количество их использований, не столь важно, я ведь могу воспользоваться Dia.
Вот она то хоть и была примитивным чертежом, но могла вместить в себя огромное количество графических данных без зависонов. Она по сути по производительности как AutoCAD, но можно сами её открыть.
Но самое главное, что это не работает. Это просто ... тупо ... не работает. Весь этот принцип думать, что карты разума это действительно имеет отношения к картам разума ошибка.
Я бы в связи с этим отметил только одно. Есть книга Интерфейс. Джефф Раскин. Я думал он какой-то очередной ноунейм, хотя классно пишет, а нет.
Это уникальное руководство по разработке интерактивных систем, отражающее опыт и взгляды Джефа Раскина, создателя проекта Apple Macintosh, должен прочитать каждый, кто задумывается об интерфейсе.
У него там есть глава "6.2. Улучшенная навигация: ZoomWorld". Этот принцип уменьшения и увеличения интерфейса отлично работает в Dia, да и в AutoCAD тоже. Можно очень сильно отдалить схемы и чертежи, а потом всё равно будешь помнить по образам где что находится.
Опять же у меня прошёл цикл статей по аутлайнерам. И последняя из них касается Obsidian. Индексация в личных базах знаний (20.03.2024). Везде где добавляют базы, даже если это обычные файлы, а есть только индексация, системе приходит конец от переполнения данными.
А не нужно думать, что переполнение возникает, когда данных очень много. Если для вас 1000 это много, то всё хорошо. Если нужно 10000, всё конец котёнку. На самом деле тормоза начинаются уже на нескольких тысячах.
Потому следующий опыт у меня уже был в Wordpress, он не загибается ни от 10000, ни от 100000 записей. И даже неизвестно какой там ещё предел, скорее всего на порядки выше. А при правильной настройке и если использовать серверное железо, а не самое дно за несколько тысяч рублей как я это делаю, то ещё выше.
Я в общем клоню к тому, что я со всем этим обломался. Очень долго я вынашиваю идею автоматического разбора и подмены текста. Она эволюционировала у меня от синтаксического дерева до диапазонов текста.
Просто 10-20 лет назад я не очень хорошо понимал теорию парсеров. Я и сейчас её не понимаю на уровне профи, просто исхожу из своих потребностей. Я смотрел всякие Bison/Flex и охреневал от неудобности решений.
А так проект ранее известный только мне, и не известный никому более в самом начале назывался Аналитик. Я много раз менял название, да и не нужен мне Анал-Итик и теперь он называется Researches.
Ну, а так придётся качать мозги с помощью проекта Memories. Я понимаю чего хотят другие ребята, я тоже этого хочу. Но они же этого не сделали. А некоторые ещё хвалят какой-нибудь JetBrains и вообще непонятные вещи вроде MPS.
Мало того, что они создавали долбанутые продукты, так они ещё и с российского рынка ушли киданув кучу людей. Я к счастью всяким говном не пользуюсь.
Печальная правда в том, что можно разделить инструменты на.
1. Помогающие понять. (модуль исследования)
2. Помогающие запомнить. (модуль воспоминания)
3. Помогающие сделать. (модуль повеления)
А почему это печально, да потому что многие в том числе и я хотят максимум одну кнопку, а то и службу, чтобы самим не думать, а за них всё делала машина.
1. Полная автоматика при запуске программы.
2. Запуск решения задачи до полного завершения.
3. Решение задачи с возможностью остановки.
4. Заранее заготовленные пресеты.
5. Список действий.
Выбор пользователей
Если не считать рекламную составляющую, выбор пользователей будет направлен на программы, которые преимущественно работают вместо них, а не просто позволяющие выполнить некое количество действий.
Я когда такое читаю даже думаю иногда, так это же я. Нажми на кнопку, получишь результат.
Здравствуйте, rm2, Вы писали:
rm2>а хотелось бы как то структурировать, откладывать интересные разговоры, строить по ним связи.
А зачем? достаточно просто спросить ещё раз. я уже так делал не раз, когда сразу не смог применить ответ. бывало, что если переспросить спустя пару месяцев, результат даже лучше
Здравствуйте, wl., Вы писали:
rm2>>а хотелось бы как то структурировать, откладывать интересные разговоры, строить по ним связи. wl.>А зачем? достаточно просто спросить ещё раз. я уже так делал не раз, когда сразу не смог применить ответ. бывало, что если переспросить спустя пару месяцев, результат даже лучше
Чтобы спросить нужно помнить, что именно нужно спросить. Как когда записываешь что-то куда-то, а потом забываешь куда дел записи или что это писал. И люди идут по одним и тем же граблям.
Здравствуйте, velkin, Вы писали:
V>Здравствуйте, wl., Вы писали:
rm2>>>а хотелось бы как то структурировать, откладывать интересные разговоры, строить по ним связи. wl.>>А зачем? достаточно просто спросить ещё раз. я уже так делал не раз, когда сразу не смог применить ответ. бывало, что если переспросить спустя пару месяцев, результат даже лучше
V>Чтобы спросить нужно помнить, что именно нужно спросить. Как когда записываешь что-то куда-то, а потом забываешь куда дел записи или что это писал. И люди идут по одним и тем же граблям.
не обязательно нужно помнить. Возникла задача — задал вопрос для каких-то текущих задач, и копипастишь. Нет смысла их архивировать, если ответы будут исправно выдаваться
Здравствуйте, wl., Вы писали:
wl.>не обязательно нужно помнить. Возникла задача — задал вопрос для каких-то текущих задач, и копипастишь. Нет смысла их архивировать, если ответы будут исправно выдаваться
А откуда возникла задача? С забыванием можно дойти до того, что задача не возникнет. В этом и прикол поисковиков и всяких чатгпт, которые можно считать новой разновидностью поисковых систем.
Поисковые запросы формирует мозг. Запрос в том же топике именно на совершенствование мозга. Вот если устранить из этой схемы мозг, тогда да, никаких проблем.
Здравствуйте, velkin, Вы писали:
V>Здравствуйте, wl., Вы писали:
wl.>>не обязательно нужно помнить. Возникла задача — задал вопрос для каких-то текущих задач, и копипастишь. Нет смысла их архивировать, если ответы будут исправно выдаваться
V>А откуда возникла задача? С забыванием можно дойти до того, что задача не возникнет.
Мне, как офисному планктону, задачи ставит начальство. И периодически подпинывет с напоминанием о том, что сроки горят. На моем рабочем месте такая прослойка между начальником и чатгпт пока что нужна. Надеюсь до пенсии такой статус-кво и сохранится
Здравствуйте, Shmj, Вы писали:
S>Давай эксперимент проведем.
Дак проверили уже. Он простейшую функцию отсылки файла сделать не смог. Я, разумеется, знаю, на чём он заткнулся.
Вычислить матрицу, обратную матрице Гильберта, он не смог.
Он даже не смог ответить на Основной вопрос о жизни, Вселенной и всём остальном. Хотя ответ на этот вопрос давно и широко известен.
Здравствуйте, Privalov, Вы писали:
P>Дак проверили уже. Он простейшую функцию отсылки файла сделать не смог. Я, разумеется, знаю, на чём он заткнулся.
Ну не обманывайте же. Он написал решение но ошибся в мелочи. Когда даешь ему ошибку — разницу в HTTP-заголовках формируемых — он выдает исправленный код.
Т.е. оно не просто цитирует и находит что-то из документации, но и само переосмысляет и пишет примеры на основе документации и доп. информации.
Здравствуйте, rm2, Вы писали:
rm2>Привет всем. rm2>а поделитесь плиз вашими практическими методами работы с ИИ. rm2>у меня на данный момент просто — идешь в чат, начинаешь беседу, и это просто длинный чат. rm2>а хотелось бы как то структурировать, откладывать интересные разговоры, строить по ним связи. rm2>есть какие то средства для этого?
Пока в YandexGpt вместо гугла иногда использую и прошу простенькое что-то сделать или уточнить.
Т.е. просто другой интерфейс в поисковик, где не ссылки возвращаются, а конкретный ответ.
Пока так.
Здравствуйте, velkin, Вы писали:
V>А что есть разница между "разговором" с ИИ и чтением книг и документации. Ты же понимаешь, что ИИ тебе просто всучивает те же книги и документацию просто перегенерировав текст, сам он не мыслит.
Это утверждение ошибочно, ибо сегоднишние ИИ решают задачи которых 100% не было в тренировочных данных.
Здравствуйте, rm2, Вы писали:
rm2>а поделитесь плиз вашими практическими методами работы с ИИ. rm2>у меня на данный момент просто — идешь в чат, начинаешь беседу, и это просто длинный чат. rm2>а хотелось бы как то структурировать, откладывать интересные разговоры, строить по ним связи.
В моём случае это тоже просто чат, но встроенный в редактор (gptel).
Эти чаты можно сохранять и возвращаться к ним.
Но что самое полезное — можно редактировать историю. Например я вручную удаляю тупиковые вектки, или испраляю баги в ответе (чтобы они далее не копипастились). Также в сложных случаях генерирую ответ на тот же самый контекст много раз, выбираю лучший, и продолжаю с этой точки.
Относительно связей с предыдущими разговорами — пока до этого не дошёл. Возможно потому что ИИ и так понимает с полуслова что нужно сделать — то есть я не описываю задачи во всех деталях, а лишь предоставляю минимально необходимое (для эксперта в этой области).
В минимальном приближении, можно скормить все предыдущие разговоры ИИ и попросить сделать краткое резюме, и потом вставлять это резюме в начале каждого контекста, чтобы задать общее направление.
rm2>есть какие то средства для этого?
Есть например Cursor, но это немного из другой области.
Здравствуйте, Evgeny.Panasyuk, Вы писали:
V>>А что есть разница между "разговором" с ИИ и чтением книг и документации. Ты же понимаешь, что ИИ тебе просто всучивает те же книги и документацию просто перегенерировав текст, сам он не мыслит. EP>Это утверждение ошибочно, ибо сегоднишние ИИ решают задачи которых 100% не было в тренировочных данных.
Вот ты наивный. Что непонятного в слове "перегенерировав"? Это твоё утверждение ошибочно. Нейросети работают строго по данным, которые в них засунули при обучении.
То есть если генерация не является производной от этих данных, то ничего не получишь. И более того в большинстве случаев получаешь глюк системы.
И тогда начинаешь уточнять запрос стремясь уменьшить этот глюк. И если задача известная и засунута в нейросеть, то правильно обученная выдаст некий подвариант на основе вариантов обучения.
А если задача неизвестная и не является производной, то даже уточнения не помогут. Более того, проблема в том, что нейросеть обучают на разговорных языках. Так же потом и пытаются с ней работать.
И это снижает точность генерации и плюс нужно использовать разговорные языки. А по моей теории из-за спонтанного не целенаправленного обучения носители даже условно одного языка имеют разные словарные запасы и понимание.
Раньше был такой мем по мотивам рекламы, "Intel inside. Idiot outside". Не нужно думать, что я какой-то луддит, или замшелый старикан сто лет назад научившийся чему-то и застывший в развитии.
Нет, я такая же ленивая обезьяна как и те кто восхищается генераторами вариантов. Я не отрицаю эту технологию, но если снаружи будет сидеть совсем идиот, то она не сработает.
Я и сам хотел 25 лет назад создать анализатор текста и потом выбор из вариантов по типу РБНФ. Но вот так и не создал.
Гораздо позже мне пришло понимание, что даже сделав это можно лишь ускорить исследование чужого текста. Фактически с чатгпт люди этим и занимаются.
А вот собственные мозги нужно тренировать загружая данные прямо в память. Не должно быть внешнего носителя будь-то чатгпт или книга, информация должна храниться и извлекаться из головы.
И то что я говорю это результат размышлений растянувшийся на годы и десятилетия. Потому я не думаю, что кто-то способен полность осознать такое за мгновение.
Так что тут только или принятие, или отрицание моей точки зрения. Но это всё уже проходили. Я тоже когда-то читал интересные книги, вёл интересные разговоры, и придумывал интересные идеи.
А потом я всё забыл и деградировал. Вот и сказочке конец, а кто слушал молодец.
Здравствуйте, velkin, Вы писали:
V>Нейросети работают строго по данным, которые в них засунули при обучении.
Чем это прниципиально отличается от тёплых ламповых человеков в плане обработки и синтеза информации?
V>То есть если генерация не является производной от этих данных, то ничего не получишь.
Ну вот, например, в данных есть тысячи примеров способов мышления и решения новых задач, построения логических цепочек.
Да хоть та же машина Тьюринга. Почему этого недостаточно для перенятия этих самых способов мышления?
Про достижения AlphaFold слышал? Всё было во входных данных говоришь? Ну-ну.
V>Более того, проблема в том, что нейросеть обучают на разговорных языках. Так же потом и пытаются с ней работать.
Это неверно, ибо обучают на примерах кода на языках програмирования, и даже на формальных цепочках логического вывода.
Но сути не меняет.
V>А вот собственные мозги нужно тренировать загружая данные прямо в память.
А вот с этим никто и не спорит.
Если сравнивать двух человеков, у каждого из которых есть GPT-16 одинаковой мощности, то в итоге победит тот тандем, где человек умнее
V>Не нужно думать, что я какой-то луддит, или замшелый старикан сто лет назад научившийся чему-то и застывший в развитии.
Ну если ты говоришь что ты не луддит, значит так оно и есть
Но вот мысль о том, что на основе всех тех данных что подают на вход LLM, невозможно выработать мышление и способность решать задачи которых не было в тренировочных данных — она неверна, и вреднее чем луддиты, ибо луддиты хотябы признавали преемущество машин, а вот это мысль она ещё даже не перешагнула стадию принятия.
Аллё гараж, 2024 год на дворе.
Здравствуйте, Shmj, Вы писали:
S>Ну не обманывайте же. Он написал решение но ошибся в мелочи. Когда даешь ему ошибку — разницу в HTTP-заголовках формируемых — он выдает исправленный код.
Я не видел от него ни одного работающего решения. Мне-то известно, чего надо было исправит. А он не додагался. А кстати, почему его код не работал, сказать можете? Я вот могу. И без всякого ИИ.
S>Т.е. оно не просто цитирует и находит что-то из документации, но и само переосмысляет и пишет примеры на основе документации и доп. информации.
Здравствуйте, Privalov, Вы писали:
P>Я не видел от него ни одного работающего решения. Мне-то известно, чего надо было исправит. А он не додагался. А кстати, почему его код не работал, сказать можете? Я вот могу. И без всякого ИИ.
Так я же вам привел рабочее решение. Он выдал после того, как я отправил HTTP-заголовки. В итоге дал 100% работающее решение с идентичными заголовками.