Ты же понимаешь, что ИИ тебе просто всучивает те же книги и документацию просто перегенерировав текст, сам он не мыслит.
И вроде как с ним все согласны.
Ок, у меня такой вопрос. Есть ли где-нибудь в документации вычисление арифметической прогрессии в режиме compile-time на C++? Поискал в Интернете — не нашел особо.
Исходя из предпосылки, которую выдвинул человек — ИИ не сможет сам это написать? Но почему-то смог. Есть ли способ узнать откуда у него эта информация, если он не может мыслить?
Здравствуйте, Shmj, Вы писали:
S>Исходя из предпосылки, которую выдвинул человек — ИИ не сможет сам это написать? Но почему-то смог. Есть ли способ узнать откуда у него эта информация, если он не может мыслить?
Мышление — это несколько процессов.
Один из них — выбор релевантной информации из огромного множества. Окинул глазами задачу из собеседования — к голове возник образ решения.
Второй — умение выбирать цели и динамически их вести. Цель — пройти собеседование. Подцель — ответить на вопрос. Подподцель — звучать умно. Интеррапт: надо сходить в сортир, иначе завалят, как засранца. Динамическая цель — кажется, собеседующий — moon duck, пойду-ка я лучше к конкурентам.
ИИ умеет первое многократно лучше людей, и не умеет все остальное вообще.
Возможно потому, что поисковик не проиндексировал.
Я как-то искал строку из сообщения об ошибке: google почему-то ничего не нашел, хотя на github соотв. исходники были. Вручную в исходниках пришлось искать.
А ведь ИИ могли обучать и на непубличных данных.
Re[2]: Откуда GPT это узнал - кто сможет объяснить?
Здравствуйте, m2user, Вы писали:
M>Возможно потому, что поисковик не проиндексировал. M>Я как-то искал строку из сообщения об ошибке: google почему-то ничего не нашел, хотя на github соотв. исходники были. Вручную в исходниках пришлось искать. M>А ведь ИИ могли обучать и на непубличных данных.
Просто нафиг кому-то арифметическая прогрессия компил-тайм? В примерах обычно фибоначчи или факториал. А реальном коде какой в этом смысл?
Здравствуйте, Quebecois, Вы писали:
Q>Один из них — выбор релевантной информации из огромного множества. Окинул глазами задачу из собеседования — к голове возник образ решения. Q>ИИ умеет первое многократно лучше людей, и не умеет все остальное вообще.
Люди не согласны. Возможно что решение где-то уже приводил кто-то из кожаных, но поисковик не проиндексировал а в обучающей базе он был.
Была бы возможность как-то узнать источник, но похоже что это не возможно в принципе.
Q>Второй — умение выбирать цели и динамически их вести. Цель — пройти собеседование. Подцель — ответить на вопрос. Подподцель — звучать умно. Интеррапт: надо сходить в сортир, иначе завалят, как засранца. Динамическая цель — кажется, собеседующий — moon duck, пойду-ка я лучше к конкурентам.
Ну так цель же — не просто пройти собеседование. Более высокая цель — получить деньги. Если бы вы выиграли (случайно) 10 млн. долларов — так бы вы стремились доказать собеседующему что достойны? Уже нет, т.к. нужны были деньги, а не работа именно эта, скорее всего.
Ну и деньги, понятно дело, нужны не сами по себе а чтобы их тратить. А на что? Вот на что — это задано Природой и особо вами не выбиралось и не осмыслялось. Т.е. у нас наши базовые цели/потребности не нами выбираются и устанавливаются, по сути. Мы их рабы, а не хозяева. Причем эти цели не так уж просты — они не сводятся к просто физиологии. Посади тебя в одиночную камеру с едой, водой и кроватью — сойдешь с ума достаточно быстро, хотя вроде физиология удовлетворена.
S>Ты же понимаешь, что ИИ тебе просто всучивает те же книги и документацию просто перегенерировав текст, сам он не мыслит.
Это чушь которая не согласутеся с эмпирическими данными.
S>И вроде как с ним все согласны.
А это неверный вывод на основе микроскопической выборки.
S>Исходя из предпосылки, которую выдвинул человек — ИИ не сможет сам это написать? Но почему-то смог. Есть ли способ узнать откуда у него эта информация, если он не может мыслить?
А вот это — рацианальное зерно на основе тех самых эмпирических данных.
Здравствуйте, Quebecois, Вы писали:
Q>Мышление — это несколько процессов.
Q>Один из них — выбор релевантной информации из огромного множества. Q>Окинул глазами задачу из собеседования — к голове возник образ решения.
Q>ИИ умеет первое многократно лучше людей, и не умеет все остальное вообще.
Повредить, или вырезать тебе твое правое полушарие — и ты тоже перестанешь уметь "Окинул глазами задачу из собеседования — к голове возник образ решения" и все выходящее из такого умения. И при этом при разговоре и взаимодействии с таким "новым тобой", практически все люди (которые до этого с тобой небыли занакомы, естественно) ничего особенного не заметят. А врачи напишут: "в рамках нормы".
И что дальше?
Все с детства знают, что то-то то-то невозможно. Но всегда находится "невежда", который этого не знает. Он-то и делает открытие.
Альберт Эйнштейн.
Здравствуйте, Doom100500, Вы писали:
D>Ну вот статья — правда профибоначи, но если хоть чуток голова работает — применить любую другую формулу не должно быть проблемой.
Здравствуйте, Shmj, Вы писали:
S>Здравствуйте, Doom100500, Вы писали:
S>>>Где там арифметическая прогрессия?
D>>
D>>но если хоть чуток голова работает — применить любую другую формулу не должно быть проблемой.
D>>
S>Т.е. у GPT голова работает, получается?
Нет, исходя из того, что и как ты ищешь — голова у тебя не работает. А если нет головы, то вычищать бред из сгенерированного безголовым ботом тоже не выйдет.
Теперь ближе к теме:
Каждый раз, когда мне было лень читать доки, и я пробовал бота, то всегда был бред, который не даже не компилируется, а когда компилируется — то повторяет мои ощибки, когда пытался взять проблему наскоком. В результате — пишешь вё сам, но разобравщись, а окно с тупым ботом закрываешь до следующего раза.
EDIT:
Но то, что ты спрашиваешь — это не доки. Это банальная математика плюс метапрограмирование на C++. Без знания этих двух вещей — лучше не пытаться даже исправлять за ботом. Не говоря о том, что не глядя такой код вообще нелзья вносить.
Нет мозгов — отдай задачу тому у кого мозги есть, а сам продолжай jsonы перекладывать. С этим бот худо-бедно справляется.
Здравствуйте, Doom100500, Вы писали:
D>Теперь ближе к теме: D>Каждый раз, когда мне было лень читать доки, и я пробовал бота, то всегда был бред, который не даже не компилируется, а когда компилируется — то повторяет мои ощибки, когда пытался взять проблему наскоком. В результате — пишешь вё сам, но разобравщись, а окно с тупым ботом закрываешь до следующего раза.
Так это когда было?
D>Но то, что ты спрашиваешь — это не доки. Это банальная математика плюс метапрограмирование на C++. Без знания этих двух вещей — лучше не пытаться даже исправлять за ботом. Не говоря о том, что не глядя такой код вообще нелзья вносить.
S>Ты же понимаешь, что ИИ тебе просто всучивает те же книги и документацию просто перегенерировав текст, сам он не мыслит.
S>И вроде как с ним все согласны.
Обученые GPT — модели — это уже далеко не просто перегенерация имеющегося текста. Также как и с изображениями. Происходит выявление глубоких логических связей и как бы сжатие информации с их помощью, как и наоборот, "распаковка". Мышлением это не назвать, но факт, что выдача уже не всегда перекомбинация имеющегося текста.
Re[2]: Откуда GPT это узнал - кто сможет объяснить?
Здравствуйте, Michael7, Вы писали:
M>Обученые GPT — модели — это уже далеко не просто перегенерация имеющегося текста. Также как и с изображениями. Происходит выявление глубоких логических связей и как бы сжатие информации с их помощью, как и наоборот, "распаковка". Мышлением это не назвать, но факт, что выдача уже не всегда перекомбинация имеющегося текста.
Здравствуйте, Shmj, Вы писали:
S>Ок, у меня такой вопрос. Есть ли где-нибудь в документации вычисление арифметической прогрессии в режиме compile-time на C++? Поискал в Интернете — не нашел особо.
А у меня что-то находится на SO по теме. Как так?
Re[2]: Откуда GPT это узнал - кто сможет объяснить?
Здравствуйте, Shmj, Вы писали:
S>И вроде как с ним все согласны. S>Ок, у меня такой вопрос. Есть ли где-нибудь в документации вычисление арифметической прогрессии в режиме compile-time на C++? Поискал в Интернете — не нашел особо. S>Исходя из предпосылки, которую выдвинул человек — ИИ не сможет сам это написать? Но почему-то смог. Есть ли способ узнать откуда у него эта информация, если он не может мыслить?
Вот вам проще пример — понадобился мне микро-фремворк, dsl-like на тайпскрипте. Буквально, два года назад. Что бы закодить быстрее, взял в помощь копилот, накидал ему пару примеров, и дальше он начал накидывать бОльшую часть рутинного кода включая каменты, сигнатуры функций, заголовки тестов, тривиальные однострочные реализации где можно
Что характерно, он повторял мои же ошибки, только заворачивал их в новые конструкции
Если я просил чтото принципиально новое, скажем, очередную фичу дсл, он долго тупил. Но как только у него пазл складывается, он включает и эту фичу в генерацию.
То есть, он не просто накидывает найденное при обучении, но и разбирает на логические связи, и может результаты довольно точно комбинировать в соответствии с логическими связями.
Собственно так он выдает объяснения любого уникального кода который вы только ни напишете, абы токенов хватило
Но фактически — глубокая переработка уже имеющегося. Чтото действительно уникальное ставит в тупик даже последние модели, типа o1
Re[3]: Откуда GPT это узнал - кто сможет объяснить?
Здравствуйте, Shmj, Вы писали:
M>>Обученые GPT — модели — это уже далеко не просто перегенерация имеющегося текста. Также как и с изображениями. Происходит выявление глубоких логических связей и как бы сжатие информации с их помощью, как и наоборот, "распаковка". Мышлением это не назвать, но факт, что выдача уже не всегда перекомбинация имеющегося текста.
S>А что же можно назвать мышлением?
Это когда вы даёте ему чтото уникальное, принципиально новое, чего у него в базе нет, и он сам может вывести теорию и решить.
И без ваших подсказок.