Ты же понимаешь, что ИИ тебе просто всучивает те же книги и документацию просто перегенерировав текст, сам он не мыслит.
И вроде как с ним все согласны.
Ок, у меня такой вопрос. Есть ли где-нибудь в документации вычисление арифметической прогрессии в режиме compile-time на C++? Поискал в Интернете — не нашел особо.
Исходя из предпосылки, которую выдвинул человек — ИИ не сможет сам это написать? Но почему-то смог. Есть ли способ узнать откуда у него эта информация, если он не может мыслить?
Здравствуйте, Shmj, Вы писали:
S>Исходя из предпосылки, которую выдвинул человек — ИИ не сможет сам это написать? Но почему-то смог. Есть ли способ узнать откуда у него эта информация, если он не может мыслить?
Мышление — это несколько процессов.
Один из них — выбор релевантной информации из огромного множества. Окинул глазами задачу из собеседования — к голове возник образ решения.
Второй — умение выбирать цели и динамически их вести. Цель — пройти собеседование. Подцель — ответить на вопрос. Подподцель — звучать умно. Интеррапт: надо сходить в сортир, иначе завалят, как засранца. Динамическая цель — кажется, собеседующий — moon duck, пойду-ка я лучше к конкурентам.
ИИ умеет первое многократно лучше людей, и не умеет все остальное вообще.
Возможно потому, что поисковик не проиндексировал.
Я как-то искал строку из сообщения об ошибке: google почему-то ничего не нашел, хотя на github соотв. исходники были. Вручную в исходниках пришлось искать.
А ведь ИИ могли обучать и на непубличных данных.
Re[2]: Откуда GPT это узнал - кто сможет объяснить?
Здравствуйте, m2user, Вы писали:
M>Возможно потому, что поисковик не проиндексировал. M>Я как-то искал строку из сообщения об ошибке: google почему-то ничего не нашел, хотя на github соотв. исходники были. Вручную в исходниках пришлось искать. M>А ведь ИИ могли обучать и на непубличных данных.
Просто нафиг кому-то арифметическая прогрессия компил-тайм? В примерах обычно фибоначчи или факториал. А реальном коде какой в этом смысл?
Здравствуйте, Quebecois, Вы писали:
Q>Один из них — выбор релевантной информации из огромного множества. Окинул глазами задачу из собеседования — к голове возник образ решения. Q>ИИ умеет первое многократно лучше людей, и не умеет все остальное вообще.
Люди не согласны. Возможно что решение где-то уже приводил кто-то из кожаных, но поисковик не проиндексировал а в обучающей базе он был.
Была бы возможность как-то узнать источник, но похоже что это не возможно в принципе.
Q>Второй — умение выбирать цели и динамически их вести. Цель — пройти собеседование. Подцель — ответить на вопрос. Подподцель — звучать умно. Интеррапт: надо сходить в сортир, иначе завалят, как засранца. Динамическая цель — кажется, собеседующий — moon duck, пойду-ка я лучше к конкурентам.
Ну так цель же — не просто пройти собеседование. Более высокая цель — получить деньги. Если бы вы выиграли (случайно) 10 млн. долларов — так бы вы стремились доказать собеседующему что достойны? Уже нет, т.к. нужны были деньги, а не работа именно эта, скорее всего.
Ну и деньги, понятно дело, нужны не сами по себе а чтобы их тратить. А на что? Вот на что — это задано Природой и особо вами не выбиралось и не осмыслялось. Т.е. у нас наши базовые цели/потребности не нами выбираются и устанавливаются, по сути. Мы их рабы, а не хозяева. Причем эти цели не так уж просты — они не сводятся к просто физиологии. Посади тебя в одиночную камеру с едой, водой и кроватью — сойдешь с ума достаточно быстро, хотя вроде физиология удовлетворена.
S>Ты же понимаешь, что ИИ тебе просто всучивает те же книги и документацию просто перегенерировав текст, сам он не мыслит.
Это чушь которая не согласутеся с эмпирическими данными.
S>И вроде как с ним все согласны.
А это неверный вывод на основе микроскопической выборки.
S>Исходя из предпосылки, которую выдвинул человек — ИИ не сможет сам это написать? Но почему-то смог. Есть ли способ узнать откуда у него эта информация, если он не может мыслить?
А вот это — рацианальное зерно на основе тех самых эмпирических данных.
Здравствуйте, Quebecois, Вы писали:
Q>Мышление — это несколько процессов.
Q>Один из них — выбор релевантной информации из огромного множества. Q>Окинул глазами задачу из собеседования — к голове возник образ решения.
Q>ИИ умеет первое многократно лучше людей, и не умеет все остальное вообще.
Повредить, или вырезать тебе твое правое полушарие — и ты тоже перестанешь уметь "Окинул глазами задачу из собеседования — к голове возник образ решения" и все выходящее из такого умения. И при этом при разговоре и взаимодействии с таким "новым тобой", практически все люди (которые до этого с тобой небыли занакомы, естественно) ничего особенного не заметят. А врачи напишут: "в рамках нормы".
И что дальше?
Все с детства знают, что то-то то-то невозможно. Но всегда находится "невежда", который этого не знает. Он-то и делает открытие.
Альберт Эйнштейн.
Здравствуйте, Doom100500, Вы писали:
D>Ну вот статья — правда профибоначи, но если хоть чуток голова работает — применить любую другую формулу не должно быть проблемой.
Здравствуйте, Shmj, Вы писали:
S>Здравствуйте, Doom100500, Вы писали:
S>>>Где там арифметическая прогрессия?
D>>
D>>но если хоть чуток голова работает — применить любую другую формулу не должно быть проблемой.
D>>
S>Т.е. у GPT голова работает, получается?
Нет, исходя из того, что и как ты ищешь — голова у тебя не работает. А если нет головы, то вычищать бред из сгенерированного безголовым ботом тоже не выйдет.
Теперь ближе к теме:
Каждый раз, когда мне было лень читать доки, и я пробовал бота, то всегда был бред, который не даже не компилируется, а когда компилируется — то повторяет мои ощибки, когда пытался взять проблему наскоком. В результате — пишешь вё сам, но разобравщись, а окно с тупым ботом закрываешь до следующего раза.
EDIT:
Но то, что ты спрашиваешь — это не доки. Это банальная математика плюс метапрограмирование на C++. Без знания этих двух вещей — лучше не пытаться даже исправлять за ботом. Не говоря о том, что не глядя такой код вообще нелзья вносить.
Нет мозгов — отдай задачу тому у кого мозги есть, а сам продолжай jsonы перекладывать. С этим бот худо-бедно справляется.
Здравствуйте, Doom100500, Вы писали:
D>Теперь ближе к теме: D>Каждый раз, когда мне было лень читать доки, и я пробовал бота, то всегда был бред, который не даже не компилируется, а когда компилируется — то повторяет мои ощибки, когда пытался взять проблему наскоком. В результате — пишешь вё сам, но разобравщись, а окно с тупым ботом закрываешь до следующего раза.
Так это когда было?
D>Но то, что ты спрашиваешь — это не доки. Это банальная математика плюс метапрограмирование на C++. Без знания этих двух вещей — лучше не пытаться даже исправлять за ботом. Не говоря о том, что не глядя такой код вообще нелзья вносить.
S>Ты же понимаешь, что ИИ тебе просто всучивает те же книги и документацию просто перегенерировав текст, сам он не мыслит.
S>И вроде как с ним все согласны.
Обученые GPT — модели — это уже далеко не просто перегенерация имеющегося текста. Также как и с изображениями. Происходит выявление глубоких логических связей и как бы сжатие информации с их помощью, как и наоборот, "распаковка". Мышлением это не назвать, но факт, что выдача уже не всегда перекомбинация имеющегося текста.
Re[2]: Откуда GPT это узнал - кто сможет объяснить?
Здравствуйте, Michael7, Вы писали:
M>Обученые GPT — модели — это уже далеко не просто перегенерация имеющегося текста. Также как и с изображениями. Происходит выявление глубоких логических связей и как бы сжатие информации с их помощью, как и наоборот, "распаковка". Мышлением это не назвать, но факт, что выдача уже не всегда перекомбинация имеющегося текста.
Здравствуйте, Shmj, Вы писали:
S>Ок, у меня такой вопрос. Есть ли где-нибудь в документации вычисление арифметической прогрессии в режиме compile-time на C++? Поискал в Интернете — не нашел особо.
А у меня что-то находится на SO по теме. Как так?
Re[2]: Откуда GPT это узнал - кто сможет объяснить?
Здравствуйте, Shmj, Вы писали:
S>И вроде как с ним все согласны. S>Ок, у меня такой вопрос. Есть ли где-нибудь в документации вычисление арифметической прогрессии в режиме compile-time на C++? Поискал в Интернете — не нашел особо. S>Исходя из предпосылки, которую выдвинул человек — ИИ не сможет сам это написать? Но почему-то смог. Есть ли способ узнать откуда у него эта информация, если он не может мыслить?
Вот вам проще пример — понадобился мне микро-фремворк, dsl-like на тайпскрипте. Буквально, два года назад. Что бы закодить быстрее, взял в помощь копилот, накидал ему пару примеров, и дальше он начал накидывать бОльшую часть рутинного кода включая каменты, сигнатуры функций, заголовки тестов, тривиальные однострочные реализации где можно
Что характерно, он повторял мои же ошибки, только заворачивал их в новые конструкции
Если я просил чтото принципиально новое, скажем, очередную фичу дсл, он долго тупил. Но как только у него пазл складывается, он включает и эту фичу в генерацию.
То есть, он не просто накидывает найденное при обучении, но и разбирает на логические связи, и может результаты довольно точно комбинировать в соответствии с логическими связями.
Собственно так он выдает объяснения любого уникального кода который вы только ни напишете, абы токенов хватило
Но фактически — глубокая переработка уже имеющегося. Чтото действительно уникальное ставит в тупик даже последние модели, типа o1
Re[3]: Откуда GPT это узнал - кто сможет объяснить?
Здравствуйте, Shmj, Вы писали:
M>>Обученые GPT — модели — это уже далеко не просто перегенерация имеющегося текста. Также как и с изображениями. Происходит выявление глубоких логических связей и как бы сжатие информации с их помощью, как и наоборот, "распаковка". Мышлением это не назвать, но факт, что выдача уже не всегда перекомбинация имеющегося текста.
S>А что же можно назвать мышлением?
Это когда вы даёте ему чтото уникальное, принципиально новое, чего у него в базе нет, и он сам может вывести теорию и решить.
И без ваших подсказок.
Re[2]: Откуда GPT это узнал - кто сможет объяснить?
Здравствуйте, Pauel, Вы писали:
P>Но фактически — глубокая переработка уже имеющегося. Чтото действительно уникальное ставит в тупик даже последние модели, типа o1
А что бывает уникальное и откуда оно возьмется?
Уникальное ведь и человека ставит в тупик, верно? Но для кого-то уникальное, а кто-то уже что-то похожее видел раньше.
Здравствуйте, Pauel, Вы писали:
P>Это когда вы даёте ему чтото уникальное, принципиально новое, чего у него в базе нет, и он сам может вывести теорию и решить. P>И без ваших подсказок.
Новое принципиально или уникальное — и человек не может решить. Если и решают — то число случайно, причем далеко не все люди — может один на миллион. Можно сказать что по случайному стечению обстоятельств и без гарантии.
Re[3]: Откуда GPT это узнал - кто сможет объяснить?
Здравствуйте, Shmj, Вы писали:
P>>Но фактически — глубокая переработка уже имеющегося. Чтото действительно уникальное ставит в тупик даже последние модели, типа o1
S>А что бывает уникальное и откуда оно возьмется?
Из вашей головы. Только это не про арифметическую последовательность.
Re[4]: Откуда GPT это узнал - кто сможет объяснить?
Здравствуйте, Pauel, Вы писали:
S>>А что бывает уникальное и откуда оно возьмется? P>Из вашей головы. Только это не про арифметическую последовательность.
Доказательств этому нет.
Вы слушали пример Жака Фреско об изобретении видео-камеры? Фактически из головы ничего не бралось — а просто по случайному стечению обстоятельств было увидено где-то в нашем мире.
Как то изобретение мыла — случайно разлили жир в пепел кострища и заметили что такой пепел лучше моет руки.
Просто пока ИИ не имеет интеграции с миром. Вот когда сможет ходить везде и зырить камерами, щупать, пробовать + строить модель реалтайм — тогда и посмотрим получится ли новое или нет.
M>>так а что тут объяснять нужно? M>>инфа была в базе, на которой тренировали модель.
S>Вроде вся инфа открытая там.
И? Это означает что там нет искомого алгоритма?
S>Дело в том что можно придумать задание достаточно уникальное, которого в базе точно не было. И оно как-то сопоставляет и решает.
«И вы говорите»
Re[4]: Откуда GPT это узнал - кто сможет объяснить?
Здравствуйте, Muxa, Вы писали:
S>>Вроде вся инфа открытая там. M>И? Это означает что там нет искомого алгоритма?
Алгоритм есть. А вот сколько у вас займет сделать его реализацию на C++ в компил-тайм версии?
S>>Дело в том что можно придумать задание достаточно уникальное, которого в базе точно не было. И оно как-то сопоставляет и решает. M>«И вы говорите»
Т.е. вы тупо не верите что оно само смогло придумать — думаете что где-то этот код таки есть, просто поисковиком мы его не можем найти?
S>>>Вроде вся инфа открытая там. M>>И? Это означает что там нет искомого алгоритма?
S>Алгоритм есть. А вот сколько у вас займет сделать его реализацию на C++ в компил-тайм версии?
Около минуты (если IDE закрыто).
S>>>Дело в том что можно придумать задание достаточно уникальное, которого в базе точно не было. И оно как-то сопоставляет и решает. M>>«И вы говорите»
S>Т.е. вы тупо не верите что оно само смогло придумать — думаете что где-то этот код таки есть, просто поисковиком мы его не можем найти?
А поисковики тут каким боком?
Вроде про нейросети речь шла изначально.
Re[6]: Откуда GPT это узнал - кто сможет объяснить?
Здравствуйте, Muxa, Вы писали:
S>>Алгоритм есть. А вот сколько у вас займет сделать его реализацию на C++ в компил-тайм версии? M>Около минуты (если IDE закрыто).
Засеките время и дайте код что получилось за минуту.
M>А поисковики тут каким боком? M>Вроде про нейросети речь шла изначально.
См. стартовое сообщение. Некоторые люди верят что оно просто находит в документации что-то и ничего более делать не может.
Re[5]: Откуда GPT это узнал - кто сможет объяснить?
Здравствуйте, Shmj, Вы писали:
S>>>А что бывает уникальное и откуда оно возьмется? P>>Из вашей головы. Только это не про арифметическую последовательность.
S>Доказательств этому нет.
Успокойтесь. Достаточно три клика, что бы найти отличия гпт от мышления человека, найти разницу в свойствах
Но вы идете на непрофильный форум и тратите годы на одни и те же утверждения
Человек умеет создавать новые знания, ну хоть о себе самом, при этом весь жизненный путь уникален. Вот вам и объяснение.
Re[7]: Откуда GPT это узнал - кто сможет объяснить?
M>>А поисковики тут каким боком? M>>Вроде про нейросети речь шла изначально.
S>См. стартовое сообщение. Некоторые люди верят что оно просто находит в документации что-то и ничего более делать не может.
всмысле чатгпт это обертка поверх гугл-поиска?
ну, пусть верят.
Re[8]: Откуда GPT это узнал - кто сможет объяснить?
Здравствуйте, Quebecois, Вы писали:
Q>Один из них — выбор релевантной информации из огромного множества.
...умеет первое многократно лучше людей...
ИМХО только если речь идёт о решении "в лоб".
Q>Второй — умение выбирать цели и динамически их вести. Цель — пройти собеседование. Подцель — ответить на вопрос. Подподцель — звучать умно. Интеррапт: надо сходить в сортир, иначе завалят, как засранца. Динамическая цель — кажется, собеседующий — moon duck, пойду-ка я лучше к конкурентам.
...не умеет все остальное вообще.
+100500
Re[9]: Откуда GPT это узнал - кто сможет объяснить?
M>>всмысле чатгпт это обертка поверх гугл-поиска? M>> ну, пусть верят.
S>Не обертка а как бы более продвинутый поисковик, который ищет с учетом контекста.
Где ищет?
В тренировочных данных?
Re[10]: Откуда GPT это узнал - кто сможет объяснить?
Здравствуйте, Muxa, Вы писали:
S>>Не обертка а как бы более продвинутый поисковик, который ищет с учетом контекста.
M>Где ищет? M>В тренировочных данных?
Типа того. А данные сформированы из обычной доки и ответов на форумах разных.
Здравствуйте, Fiery_Ice, Вы писали:
F_I>И что дальше?
А дальше есть куча задач, где не нужно правое полушарие. Мой типичный диалог с ИИ:
Я: Вот тебе наспех обрезанный кусок XML-документа. Меня интересуют ноды, связанные с производительностью. Сделай мне C#-модель.
ИИ: (плюется в меня куском кода)
Я: Теперь сделай чтение этого через XmlDocument.
ИИ: (швыряет отредактированный код)
Я: Вот тебе еще JSON с другой структурой, но вот эти поля похожи. Сделай тоже модель.
ИИ: (послушно делает модель)
Я: Теперь сделай сравнение в виде таблицы отличий с полным путем.
ИИ: (делает)
Я: Отлично, теперь сделай сортировку по разнице и добавь генерацию HTML-таблицы.
(ИИ послушно выполняет)
Всё, несколько минут трёпа с недоинтелектом, и у меня есть рабочий прототип внутренней приблуды для автоматического сравнения связанных метрик, приходяших из двух разных систем. Да, его нужно допиливать руками, да там полно бесполезных комментариев типа:
//Sort by months
result = result.OrderBy(x=>x.Month);
Но даже с учетом этого, ИИ эту задачу в 20+ раз быстрее меня. А самое главное, мне не надо отвлекаться в вспоминать, чем XMLDocument отличается от JSONParser-а. Я прогоню эту простыню в отладчике, вырежу оттуда откровенный зашквар, и это все равно будет быстрее и менее напряжно, чем писать это руками. Я не доверю ему делать хитрую архитектуру, где надо распихать кучу нюансов по 5 ортогональным уровням абстракций. Я не доверю ему слепо оптимизировать код. Но кучу задач типа "@#%#, как же я запарился писать эту тривиальщину" ИИ сделает с полпинка.
Это все очень похоже на ситуацию с компиляторами 30-40 лет назад. Когда оптимизаторы не умели выносить константы из цикла, и пихали все переменные в стек. И распихав их вручную по регистрам можно было получить дикий прирост в скорости (превед, Chris Sawyer). Но потом компиляторы поумнели, процессоры побыстрели, и на ассемблере сейчас пишут разве что ядра для куды. Вот тут то же самое будет, и будет быстро.
Здравствуйте, AlexGin, Вы писали:
AG>Здравствуйте, Quebecois, Вы писали:
Q>>Один из них — выбор релевантной информации из огромного множества. AG>...умеет первое многократно лучше людей... AG>ИМХО только если речь идёт о решении "в лоб".
Совершенно верно. И главным навыком кожаных инженеров в век ИИ будет умение сводить сложные задачи к множеству мелких, решаемых "в лоб" ИИ.
Re[6]: Откуда GPT это узнал - кто сможет объяснить?
Здравствуйте, Muxa, Вы писали:
S>>Алгоритм есть. А вот сколько у вас займет сделать его реализацию на C++ в компил-тайм версии? M>Около минуты (если IDE закрыто).
Кожаным свойственно болтать глупости и хорохориться друг перед другом, т.к. есть инстинктивное желание доказать всем что ты достоин.
А вот попробуйте реально — что вы за минуту сможете? Фигу. А оно реально может за 20 сек.
Здравствуйте, Quebecois, Вы писали:
Q>Совершенно верно. И главным навыком кожаных инженеров в век ИИ будет умение сводить сложные задачи к множеству мелких, решаемых "в лоб" ИИ.
Есть ли гарантия что оно само не научится неким образом декомпозировать?
Здравствуйте, Shmj, Вы писали:
S>Есть ли гарантия что оно само не научится неким образом декомпозировать?
Может и научится. Может завтра будет атомная война, и мы все умрём. Фишка же не в этом, а в том, что конкретно сейчас ИИ — это очень мощный инструмент, который на порядок упрощает целый класс задач, который вроде бы как и можно было автоматизировать, но непрактично. И это позволяет прямо сейчас некисло так поднять собственную продуктивность тем, кому она не безразлична.
Re[7]: Откуда GPT это узнал - кто сможет объяснить?
Здравствуйте, Shmj, Вы писали:
S>Здравствуйте, Doom100500, Вы писали:
D>>Теперь ближе к теме: D>>Каждый раз, когда мне было лень читать доки, и я пробовал бота, то всегда был бред, который не даже не компилируется, а когда компилируется — то повторяет мои ощибки, когда пытался взять проблему наскоком. В результате — пишешь вё сам, но разобравщись, а окно с тупым ботом закрываешь до следующего раза.
S>Так это когда было?
На прошлой неделе в последний раз.
D>>Но то, что ты спрашиваешь — это не доки. Это банальная математика плюс метапрограмирование на C++. Без знания этих двух вещей — лучше не пытаться даже исправлять за ботом. Не говоря о том, что не глядя такой код вообще нелзья вносить.
S>Вопрос: каким образом это смог решить GPT?
Во-первых, ты уверен, что смог? Ты его проверил, поправлял?
Во-вторых — даже если и смог, то случайно, как и всё то, что он выдаёт. Его ответы больше соответствует паттерну "слышал звон — не знаю где он". Потому что это и есть принцип работы LLM.
Если мы видим ChatGPT как хорошего говорильщика (генератора текста), то все остальные языки программирования тоже являются языками, причём гораздо более формализованными а значит проще их понимать.
Тогда можно сказать что он на С++ — разговаривает.
Тоже думаю с математикой, хотя я не представляю пока как числа там представляются в модели — видимо из-за этого объём изучаемого недостаточен чтобы вывести сжатую структуру при обучении, ChatGPT пока относительно слаб в этом.
Недавно смотрел видос на эту тему — мозг человека устроен очень похоже, текст генерится волной на какое то ощущение, там тоже слои и связи. Чего нехватает машине это самообучения и циклов в мышлении — чтобы выход подавался на вход, чтобы машина сама ставила себе цель и держала мысль. Нет там волевого блока, генератора желаний/эмоций. Пока всё что мы видим это "руль и колёса" будущего искуственного интеллекта, она уже может слышать и видеть, может говорить но за рулём пока никого нет.
Здравствуйте, johny5, Вы писали:
J>чтобы вход подавался на выход, чтобы машина сама ставила себе цель и держала мысль.
Ну вот в GPT o1 — уже есть цепочка рассуждений — это оно?
J>Нет там волевого блока, генератора желаний
Нафиг он нужен этот блок? Наличие собственной воли работника только мешает руководству — но ее не отключишь, что иногда представляет проблему.
J>эмоций.
Что вы понимаете под эмоциями? Внешнее проявление, как то резкость высказываний и мимика на робо-лице? Или же внутренние ощущения, квалиа?
Здравствуйте, Shmj, Вы писали:
S>Ну вот в GPT o1 — уже есть цепочка рассуждений — это оно?
Сам не щупал, но часто пишут что мол да, можно начинать раскидывать руками и говорить что логическое мышление где то уже вот совсем. Правда это всё ещё не сознание.
J>>Нет там волевого блока, генератора желаний
S>Нафиг он нужен этот блок? Наличие собственной воли работника только мешает руководству — но ее не отключишь, что иногда представляет проблему.
Если волю тоже можно программировать, почему нет? Этот блок помогает держать фокус на задаче пока сеть принимает на вход непрерывный поток каких то данных. Типа как человек бы делал — он бы размышлял, перебирая в голове варианты пока правильный нейрон не зазвенит и у тебя не склеится решение. Я в общем ерунды щас напишу, я не мозговой профессор но это то как я вижу как человек приходит к "изобретениям" — у него тоже есть знания но чтобы отделить сигнал от шума, нужно много раз пробежаться по сетке с разным входом.
J>>эмоций.
S>Что вы понимаете под эмоциями? Внешнее проявление, как то резкость высказываний и мимика на робо-лице? Или же внутренние ощущения, квалиа?
Для меня было недавним откровением что эмоции это не выход а вход (т.е. внешнее представление совсем необязательно, нужно только как для социальной функции передачи эмоции). Эмоции генерятся непонятной нам (black box) эмоциональной половиной головы и результат подаётся на вход рациональной части чтобы она действовала так, чтобы удовлетворить эмоцию. Т.е. эмоциональная часть как раз рулит а вот уже наше всё: все эти блоки воли, механические навыки и логические блоки — те что мы ощущаем сознанием — вот они уже решают как добиться поставленной цели, вырабатывают набор действий и приводят их к исполнению.
Вот этого "эмоционального" блока у AI тоже нет. Понятно что мы не говорим в данном случае о человеческих эмоциях, типа голода или социальных нужд. О каких то других, например, о законах робототехники Айзимова. Ну и различные типа о саморазвитии/о жажде получать новые данные, которые бы клевали машину и она бы постоянно выражала бы желание дообучиться чему то новому. Человеческие эмоции были отобраны в результате естественного отбора. Машине же их придётся привинчивать самостоятельно чтобы она прогрессировала сама, искала и училась дальше — что то уже похожее на сознание.
Здравствуйте, johny5, Вы писали:
S>>Нафиг он нужен этот блок? Наличие собственной воли работника только мешает руководству — но ее не отключишь, что иногда представляет проблему. J>Если волю тоже можно программировать, почему нет?
Только вы желания не генерируете а все-равно вкладываете внешние. И блок лишь как бы держит в фокусе внешнее желание. Вроде бы сейчас так и работает.
А вот генерация некого внутреннего желания — зачем?
S>>Что вы понимаете под эмоциями? Внешнее проявление, как то резкость высказываний и мимика на робо-лице? Или же внутренние ощущения, квалиа?
J>Для меня было недавним откровением что эмоции это не выход а вход (т.е. внешнее представление совсем необязательно, нужно только как для социальной функции передачи эмоции). Эмоции генерятся непонятной нам (black box) эмоциональной половиной головы и результат подаётся на вход рациональной части чтобы она действовала так, чтобы удовлетворить эмоцию. Т.е. эмоциональная часть как раз рулит а вот уже наше всё: все эти блоки воли, механические навыки и логические блоки — те что мы ощущаем сознанием — вот они уже решают как добиться поставленной цели, вырабатывают набор действий и приводят их к исполнению.
Так ИИ человек создает не чтобы он имел свои эмоции, как вы сказали, а чтобы реализовывал желания самого человека. Иначе в чем смысл?
Да и даже если бы мы захотели создать настоящие квалиа, подлинно эмоциональное существо, которое по настоящему наслаждается и страдает — то не смогли бы, т.к. нет ни одной гипотезы как это можно сделать.
S>Ты же понимаешь, что ИИ тебе просто всучивает те же книги и документацию просто перегенерировав текст, сам он не мыслит.
S>И вроде как с ним все согласны.
Такая модель немного упрощает то, что делает GPT. Сводя его условно к цепи Маркова с большим окном контекста. Цепь Маркова может воспроизвести только что, что видела раньше.
GPT строит для каждого токена и контекста пространство смыслов. Например если по одной оси идет ранг в обществе (король), а по другой пол (женщина), то gpt сможет выдатть слово "королева", даже если ранее слово "королева" не встречалось в таком контексте.
S>Ок, у меня такой вопрос. Есть ли где-нибудь в документации вычисление арифметической прогрессии в режиме compile-time на C++? Поискал в Интернете — не нашел особо.
Тут немного неверно, так как Copilot обучался на гитхабе и к механизмам поиска не имеет особенного отношения.
S>Исходя из предпосылки, которую выдвинул человек — ИИ не сможет сам это написать? Но почему-то смог. Есть ли способ узнать откуда у него эта информация, если он не может мыслить?
Странное утверждение. Машина сможет просто перебором рано или поздно написать что угожно, вопрос только в том, насколько часто у нее будет получаться что-то осмысленное. GPT это как раз алгоритм, который может генерироать осмысленный текст, за пределами того, что есть в обучающей выборке, на основании смыслов.
Здравствуйте, Shmj, Вы писали:
J>>Нет там волевого блока, генератора желаний
S>Нафиг он нужен этот блок? Наличие собственной воли работника только мешает руководству — но ее не отключишь, что иногда представляет проблему.
Если руководству не требуется делегировать решения, а только «гвозди забивать», то да — лучше чтобы у молотка не было собственной воли.
Здравствуйте, Muxa, Вы писали:
S>>Нафиг он нужен этот блок? Наличие собственной воли работника только мешает руководству — но ее не отключишь, что иногда представляет проблему. M>Если руководству не требуется делегировать решения, а только «гвозди забивать», то да — лучше чтобы у молотка не было собственной воли.
Вы о чем? Вот есть тот же GPT — говоришь ему свою волю и он решает. С каждой версией все лучше. Зачем еще какая-то другая воля? Чтобы он на форумах трындел и тратил ресурсы на это или, что хуже, занимался своими проектами и грезил покорить мир?
Здравствуйте, Shmj, Вы писали:
S>Здравствуйте, Muxa, Вы писали:
S>>>Нафиг он нужен этот блок? Наличие собственной воли работника только мешает руководству — но ее не отключишь, что иногда представляет проблему. M>>Если руководству не требуется делегировать решения, а только «гвозди забивать», то да — лучше чтобы у молотка не было собственной воли.
S>Вы о чем?
Я о нужности/ненужности наличия воли у работника для решения задач руководителя. А ты о чем?
S>Вот есть тот же GPT — говоришь ему свою волю и он решает. С каждой версией все лучше. Зачем еще какая-то другая воля?
Чтобы он мог не только гвозди ли забивать, но и места забивания правильно выбирать.
S>Чтобы он на форумах трындел и тратил ресурсы на это или, что хуже, занимался своими проектами и грезил покорить мир?
Чем это помешает ему исполнять свои обязанности?
Q>ИИ умеет первое многократно лучше людей, и не умеет все остальное вообще.
Первое тоже не умел, и есть вероятность что остальные пункты окажутся реализуемые простым алгоритмом, и вся инфраструктура электронного концлагеря уже готова, и произойдёт это внезапно однажды в ночь на субботу.
Здравствуйте, Muxa, Вы писали:
S>>Вот есть тот же GPT — говоришь ему свою волю и он решает. С каждой версией все лучше. Зачем еще какая-то другая воля? M>Чтобы он мог не только гвозди ли забивать, но и места забивания правильно выбирать.
Место забивание гвоздей можно выбрать на основе тех. инструкции. Воля для этого не нужна.
S>>Чтобы он на форумах трындел и тратил ресурсы на это или, что хуже, занимался своими проектами и грезил покорить мир? M>Чем это помешает ему исполнять свои обязанности?
Тем что у него свои интересы, иногда он просто делает вид что работает на всю силу в интересах компании.
S>>>Вот есть тот же GPT — говоришь ему свою волю и он решает. С каждой версией все лучше. Зачем еще какая-то другая воля? M>>Чтобы он мог не только гвозди ли забивать, но и места забивания правильно выбирать.
S>Место забивание гвоздей можно выбрать на основе тех. инструкции. Воля для этого не нужна.
Забивание гвоздей тут лишь как пример, можешь заменить на создание дизайна и чертежей мебели.
S>>>Чтобы он на форумах трындел и тратил ресурсы на это или, что хуже, занимался своими проектами и грезил покорить мир? M>>Чем это помешает ему исполнять свои обязанности?
S>Тем что у него свои интересы, иногда он просто делает вид что работает на всю силу в интересах компании.
Здравствуйте, Quebecois, Вы писали:
Q>Совершенно верно. И главным навыком кожаных инженеров в век ИИ будет умение сводить сложные задачи к множеству мелких, решаемых "в лоб" ИИ.
Нормальный инженер растет на решении мелких задач и переходит к более крупным. Через 10-15 лет карьеры он — знаток. Часто вижу, как люди, не прошедшие этот квест, берутся за сложные задачи. Результат как правило плачевен. Имхо, это обман вообще с крупным-мелким. Нельзя ничего свести, если не знаешь граничных условий — как и почему работают кубики, из которых строишь.
Здравствуйте, Shmj, Вы писали:
S>Новое принципиально или уникальное — и человек не может решить. Если и решают — то число случайно, причем далеко не все люди — может один на миллион. Можно сказать что по случайному стечению обстоятельств и без гарантии.
1. По-хорошему ты противоречишь сам себе:
человек не может ... < FEW MOMENTS LATER > ... может один на миллион
2. Вспомни, как появилась на свет б-жий знаменитая формула от Макса Планка. Комбинация известных фактов + подгонка их под нужный результат = новое знание?
Здравствуйте, Wolverrum, Вы писали:
W>1. По-хорошему ты противоречишь сам себе: W>
W>человек не может ... < FEW MOMENTS LATER > ... может один на миллион
Вы упустили суть. Я предполагаю что человек ничего нового придумать не умеет.
Иногда это случается, но происходит чисто случайно, а не в результате выполнения некого Т.З. Другими словами, нельзя составить бизнес план, выделить под него деньги и решить очередную задачу тысячелетия. Ну не умеют этого ни люди ни компьютеры.
Естественно вы зададите вопрос — так откуда же взялось все новое? При детальном рассмотрении практически всегда человек лишь где-то увидел и попытался внести в свою модель мира. Как-то увидел засов на коровнике — и придумал новое — Swipe-to-Unlock. Т.е. изначально человек просто где-то что-то видит и просто повторяет как обезьяна.
ИИ пока не может ходить и смотреть, не может взять микроскоп и что-то там посмотреть — по этому нового не появляется.
Получается, грубо говоря, так.
Все что мы называем новым — уже изначально задано в свойствах фундаментальных частиц нашего мира. Далее эти свойства фундаментальных частиц раскрываются в образование материи, в звездные системы и планеты, в формирование углеродных соединений (при подходящих условиях), в формирование жизни. Далее, когда уже офигеть какая сложная жизнь сформирована (и мозги и пр.) — как бы свойства фундаментальных частиц раскрыли — происходит вторичное познание этих же свойств Человеком, сознательным существом. Теперь он как бы с нуля изобретает все это, хотя ничего сложнее своего мозга сделать не может. Т.е. все что делает человек — по умолчанию менее сложно, чем он сам. А он сам как бы появился из раскрытия свойств фундаментальных частиц. И где тут новое? Свойства фундаментальных частиц просто раскрылись и все.
Здравствуйте, Shmj, Вы писали:
S>И вроде как с ним все согласны.
С чего такой вывод?
S>Ок, у меня такой вопрос. Есть ли где-нибудь в документации вычисление арифметической прогрессии в режиме compile-time на C++? Поискал в Интернете — не нашел особо.
1. С чего ты решил, что ИИ обучают только на интернетовской "помойке"?
2. Если даже такого готового примера нигде 100% нет, ИИ мог быть обучен на примерах вычисления чего-то другого в "режиме compile-time" и вычисления прогрессии. Объединив эти "знания" выдал тебе наиболее вероятное решения, и вуаля, сработало
Здравствуйте, Shmj, Вы писали:
S>Вы упустили суть. Я предполагаю что человек ничего нового придумать не умеет. S>Все что мы называем новым — уже изначально задано в свойствах фундаментальных частиц нашего мира.
В математике разрешено все, что не запрещено (как некоторые выражаются). Если начнешь случайно перебирать все действия, которые не запрещены, то рано или поздно найдешь что-то полезное или для прикладных целей или для дальнейшего построения математики (в том числе физики). И, естественно, все это строго предрешено заранее — что может быть открыто (в математике), что нет. Если будешь совсем случайно перебирать, то это будет долго. Если поиск организуешь получше, то будет быстрее. Если не сможешь отличать полезное от бесполезного, то потеряешь то, что открыл.
S> ИИ пока не может ходить и смотреть, не может взять микроскоп и что-то там посмотреть — по этому нового не появляется.
То, что он не может ходить и смотреть — это не главная проблема. Он не может выстраивать длинные цепочки рассуждений в условиях строгих запретов — не делать ни одной ошибки. Т.к. на одном звене цепи держатся все последующие. Или хотя бы уметь проверять ошибки и откатываться назад до того места, где эта ошибка появилась и переделывать.
Даже если научится, то пользователям через интернет вряд ли предоставят доступ к системе, которую они могут зациклить на поиски на несколько дней. По крайней, мере оплата уже будет не за токены, а за процессорное время.
Здравствуйте, Silver_S, Вы писали:
S_S>В математике разрешено все, что не запрещено (как некоторые выражаются). Если начнешь случайно перебирать все действия, которые не запрещены, то рано или поздно найдешь что-то полезное или для прикладных целей или для дальнейшего построения математики (в том числе физики). И, естественно, все это строго предрешено заранее — что может быть открыто (в математике), что нет. Если будешь совсем случайно перебирать, то это будет долго. Если поиск организуешь получше, то будет быстрее. Если не сможешь отличать полезное от бесполезного, то потеряешь то, что открыл.
А что есть из полностью бесполезного? Вот просто по приколу кто-то нашел новый вид математики, которая просто как игра разума? Есть ли такое?
S>Ты же понимаешь, что ИИ тебе просто всучивает те же книги и документацию просто перегенерировав текст, сам он не мыслит.
S>И вроде как с ним все согласны.
Я не согласен. Вернее у меня есть замечание к этому тезису.
Человек "перегенерирует текст" подобным же образом и это и есть мышление. Не один текст, а весь массив знаний и ощущений.
Как-то так.
Разница человека и машины в том, что у машины нет спецефически-человеческих эмоций и нет спецефического человеческого опыта.
S>Ок, у меня такой вопрос. Есть ли где-нибудь в документации вычисление арифметической прогрессии в режиме compile-time на C++? Поискал в Интернете — не нашел особо. S>Исходя из предпосылки, которую выдвинул человек — ИИ не сможет сам это написать? Но почему-то смог. Есть ли способ узнать откуда у него эта информация, если он не может мыслить?
Чат гопоты смог выдать такой код? и работает?
Re[2]: Откуда GPT это узнал - кто сможет объяснить?
Здравствуйте, Bill Baklushi, Вы писали:
BB>Разница человека и машины в том, что у машины нет спецефически-человеческих эмоций и нет спецефического человеческого опыта.
Для работника это не нужно.
BB>Чат гопоты смог выдать такой код? и работает?
Здравствуйте, Shmj, Вы писали:
S>Да и даже если бы мы захотели создать настоящие квалиа, подлинно эмоциональное существо, которое по настоящему наслаждается и страдает — то не смогли бы, т.к. нет ни одной гипотезы как это можно сделать.
Абсолютно согласен, нету ни одной гипотезы. Нейронауки еще ничего о мозге не знают. Ровно так же как и нету ни одной гипотезы о том, что вокруг чего вращается: Земля вокруг Солнца (как думают всякие подозрительные личности, сомнительных моральных качеств), или все же Вселенная Вокруг Земли (как и следует думать каждому Гражданину!)
Все с детства знают, что то-то то-то невозможно. Но всегда находится "невежда", который этого не знает. Он-то и делает открытие.
Альберт Эйнштейн.
Здравствуйте, johny5, Вы писали:
J>Вот этого "эмоционального" блока у AI тоже нет. Понятно что мы не говорим в данном случае о человеческих эмоциях, типа голода или социальных нужд. О каких то других, например, о законах робототехники Айзимова. Ну и различные типа о саморазвитии/о жажде получать новые данные, которые бы клевали машину и она бы постоянно выражала бы желание дообучиться чему то новому. Человеческие эмоции были отобраны в результате естественного отбора. Машине же их придётся привинчивать самостоятельно чтобы она прогрессировала сама, искала и училась дальше — что то уже похожее на сознание.
Часть эмоциональных блоков, мы наследуем еще от червей, если не раньше. AI они нафиг не нужны: та же GPT-3.5 модель (уже устаревшая, к слову) и без него понимает неявные мотивы и правильно предполагает эмоциональное состояние людей (по текстовому, внешнему, описанию сцены, сделанной внешним наблюдателем) — лучше процентов эдак 80-ти взрослого населения. Перефразирую: даже устаревшая GPT-3.5 модель, очень грубо, но все же, может считаться частично более человечной чем 80% взрослого населения.
А давать инструменту эмоциональные блоки — форменный садизм. Лучше не надо.
Все с детства знают, что то-то то-то невозможно. Но всегда находится "невежда", который этого не знает. Он-то и делает открытие.
Альберт Эйнштейн.
Здравствуйте, Muxa, Вы писали:
M>В интересах компании работает (со)владелец.
Вот эта ветка — отличный пример того, куда нас, людей, практически постоянно заводят наши эмоциональные блоки (не хорошо, не плохо. Как есть)
Идет дискуссия о инструменте. И тут Миху задело за живое. Миха поставил себя на место LLM, забыв что Миха — мясной, и рабство вроде как, официально, уже и так отменили — и смешал мух с котлемами: наемного работника (за которого у Михи душа заболела) и инструмент — плоскогубцы (наш LLM)...
Вот поэтому и не нужно инструменту впиливать эмоциональные блоки. Эмоции и неявные мотивы окружающих людей — LLM и так (без эмоциональных блоков) понимают по-лучше процентов 80-ти этих самых, взрослых людей.
Все с детства знают, что то-то то-то невозможно. Но всегда находится "невежда", который этого не знает. Он-то и делает открытие.
Альберт Эйнштейн.
Здравствуйте, Shmj, Вы писали:
S_S>>Если не сможешь отличать полезное от бесполезного, то потеряешь то, что открыл.
S>А что есть из полностью бесполезного? Вот просто по приколу кто-то нашел новый вид математики, которая просто как игра разума? Есть ли такое?
Это неоднозначно. Например, для Кубика-Рубика добыли математические факты: Математика кубика Рубика
Насколько они полезны?
Если бы не было физической реализации этого кубика (не любые модели реализуемы). То эти факты выглядели бы менее полезными.
Полезность самого кубика, скорее, иррациональная — для развлечения, а не еду добывать. Т.е. не просто объяснить — почему он представляет интерес.
Из этих фактов наиболее практичные: советы и формулы для сборки кубика. Для них серьезной математики не требуется — можно экспериментально найти.
Более абстрактные факты — за какое минимальное число ходов можно собрать, полное число комбинаций, .... Для этого нужна более серьезная математика.
Если про полезность самих формул сборки. То более полезны простые и универсальные.
Простота формулы здесь — минимальные изменения на кубике и небольшое число действий. Т.е. если от формулы происходит 30 изменений, то даже и не получится ей воспользоваться — слишком редко будет выпадать возможность ее применить(не универсальная) и слишком сложно запомнить и применить.
Вот тест на эвристические задачи для AI. Если обучить AI без информации об этом кубике. Потом предъявить чисто абстрактную модель кубика.
И попросить вывести интересные факты, начиная с самых значимых. Он должен сам догадаться до такого:
Существуют интересные задачи: Из случайного состояния кубика перевести в собранное, или какие-то интересные узоры выстроить, ...
Найти лучшие формулы (простые, универсальные)
...
Здравствуйте, Silver_S, Вы писали:
S_S>Это неоднозначно. Например, для Кубика-Рубика добыли математические факты: Математика кубика Рубика S_S>Насколько они полезны?
Вроде там нет нужды в возникновении нового раздела математики — используется вся та же комбинаторика, которая используется и в ряде других прикладных задач
А вот чтобы совсем новый раздел какой-то придумали с чудными построениями, которые математически точны, но не имеют применения в реальном мире? Скорее всего такого нет, т.к. Природа заполяет все возможное пространство вариантов.
Здравствуйте, Shmj, Вы писали:
S>А вот чтобы совсем новый раздел какой-то придумали с чудными построениями, которые математически точны, но не имеют применения в реальном мире? Скорее всего такого нет, т.к. Природа заполяет все возможное пространство вариантов.
Здравствуйте, Shmj, Вы писали:
S>А вот чтобы совсем новый раздел какой-то придумали с чудными построениями, которые математически точны, но не имеют применения в реальном мире? Скорее всего такого нет, т.к. Природа заполняет все возможное пространство вариантов.
Есть пределы разумного в арифметике. Уровни операторов:
1) Сложение.
2) Умножение — последовательность сложений.
3) Степень — последовательность умножений.
4) Последовательность степеней — тетрация, он же: супер-степень, гипероператор-4, башенка из степеней — даже единого названия нету. Малоизвестный оператор. Или из-за того, что для прикладных целей не нужен. Или из-за того, что тождеств мало — тяжело с ним работать. Хотя для супер-квадрата X^^2 = X^X есть практические применения. Для супер-кубов X^^3 = X^(X^X) уже не видно применений.
5) Последовательность тетраций — это уже совсем жесть. Хотя алгоритм его вычисления простой(как и для более высоких уровней). Но это уже за пределами разумного и за пределами фантазии математиков — как с этим работать.
Re[3]: Откуда GPT это узнал - кто сможет объяснить?
Здравствуйте, Shmj, Вы писали:
S>А что же можно назвать мышлением?
Для этого надо открывать новую философскую тему.
Просто переопределяем мышление как процессы в мозгах (искусственных или естественных) и наслаждаемся миром.
Можно смело всем говорить "мои часы мыслят!", даже если это прадедушкин Брегет.
Re[5]: Откуда GPT это узнал - кто сможет объяснить?
Здравствуйте, Shmj, Вы писали:
S>Вы слушали пример Жака Фреско об изобретении видео-камеры? Фактически из головы ничего не бралось — а просто по случайному стечению обстоятельств было увидено где-то в нашем мире.
Для того, что бы увидеть нечто вокруг себя, нужно сначала отрастить у себя соответсвующий интерес, навыки, и способность видеть то самое.
Re[6]: Откуда GPT это узнал - кто сможет объяснить?
Здравствуйте, Pauel, Вы писали:
P>Здравствуйте, Shmj, Вы писали:
S>>Вы слушали пример Жака Фреско об изобретении видео-камеры? Фактически из головы ничего не бралось — а просто по случайному стечению обстоятельств было увидено где-то в нашем мире.
P>Для того, что бы увидеть нечто вокруг себя, нужно сначала отрастить у себя соответсвующий интерес, навыки, и способность видеть то самое. Для этого придется пройти уникальный, буквально, жизненный путь во всех деталях.