Re[2]: Почему GPT не может...
От: Pavel Dvorkin Россия  
Дата: 08.11.25 15:03
Оценка: 1 (1) +2
Здравствуйте, Pzz, Вы писали:

Pzz>Ну а я попросил дипсика рассказать, в каком документе описан IPP attribute "urf-supported".


Pzz>Ну, он быстренько придумал мне названия спецификаций, даже и с номерами и названиями разделов. Разумеется, спецификации под такими номерами называются по-другому (и посвящены другому), а разделов с такими номерами и названиями в них нет. Даже и историю мне придумал, где этот атрибут был определён раньше и где теперь. Разумеется, полностью выдуманную.


Нормальный специалист — человек на такой вопрос просто ответит "не знаю". Может, выскажет какие-то предположения, добавив что-то вроде IMHO. Но фантазировать не будет.

И вот это то, что мне больше всего не нравится.

Pzz>Нет, просто если учить собаку прыгать через кольцо и отработать это с ней 100500 раз, то она будет по команде надёжно прыгать через кольцо. А если пару раз попробовать через кольцо и пару раз принести тапочки, то устойчивая связь в голове у собаки не образуется, и она будет то прыгать через кольцо, то приносить тапочки, то вообще исполнять команду "сидеть".


Pzz>Так же и с нейросеткой. Там, где её хорошо дрючили, она более-менее работает. А там, где лишь слегка прошлись, она пытается угадать, с переменным успехом, что от неё хотят. Железо — вещь более нишевая, чем программирование фронтенда на JS, поэтому по железу она и плывёт. Сказывается недостаточность тренировок.


В отличие от собаки, ИИ, иногда приносит кольцо и прыгает через тапки.
With best regards
Pavel Dvorkin
Почему GPT не может...
От: Shmj Ниоткуда  
Дата: 07.11.25 04:39
Оценка: :)))
Попросил его дать инструкцию по работе с Arm Development Studio, а конкретно для начала запустить проект в режиме отладки.

Платная Web-версия.

Собственно, сама инструкция детальная есть в сети: https://developer.arm.com/documentation/109345/2023-1/Create-a-project-in-C-or-C--

И почему-то оно никак не смогло, хотя инструкция же доступна.

Дал ему ссылку — и все-равно оно не может — начинает додумывать, не читает — дает неверные шаги.

И заметил что когда дело касается железа — почему-то оно как бы сливается, боится что ли.
=сначала спроси у GPT=
Re[2]: Почему GPT не может...
От: Muxa  
Дата: 08.11.25 20:10
Оценка: 1 (1) +1
S>>И почему-то оно никак не смогло, хотя инструкция же доступна.

V>Так это ж языковая модель, она ж просто токены генерит ))


До сих пор остались еще дебилы кто верит что языковые генераторы на самом деле что-то там думают, мыслят, соображают.
Re: Почему GPT не может...
От: Pzz Россия https://github.com/alexpevzner
Дата: 07.11.25 08:25
Оценка: +2
Здравствуйте, Shmj, Вы писали:

S>Попросил его дать инструкцию по работе с Arm Development Studio, а конкретно для начала запустить проект в режиме отладки.


Ну а я попросил дипсика рассказать, в каком документе описан IPP attribute "urf-supported".

Ну, он быстренько придумал мне названия спецификаций, даже и с номерами и названиями разделов. Разумеется, спецификации под такими номерами называются по-другому (и посвящены другому), а разделов с такими номерами и названиями в них нет. Даже и историю мне придумал, где этот атрибут был определён раньше и где теперь. Разумеется, полностью выдуманную.

Атрибут оказался CUPS extension, и он нигде не описан. Но многими принтерами поддерживается. Вот они, животворительные люли от Apple в адрес производителей аппаратуры.

S>И заметил что когда дело касается железа — почему-то оно как бы сливается, боится что ли.


Нет, просто если учить собаку прыгать через кольцо и отработать это с ней 100500 раз, то она будет по команде надёжно прыгать через кольцо. А если пару раз попробовать через кольцо и пару раз принести тапочки, то устойчивая связь в голове у собаки не образуется, и она будет то прыгать через кольцо, то приносить тапочки, то вообще исполнять команду "сидеть".

Так же и с нейросеткой. Там, где её хорошо дрючили, она более-менее работает. А там, где лишь слегка прошлись, она пытается угадать, с переменным успехом, что от неё хотят. Железо — вещь более нишевая, чем программирование фронтенда на JS, поэтому по железу она и плывёт. Сказывается недостаточность тренировок.
Re: Почему GPT не может...
От: Nuzhny Россия https://github.com/Nuzhny007
Дата: 07.11.25 06:33
Оценка: +1
Здравствуйте, Shmj, Вы писали:

S>И заметил что когда дело касается железа — почему-то оно как бы сливается, боится что ли.


Почему-то? Ты так и не прочитал ни одной книги о том как устроены и работают LLM?
Re[2]: Почему GPT не может...
От: Shmj Ниоткуда  
Дата: 07.11.25 15:02
Оценка: :)
Здравствуйте, Muxa, Вы писали:

M>а что тебе на это ответили те кто гарантировал правильность ответов нейросети?

M>мне кажется это вопрос скорее к ним.

Тут дело вот в чем — вроде оно сходило по ссылке, распарсило — но все-равно не смогло кратко воспроизвести инструкцию.
=сначала спроси у GPT=
Re: Почему GPT не может...
От: vdimas Россия  
Дата: 08.11.25 08:12
Оценка: +1
Здравствуйте, Shmj, Вы писали:

S>И почему-то оно никак не смогло, хотя инструкция же доступна.


Так это ж языковая модель, она ж просто токены генерит ))


S>И заметил что когда дело касается железа — почему-то оно как бы сливается, боится что ли.


Языковые модели — это не тот ИИ, который ожидается на уровне человеческого.
Это лишь "адаптер", примерно как ИИ распознавания изображений является адаптером, эмулируют слой нейронов от глаза к мозгу, преобразуя пикселы в векторы.

Разумеется, образы и слова являются важной частью человеческого интеллекта, но нужен больший объем и кол-во слоёв, чтобы модель выделяла абстракции и оперировала ими — генерировала новые абстракции.

И еще плохо понятно что делать с обучением/памятью.
Человеческий мозг учится всю жизнь (и забывает изученное всю жизнь).

А эти ИИ модели имеют выделенные фазы обучения и работы.
А контекст беседы сохраняют просто в виде неявного удлинения промпта.
Профанация, кароч.
Re[2]: Почему GPT не может...
От: Shmj Ниоткуда  
Дата: 07.11.25 07:01
Оценка:
Здравствуйте, Nuzhny, Вы писали:

S>>И заметил что когда дело касается железа — почему-то оно как бы сливается, боится что ли.

N>Почему-то? Ты так и не прочитал ни одной книги о том как устроены и работают LLM?

На пример какую?

Тут вопрос в другом. Вот взять проект такой же Hello Word на VS Code C# или Kotlin Multiplatform. Почему-то оно в точности дает полную инструкцию и все работает, даже если ты не создавал этого ранее.

Почему же аналогичный проект Arm Development Studio не могет? Ведь есть полная инструкция на официальном сайте
=сначала спроси у GPT=
Re[3]: Почему GPT не может...
От: Nuzhny Россия https://github.com/Nuzhny007
Дата: 07.11.25 07:24
Оценка:
Здравствуйте, Shmj, Вы писали:

S>На пример какую?


Наверное, почти любую.

S>Почему же аналогичный проект Arm Development Studio не могет? Ведь есть полная инструкция на официальном сайте


Потому что не учился на этом? Чтобы действовать по инструкции и не галюционировать — делай RAG. Если нужна верификация, то делай пару агентов. Если знать, как оно работает, то вопросов быть не должно.
Re: Почему GPT не может...
От: Muxa  
Дата: 07.11.25 09:13
Оценка:
а что тебе на это ответили те кто гарантировал правильность ответов нейросети?
мне кажется это вопрос скорее к ним.
Re: Почему GPT не может...
От: Privalov  
Дата: 07.11.25 18:12
Оценка:
Здравствуйте, Shmj, Вы писали:

  Это уже сделал? Если да, каков результат?

=сначала спроси у GPT=

Re[3]: Почему GPT не может...
От: paucity  
Дата: 07.11.25 20:53
Оценка:
Здравствуйте, Shmj, Вы писали:

S>Тут дело вот в чем — вроде оно сходило по ссылке, распарсило — но все-равно не смогло кратко воспроизвести инструкцию.


Может тупо не хотелось что-то делать? Ты ж их одушевляешь постоянно, что ж обычной лени у ИИ удивляться?
Re[3]: Почему GPT не может...
От: Pzz Россия https://github.com/alexpevzner
Дата: 08.11.25 17:25
Оценка:
Здравствуйте, Pavel Dvorkin, Вы писали:

PD>Нормальный специалист — человек на такой вопрос просто ответит "не знаю". Может, выскажет какие-то предположения, добавив что-то вроде IMHO. Но фантазировать не будет.


PD>И вот это то, что мне больше всего не нравится.


Угу.

Pzz>>Так же и с нейросеткой. Там, где её хорошо дрючили, она более-менее работает. А там, где лишь слегка прошлись, она пытается угадать, с переменным успехом, что от неё хотят. Железо — вещь более нишевая, чем программирование фронтенда на JS, поэтому по железу она и плывёт. Сказывается недостаточность тренировок.


PD>В отличие от собаки, ИИ, иногда приносит кольцо и прыгает через тапки.


Угу.
Re[2]: Почему GPT не может...
От: Nuzhny Россия https://github.com/Nuzhny007
Дата: 08.11.25 20:49
Оценка:
Здравствуйте, vdimas, Вы писали:

V>А эти ИИ модели имеют выделенные фазы обучения и работы.

V>А контекст беседы сохраняют просто в виде неявного удлинения промпта.
V>Профанация, кароч.

У Гугла вышла работа: Nested learning. Там они как раз эту проблему и решают. Может, и взлетит.
Re[3]: Почему GPT не может...
От: vdimas Россия  
Дата: 09.11.25 21:38
Оценка:
Здравствуйте, Muxa, Вы писали:

M>До сих пор остались еще дебилы кто верит что языковые генераторы на самом деле что-то там думают, мыслят, соображают.


Языковые модели хорошо умеют подражать рассуждениям, кстате.
Т.е., де-факто умеют применять навыки рассуждений, полученные на одном материале, к другому.

При увеличении мощности языковых моделей и возможности выделения отдельно навыков чистого логического мышления, они смогут механически именно "мыслить", как "мыслит" ЦПУ, к примеру, исполняя заложенную в него логику.

Я ж говорю, вопрос ещё в организации памяти и принципов обучения, тупик кроется здесь.

Прямо сейчас при глубоком обучении используются подходы из 80-х годов.Тупик в том, что пообщавшись даже с самым умным собеседником, ИИ не становится умнее. ))
Это принципиальное отграничение на сегодня.
Отредактировано 10.11.2025 10:09 vdimas . Предыдущая версия .
Re[3]: Почему GPT не может...
От: vdimas Россия  
Дата: 09.11.25 21:42
Оценка:
Здравствуйте, Nuzhny, Вы писали:

N>У Гугла вышла работа: Nested learning. Там они как раз эту проблему и решают. Может, и взлетит.


Дык, оно ж на поверхности! ))
В том или ином виде проблему дообучения решать надо, конечно.

Причем, в идеале дообучение должно быть/стать основной функциональностью, а не вынужденными костылями.
Отредактировано 10.11.2025 10:13 vdimas . Предыдущая версия .
Re: Почему GPT не может...
От: Doom100500 Израиль  
Дата: 11.11.25 07:34
Оценка:
Здравствуйте, Shmj, Вы писали:


S>И заметил что когда дело касается железа — почему-то оно как бы сливается, боится что ли.


ПФФФ. Это особенность работы генеративных ИИ. Всех.
Спасибо за внимание
Re[3]: Почему GPT не может...
От: Doom100500 Израиль  
Дата: 11.11.25 07:39
Оценка:
Здравствуйте, Shmj, Вы писали:

S>Здравствуйте, Nuzhny, Вы писали:


S>>>И заметил что когда дело касается железа — почему-то оно как бы сливается, боится что ли.

N>>Почему-то? Ты так и не прочитал ни одной книги о том как устроены и работают LLM?

S>На пример какую?


S>Тут вопрос в другом. Вот взять проект такой же Hello Word на VS Code C# или Kotlin Multiplatform. Почему-то оно в точности дает полную инструкцию и все работает, даже если ты не создавал этого ранее.


Генерить hello word — это тема, Но добавляя новый слой в архитектуру, болваны начинают тупить и забывать что было раньше.
Если бы это был мозг человека, то он бы был очень умственно отсталым. Конечно он работоспособный, и нужно давать ему соответсвующюю его уровню работу.

ПС.
А мы джунов ищем. Разрешаем им использовать chatgpt на экзаменах, но ещё никого не взяли...
А всё почему? А мы решали подобный экзамен с болваном, и знаем, что он путается.
Спасибо за внимание
Re[4]: Почему GPT не может...
От: Shmj Ниоткуда  
Дата: 11.11.25 09:21
Оценка:
Здравствуйте, Doom100500, Вы писали:

D>ПС.

D>А мы джунов ищем. Разрешаем им использовать chatgpt на экзаменах, но ещё никого не взяли...
D>А всё почему? А мы решали подобный экзамен с болваном, и знаем, что он путается.

А o3 проверяли?
=сначала спроси у GPT=
Re[5]: Почему GPT не может...
От: Doom100500 Израиль  
Дата: 11.11.25 10:46
Оценка:
Здравствуйте, Shmj, Вы писали:

S>Здравствуйте, Doom100500, Вы писали:


D>>ПС.

D>>А мы джунов ищем. Разрешаем им использовать chatgpt на экзаменах, но ещё никого не взяли...
D>>А всё почему? А мы решали подобный экзамен с болваном, и знаем, что он путается.

S>А o3 проверяли?


Не могу утверждать на 100%, но мы пока официально не платим. Это всё аккаунт того, кто экзамен делал.
Но скоро появится какой-нибудь агент (мы выбираем), там посмотрим.
Спасибо за внимание
Re[6]: Почему GPT не может...
От: Shmj Ниоткуда  
Дата: 11.11.25 19:07
Оценка:
Здравствуйте, Doom100500, Вы писали:

D>Не могу утверждать на 100%, но мы пока официально не платим. Это всё аккаунт того, кто экзамен делал.

D>Но скоро появится какой-нибудь агент (мы выбираем), там посмотрим.

Я бы попробовал решить с помощью o3. Просто тут вот какое дело — если чел. только пришел — ему нельзя дать что-то слишком уж сложное, т.е. за 2 часа не погрузишь в проект. А простое o3 обычно решает.

Можно отправить мне на t.yelling535@aleeas.com
=сначала спроси у GPT=
Re[7]: Почему GPT не может...
От: Doom100500 Израиль  
Дата: 12.11.25 06:25
Оценка:
Здравствуйте, Shmj, Вы писали:

S>Здравствуйте, Doom100500, Вы писали:


D>>Не могу утверждать на 100%, но мы пока официально не платим. Это всё аккаунт того, кто экзамен делал.

D>>Но скоро появится какой-нибудь агент (мы выбираем), там посмотрим.

S>Я бы попробовал решить с помощью o3. Просто тут вот какое дело — если чел. только пришел — ему нельзя дать что-то слишком уж сложное, т.е. за 2 часа не погрузишь в проект. А простое o3 обычно решает.


S>Можно отправить мне на t.yelling535@aleeas.com



Дело ещё в другом. После решения задачи, она обсуждается. И именно это является решающим фактором, а не факт решения задачи.
Задача — не очень сложная. Мессенджер простейший. Просто прототип — не обязательно рабочий. А потом задаются вопросы и предлагается обсудить как, например, мы будем делать авторизацию, как будем бороться со случайными дублированиями сообщений, и.т.д. Здесь интересно умеет ли чел вообще рассуждать, или просто будет копировать код.

Я, в своём бесплатном акке, не знаю точно какая модель используется, и сам чат тоже говорит, что не знает. Но всегда, когда есть ещё один слой — он складывает лапки. Например тот-же самый мессенджер, но, допустим, на сетевой слой мы навесим ещё один слой, например на пайпах, чтобы оградить сетевые зависимости транспортного микросервиса от зависимостей клиентских апликаций, которые будут подключаться с другой стороны того микросервиса по более простому и нативному для выбранного языка протоколу.
Как только просишь добавить такой слой и объяснить архитектуру — ему (ИИ) становится сложно. Вот мы и ожидаем коментариев от джунов. Неговоря том, что такие диаграмы проходится рисовать самому, т.к. от ИИ выходит бред.

К слову термин "микросервис" мы не упоминаем, мы согласны, что джун сделает монолит. Моногослойный монолит как-то слабо осознаётся ИИ, но если разбить на "микросервисы", и решать задачу модульно — то вполне. Если джун добавит слой независимо от предыдущей работы, опираясь на уже разработанный АПИ, то мы его, наверное, возьмём.

Это так сложно сегодня уметь разбивать задачу на подзадачи?
Спасибо за внимание
Re[8]: Почему GPT не может...
От: Shmj Ниоткуда  
Дата: 12.11.25 07:15
Оценка:
Здравствуйте, Doom100500, Вы писали:

D>Дело ещё в другом. После решения задачи, она обсуждается. И именно это является решающим фактором, а не факт решения задачи.

D>Задача — не очень сложная. Мессенджер простейший. Просто прототип — не обязательно рабочий. А потом задаются вопросы и предлагается обсудить как, например, мы будем делать авторизацию, как будем бороться со случайными дублированиями сообщений, и.т.д. Здесь интересно умеет ли чел вообще рассуждать, или просто будет копировать код.

Тогда тут играет роль наличие опыта — если чел. уже делал такой же проект и посвятил этому несколько месяцев жизни — ему будет намного проще, чем тому, кто никогда не сталкивался. При этом оценка будет выше не из-за того что он более способен, лучше и быстрее умеет уловить суть — а по причине наличия опыта. В других вещах (в реальных) опыта может не быть и выхлоп будет слабым.
=сначала спроси у GPT=
Re[9]: Почему GPT не может...
От: Doom100500 Израиль  
Дата: 12.11.25 07:48
Оценка:
Здравствуйте, Shmj, Вы писали:

S>Здравствуйте, Doom100500, Вы писали:


D>>Дело ещё в другом. После решения задачи, она обсуждается. И именно это является решающим фактором, а не факт решения задачи.

D>>Задача — не очень сложная. Мессенджер простейший. Просто прототип — не обязательно рабочий. А потом задаются вопросы и предлагается обсудить как, например, мы будем делать авторизацию, как будем бороться со случайными дублированиями сообщений, и.т.д. Здесь интересно умеет ли чел вообще рассуждать, или просто будет копировать код.

S>Тогда тут играет роль наличие опыта — если чел. уже делал такой же проект и посвятил этому несколько месяцев жизни — ему будет намного проще, чем тому, кто никогда не сталкивался. При этом оценка будет выше не из-за того что он более способен, лучше и быстрее умеет уловить суть — а по причине наличия опыта. В других вещах (в реальных) опыта может не быть и выхлоп будет слабым.


Уметь разбивать задачу на подзадачи — это школьный опыт. Те, которые этого не умеют — даже на джунов не тянут. Ищем умеющих думать. Решить экзамен — не обязательно, не обязательно даже правильно. Ошибки приветствуются. А по их обсыждению уже можно делать выводы.

Нет, не заменит гопота даже джунов. Но очень хорошо поможет тем, кого научили думать.
Спасибо за внимание
 
Подождите ...
Wait...
Пока на собственное сообщение не было ответов, его можно удалить.