Здравствуйте, Nuzhny, Вы писали:
S>>И заметил что когда дело касается железа — почему-то оно как бы сливается, боится что ли. N>Почему-то? Ты так и не прочитал ни одной книги о том как устроены и работают LLM?
На пример какую?
Тут вопрос в другом. Вот взять проект такой же Hello Word на VS Code C# или Kotlin Multiplatform. Почему-то оно в точности дает полную инструкцию и все работает, даже если ты не создавал этого ранее.
Почему же аналогичный проект Arm Development Studio не могет? Ведь есть полная инструкция на официальном сайте
Наверное, почти любую.
S>Почему же аналогичный проект Arm Development Studio не могет? Ведь есть полная инструкция на официальном сайте
Потому что не учился на этом? Чтобы действовать по инструкции и не галюционировать — делай RAG. Если нужна верификация, то делай пару агентов. Если знать, как оно работает, то вопросов быть не должно.
Здравствуйте, Shmj, Вы писали:
S>Попросил его дать инструкцию по работе с Arm Development Studio, а конкретно для начала запустить проект в режиме отладки.
Ну а я попросил дипсика рассказать, в каком документе описан IPP attribute "urf-supported".
Ну, он быстренько придумал мне названия спецификаций, даже и с номерами и названиями разделов. Разумеется, спецификации под такими номерами называются по-другому (и посвящены другому), а разделов с такими номерами и названиями в них нет. Даже и историю мне придумал, где этот атрибут был определён раньше и где теперь. Разумеется, полностью выдуманную.
Атрибут оказался CUPS extension, и он нигде не описан. Но многими принтерами поддерживается. Вот они, животворительные люли от Apple в адрес производителей аппаратуры.
S>И заметил что когда дело касается железа — почему-то оно как бы сливается, боится что ли.
Нет, просто если учить собаку прыгать через кольцо и отработать это с ней 100500 раз, то она будет по команде надёжно прыгать через кольцо. А если пару раз попробовать через кольцо и пару раз принести тапочки, то устойчивая связь в голове у собаки не образуется, и она будет то прыгать через кольцо, то приносить тапочки, то вообще исполнять команду "сидеть".
Так же и с нейросеткой. Там, где её хорошо дрючили, она более-менее работает. А там, где лишь слегка прошлись, она пытается угадать, с переменным успехом, что от неё хотят. Железо — вещь более нишевая, чем программирование фронтенда на JS, поэтому по железу она и плывёт. Сказывается недостаточность тренировок.
Здравствуйте, Shmj, Вы писали:
S>Тут дело вот в чем — вроде оно сходило по ссылке, распарсило — но все-равно не смогло кратко воспроизвести инструкцию.
Может тупо не хотелось что-то делать? Ты ж их одушевляешь постоянно, что ж обычной лени у ИИ удивляться?
Здравствуйте, Shmj, Вы писали:
S>И почему-то оно никак не смогло, хотя инструкция же доступна.
Так это ж языковая модель, она ж просто токены генерит ))
S>И заметил что когда дело касается железа — почему-то оно как бы сливается, боится что ли.
Языковые модели — это не тот ИИ, который ожидается на уровне человеческого.
Это лишь "адаптер", примерно как ИИ распознавания изображений является адаптером, эмулируют слой нейронов от глаза к мозгу, преобразуя пикселы в векторы.
Разумеется, образы и слова являются важной частью человеческого интеллекта, но нужен больший объем и кол-во слоёв, чтобы модель выделяла абстракции и оперировала ими — генерировала новые абстракции.
И еще плохо понятно что делать с обучением/памятью.
Человеческий мозг учится всю жизнь (и забывает изученное всю жизнь).
А эти ИИ модели имеют выделенные фазы обучения и работы.
А контекст беседы сохраняют просто в виде неявного удлинения промпта.
Профанация, кароч.
Здравствуйте, Pzz, Вы писали:
Pzz>Ну а я попросил дипсика рассказать, в каком документе описан IPP attribute "urf-supported".
Pzz>Ну, он быстренько придумал мне названия спецификаций, даже и с номерами и названиями разделов. Разумеется, спецификации под такими номерами называются по-другому (и посвящены другому), а разделов с такими номерами и названиями в них нет. Даже и историю мне придумал, где этот атрибут был определён раньше и где теперь. Разумеется, полностью выдуманную.
Нормальный специалист — человек на такой вопрос просто ответит "не знаю". Может, выскажет какие-то предположения, добавив что-то вроде IMHO. Но фантазировать не будет.
И вот это то, что мне больше всего не нравится.
Pzz>Нет, просто если учить собаку прыгать через кольцо и отработать это с ней 100500 раз, то она будет по команде надёжно прыгать через кольцо. А если пару раз попробовать через кольцо и пару раз принести тапочки, то устойчивая связь в голове у собаки не образуется, и она будет то прыгать через кольцо, то приносить тапочки, то вообще исполнять команду "сидеть".
Pzz>Так же и с нейросеткой. Там, где её хорошо дрючили, она более-менее работает. А там, где лишь слегка прошлись, она пытается угадать, с переменным успехом, что от неё хотят. Железо — вещь более нишевая, чем программирование фронтенда на JS, поэтому по железу она и плывёт. Сказывается недостаточность тренировок.
В отличие от собаки, ИИ, иногда приносит кольцо и прыгает через тапки.
Здравствуйте, Pavel Dvorkin, Вы писали:
PD>Нормальный специалист — человек на такой вопрос просто ответит "не знаю". Может, выскажет какие-то предположения, добавив что-то вроде IMHO. Но фантазировать не будет.
PD>И вот это то, что мне больше всего не нравится.
Угу.
Pzz>>Так же и с нейросеткой. Там, где её хорошо дрючили, она более-менее работает. А там, где лишь слегка прошлись, она пытается угадать, с переменным успехом, что от неё хотят. Железо — вещь более нишевая, чем программирование фронтенда на JS, поэтому по железу она и плывёт. Сказывается недостаточность тренировок.
PD>В отличие от собаки, ИИ, иногда приносит кольцо и прыгает через тапки.
Здравствуйте, vdimas, Вы писали:
V>А эти ИИ модели имеют выделенные фазы обучения и работы. V>А контекст беседы сохраняют просто в виде неявного удлинения промпта. V>Профанация, кароч.
У Гугла вышла работа: Nested learning. Там они как раз эту проблему и решают. Может, и взлетит.
Здравствуйте, Muxa, Вы писали:
M>До сих пор остались еще дебилы кто верит что языковые генераторы на самом деле что-то там думают, мыслят, соображают.
Языковые модели хорошо умеют подражать рассуждениям, кстате.
Т.е., де-факто умеют применять навыки рассуждений, полученные на одном материале, к другому.
При увеличении мощности языковых моделей и возможности выделения отдельно навыков чистого логического мышления, они смогут механически именно "мыслить", как "мыслит" ЦПУ, к примеру, исполняя заложенную в него логику.
Я ж говорю, вопрос ещё в организации памяти и принципов обучения, тупик кроется здесь.
Прямо сейчас при глубоком обучении используются подходы из 80-х годов.Тупик в том, что пообщавшись даже с самым умным собеседником, ИИ не становится умнее. ))
Это принципиальное отграничение на сегодня.
Здравствуйте, Shmj, Вы писали:
S>Здравствуйте, Nuzhny, Вы писали:
S>>>И заметил что когда дело касается железа — почему-то оно как бы сливается, боится что ли. N>>Почему-то? Ты так и не прочитал ни одной книги о том как устроены и работают LLM?
S>На пример какую?
S>Тут вопрос в другом. Вот взять проект такой же Hello Word на VS Code C# или Kotlin Multiplatform. Почему-то оно в точности дает полную инструкцию и все работает, даже если ты не создавал этого ранее.
Генерить hello word — это тема, Но добавляя новый слой в архитектуру, болваны начинают тупить и забывать что было раньше.
Если бы это был мозг человека, то он бы был очень умственно отсталым. Конечно он работоспособный, и нужно давать ему соответсвующюю его уровню работу.
ПС.
А мы джунов ищем. Разрешаем им использовать chatgpt на экзаменах, но ещё никого не взяли...
А всё почему? А мы решали подобный экзамен с болваном, и знаем, что он путается.
Здравствуйте, Doom100500, Вы писали:
D>ПС. D>А мы джунов ищем. Разрешаем им использовать chatgpt на экзаменах, но ещё никого не взяли... D>А всё почему? А мы решали подобный экзамен с болваном, и знаем, что он путается.
Здравствуйте, Shmj, Вы писали:
S>Здравствуйте, Doom100500, Вы писали:
D>>ПС. D>>А мы джунов ищем. Разрешаем им использовать chatgpt на экзаменах, но ещё никого не взяли... D>>А всё почему? А мы решали подобный экзамен с болваном, и знаем, что он путается.
S>А o3 проверяли?
Не могу утверждать на 100%, но мы пока официально не платим. Это всё аккаунт того, кто экзамен делал.
Но скоро появится какой-нибудь агент (мы выбираем), там посмотрим.