Здравствуйте, Pzz, Вы писали:
Pzz>Ну а я попросил дипсика рассказать, в каком документе описан IPP attribute "urf-supported".
Pzz>Ну, он быстренько придумал мне названия спецификаций, даже и с номерами и названиями разделов. Разумеется, спецификации под такими номерами называются по-другому (и посвящены другому), а разделов с такими номерами и названиями в них нет. Даже и историю мне придумал, где этот атрибут был определён раньше и где теперь. Разумеется, полностью выдуманную.
Нормальный специалист — человек на такой вопрос просто ответит "не знаю". Может, выскажет какие-то предположения, добавив что-то вроде IMHO. Но фантазировать не будет.
И вот это то, что мне больше всего не нравится.
Pzz>Нет, просто если учить собаку прыгать через кольцо и отработать это с ней 100500 раз, то она будет по команде надёжно прыгать через кольцо. А если пару раз попробовать через кольцо и пару раз принести тапочки, то устойчивая связь в голове у собаки не образуется, и она будет то прыгать через кольцо, то приносить тапочки, то вообще исполнять команду "сидеть".
Pzz>Так же и с нейросеткой. Там, где её хорошо дрючили, она более-менее работает. А там, где лишь слегка прошлись, она пытается угадать, с переменным успехом, что от неё хотят. Железо — вещь более нишевая, чем программирование фронтенда на JS, поэтому по железу она и плывёт. Сказывается недостаточность тренировок.
В отличие от собаки, ИИ, иногда приносит кольцо и прыгает через тапки.
Здравствуйте, Shmj, Вы писали:
S>Попросил его дать инструкцию по работе с Arm Development Studio, а конкретно для начала запустить проект в режиме отладки.
Ну а я попросил дипсика рассказать, в каком документе описан IPP attribute "urf-supported".
Ну, он быстренько придумал мне названия спецификаций, даже и с номерами и названиями разделов. Разумеется, спецификации под такими номерами называются по-другому (и посвящены другому), а разделов с такими номерами и названиями в них нет. Даже и историю мне придумал, где этот атрибут был определён раньше и где теперь. Разумеется, полностью выдуманную.
Атрибут оказался CUPS extension, и он нигде не описан. Но многими принтерами поддерживается. Вот они, животворительные люли от Apple в адрес производителей аппаратуры.
S>И заметил что когда дело касается железа — почему-то оно как бы сливается, боится что ли.
Нет, просто если учить собаку прыгать через кольцо и отработать это с ней 100500 раз, то она будет по команде надёжно прыгать через кольцо. А если пару раз попробовать через кольцо и пару раз принести тапочки, то устойчивая связь в голове у собаки не образуется, и она будет то прыгать через кольцо, то приносить тапочки, то вообще исполнять команду "сидеть".
Так же и с нейросеткой. Там, где её хорошо дрючили, она более-менее работает. А там, где лишь слегка прошлись, она пытается угадать, с переменным успехом, что от неё хотят. Железо — вещь более нишевая, чем программирование фронтенда на JS, поэтому по железу она и плывёт. Сказывается недостаточность тренировок.
Здравствуйте, Shmj, Вы писали:
S>И почему-то оно никак не смогло, хотя инструкция же доступна.
Так это ж языковая модель, она ж просто токены генерит ))
S>И заметил что когда дело касается железа — почему-то оно как бы сливается, боится что ли.
Языковые модели — это не тот ИИ, который ожидается на уровне человеческого.
Это лишь "адаптер", примерно как ИИ распознавания изображений является адаптером, эмулируют слой нейронов от глаза к мозгу, преобразуя пикселы в векторы.
Разумеется, образы и слова являются важной частью человеческого интеллекта, но нужен больший объем и кол-во слоёв, чтобы модель выделяла абстракции и оперировала ими — генерировала новые абстракции.
И еще плохо понятно что делать с обучением/памятью.
Человеческий мозг учится всю жизнь (и забывает изученное всю жизнь).
А эти ИИ модели имеют выделенные фазы обучения и работы.
А контекст беседы сохраняют просто в виде неявного удлинения промпта.
Профанация, кароч.
Здравствуйте, Nuzhny, Вы писали:
S>>И заметил что когда дело касается железа — почему-то оно как бы сливается, боится что ли. N>Почему-то? Ты так и не прочитал ни одной книги о том как устроены и работают LLM?
На пример какую?
Тут вопрос в другом. Вот взять проект такой же Hello Word на VS Code C# или Kotlin Multiplatform. Почему-то оно в точности дает полную инструкцию и все работает, даже если ты не создавал этого ранее.
Почему же аналогичный проект Arm Development Studio не могет? Ведь есть полная инструкция на официальном сайте
Наверное, почти любую.
S>Почему же аналогичный проект Arm Development Studio не могет? Ведь есть полная инструкция на официальном сайте
Потому что не учился на этом? Чтобы действовать по инструкции и не галюционировать — делай RAG. Если нужна верификация, то делай пару агентов. Если знать, как оно работает, то вопросов быть не должно.
Здравствуйте, Shmj, Вы писали:
S>Тут дело вот в чем — вроде оно сходило по ссылке, распарсило — но все-равно не смогло кратко воспроизвести инструкцию.
Может тупо не хотелось что-то делать? Ты ж их одушевляешь постоянно, что ж обычной лени у ИИ удивляться?
Здравствуйте, Pavel Dvorkin, Вы писали:
PD>Нормальный специалист — человек на такой вопрос просто ответит "не знаю". Может, выскажет какие-то предположения, добавив что-то вроде IMHO. Но фантазировать не будет.
PD>И вот это то, что мне больше всего не нравится.
Угу.
Pzz>>Так же и с нейросеткой. Там, где её хорошо дрючили, она более-менее работает. А там, где лишь слегка прошлись, она пытается угадать, с переменным успехом, что от неё хотят. Железо — вещь более нишевая, чем программирование фронтенда на JS, поэтому по железу она и плывёт. Сказывается недостаточность тренировок.
PD>В отличие от собаки, ИИ, иногда приносит кольцо и прыгает через тапки.
Здравствуйте, vdimas, Вы писали:
V>А эти ИИ модели имеют выделенные фазы обучения и работы. V>А контекст беседы сохраняют просто в виде неявного удлинения промпта. V>Профанация, кароч.
У Гугла вышла работа: Nested learning. Там они как раз эту проблему и решают. Может, и взлетит.
Здравствуйте, Muxa, Вы писали:
M>До сих пор остались еще дебилы кто верит что языковые генераторы на самом деле что-то там думают, мыслят, соображают.
Языковые модели хорошо умеют подражать рассуждениям, кстате.
Т.е., де-факто умеют применять навыки рассуждений, полученные на одном материале, к другому.
При увеличении мощности языковых моделей и возможности выделения отдельно навыков чистого логического мышления, они смогут механически именно "мыслить", как "мыслит" ЦПУ, к примеру, исполняя заложенную в него логику.
Я ж говорю, вопрос ещё в организации памяти и принципов обучения, тупик кроется здесь.
Прямо сейчас при глубоком обучении используются подходы из 80-х годов.Тупик в том, что пообщавшись даже с самым умным собеседником, ИИ не становится умнее. ))
Это принципиальное отграничение на сегодня.
Здравствуйте, Shmj, Вы писали:
S>Здравствуйте, Nuzhny, Вы писали:
S>>>И заметил что когда дело касается железа — почему-то оно как бы сливается, боится что ли. N>>Почему-то? Ты так и не прочитал ни одной книги о том как устроены и работают LLM?
S>На пример какую?
S>Тут вопрос в другом. Вот взять проект такой же Hello Word на VS Code C# или Kotlin Multiplatform. Почему-то оно в точности дает полную инструкцию и все работает, даже если ты не создавал этого ранее.
Генерить hello word — это тема, Но добавляя новый слой в архитектуру, болваны начинают тупить и забывать что было раньше.
Если бы это был мозг человека, то он бы был очень умственно отсталым. Конечно он работоспособный, и нужно давать ему соответсвующюю его уровню работу.
ПС.
А мы джунов ищем. Разрешаем им использовать chatgpt на экзаменах, но ещё никого не взяли...
А всё почему? А мы решали подобный экзамен с болваном, и знаем, что он путается.
Здравствуйте, Doom100500, Вы писали:
D>ПС. D>А мы джунов ищем. Разрешаем им использовать chatgpt на экзаменах, но ещё никого не взяли... D>А всё почему? А мы решали подобный экзамен с болваном, и знаем, что он путается.
Здравствуйте, Shmj, Вы писали:
S>Здравствуйте, Doom100500, Вы писали:
D>>ПС. D>>А мы джунов ищем. Разрешаем им использовать chatgpt на экзаменах, но ещё никого не взяли... D>>А всё почему? А мы решали подобный экзамен с болваном, и знаем, что он путается.
S>А o3 проверяли?
Не могу утверждать на 100%, но мы пока официально не платим. Это всё аккаунт того, кто экзамен делал.
Но скоро появится какой-нибудь агент (мы выбираем), там посмотрим.
Здравствуйте, Doom100500, Вы писали:
D>Не могу утверждать на 100%, но мы пока официально не платим. Это всё аккаунт того, кто экзамен делал. D>Но скоро появится какой-нибудь агент (мы выбираем), там посмотрим.
Я бы попробовал решить с помощью o3. Просто тут вот какое дело — если чел. только пришел — ему нельзя дать что-то слишком уж сложное, т.е. за 2 часа не погрузишь в проект. А простое o3 обычно решает.
Здравствуйте, Shmj, Вы писали:
S>Здравствуйте, Doom100500, Вы писали:
D>>Не могу утверждать на 100%, но мы пока официально не платим. Это всё аккаунт того, кто экзамен делал. D>>Но скоро появится какой-нибудь агент (мы выбираем), там посмотрим.
S>Я бы попробовал решить с помощью o3. Просто тут вот какое дело — если чел. только пришел — ему нельзя дать что-то слишком уж сложное, т.е. за 2 часа не погрузишь в проект. А простое o3 обычно решает.
S>Можно отправить мне на t.yelling535@aleeas.com
Дело ещё в другом. После решения задачи, она обсуждается. И именно это является решающим фактором, а не факт решения задачи.
Задача — не очень сложная. Мессенджер простейший. Просто прототип — не обязательно рабочий. А потом задаются вопросы и предлагается обсудить как, например, мы будем делать авторизацию, как будем бороться со случайными дублированиями сообщений, и.т.д. Здесь интересно умеет ли чел вообще рассуждать, или просто будет копировать код.
Я, в своём бесплатном акке, не знаю точно какая модель используется, и сам чат тоже говорит, что не знает. Но всегда, когда есть ещё один слой — он складывает лапки. Например тот-же самый мессенджер, но, допустим, на сетевой слой мы навесим ещё один слой, например на пайпах, чтобы оградить сетевые зависимости транспортного микросервиса от зависимостей клиентских апликаций, которые будут подключаться с другой стороны того микросервиса по более простому и нативному для выбранного языка протоколу.
Как только просишь добавить такой слой и объяснить архитектуру — ему (ИИ) становится сложно. Вот мы и ожидаем коментариев от джунов. Неговоря том, что такие диаграмы проходится рисовать самому, т.к. от ИИ выходит бред.
К слову термин "микросервис" мы не упоминаем, мы согласны, что джун сделает монолит. Моногослойный монолит как-то слабо осознаётся ИИ, но если разбить на "микросервисы", и решать задачу модульно — то вполне. Если джун добавит слой независимо от предыдущей работы, опираясь на уже разработанный АПИ, то мы его, наверное, возьмём.
Это так сложно сегодня уметь разбивать задачу на подзадачи?
Здравствуйте, Doom100500, Вы писали:
D>Дело ещё в другом. После решения задачи, она обсуждается. И именно это является решающим фактором, а не факт решения задачи. D>Задача — не очень сложная. Мессенджер простейший. Просто прототип — не обязательно рабочий. А потом задаются вопросы и предлагается обсудить как, например, мы будем делать авторизацию, как будем бороться со случайными дублированиями сообщений, и.т.д. Здесь интересно умеет ли чел вообще рассуждать, или просто будет копировать код.
Тогда тут играет роль наличие опыта — если чел. уже делал такой же проект и посвятил этому несколько месяцев жизни — ему будет намного проще, чем тому, кто никогда не сталкивался. При этом оценка будет выше не из-за того что он более способен, лучше и быстрее умеет уловить суть — а по причине наличия опыта. В других вещах (в реальных) опыта может не быть и выхлоп будет слабым.
Здравствуйте, Shmj, Вы писали:
S>Здравствуйте, Doom100500, Вы писали:
D>>Дело ещё в другом. После решения задачи, она обсуждается. И именно это является решающим фактором, а не факт решения задачи. D>>Задача — не очень сложная. Мессенджер простейший. Просто прототип — не обязательно рабочий. А потом задаются вопросы и предлагается обсудить как, например, мы будем делать авторизацию, как будем бороться со случайными дублированиями сообщений, и.т.д. Здесь интересно умеет ли чел вообще рассуждать, или просто будет копировать код.
S>Тогда тут играет роль наличие опыта — если чел. уже делал такой же проект и посвятил этому несколько месяцев жизни — ему будет намного проще, чем тому, кто никогда не сталкивался. При этом оценка будет выше не из-за того что он более способен, лучше и быстрее умеет уловить суть — а по причине наличия опыта. В других вещах (в реальных) опыта может не быть и выхлоп будет слабым.
Уметь разбивать задачу на подзадачи — это школьный опыт. Те, которые этого не умеют — даже на джунов не тянут. Ищем умеющих думать. Решить экзамен — не обязательно, не обязательно даже правильно. Ошибки приветствуются. А по их обсыждению уже можно делать выводы.
Нет, не заменит гопота даже джунов. Но очень хорошо поможет тем, кого научили думать.