Здравствуйте, Privalov, Вы писали:
P>Как и ожидалось: не работает. Коллега bnk всё правильно написал.
Оно не то, чтобы не работает, оно без доработки напильником не работает. Все равно ускоряет написание кода в разы.
До того, чтобы полностью заменить человека, еще годы. Но когда мы там окажемся, надеюсь я уже буду на пенсии.
Здравствуйте, bnk, Вы писали:
S>>У вас есть возможность запустить o1? У меня на данный момент нет. bnk>Не, у меня тоже нет. Видимо по другой ветке пошел
Ну вот пусть у кого есть доступ сейчас — запустит. О нем же речь, епта. А мы старые тапки обсуждаем.
Мой вариант, похоже, старый GPT-4 выдал. 4o добавляет такой код:
using System;
using System.IO;
using System.Net.Http;
using System.Net.Http.Headers;
using System.Threading.Tasks;
public async Task<string> UploadFileAsync(string url, string filePath)
{
string result = null;
using (var httpClient = new HttpClient())
{
try
{
// Установка заголовка авторизации
httpClient.DefaultRequestHeaders.Authorization = new AuthenticationHeaderValue("Bearer", Properties.Settings.Default.ApiKey);
using (var content = new MultipartFormDataContent())
{
// Чтение файлаvar fileContent = new ByteArrayContent(File.ReadAllBytes(filePath));
fileContent.Headers.ContentType = MediaTypeHeaderValue.Parse("application/pdf");
content.Add(fileContent, "file", Path.GetFileName(filePath));
// Отправка POST-запросаvar response = await httpClient.PostAsync(url, content);
// Проверка успешности запроса
response.EnsureSuccessStatusCode();
// Чтение ответа
result = await response.Content.ReadAsStringAsync();
}
}
catch (HttpRequestException e)
{
// Обработка исключений
result = null;
}
}
return result;
}
Да — есть ошибка с Bearer. Интересно что скажет o1.
Здравствуйте, Shmj, Вы писали:
S>Не спешите радоваться.
А с чего вы взяли, что я радуюсь? Мне, может, надо, чтоб работало без доработки напильником. Чтобы взял, вставил фрагмент в код, и всё сразу заработало.
А вариации на тему этого кода есть везде: в MSDN, на SO. Есть варианты с StreamContent вместо ByteArrayContent. Только, как верно заметил коллега bnk, в коде должен быть MultipartFormDataContent. А его в этом варианте нет.
Здравствуйте, bnk, Вы писали:
bnk>Оно не то, чтобы не работает, оно без доработки напильником не работает. Все равно ускоряет написание кода в разы.
Но нужно чётко понимать, что делаешь. Меня выручает некоторый опыт работы с чужим кодом. Я его перелопатил намного больше, чем сочинил своего.
bnk>До того, чтобы полностью заменить человека, еще годы. Но когда мы там окажемся, надеюсь я уже буду на пенсии.
Чтобы заменить человека, ИИ должен хлтя бы уметь решить проблему останова. Так что есть у нас пока время.
Здравствуйте, Privalov, Вы писали:
P>А с чего вы взяли, что я радуюсь? Мне, может, надо, чтоб работало без доработки напильником. Чтобы взял, вставил фрагмент в код, и всё сразу заработало. P>А вариации на тему этого кода есть везде: в MSDN, на SO. Есть варианты с StreamContent вместо ByteArrayContent. Только, как верно заметил коллега bnk, в коде должен быть MultipartFormDataContent. А его в этом варианте нет.
Через API 4o выдало MultipartFormDataContent. Через сайт выдало без него (хотя вроде тоже 4o).
Нужно проверять с новой версией o1. У меня сейчас нет доступа, т.к. юзаю через API — сейчас особо нет нужды платить за сайт.
Возможно кто-то из форума, у кого есть доступ к o1 — проверит его. Оно выдает точнее.
Хотя и 4o — если дать ошибку — то обычно справляется.
Здравствуйте, Shmj, Вы писали:
S>А область знаний у вас какая? Знаете ли вы как создать пакет CMake и сколько времени вам нужно, чтобы найти?
А вот тут-то и закопана разница между "AI" и интеллектом, как сейчас принято говорить, "organic".
Я знаю, где мои знания заканчиваются или их недостаточно. И не боюсь сказать "не знаю", "посмотри там" или "это потребует дополнительного исследования".
Твой искусственный идиот будет пытаться бредить.
L>>А ты рано или поздно по совету "AI" что-нибудь серьезно испортишь. S>Испортить можно и без этого. Главное видеть картину целиком
Здравствуйте, Nuzhny, Вы писали:
N>Здравствуйте, gress, Вы писали:
G>>Кстати, хинт — если сложный рабочий код не выкладывать в открытый доступ, GPT не на чем будет учиться и он не сможет заменить программистов
N>Да! N>Такое мнение сразу началось после того, как Майкрософт начало самовольно использовать исходники с Гитхаба для тренировки своей нейросети. Стало понятно в принципе, зачем нужна была эта покупка. N>Потом появилось мнение, что скоро может появиться рынок исходников закрытых проектов. Типа, можно продавать исходники своего проекта тому же OpenAI для тренировки сети (данные уже кончаются). Это актуально не столько для успешных продуктов, сколько для тех, которые либо отжили своё, либо не выстрелили и контора банкротится.
Тогда, развивая эту мысль, LLM не сможет писать код по направлениям, по которым мало исходного кода.
Помимо умерших проектов и технологий это новые фреймворки и подходы к разработке в рамках существующего ЯП и новые ЯП. То есть, если заменить человека на машину, средства разработки перестанут развиваться. А так не бывает в нашем мире ИТ. Интересно будет еще посмотреть, как LLM придумает новое средство разработки
Здравствуйте, landerhigh, Вы писали:
L>Я знаю, где мои знания заканчиваются или их недостаточно. И не боюсь сказать "не знаю", "посмотри там" или "это потребует дополнительного исследования". L>Твой искусственный идиот будет пытаться бредить.
AFAIK это (то что AI сейчас не может ответить "не знаю") — временная проблема, сейчас находится в процессе решения.
Тот же о1, исходя из того что я читал (сам еще не пробовал), в этом плане уже лучше, по крайней мере сам себя проверяет перед тем как что-то сморозить.
Здравствуйте, bnk, Вы писали:
bnk>AFAIK это (то что AI сейчас не может ответить "не знаю") — временная проблема, сейчас находится в процессе решения. bnk>Тот же о1, исходя из того что я читал (сам еще не пробовал), в этом плане уже лучше, по крайней мере сам себя проверяет перед тем как что-то сморозить.
Здравствуйте, Nuzhny, Вы писали:
N>С одной стороны — да. Тут ещё советуют после тестового приглашатть на второе собеседование и обсуждать написанное, просить его модифицировать. Тоже хороший вариант, но он удлиняет процесс найма. Пока другого способа я не вижу. N>Далее вопрос в том, в принципе наша профессия как-то изменится или нет? Если да, то как сильно и в какую сторону. Вон, товарищ прочит нам будущее, при котором даже синтаксис знать не надо, а писать код будут промт-программисты, которым конкретный ЯП знать в принципе будет не обязательно. Видимо, программисты в таком случае в принципе уйдут, а код начнут писать специалисты в предметной области, которым на своём предметном языке надо будет писать ТЗ-спецификацию, наиболее точную и непротеворечивую, по которой будет генерировать код. То есть условный С++ станет тем, чем для современных С++ программистов является ассемблер.
Все хорошо, но сколько это будет потреблять энергии? Вон гугол, говорят, уже про собственные АЭС задумался.
Здравствуйте, Sharov, Вы писали:
S>Все хорошо, но сколько это будет потреблять энергии? Вон гугол, говорят, уже про собственные АЭС задумался.
Стоить будет много. Собственные АЭС будут у всех, не только у Гугла, от этого никуда не деться. С другой стороны, сейчас идёт тренд на маленькие специализированные языковые модели, которые в конкретных случаях лучше больших, а энергии потребляют на порядок меньше. Также недавно была новость, что научились в свёртках заменять умножение на сложение без потери точности, что экономит на них до 95% энергии. Далее уже делают ASIC для языковых моделей, а новости от Nvidia о новом продукте говорят, что в очередной видеокарте и версии CUDA идёт оптимизация для LLM. Тренировка LLM типа GPT-2 сейчас занимает 12 минут и стоит 5$, что сильно меньше, чем раньше.
Короче, индустрия вкладывает огромные деньги в исследования и они закономерно дают свои плоды. Раньше такое было с ядерной физикой, с космосом и т.д. Будут деньги — будут результаты. А там уже будем смотреть, насколько увеличится ВВП благодаря таким вложениям.
Здравствуйте, Shmj, Вы писали:
S>Здравствуйте, landerhigh, Вы писали:
L>>Есть такая штука — документация. Слышал? Если нет, спроси у своего AI, что это такое.
S>Часто документация плохо структурирована, много воды, не полна. Так вот GPT — и есть тот инструмент, который приведет вам выдержку из документации и адаптирует требуемое задание на основе документации с учетом всех нюансов.
Для этого дорогостоящая LLM не нужна. Можно сделать какую-нибудь NLP модель по типу FAQ.
Здравствуйте, gress, Вы писали:
S>>Часто документация плохо структурирована, много воды, не полна. Так вот GPT — и есть тот инструмент, который приведет вам выдержку из документации и адаптирует требуемое задание на основе документации с учетом всех нюансов.
G>Для этого дорогостоящая LLM не нужна. Можно сделать какую-нибудь NLP модель по типу FAQ.