N>GPT-4 имеет максимальный размер токенов 32 768 — это 215, если вам интересно, почему число выглядит знакомым. Это примерно соответствует 64 000 словам или 50 страницам текста — достаточно для целой пьесы или рассказа.
Здравствуйте, Shmj, Вы писали:
S>А что если нужно 5 млн. страниц текста?
Я тебе уже сказал, что для этого нужно — абстракция и декомпозиция. В принципе, то же самое, что делает человек для себя и как он делает это в связке с ЧатГПТ. Абстракцию и декомпозицию кода нейросетями делать не нужно, потому как это умеют делать компиляторы с начала времён. Граф объектов — пожалуйста.
Здравствуйте, Nuzhny, Вы писали: N>Экран кода — это мало, объём контекста у него намного больше. Ты что-то путаешь. N>
N>GPT-4 имеет максимальный размер токенов 32 768 — это 215, если вам интересно, почему число выглядит знакомым. Это примерно соответствует 64 000 словам или 50 страницам текста — достаточно для целой пьесы или рассказа.
Не 215, а 215. Не уподобляйтесь газетчикам, поправляйте форматирование при копировании!
Уйдемте отсюда, Румата! У вас слишком богатые погреба.
S>Зато потом сможет по требованиям вносить изменения в код.
Любой редактор кода умеет "по требованиям вносить изменения в код". Даже виндовый блокнот.
Хочу видеть "ИИ", который бы слушая многочасовую болтовню пользователей, задавал уточняющие вопросы, предлагал технические решения и предупреждал о некорректных изменениях.
А еще он сразу должен подумать о доступах и лицензиях, о непубличных спецификациях и багах в сторонних компонентах.
S>Кто что скажет?
Тот, кому хотя бы раз приходилось всерьез разбираться в сгенерированном коде с целью оптимизации и прочих костылей, поймет.
Если ковырять сгенерированный ИИ код, только за много-много денег!
Здравствуйте, Shmj, Вы писали:
S>Текущая парадигма позволяет обработать 1 экран кода,
Уже 128k токенов — четырёхкратный скачок за год. Дальше больше.
S>а нужно — сотни мегабайт кода.
Необязательно каждую строчку кода держать в контексте. Можно загрузить общую структуру, и дать ему возможность запрашивать подгрузку/пэйджинг файлов по потребности, то есть прямо инструктируешь что если нужен файл foo.cpp, скажи ключевую фразу read foo.cpp То есть решение задачи произойдет не за один проход, а за много, с подгрузкой и выгрузкой кода в/из контекста.
Точно также работали и старые компьютеры — в оперативную память мало что помешалось и поэтому использовали оверлеи и т.п.
Вот ты когда сам над проектом работаешь — сколько кода у тебя непосредственно в голове, и сколько перед глазами? Уж сильно меньше 128k токенов. Но при этом ты всегда можешь посмотреть на структуру проекта и найти нужный файл.
N>>GPT-4 имеет максимальный размер токенов 32 768 — это 215, если вам интересно, почему число выглядит знакомым. Это примерно соответствует 64 000 словам или 50 страницам текста — достаточно для целой пьесы или рассказа.
S>Не 215, а 215. Не уподобляйтесь газетчикам, поправляйте форматирование при копировании!
Мне больше интересно как у них из 32768 токенов получилось 64000 слов?