Re[8]: Будущее нейросетей - индивидуально обученные нейросети
От: Shmj Ниоткуда  
Дата: 15.01.24 09:02
Оценка:
Здравствуйте, Nuzhny, Вы писали:

N>

N>GPT-4 имеет максимальный размер токенов 32 768 — это 215, если вам интересно, почему число выглядит знакомым. Это примерно соответствует 64 000 словам или 50 страницам текста — достаточно для целой пьесы или рассказа.


А что если нужно 5 млн. страниц текста?
Re[9]: Будущее нейросетей - индивидуально обученные нейросети
От: Nuzhny Россия https://github.com/Nuzhny007
Дата: 15.01.24 10:04
Оценка:
Здравствуйте, Shmj, Вы писали:

S>А что если нужно 5 млн. страниц текста?


Я тебе уже сказал, что для этого нужно — абстракция и декомпозиция. В принципе, то же самое, что делает человек для себя и как он делает это в связке с ЧатГПТ. Абстракцию и декомпозицию кода нейросетями делать не нужно, потому как это умеют делать компиляторы с начала времён. Граф объектов — пожалуйста.
Re[8]: Будущее нейросетей - индивидуально обученные нейросети
От: Sinclair Россия https://github.com/evilguest/
Дата: 15.01.24 11:57
Оценка:
Здравствуйте, Nuzhny, Вы писали:
N>Экран кода — это мало, объём контекста у него намного больше. Ты что-то путаешь.
N>

N>GPT-4 имеет максимальный размер токенов 32 768 — это 215, если вам интересно, почему число выглядит знакомым. Это примерно соответствует 64 000 словам или 50 страницам текста — достаточно для целой пьесы или рассказа.

Не 215, а 215. Не уподобляйтесь газетчикам, поправляйте форматирование при копировании!
Уйдемте отсюда, Румата! У вас слишком богатые погреба.
Re: Будущее нейросетей - индивидуально обученные нейросети
От: namespace  
Дата: 15.01.24 12:25
Оценка: +1
S>Зато потом сможет по требованиям вносить изменения в код.
Любой редактор кода умеет "по требованиям вносить изменения в код". Даже виндовый блокнот.

Хочу видеть "ИИ", который бы слушая многочасовую болтовню пользователей, задавал уточняющие вопросы, предлагал технические решения и предупреждал о некорректных изменениях.
А еще он сразу должен подумать о доступах и лицензиях, о непубличных спецификациях и багах в сторонних компонентах.

S>Кто что скажет?

Тот, кому хотя бы раз приходилось всерьез разбираться в сгенерированном коде с целью оптимизации и прочих костылей, поймет.
Если ковырять сгенерированный ИИ код, только за много-много денег!
Re[7]: Будущее нейросетей - индивидуально обученные нейросети
От: Evgeny.Panasyuk Россия  
Дата: 15.01.24 13:17
Оценка: +1
Здравствуйте, Shmj, Вы писали:

S>Текущая парадигма позволяет обработать 1 экран кода,


Уже 128k токенов — четырёхкратный скачок за год. Дальше больше.

S>а нужно — сотни мегабайт кода.


Необязательно каждую строчку кода держать в контексте. Можно загрузить общую структуру, и дать ему возможность запрашивать подгрузку/пэйджинг файлов по потребности, то есть прямо инструктируешь что если нужен файл foo.cpp, скажи ключевую фразу read foo.cpp То есть решение задачи произойдет не за один проход, а за много, с подгрузкой и выгрузкой кода в/из контекста.
Точно также работали и старые компьютеры — в оперативную память мало что помешалось и поэтому использовали оверлеи и т.п.

Вот ты когда сам над проектом работаешь — сколько кода у тебя непосредственно в голове, и сколько перед глазами? Уж сильно меньше 128k токенов. Но при этом ты всегда можешь посмотреть на структуру проекта и найти нужный файл.
Re[2]: Будущее нейросетей - индивидуально обученные нейросети
От: Evgeny.Panasyuk Россия  
Дата: 15.01.24 13:20
Оценка:
Здравствуйте, namespace, Вы писали:

N>Если ковырять сгенерированный ИИ код, только за много-много денег!


А не надо его самому ковырять, можешь попросить ИИ всё прожевать и объяснить что к чему, да ещё составить документацию с диаграммами.
Re[9]: Будущее нейросетей - индивидуально обученные нейросети
От: CreatorCray  
Дата: 15.01.24 19:24
Оценка:
Здравствуйте, Sinclair, Вы писали:

N>>

N>>GPT-4 имеет максимальный размер токенов 32 768 — это 215, если вам интересно, почему число выглядит знакомым. Это примерно соответствует 64 000 словам или 50 страницам текста — достаточно для целой пьесы или рассказа.

S>Не 215, а 215. Не уподобляйтесь газетчикам, поправляйте форматирование при копировании!

Мне больше интересно как у них из 32768 токенов получилось 64000 слов?
... << RSDN@Home 1.3.110 alpha 5 rev. 62>>
Подождите ...
Wait...
Пока на собственное сообщение не было ответов, его можно удалить.