предполагают что ChatGPT 5 может иметь до 100 трлн параметров
От: xma  
Дата: 13.01.24 23:44
Оценка:
предполагают что ChatGPT 5 будет иметь 100 трлн параметров (и выйдет уже в 2024 году и по ожиданиям может превзойти человека в решении задач)

как бэ кто бы что ни говорил, но прогресс очевиден

  пруф
отсюда,

GPT-4 И GPT-5: НАСТОЯЩЕЕ И БУДУЩЕЕ
https://www.computerra.ru/287077/gpt-4-i-gpt-5-nastoyashhee-i-budushhee/



P.S.:

ну и судя по всему для локального инференса GPT-5 понадобилось бы 128 TB RAM, что для домашней сборки мало реально в ближайшие 20-30 лет ..
Re: предполагают что ChatGPT 5 может иметь до 100 трлн параметров
От: Vzhyk2  
Дата: 14.01.24 06:37
Оценка: +1
Здравствуйте, xma, Вы писали:

xma>предполагают что ChatGPT 5 будет иметь 100 трлн параметров (и выйдет уже в 2024 году и по ожиданиям может превзойти человека в решении задач)

Всё зависит от конкретных задач. В некоторых частных задачах человека превзошли уже телеги давным давно.
Re: предполагают что ChatGPT 5 может иметь до 100 трлн параметров
От: Разраб  
Дата: 15.01.24 03:11
Оценка:
Здравствуйте, xma, Вы писали:

xma>предполагают что ChatGPT 5 будет иметь 100 трлн параметров (и выйдет уже в 2024 году и по ожиданиям может превзойти человека в решении задач)

ШО, опять!?

Когда научится мусор сортировать, тогда и посмотрим.
☭ ✊ В мире нет ничего, кроме движущейся материи.
Re[2]: предполагают что ChatGPT 5 может иметь до 100 трлн параметров
От: Vzhyk2  
Дата: 15.01.24 06:50
Оценка: :))
Здравствуйте, Разраб, Вы писали:

Р>Когда научится мусор сортировать, тогда и посмотрим.

Вообще-то именно это они и делают.
Вопрос только в том, что у тебя и других 8 ярдов людей понимание мусора различно.
А нейросетка выдает тебе среднее понимание мусора большой толпой.
Re[3]: предполагают что ChatGPT 5 может иметь до 100 трлн параметров
От: mike_rs Россия  
Дата: 15.01.24 07:33
Оценка:
Здравствуйте, Vzhyk2, Вы писали:

V>А нейросетка выдает тебе среднее понимание мусора большой толпой.


напоминает анекдот про автомат для бритья — "- лица же у все разные — ну это только до первого бритья.."
Re[4]: предполагают что ChatGPT 5 может иметь до 100 трлн параметров
От: Vzhyk2  
Дата: 15.01.24 07:34
Оценка:
Здравствуйте, mike_rs, Вы писали:

_>напоминает анекдот про автомат для бритья — "- лица же у все разные — ну это только до первого бритья.."

Так и есть.
Re[2]: предполагают что ChatGPT 5 может иметь до 100 трлн параметров
От: CreatorCray  
Дата: 15.01.24 09:38
Оценка: :)
Здравствуйте, Разраб, Вы писали:

Р>Когда научится мусор сортировать, тогда и посмотрим.

С этим даже кожаные мешки не очень чтобы справляются по причине частой укуренности правил.
... << RSDN@Home 1.3.110 alpha 5 rev. 62>>
Re: предполагают что ChatGPT 5 может иметь до 100 трлн парам
От: Nuzhny Россия https://github.com/Nuzhny007
Дата: 15.01.24 11:03
Оценка:
Здравствуйте, xma, Вы писали:

xma>предполагают что ChatGPT 5 будет иметь 100 трлн параметров (и выйдет уже в 2024 году и по ожиданиям может превзойти человека в решении задач)

xma>как бэ кто бы что ни говорил, но прогресс очевиден

Мне кажется, что тут смешались в кучу кони и люди.

1. "ChatGPT 5 будет иметь 100 трлн параметров" — очень сомневаюсь. Современная Llama 2 имеет максимальный размер 70 млрд параметров и запустить её не так просто. Кажется, что ChatGPT 3.5 размером около 6.7 млрд. Четвёртый, пусть будетв 2-3 раза больше. Ну или в 4 раза. При этом он оказался слишком дорогим и его пришлось оптимизировать до turbo версии. И тут... Даже не 100 млрд, а 100 трлн! Не верю!!! Прогресс в тысячу, нет в 10 тысяч раз за год? Нет, не верю.

2. Открываем статью в Компьютерре и видим таблицу со строкой "Количество параметров для обучения", где есть сравнимое значение 1.6 трлн параметров. Тут уже разница с числом 100 трл не столь значитеьлна, мы знаем, что Llama 1 обучалась на сравнимом по объёму датасете. Данных с тех пор не сильно прибавилось, но сеть стала мультимодальной, могли добавить и текста, и картинок, и даже звуков. На 100 трлн почему и не дотянуть. Но блин! Кто же так переводит! Не параметры, а токены! Токены!!! Компьтерра скатилась, только вводит в заблюждение.

P.S. RedPajama тренируют на датасете 30 трлн токенов
Отредактировано 15.01.2024 12:50 Nuzhny . Предыдущая версия .
 
Подождите ...
Wait...
Пока на собственное сообщение не было ответов, его можно удалить.