Здравствуйте, Pauel, Вы писали:
P>Шмжа всё равно будет вещать, что llm думает
Тут проблемка — что значит думать и как процесс думания отличить от процесса анализа информации?
Мое мнение. Процесс думания многогранен, есть разные типы думания. Пока формально все называется одним словом, но процессы эти разные.
LLM умеет воссоздавать некоторые из этих процессов, однако же остается еще нечто, чего она не умеет и (как многие делают ставку) не сумеет без привлечения квантовых вычислений.
Важно распознать этот вид думания, который требует квантовых вычислений. Ясно что он связан с т.н. озарением или инсайтом. Если ваша работа связана с этим видом думания — вам переживать не о чем. Квантовые вычисления пока не доступны — более того — пока нет понимания самого алгоритма инсайта. Так что еще лет 1000 вас не заменят.
Здравствуйте, Shmj, Вы писали:
S>Мое мнение. Процесс думания многогранен, есть разные типы думания. Пока формально все называется одним словом, но процессы эти разные.
Никто не называет их одним словом, разве что в быту.
S>LLM умеет воссоздавать некоторые из этих процессов, однако же остается еще нечто, чего она не умеет и (как многие делают ставку) не сумеет без привлечения квантовых вычислений.
Что именно она не умеет? Возможно, что она что-то не умеет только потому, что её этому не учили.
S>Важно распознать этот вид думания, который требует квантовых вычислений. Ясно что он связан с т.н. озарением или инсайтом.
Инсайт много где хорошо описан, никто не нашёл связи с квантовыми вычислениями.
Здравствуйте, Nuzhny, Вы писали: S>>Важно распознать этот вид думания, который требует квантовых вычислений. Ясно что он связан с т.н. озарением или инсайтом. N>Инсайт много где хорошо описан, никто не нашёл связи с квантовыми вычислениями.
Чтобы найти связь — нужно воссоздать искусственно. Вот ориентация птиц по магнитому полю, недавно хороший ПОП-ролик вышел:
Здравствуйте, Shmj, Вы писали:
S>Чтобы найти связь — нужно воссоздать искусственно. Вот ориентация птиц по магнитому полю, недавно хороший ПОП-ролик вышел:
1. Так, давай не ролик, а статью.
2. Ты же в курсе, что аналогия — это не доказательство? Так-то я тоже могу привести примеры, где бритва Оккама срезала лишнее.
Здравствуйте, Vzhyk2, Вы писали:
P>>Шмжа всё равно будет вещать, что llm думает V>Определи для начала понятие "думать".
Думать — получать новые знания из имеющихся, последовательно задаем себе вопросы и находим ответы.
Вместо этого LLM фактически ищет и генерирует по ассоциациям.
Вот к примеру, вся математика выводится из небольшой горстки аксиом. Ктото задался целью всё это дело обдумать, т.е. задавал себе вопросы, искал ответы итд. И на выходе получилось, например, дифференциальное исчисление.
LLM так не умеет. Т.е. новые связи между знаниями он сам без должного обучения проводить не может.
Здравствуйте, Shmj, Вы писали:
P>>Шмжа всё равно будет вещать, что llm думает
S>Тут проблемка — что значит думать и как процесс думания отличить от процесса анализа информации?
Очень просто. Вся математика выводится из одной горстки теорем. Геометрия, матан, дифференциальное счисление, пределы, ряды, комплексные числа, итд итд
Все эти знания не с потолка свалились — кто задавал себе вопросы, находил ответы. ЛЛМ так не умеет.
Вместо этого ЛЛМ всего лишь находит знания, которыми его пичкали. Между этими знаниями находит связи. Но вот вывести геометрию из кучки аксиом — нет, не выйдет.
Здравствуйте, Pauel, Вы писали:
P>Думать — получать новые знания из имеющихся, последовательно задаем себе вопросы и находим ответы.
Вот именно это дипсик тот же и делает. Как минимум в части анализа твоего запроса. Потом запускает синтез на основе того, что получил при анализе.
И да, если анализ у него сильно большой получается, то синтез у него плохой выходит. Это говорит о том, что или нейронка таки маленькая или современный подход в нейронках дошел до своего предела.
P>Вместо этого LLM фактически ищет и генерирует по ассоциациям.
Каким ассоциациям? Там нейронка, по сути нелинейное преобразование из одного пространства в другое, построенное на минимизации ошибки по датасету.
P>LLM так не умеет. Т.е. новые связи между знаниями он сам без должного обучения проводить не может.
Очередное что-то неопределенное на уровне болтологии.
Здравствуйте, Pauel, Вы писали:
P>Ктото задался целью всё это дело обдумать, т.е. задавал себе вопросы, искал ответы итд. И на выходе получилось, например, дифференциальное исчисление.
У нейронки всегда есть цель и критерии соответствия цели. Она не обдумывает абстракции только потому что «может».
Дифференциальное исчисление, как например и комплексные числа — больше возникло из «а давайте подумаем в эту сторону». То что оно потом на практике дофига где пригодилось и открыло целые направления — никто изначально такую задачу не ставил
Здравствуйте, Pauel, Вы писали:
P>Вместо этого ЛЛМ всего лишь находит знания, которыми его пичкали. Между этими знаниями находит связи. Но вот вывести геометрию из кучки аксиом — нет, не выйдет.
Сформулируй корректную постановку задачи и попроси его. Посмотрим, что получится.
Более того, логические задачки дипсик решает уже лучше среднего человека.
З.Ы. Пока я так и не понял, что именно ты хочешь от LLM.
Здравствуйте, Pauel, Вы писали: P>Вот к примеру, вся математика выводится из небольшой горстки аксиом.
Совсем не так, строго говоря. Математика возникла из задач, которые ставились практикой, физикой, нуждами самой математики и просто любопытством. Под аксиомы подвели её позже. Но и после этого она не выводилась из аксиом и теорем, а строго наоборот: ставилась задача, находилось решение и оно уже доказывалось и приводилось в логически непротиворечивую форму.
Этот процесс математической мысли, как находились решения, как происходят инсайты — вот это всё описано, например, у Пуанкаре и Адамара, они прямо ставили себе цель исследования процесса математических открытий. Никто из них не ставил во главу угла логику — воображение важнее.
Далее, уже в середине 20-го века была попытка автоматически вывести математику из аксиом. Но, увы, ничего не вышло далее самых элементарных и близких к аксиомам теорем.
Я прочитал несколько книг от математиков и физиков, которые задавались себе вопросом, как работает процесс открытий. Все однозначно сходятся к тому, что логика и вычисления следуют за воображением и творческим мышлением. Самое главное — умение представлять в голове в каком-тто удобном для конкретного человека виде абстрактные математические сущности, чтобы с ними работать.
Про LLM и математику есть хорошие доклады у Сергея Николенко на тему ИИ и математики:
Здравствуйте, Pauel, Вы писали:
P>Очень просто. Вся математика выводится из одной горстки теорем. Геометрия, матан, дифференциальное счисление, пределы, ряды, комплексные числа, итд итд
P>Все эти знания не с потолка свалились — кто задавал себе вопросы, находил ответы. ЛЛМ так не умеет. P>Вместо этого ЛЛМ всего лишь находит знания, которыми его пичкали. Между этими знаниями находит связи. Но вот вывести геометрию из кучки аксиом — нет, не выйдет.
Ну доказать решить некую задачу немножко новую — сможет ведь. На уровне школы. Вот вы придумаете задачу не из решебника, но не слишком высокого уровня — решит же на максималках?
А на счет выводится — лично вы много нового вывели? Это же делали небожители — типа Перельмана. У которых хрен знает что в башке творится. И то у них долгие годы уходили на озарение.
P>Очень просто. Вся математика выводится из одной горстки теорем. Геометрия, матан, дифференциальное счисление, пределы, ряды, комплексные числа, итд итд P>Все эти знания не с потолка свалились — кто задавал себе вопросы, находил ответы. ЛЛМ так не умеет. P>Вместо этого ЛЛМ всего лишь находит знания, которыми его пичкали. Между этими знаниями находит связи. Но вот вывести геометрию из кучки аксиом — нет, не выйдет.
Оно запросто сможет вывести кучу всяческих новых теорий, только совершенно бесполезных на практике.
Как в соседних ответах пишут, полезная теория строится на основе практики.
да не важно это
есть причины думать, что прогресс остановится? что не будут новые модели устроенные иначе?
есть причины думать, что в мозгу человека какая-то принципиально невоспроизводимая структура отвечает за мышление?
ну и как тогда прогресс может _не_ прийти к думающему ИИ?
просто раньше казалось что до этого тысячи лет, а сейчас уже не знаешь, может в следующем году сделают
Здравствуйте, mukos, Вы писали:
M>я к тому, что он будет делать тоже что и сейчас, только быстрее
Скорее всего и алгоритмы там другие — не скорее всего а точно, т.к. текущие алгоритмы нейросетей не перенести на квантовые вычисления 1 к 1. Но до этого еще далеко, можете не переживать.