_>>Если хочется очень крутую опен-сорс модель для русского языка, то начни с нового Вихря. Буквально вчера вышел. __>Я недавно игрался с ollama llama3 и llava, очень удобно, а какой самый простой способ локально запустить ее и лучше бы без gpu?
https://ollama.com/ — просто скачиваешь и все работает. Когда я проверял — не было последних моделей, может уже добавили.
S_S> Тут оно не смогло даже на 1 ход вперед заглянуть. И не смогло установить аналогию с крестиками-ноликами. Тест на минимальный рациональный интеллект не пройден.
Интеллект — это, в том числе, строить хоть простейшие модели и по ним "заглядывать в будущее". Это нужно не только для игр с 2 игроками. Если эта версия GPT здесь не смогла заглянуть на 1 ход вперед (дошкольник здесь это смог бы), то и многие рассуждения не осилит.
И еще — обобщения, аналогии. Языковые/гуманитарные обобщения GPT хорошо осилил. А здесь требовались обобщения/аналогии процессов (сравнения моделей) игры. Как раз он тут сказал все наоборот:
Но "Крестики-нолики" — это игра с более простой стратегией, в то время как наша игра требует большего внимания к комбинациям.
Здравствуйте, Nuzhny, Вы писали:
N> Но может ли такая комбинация (или какая-то другая) выйти за рамки текущей аксиоматики, например. Сможет ли придумать геометрию Лобачевского? Или сформулировать теорему Гёделя о неполноте?
В каком-то определенном(спорном) смысле в природе существует всего 5 видов языков. AI освоил пока только первые 2.
1) Языки общего назначения: Русский, Английский, ...
2) Язык музыки, искусства, ...
3) Машинные, алгоритмические языки. Особенность, преимущества — максимальная примитивность. Из-за этого кучка транзисторов способна исполнять инструкции на таких языках в миллиарды раз быстрее и надежнее человека. Слабость этих языков — после первой же ошибки все полностью падает/разваливается.
Но не только транзисторы ... в природе тоже. Все живое держится на ДНК. Как она читается и транслируется — это скорее машинный язык. Если только рибосома способна читать этот язык ... у нее диаметр 20-30 нм, ничего сложнее этого языка она не прочитает и не транслирует.
4) Способ работы с абстракциями, рефлексия. Т.е. это язык философии (или типа того).
5) Математика. С одной стороны она максимально конкретная — как в алгоритмических языках не допускается ни одной ошибки или противоречия иначе все развалится. С другой стороны математика считается одной из самых абстрактных наук.
И как выражаются некоторые философы науки: "Математика — единственный язык на котором природе можно задавать вопросы и получать ответы".
ИМХО, самой сложной для ИИ окажется математика (может ошибаюсь, если ИИ устроен по-другому). Если не просто преобразование выражений, а полноценная включая открытия. Т.к. и все человечество не так быстро здесь продвигалось в построении/открытии математики. И наибольшие последствия для развития цивилизации были здесь. И для математики требуются остальные языки — и абстракции и все это без единой ошибки или противоречия, и обычные языки нужны. И обеспечить 100% отсутствие ошибок не так просто, там где много абстракций. В философии тоже много абстракций, но там даже не мечтают когда-нибудь избавиться от всех противоречий.
Геометрия Лобачевского появилась на отрицании всего лишь всего одной аксиомы. А в остальном эта геометрия — традиционная математика без единой ошибки или противоречия. Аксиомы, скорее, привносятся в математику извне, и отрицание этой аксиомы не привносит противоречий. GPT даже если и смог бы после наводящих вопросов посоветовать проверить — к каким следствиям приведет отрицание этой аксиомы, но найти эти следствия сложнее.
Теорема Гёделя о неполноте — это скорее не о противоречии в математике, а о выходе за пределы возможностей математики.
__>отлично, на выходных попробую. вообще llama3 очень понравилась и единственный сильный минус был именно в слабом русском у нее
Если понравилась llama3, то у Вихря тоже совсем-совсем недавно закончилось обучение модели на базе llama 3.1: Vikhr-Llama3.1 — это унимодальная LLM (Large Language Model) на 8B параметров. И выходных как раз 2
Кстати, на одних задачах лучше Вихрь-Ллама, на других Вихрь-Мистраль. Тоже самое и у OpenAI. Похоже, среди моделей уже произошло деление на технарей и гуманитариев значит в перспективе и узкая специализация...
S_S>Здесь может и слабая версия на русском языке так играет. Тут оно не смогло даже на 1 ход вперед заглянуть. И не смогло установить аналогию с крестиками-ноликами. Тест на минимальный рациональный интеллект не пройден.
А тест проходила самая новая GPT o1-preview?
S_S>Рациональные языки — это примерно про алгоритмические/процедурные языки и математику и т.п. Особенности этих языков — нельзя допускать ни одной ошибки иначе все развалится, и есть последовательности/цепочки действий.
Да, только вот прогресс настолько быстрый, что сейчас тесты на логику, со взаимосвязями и планированием, для LLM уже вот такие ужасные как на картинке. Абракадабра вместо нормальных слов используется специально, чтобы LLM не могла использовать какие-то известные правила или взаимосвязи из реального мира. Только то что есть в задаче. Ответ не какое-то число или слово, а последовательность "операций", по которой однозначно понятно — разобралась модель с правилами или нет. Такой логический тест даже прочитать напряжно. Но всё что проще — LLM тупо пролетают на 95-100%.
У профессоров были под рукой студенты-старшекуры технических вузов — им нужны десятки минут что-бы 39 студентов из 50 решило одну такую задачку. Новая модель от OpenAI, с ограничением в 2 минуты, решает правильно 40% таких задач.
Здравствуйте, Shmj, Вы писали:
S>Как бы иметь способ оценивать уровень интеллекта модели?
S>Тест на IQ не поможет, там стандартные вопросы и они их щелкают по словарю.