Здравствуйте, Ромашка, Вы писали:
vsb>>Интересно, но то, что люди не смогли понять, это не достоинство, а недостаток.
Р>Вообще говоря это не достоинство и не недостаток — это причина того, что AI сингулярность не будет достигнута (или будет достигнута по ошибке).
Почему? То, что 2000 лет назад полагалось передовой научной мысли, сейчас проходят в начальной школе. Просто люди научатся работать с ИИ, а ИИ сделают так, чтобы он умел доносить свои мысли до людей.
Р>42!
Я просто не вижу другого варианта с сохранением человеческой цивилизации. Т.е. тут два варианта. Либо мы стараемся вырасти до уровня ИИ, в то же время сдерживая его (то бишь не принимая на веру результаты ИИ, которые человеку не понятны), либо человечество, как вид, уступит место какой-то электронной или кибернетической цивилизации. Для меня, конечно, первый вариант предпочтительней.
Ну я же написал почему... Потому что 42. Любой ИИ выше человеческих способностей будет неадекватен человекам. Мы просто не поймем, что он работает. Поэтому либо очень узкое применение, как в описанных случаях, либо максимум человеческий уровень. Сингулярности ИИ не будет.
Всё, что нас не убивает, ещё горько об этом пожалеет.
Здравствуйте, Ромашка, Вы писали:
vsb>>Почему?
Р>Ну я же написал почему... Потому что 42. Любой ИИ выше человеческих способностей будет неадекватен человекам. Мы просто не поймем, что он работает. Поэтому либо очень узкое применение, как в описанных случаях, либо максимум человеческий уровень. Сингулярности ИИ не будет.
А не судьба срастить мозг человека с ИИ, то, чем Илон занимается например, и множество других компаний? Тогда все вышеуказанные проблемы сами собой разрешаются.
Здравствуйте, gyraboo, Вы писали:
G>А не судьба срастить мозг человека с ИИ, то, чем Илон занимается например, и множество других компаний?
То чем Илон и ему подобные занимаются, это раздувают хайп с целью привлечения инвестиций, вроде обыденное дело в наше время, пора уже всем привыкнуть. Никакой прорывной науки, и тем более ценных идей там особо нет, кроме зарабатывания денег.
G>Тогда все вышеуказанные проблемы сами собой разрешаются.
Конечно разрешатся, т.к. этих проблем не существует, вернее может они и существуют, но сугубо в головах приверженцев подобных идей.
Здравствуйте, 4058, Вы писали:
G>>А не судьба срастить мозг человека с ИИ, то, чем Илон занимается например, и множество других компаний?
4>То чем Илон и ему подобные занимаются, это раздувают хайп с целью привлечения инвестиций, вроде обыденное дело в наше время, пора уже всем привыкнуть. Никакой прорывной науки, и тем более ценных идей там особо нет, кроме зарабатывания денег.
Илон — это прорывной маркетинг, инженерия и технологии для масс. Что и нудно для внедрения таких вещей в потребительский мир. Разве не?
G>>Тогда все вышеуказанные проблемы сами собой разрешаются.
4>Конечно разрешатся, т.к. этих проблем не существует, вернее может они и существуют, но сугубо в головах приверженцев подобных идей.
Здравствуйте, xma, Вы писали:
xma>ИИ от DeepMind продемонстрировал зачатки универсального ИИ
Или мышцы таки осознали себя бицепсами ?? Ну качает он — молодец, как и рычаг в свое время. Причем тут сигулярность ?
Здравствуйте, sept_tone, Вы писали:
_>Причем тут сигулярность ?
сингулярность в том, что скоро (возможно) ИИ будет выводить теоремы и решения/доказательства — которые не в силах осознать человек, либо на это у него уйдёт слишком много времени ..
как например сейчас — без всякого ИИ вполне себе начинается сингулярность, когда потенциально прорывные передовые теории и доказательства некоторые — могут осилить от силы единицы человек в мире, и при этом у них нет единогласия в верности — в т.ч. и с автором, и никто ни доказать ни опровергнуть "решение" — не может ..
вот к примеру, так было с доказательством какого японского математика — на много сот страниц ..
Несмотря на множество конференций, пытавшихся объяснить доказательство Мотидзуки, специалисты по теории чисел с трудом справлялись с лежащими в его основе идеями. Его серия работ общим объёмом более 500 страниц написаны малопонятным стилем, и ссылаются на его предыдущую работу из порядка 500 страниц, что приводит к появлению «чувства бесконечного регресса», как выразился математик Брайан Конрад из Стэнфордского университета.
Однако эта встреча завершилась к неудовлетворению сторон. Мотидзуки не смог убедить Шольце и Стикса в том, что его доказательство верное, а они не смогли убедить его, что оно неверное. Мотидзуки уже выложил отчёт Шольце и Стикса на своём сайте, и присовокупил к ним несколько своих возражений.
Здравствуйте, gyraboo, Вы писали: G>Илон — это прорывной маркетинг
Чисто маркетинг, причем предельно наглый и прямолинейный. G>инженерия и технологии для масс. Что и нудно для внедрения таких вещей в потребительский мир. Разве не?
Предлагаю разобрать ряд его наиболее хайповых проектов:
1. Электрокары.
Идея мягко скажем не нова и по прежнему сомнительна в плане перспектив. Конечно сосуществовать с обычными автомобилями это как-то может, но рассчитывать на прорывное замещение не стоит.
2. Нейролинк
Любой нейрофизиолог посмеётся над этим, по сути хайп вокруг технологий второй половины прошлого столетия (уходящие корнями в конец 19-го века).
3. Старлинк.
Дорогая и стрёмная затея с сомнительной самоокупаемостью.
Да и в целом, SpaceX как авантюра похлеще межпланетного шахматного турнира в Васюках.
Здравствуйте, xma, Вы писали:
xma>Здравствуйте, sept_tone, Вы писали:
_>>Причем тут сигулярность ?
xma>сингулярность в том, что скоро (возможно) ИИ
странно мэтч произошел.
Мндя как-то странно этот текст сюда попал, видимо случайно ок нажал
Здравствуйте, 4058, Вы писали: G>>Илон — это прорывной маркетинг 4>Чисто маркетинг, причем предельно наглый и прямолинейный. G>>инженерия и технологии для масс. Что и нудно для внедрения таких вещей в потребительский мир. Разве не? 4>Предлагаю разобрать ряд его наиболее хайповых проектов: 4>1. Электрокары. 4>Идея мягко скажем не нова и по прежнему сомнительна в плане перспектив. Конечно сосуществовать с обычными автомобилями это как-то может, но рассчитывать на прорывное замещение не стоит. 4>2. Нейролинк 4>Любой нейрофизиолог посмеётся над этим, по сути хайп вокруг технологий второй половины прошлого столетия (уходящие корнями в конец 19-го века). 4>3. Старлинк. 4>Дорогая и стрёмная затея с сомнительной самоокупаемостью. 4>Да и в целом, SpaceX как авантюра похлеще межпланетного шахматного турнира в Васюках. 4>
Ну не знаю. Наверно оценить гений Илона мы сможем только по прошествии времени.
Но он как минимум стимулирует эти отрасли, мне особенно нравится нейролинк. Другие команды с похожими задачами вроде зашевелились, глядя на нейролинк.
Здравствуйте, 4058, Вы писали:
G>>"таблетка для бессмертия" — просто как описание всех технологий бессмертия ... Всё это расписывать нет смысла, поэтому я просто написал "таблетка". 4>Ну допустим, полностью здоров, ничего не болит, не тревожит, есть даже не надо, да и размножаться вообщем-то, а вот не надоест ли такое счастье очень быстро?
Это вряд ли. А вот 100000-летнее царствование какого-нибудь очередного вставателя с колен может и наскучить, особенно если все остальные будут жить по обычному циклу.
Здравствуйте, xma, Вы писали:
xma>Здравствуйте, sept_tone, Вы писали:
_>>Причем тут сигулярность ?
xma>сингулярность в том, что скоро (возможно) ИИ будет выводить теоремы и решения/доказательства — которые не в силах осознать человек, либо на это у него уйдёт слишком много времени ..
Не удивительно, что машина созданная для работы по формальным системам, в этих тоннах логических выкладок работать будет лучше и быстрее, в чем сингулярность все таки интересно узнать ? Человек не в состоянии летать, и ничего — летает. Тут так-же будет. Вот будет дописан язык для АИ. И будет счастье ..
xma>как например сейчас — без всякого ИИ вполне себе начинается сингулярность, когда потенциально прорывные передовые теории и доказательства некоторые — могут осилить от силы единицы человек в мире, и при этом у них нет единогласия в верности — в т.ч. и с автором, и никто ни доказать ни опровергнуть "решение" — не может ..
Если вы знакомы с кризисами прошлого столетия в математике, да и в целом в фундаментальной науке, то их 5 штук просто за прошлый век, включая многотонные доказательства не проверенные совсем. И что ? Нормально — живем. Даже перцептрон был раздолбан Минским, и не смотря на это математики опять в это поверили ... да в дип лернинг с аджоинтами и прочей, и стали опираться исключительно на практику.
xma>а появилось это "доказательство" — более 9 лет назад в 2012 году ..
Началось это намного раньше, чтобы эту конфликтологию разгрести анализировать надо минимум с крушения византии
Для исследования ИИ необходима логическая система включающая в себя собственно все потенциальные ветви развития для определения точек высчитываемости (т.е. уже подвластных, если так можно сказать, ИИ), т.е. к примеру в шахматы слабо верится, что шахматными правилами человек сможет выиграть у ИИ. Если только не начнет играть против алгоритма.
Вот хотите мысленный эксперимент ? .. допишу. Мальчик букетик и дипблю обыгранный в шахматы, типа фантастического маленького короткого эссе ))
Здравствуйте, Ромашка, Вы писали: Р>Ну я же написал почему... Потому что 42. Любой ИИ выше человеческих способностей будет неадекватен человекам. Мы просто не поймем, что он работает. Поэтому либо очень узкое применение, как в описанных случаях, либо максимум человеческий уровень. Сингулярности ИИ не будет.
Вот тут вопрос очень интересный. С одной стороны, проверить сильный ИИ мы сможем. Это как с NP-полнотой или вычислимостью: у нас есть достаточно большой класс задач, в которых найти решение гораздо сложнее, чем проверить. Даём ИИ такую задачу, затем проверяем решение.
Убедившись на нескольких таких задачах в том, что он реально умеет их решать (а не просто генерирует наукообразную чушь, как делают многие лжеучёные или просто отрицатели науки), мы поймём, что интеллект таки работает.
Далее — его "суперность" будет связана с тем, что он будет находить решения быстрее любого человека. Причём — заметно быстрее: то есть не на 10% быстрее проходить тест Айзенка, а, скажем, в 10 или 100 раз быстрее.
Плюс отсутствие когнитивных ограничений вроде "не более 7+-2 сущностей на каждом уровне рассуждений".
Дальше возникают два различных пути развития: в одном мы применяем эти суперспособности к чему-то простому, типа составления расписаний или управления автомобилем. То есть — узкоспециализированное применение универсального интеллекта.
Во втором — мы тренируем этот ИИ для построения ИИ. Это как раз выглядит одной из тех самых "сложных проблем", которые люди пока что решают не очень хорошо.
Сильный ИИ второго поколения может превосходить сильный ИИ первого поколения примерно настолько же, насколько ИИ первого поколения превзойдёт людей.
Вот тут уже будет сложно — далеко не факт, что мы сможем за разумное время провести проверку этого ИИ второго поколения. Ведь он будет проектироваться так, чтобы его проверял ИИ первого поколения, который на порядок умнее нас .
И в итоге возникает вопрос: а что делать с этим недопроверенным ИИ2?
1. Давайте заведём управление всеми mission-critical вещами на этот интеллект и его клонов: то есть, к примеру, прогнозирование и отслеживание погоды, с возможностью оперативно глушить инфраструктурные объекты типа электростанций или нефтеплатформ, организовывая оптимальную эвакуацию персонала и т.п.
Риск: мы даём ИИ2 полномочия мирового правительства, полагаясь на его компетентность. А что, если в нём баг в системе оптимизации, и он поведёт себя, как сбойнувший GPS-навигатор? А что, если у него баг в критериях оптимальности, и он примет решения вроде "ограничить рост населения при помощи распространения наркоты, подавляющей репродуктивную функцию"? Сможем ли мы вообще понять, что происходит, до того, как будет поздно? Он же будет продавливать какие-то мелкие локальные решения, каждое из которых вроде бы не имеет никаких последствий.
2. Давайте сделаем его советчиком для управления всеми mission-critical вещами. То есть напрямую он отдавать команды не будет, а будет сообщать "оператору" об опасных ситуациях и давать ему советы, как их избежать?
Сочетаем недостатки первого способа с замедлением реагирования. Типа ИИ2 такой "чуваки, на нас летит астероид, надо эвакуировать всю австралию в Сибирь и северную Африку". И у нас там на две недели дебаты "а нельзя ли его сбить", "а почему Сибирь — мы хотим в Калифорнию", "да нафига вы нам тут в Калифорнии нужны" и всё такое. Команды лучших учёных и инженеров по всему миру лихораддочно пытаются найти ошибку в решениях ИИ, или придумать альтернативное решение.
2. Давайте сделаем этого ИИ2 "советчик советчиков". То есть он типа будет помогать учоным и инженерам строить модели, а они уже будут публиковать или не публиковать их, исходя из своих этических представлений. А дальше будем барахтаться как и сейчас — рулить при принятии решений будут коррупция, тупость, лень, и прочие достоинства естественного интеллекта.
Фактически, это опять "у нас тут есть экскаватор, но т.к. мы пока не понимаем всех его последствий, копать яму будем по-прежнему мотыгой".
Уйдемте отсюда, Румата! У вас слишком богатые погреба.
Здравствуйте, xma, Вы писали:
xma>Здравствуйте, sept_tone, Вы писали:
_>>Мальчик букетик и дипблю обыгранный в шахматы, типа фантастического маленького короткого эссе ))
xma>при чём тут дип блю ваше ? он не нейросетях работал и мощность вычислительная у него была — на несколько порядков ниже чем у современных систем ..
Я в курсе, что его давно обсчитали, это патетика
xma>современный stockfish — даже кто то из профи вряд ли обыграет, а уж AplhaZero и того без шансов ..
Еще раз, заниматься расчетами против машины смысла — ноль, это понятно. Прецендент экспоненциального взрыва в NLP системе с доказанной непредсказуемостью говорит о том, что играть надо не в шахматы, а во взорви аджоинт.
Здравствуйте, Sinclair, Вы писали:
Так возможно понять, что под сингулярностью подразумевается непревзойденная умность машины? А вот импровизация на контробассе в джазе, это умно? Если гениально, допустим вариация на 24 каприз паганини ?
S>Здравствуйте, Ромашка, Вы писали: Р>>Ну я же написал почему... Потому что 42. Любой ИИ выше человеческих способностей будет неадекватен человекам. Мы просто не поймем, что он работает. Поэтому либо очень узкое применение, как в описанных случаях, либо максимум человеческий уровень. Сингулярности ИИ не будет. S>Вот тут вопрос очень интересный. С одной стороны, проверить сильный ИИ мы сможем. Это как с NP-полнотой или вычислимостью: у нас есть достаточно большой класс задач, в которых найти решение гораздо сложнее, чем проверить. Даём ИИ такую задачу, затем проверяем решение. S>Убедившись на нескольких таких задачах в том, что он реально умеет их решать (а не просто генерирует наукообразную чушь, как делают многие лжеучёные или просто отрицатели науки), мы поймём, что интеллект таки работает. S>Далее — его "суперность" будет связана с тем, что он будет находить решения быстрее любого человека. Причём — заметно быстрее: то есть не на 10% быстрее проходить тест Айзенка, а, скажем, в 10 или 100 раз быстрее. S>Плюс отсутствие когнитивных ограничений вроде "не более 7+-2 сущностей на каждом уровне рассуждений".
Сложно что-то тут возразить, или поддержать. Как IQ вообще с мышлением связан ? А никак ... Кроме того, решение NP-полных задач также не является собственно признаком сингулярности. Это я так понял, что ИИ станет "умнее" человека, равно как и экскаватор сильнее человека.
S>Дальше возникают два различных пути развития: в одном мы применяем эти суперспособности к чему-то простому, типа составления расписаний или управления автомобилем. То есть — узкоспециализированное применение универсального интеллекта. S>Во втором — мы тренируем этот ИИ для построения ИИ. Это как раз выглядит одной из тех самых "сложных проблем", которые люди пока что решают не очень хорошо. S>Сильный ИИ второго поколения может превосходить сильный ИИ первого поколения примерно настолько же, насколько ИИ первого поколения превзойдёт людей.
Пока у ИИ нет своего языка, это врядли можно считать расчетами интеллектуальными, этакая аппроксимация на кофейной гуще. Векторизация слов вообще методика слабо напоминающая интеллектуальные системы. Вы обсуждаете не интеллект, а вычислительные машины, и способность их что-то посчитать лучше человека. НУ логика ясна, но это не об ИИ. ни о первом, ни о втором порядке.
S>Вот тут уже будет сложно — далеко не факт, что мы сможем за разумное время провести проверку этого ИИ второго поколения. Ведь он будет проектироваться так, чтобы его проверял ИИ первого поколения, который на порядок умнее нас .
Вот тут уже начинаются интересности. если оставить это "умнее", то проверить вычислительные системы построенные другими вычислительными системами, могут построенные вычислительными системами вычислительные системы для тестирования. Я уже предлагаю гораздо более широкий сегмент покрытия проверками путей следования развития ИИ, причем именно уже ИИ, со своим языком. Т.к стейт той-же нейронки таки можно будет читать в языке, да ЧИТАТЬ, способы есть.
S>И в итоге возникает вопрос: а что делать с этим недопроверенным ИИ2?
Я вот по аналогии логик первого и второго порядка могу спросить, для чего логика развивается понятно. Что такого произведенного одним ИИ ИИ2 должен привнести ? Есть подозрение, что ИИ первого порядка вас не устраивает по каким либо причинам. Это причина создание его человеком ? Вы заранее задаете цель устранение недостатков естественного интеллекта вычислительными системами. Ну,
S>1. Давайте заведём управление всеми mission-critical вещами на этот интеллект и его клонов: то есть, к примеру, прогнозирование и отслеживание погоды, с возможностью оперативно глушить инфраструктурные объекты типа электростанций или нефтеплатформ, организовывая оптимальную эвакуацию персонала и т.п. S>Риск: мы даём ИИ2 полномочия мирового правительства, полагаясь на его компетентность. А что, если в нём баг в системе оптимизации, и он поведёт себя, как сбойнувший GPS-навигатор? S>А что, если у него баг в критериях оптимальности, и он примет решения вроде "ограничить рост населения при помощи распространения наркоты, подавляющей репродуктивную функцию"? Сможем ли мы вообще понять, что происходит, до того, как будет поздно? Он же будет продавливать какие-то мелкие локальные решения, каждое из которых вроде бы не имеет никаких последствий.
Странно )) т.е. подрывающиеся градиенты для вас не показатель опасности? Кажется этаким пустячком? Это фундаментальная проблема рекуррентных нейронных сетей, да и вообще в целом рекуррентных алгоритмов в НЛП системах. (а, честно все, что до сих пор происходило, это не ИИ, это навороченные вычислительные алгоритмы)
А отсюда непредсказуемость вычислительных процессов, и это не баг, это нечто иное, и даже не расхождение нейронки. Есть пороговые пределы развития технологий. Вот нейронки в таких видах, по моему мнению устарели, если только уже кто-то не написал язык для ИИ, в котором можно четко логически формулировать задачи и получать ответы, которые групповой человеческий интеллект прочитает аж бегом. Как ? А вот так .. запустим как и векторизацию слов — чисто коллективный труд.
S>2. Давайте сделаем его советчиком для управления всеми mission-critical вещами. То есть напрямую он отдавать команды не будет, а будет сообщать "оператору" об опасных ситуациях и давать ему советы, как их избежать? S>Сочетаем недостатки первого способа с замедлением реагирования. Типа ИИ2 такой "чуваки, на нас летит астероид, надо эвакуировать всю австралию в Сибирь и северную Африку". И у нас там на две недели дебаты "а нельзя ли его сбить", "а почему Сибирь — мы хотим в Калифорнию", "да нафига вы нам тут в Калифорнии нужны" и всё такое. Команды лучших учёных и инженеров по всему миру лихораддочно пытаются найти ошибку в решениях ИИ, или придумать альтернативное решение.
)) мысленные эксперименты на выдуманных примерах, не есть подходящее тестирование. Хотите мысленный эксперимент ..давайте Uber. И инфраструктурные объекты, и модифицированный ирония судьбы )) А че нам ) это же АИ.
Женя нового бота, притащила домой проинсталлила и решила заказать с его помощью Uber такси. Сказала так
S>2. Давайте сделаем этого ИИ2 "советчик советчиков". То есть он типа будет помогать учоным и инженерам строить модели, а они уже будут публиковать или не публиковать их, исходя из своих этических представлений. А дальше будем барахтаться как и сейчас — рулить при принятии решений будут коррупция, тупость, лень, и прочие достоинства естественного интеллекта.
Вы уверены, что в курсе как работает наш интеллект ? Быть может тупость и лень, как раз спасает от безумия при решении сложных задач моделирования, импровизации (вот не могу не притащить сюда это слово) именно математическая импровизация, и никак по другому решение таких задач назвать не могу, построение архитектуры, написание языков, все это — интуитивный импровизационный интеллект до которого ржавым ведрам, аля нейронки пока столько топать, нет формализованных признаков решения .. ) Отсюда нет формаолизованных признаков развития его .. и критериев принятия решения соответственно.
S>Фактически, это опять "у нас тут есть экскаватор, но т.к. мы пока не понимаем всех его последствий, копать яму будем по-прежнему мотыгой".
А может летать будем в "космос " в интеллектуальный космос ..? Или как на ферари ... или формула 4. Я думаю нормально все будет с ИИ. )) никакой сингулярности, это-же просто бомбезно ) не ощущаете ..?
П.С. Я почувствовал некоторую даже ненависть к позициям отрицатели науки, так это-же диалектика, надо просто растолковать людям как и где ее применять, в ИИ диалектика слишком дорога и неприменима. И тут к вам получилось нечто логика лок фри, когда один поток помагает доделать работу второму потоку, мы смэтчились (экскаватор и т.д). Но в целом есть некая усовершенствованная как оказалось доктрина Хомского. Есть ощущение, что язык движимый человечеством в целом обладает некоторой интуитивной полнотой, откуда можно черпать более тонкие связи своего рода датамайнинг.
Вообще наиболее практически применимое и даже с коммерческим применением есть — предметно ориентированные нейронки. могу по степам рассказать, что именно надо сделать, чтобы сделать первые шаги по добавлению такого свойства интеллекта как язык.
Что касается псевдонаучности в генерации, генеративные грамматики и способы генерации текстов уже с помощью ботов не вызывает интереса, собственно для NLP сами чат боты не есть нечто интересное, так просто бла бла, да поиск. Но NLP в мире, это нечто более фундаметальное, тот же сентимент анализ, это совсем другое. Там люди пишут, машины ... люди на машинах — вот видится следующая итерация, после этого можно будет говорить об ИИ
Здравствуйте, sept_tone, Вы писали:
_> Так возможно понять, что под сингулярностью подразумевается непревзойденная умность машины? А вот импровизация на контробассе в джазе, это умно? Если гениально, допустим вариация на 24 каприз паганини ?
Да, именно непревзойдённая умность машины при решении открытых задач. В частности — джаз-импровизация на контрабасе. _> Сложно что-то тут возразить, или поддержать. Как IQ вообще с мышлением связан? А никак ...
Ну, косвенно всё-таки да. То есть есть мнение, что мы можем разработать тупой решатель IQ-тестов безо всякого интеллекта, который будет более-менее мгновенно разбирать все эти стандартные задачи.
При этом он не сможет решить задачу вроде "летели два крокодила, один зелёный, другой на юг; сколько мне будет лет, если отвинтить контрагайку от пылесоса?"
Но в общем случае, если мы разработаем супер-ИИ, то одним из частных проявлений его превосходства должно быть и решение IQ-тестов.
_>Кроме того, решение NP-полных задач также не является собственно признаком сингулярности. Это я так понял, что ИИ станет "умнее" человека, равно как и экскаватор сильнее человека.
NP-полнота является лишь примером того, что не обязательно уметь решать задачу для того, чтобы проверять чужое решение.
_> Пока у ИИ нет своего языка, это врядли можно считать расчетами интеллектуальными, этакая аппроксимация на кофейной гуще. Векторизация слов вообще методика слабо напоминающая интеллектуальные системы. Вы обсуждаете не интеллект, а вычислительные машины, и способность их что-то посчитать лучше человека. НУ логика ясна, но это не об ИИ. ни о первом, ни о втором порядке.
Я не понимаю, какое отношение "свой" или "не свой" язык имеет к интеллекту. Рассуждения о силе ИИ подразумевают, что он будет превосходить ЕИ во всём.
Естественный интеллект способен распознавать естественные и искусственные языки и с разным успехом делать переводы с одного на другой. Векторизация слов — это вообще какая-то частная задача низкого уровня. Вроде "отличать объект от его отражения при анализе визуального сигнала". Речь не о векторизации, а о способности решать открытые задачи.
_> Вот тут уже начинаются интересности. если оставить это "умнее", то проверить вычислительные системы построенные другими вычислительными системами, могут построенные вычислительными системами вычислительные системы для тестирования.
Для того, чтобы полагаться на результаты такого тестирования, нужно сначала каким-то образом проверить корректность тестирующих систем.
Классика жанра: допустим, мы разработали автоматический верификатор корректности программ. Чтобы быть уверенным, что он никогда не принимает некорректную программу за корректную, нам нужно уметь доказывать корректность самого верификатора. Допустим, мы делаем это, запуская верификатор на самом себе. Если он сообщает об ошибке, то в нём определённо есть баг: либо он верно нашёл ошибку в своём коде (и просто она не "сработала" при анализе на самом себе), либо он не смог найти реальную ошибку, но неверно опроверг корректность какого-то корректного фрагмента.
А вот если он сообщает о том, что ошибки нет, то он запросто может содержать ошибку — в частности такую, которая не даёт ему найти именно эту ошибку в своём коде.
_>Я уже предлагаю гораздо более широкий сегмент покрытия проверками путей следования развития ИИ, причем именно уже ИИ, со своим языком. Т.к стейт той-же нейронки таки можно будет читать в языке, да ЧИТАТЬ, способы есть.
ИИ не эквивалентен "нейронкам". Почему вы думаете, что сингулярность (построение сильного ИИ) будет хоть как-то связана с нейронками?
_> Я вот по аналогии логик первого и второго порядка могу спросить, для чего логика развивается понятно. Что такого произведенного одним ИИ ИИ2 должен привнести?
Должен решать ещё более широкий класс задач, и ещё быстрее, чем ИИ1.
_>Есть подозрение, что ИИ первого порядка вас не устраивает по каким либо причинам. Это причина создание его человеком?
Эмм, ход рассуждений у нас такой: либо у нас существует точный верхний предел "мощности ИИ", либо его не существует.
Если предел существует, то мы рано или поздно построим ИИ, мощность которого равна этому верхнему пределу, и совершенствовать его будет уже некуда. Доказать существование такого предела пока что не представляется возможным, поэтому дальнейшие рассуждения мы делаем в предположении о том, что для любого интеллекта ИИ1 может существовать превосходящий его ИИ2.
Если у нас есть способ построить ИИ2 без помощи ИИ, то мы можем просто выбросить ИИ1 из рассуждения как неинтересный.
За ИИ1 мы просто обозначим тот максимально мощный ИИ, который мы способны самостоятельно построить в пределах отведённых нам ресурсов.
И тогда логичным следующим шагом будет привлечение этого ИИ1 к проектированию ИИ2 — ведь он превосходит нас в любой открытой задаче. В частности, и в проектировании ИИ тоже.
_> Странно )) т.е. подрывающиеся градиенты для вас не показатель опасности? Кажется этаким пустячком? Это фундаментальная проблема рекуррентных нейронных сетей, да и вообще в целом рекуррентных алгоритмов в НЛП системах. (а, честно все, что до сих пор происходило, это не ИИ, это навороченные вычислительные алгоритмы)
Вы опять смотрите в какие-то низкоуровневые подробности. Почему вы думаете, что ИИ-сингулярность будет сводиться к рекуррентным алгоритмам в NLP-системах?
С точки зрения естественных наук, то, что происходит в человеческом мозгу — это не интеллект, а навороченные вычислительные алгоритмы. Нет никаких признаков того, что в мозгу работает какая-то другая математика, чем в Машине Тьюринга.
_> )) мысленные эксперименты на выдуманных примерах, не есть подходящее тестирование.
Пока что мы не проводим никакое тестирование. Мы только рассуждаем о том, как можно было бы такое тестирование организовать.
_>Хотите мысленный эксперимент ..давайте Uber. И инфраструктурные объекты, и модифицированный ирония судьбы )) А че нам ) это же АИ. _>Женя нового бота, притащила домой проинсталлила и решила заказать с его помощью Uber такси. Сказала так
И что?
_> Вы уверены, что в курсе как работает наш интеллект ? Быть может тупость и лень, как раз спасает от безумия при решении сложных задач моделирования, импровизации (вот не могу не притащить сюда это слово) именно математическая импровизация, и никак по другому решение таких задач назвать не могу, построение архитектуры, написание языков, все это — интуитивный импровизационный интеллект до которого ржавым ведрам, аля нейронки пока столько топать, нет формализованных признаков решения .. ) Отсюда нет формаолизованных признаков развития его .. и критериев принятия решения соответственно.
У меня есть упрощённая модель работы нашего интеллекта. Но это совершенно неважно — модель может быть любой, не только той, которую мысленно представил себе я.
А вы опять сваливаетесь в обсуждение нейронок и их ограничений. _> А может летать будем в "космос " в интеллектуальный космос ..? Или как на ферари ... или формула 4. Я думаю нормально все будет с ИИ. )) никакой сингулярности, это-же просто бомбезно ) не ощущаете ..?
Я тоже думаю, что с ИИ всё будет нормально. Вопрос только в том — а как мы, люди, будем с этим ИИ взаимодействовать?
Это же в некотором смысле гораздо хуже культурного шока при встрече каких-нибудь дикарей с цивилизованным человеком.
Потому что дикарь может непосредственно наблюдать практическое превосходство цивилизации — просто посмотрев на артефакты, произведённые в цивилизации. Ну, то есть понятно, что дикарь, возможно, владеет некоторыми навыками, которых у конкретного цивилизованного человека нет — но цивилизованный человек выигрывает за счёт более совершенных моделей мира. Допустим, дикарь умеет ловко поймать рыбу при помощи дротика, чего не сможет цивилизованный человек. Но цивилизованный человек может понять, как это сделал дикарь. Зато дикарь не в курсе, к примеру, принципа работы безынерционной катушки — при помощи которой цивилизованный человек забрасывает спиннинг дальше, чем долетит любой дротик дикаря. А если такой способ рыбной ловли не выиграет — выиграет бросок динамита в водоём. Дикарю, чтобы понять принцип работы динамита, придётся осваивать физику и химию, которые гораздо сложнее, чем его бытовые представления об устройстве мира.
Но при этом у дикаря есть хотя бы уверенность в том, что он на это способен — у него такой же мозг, как у цивилизованного человека. Если отправить дикаря в школу, университет, и научную лабораторию, он добьётся сопоставимых результатов — именно потому, что инструмент у него такой же.
А когда мы говорим про супер-ИИ, то мы говорим о другом инструменте. Есть шанс, что разработанные таким ИИ теории будут понятны человеку. Но гарантии — нет.
Мы можем оказаться в положении тех самых дикарей, которые научились пользоваться спичками и динамитом, на уровне "вот тут чиркать, вот сюда подносить, вот это нельзя трясти и ронять".
Но при этом обученный таким способом дикарь не сможет сам изготовить ни спички, ни динамит. И даже если его научить изготавливать то и другое (там, в конце концов, технология не шибко запредельная), то он не сможет сам придумывать новые аналоги тех же спичек и динамита.
И вот мы, при общении с таким ИИ, можем упереться в то, что мы получаем какие-то рецепты, решения задач, при этом не просто не понимая, как эти решения получены, но будучи лишены даже надежды это понять. По причинам нашей интеллектуальной ограниченности.
_>Вообще наиболее практически применимое и даже с коммерческим применением есть — предметно ориентированные нейронки. могу по степам рассказать, что именно надо сделать, чтобы сделать первые шаги по добавлению такого свойства интеллекта как язык.
Если вас интересуют практические, а не философские вопросы, то надо и заниматься практикой, а не философией. Show me the code. Не рассказывайте мне про первые шаги — просто сделайте эти шаги, и покажите результат.
Иначе всё это изоморфно сайтам про "заработок в интернете".
Уйдемте отсюда, Румата! У вас слишком богатые погреба.
Здравствуйте, Sinclair, Вы писали:
S>Вы опять смотрите в какие-то низкоуровневые подробности. Почему вы думаете, что ИИ-сингулярность будет сводиться к рекуррентным алгоритмам в NLP-системах?
S>С точки зрения естественных наук, то, что происходит в человеческом мозгу — это не интеллект, а навороченные вычислительные алгоритмы. Нет никаких признаков того, что в мозгу работает какая-то другая математика, чем в Машине Тьюринга.
С точки зрения нейробиологии, происходящее в нашем мозге не имеет ни малейшего отношения к вычислениям, там вообще сплошной морфогенез и прочие прелести, весьма далекие от этих электронно вычислительных погремушек.
Здравствуйте, Sinclair, Вы писали:
S>Здравствуйте, sept_tone, Вы писали:
_>> Так возможно понять, что под сингулярностью подразумевается непревзойденная умность машины? А вот импровизация на контробассе в джазе, это умно? Если гениально, допустим вариация на 24 каприз паганини ? S>Да, именно непревзойдённая умность машины при решении открытых задач. В частности — джаз-импровизация на контрабасе.
Видите ли композиция вообще не есть задачей, как и импровизация, более того это совсем не формализованная область. Интересно, каким образом ИИ будет понимать, что оно движется в правильном направлении, если понять почему бемша свинг гениально — неформальная задача, от слова совсем. Программы генирирующие ноты в стиле чарли паркера, или Колтрейна под заданную гармонию — вещь примтивная до нельзя, это не умность .., они были еще лет 13 назад. и ничего умнее машина пока теоритически сделать не сможет. есть у меня идея как таки можно что-то попытаться сделать, но то тоже хаккинг, а не фундаментальное понимание. Гармонии, т.к. даже те-же ноты могут быть разными, и человек довольно адаптивно может понимать композицию как таковую, .. причем абсолютно без формальных признаков как таковых.
_>> Сложно что-то тут возразить, или поддержать. Как IQ вообще с мышлением связан? А никак ... S>Ну, косвенно всё-таки да.
т.е. нет. Мне интересно понять, где вычислительная машина вдруг стала называться интеллектуальной? я вот не помню, чтобы кто спрашивал тест айку для прохождение допустим в ..серьезные так скажем проекты.
S>То есть есть мнение, что мы можем разработать тупой решатель IQ-тестов безо всякого интеллекта, который будет более-менее мгновенно разбирать все эти стандартные задачи. S>При этом он не сможет решить задачу вроде "летели два крокодила, один зелёный, другой на юг; сколько мне будет лет, если отвинтить контрагайку от пылесоса?"
я думаю, эта задача для NLP системы не сложна. Летающие крокодилы — вертолеты, понятно какие. Один зеленый — норм, второй на Юг, очевидно в этом контексте нужно определить одному цвет — второму направление, никаких противорчий. А лет будет тебе столько в зависимости от того на каком вертолете ты полетишь, и когда его собьют. Собственно какие тут проблемы для NLP задачи ...гораздо сложнее убедить ИИ, что он есть.
S>Но в общем случае, если мы разработаем супер-ИИ, то одним из частных проявлений его превосходства должно быть и решение IQ-тестов.
ну и ладно — непонятная задача, непонятно для чего .. решайте. Только вот ничего убедительного в этом я лично не вижу.
_>>Кроме того, решение NP-полных задач также не является собственно признаком сингулярности. Это я так понял, что ИИ станет "умнее" человека, равно как и экскаватор сильнее человека. S>NP-полнота является лишь примером того, что не обязательно уметь решать задачу для того, чтобы проверять чужое решение.
ну значит я не совсем понял контекст. "не обязательно уметь, чтобы учить" — известный принцип. Хотя заметил так-же, что уметь все-же лучше, но то у людей, где интуитика развита
_>> Пока у ИИ нет своего языка, это врядли можно считать расчетами интеллектуальными, этакая аппроксимация на кофейной гуще. Векторизация слов вообще методика слабо напоминающая интеллектуальные системы. Вы обсуждаете не интеллект, а вычислительные машины, и способность их что-то посчитать лучше человека. НУ логика ясна, но это не об ИИ. ни о первом, ни о втором порядке.
S>Я не понимаю, какое отношение "свой" или "не свой" язык имеет к интеллекту. Рассуждения о силе ИИ подразумевают, что он будет превосходить ЕИ во всём.
Самое непосредственное, просто признак интеллекта и есть — наличие языка, просто предлагается делать его управляющим, в том числе для решения естесственных задач. NLP, music ..art, финансы, юриспруденция. И вот чем дальше к естесственности, тем сам процесс "превосходства во всем", от жестянки не могущей с уверенностью заключить свое собственное существование )
S>Естественный интеллект способен распознавать естественные и искусственные языки и с разным успехом делать переводы с одного на другой. Векторизация слов — это вообще какая-то частная задача низкого уровня. Вроде "отличать объект от его отражения при анализе визуального сигнала". Речь не о векторизации, а о способности решать открытые задачи.
Вот этот соревновательный запал, он по моему не к месту ))
Но векторизация слов — вещь фундаментальные для nlp ИИ. А наличие языка у самого ИИ и является признаком его интеллекта, почему ? Да потому, что рассуждения построенные сейчас в нейронных вычислениях и так уже можно называть языком с довольно сложным представлением, но которые не применимы к классу задач именно интеллекта. Не айку, не поиска гипотез и доказательств — это задачи вычислительных машин, а не ИИ. Интеллектуальность нечто иное ...
_>> Вот тут уже начинаются интересности. если оставить это "умнее", то проверить вычислительные системы построенные другими вычислительными системами, могут построенные вычислительными системами вычислительные системы для тестирования.
S>Для того, чтобы полагаться на результаты такого тестирования, нужно сначала каким-то образом проверить корректность тестирующих систем.
Вероятно, но мы пользуемся разными средствами, и без тестирования тестирующих систем, ..примерно как нет необходимости вводить лоику выше второго порядка.
S>Классика жанра: допустим, мы разработали автоматический верификатор корректности программ. Чтобы быть уверенным, что он никогда не принимает некорректную программу за корректную, нам нужно уметь доказывать корректность самого верификатора.
Так в ИИ разработка сейчас идет сршенно другими методиками. Доказательные языки одно из перспективных направлений, могущих серьезно повлиять на ИИ. Если мне правильно видится, то аджоинтизированные языки начнутся именно отсюда.
S>Допустим, мы делаем это, запуская верификатор на самом себе. Если он сообщает об ошибке, то в нём определённо есть баг: либо он верно нашёл ошибку в своём коде (и просто она не "сработала" при анализе на самом себе), либо он не смог найти реальную ошибку, но неверно опроверг корректность какого-то корректного фрагмента. S>А вот если он сообщает о том, что ошибки нет, то он запросто может содержать ошибку — в частности такую, которая не даёт ему найти именно эту ошибку в своём коде.
Все таки мы немного о разном говорим.
1. меня заинтересовала тема сингулярности, не потому что вы с какого-то мотива решили, что умение доказывать теоремы и есть умность. Она заинтересовала меня именно потому, что современная логика требует ретроспективного, или дедуктивного, или как аджоинт в реверс моде, коррекции я бы так сказал. А это временные движения, т.е. анализируется то, что было. Причем довольно интересно ..вот вы говорите низкий уровыень, да мне просто известен практически весь стек, потому я и рассуждаю с точки зрения реального ИИ, и реального языки для ИИ (NLP), могу и контору, и язык назвать.
2. Мы начали запускать логику процесса во все стороны, именно во времени. Ткскть концепция временных скачков от forward в reverse, т.е. со степенью свободы во времени большей чем человек может позволить своему телу. Но алгоритмически мы уже думаем в разных направлениях, что несказанно преобразовало видимость процесса собственно "мышления", вот о чем я подумал кинувшись на эту тему. А дискуссий .. как-то они все неплодотворны.
_>>Я уже предлагаю гораздо более широкий сегмент покрытия проверками путей следования развития ИИ, причем именно уже ИИ, со своим языком. Т.к стейт той-же нейронки таки можно будет читать в языке, да ЧИТАТЬ, способы есть. S>ИИ не эквивалентен "нейронкам". Почему вы думаете, что сингулярность (построение сильного ИИ) будет хоть как-то связана с нейронками?
я знаю штук несколько разных архитектур для ИИ, и безнейронные в том числе ( там где писал один язык для ИИ) (и сейчас думаю второй, вернее думаю систему). Так, что тут как говорится я не знаю, что вы подразумеваете думаете за ИИ .. но пока я не совсем определился. Со своей стороны я указывал прецендентарное можно даже прочитать, прецендент развала ИИ свойственен и нейронно ориентированным NLP системам, как и грамматико ориентированным. Причем, вот роботы в разработке участвуют уже давно, роботизированные генераторы так точно, можно считать это участием одного ИИ в разработке второго?
_>> Я вот по аналогии логик первого и второго порядка могу спросить, для чего логика развивается понятно. Что такого произведенного одним ИИ ИИ2 должен привнести? S>Должен решать ещё более широкий класс задач, и ещё быстрее, чем ИИ1.
Даже если задачи нет?
_>>Есть подозрение, что ИИ первого порядка вас не устраивает по каким либо причинам. Это причина создание его человеком? S>Эмм, ход рассуждений у нас такой: либо у нас существует точный верхний предел "мощности ИИ", либо его не существует. S>Если предел существует, то мы рано или поздно построим ИИ, мощность которого равна этому верхнему пределу, и совершенствовать его будет уже некуда. Доказать существование такого предела пока что не представляется возможным, поэтому дальнейшие рассуждения мы делаем в предположении о том, что для любого интеллекта ИИ1 может существовать превосходящий его ИИ2.
Т.е. формальных параметров посчитать, по каким же критериям оценивается "превосходящий" нет, а превосходство таки есть. S>Если у нас есть способ построить ИИ2 без помощи ИИ, то мы можем просто выбросить ИИ1 из рассуждения как неинтересный. S>За ИИ1 мы просто обозначим тот максимально мощный ИИ, который мы способны самостоятельно построить в пределах отведённых нам ресурсов. S>И тогда логичным следующим шагом будет привлечение этого ИИ1 к проектированию ИИ2 — ведь он превосходит нас в любой открытой задаче. В частности, и в проектировании ИИ тоже.
_>> Странно )) т.е. подрывающиеся градиенты для вас не показатель опасности? Кажется этаким пустячком? Это фундаментальная проблема рекуррентных нейронных сетей, да и вообще в целом рекуррентных алгоритмов в НЛП системах. (а, честно все, что до сих пор происходило, это не ИИ, это навороченные вычислительные алгоритмы) S>Вы опять смотрите в какие-то низкоуровневые подробности. Почему вы думаете, что ИИ-сингулярность будет сводиться к рекуррентным алгоритмам в NLP-системах?
Это просто опять вы с чего-то решили, что я подразумеваю только нейронки.
S>С точки зрения естественных наук, то, что происходит в человеческом мозгу — это не интеллект, а навороченные вычислительные алгоритмы. Нет никаких признаков того, что в мозгу работает какая-то другая математика, чем в Машине Тьюринга.
Я, знаете, не хочу скатываться в соревнования и определение того, как думает мозг .. или человек. А тем паче, что лучше, что хуже .. это контрпродуктивно. Меня волнует процессинг, и какая другая математика ? Математика она вообще уже сама по себе везде — другая, как и всегда в науке. Одному линейную алгебру и численные методы надо знать идеально, а второму грамматики, теорию алгоритмов и квантовый исчисления И оба в АИ.. Кстати, вот как раз тут и есть о чем поговорить в архитектуре принятия решения при достижении пороговых переходов, уже очень напоминает статус "неопределенности".
_>> )) мысленные эксперименты на выдуманных примерах, не есть подходящее тестирование. S>Пока что мы не проводим никакое тестирование. Мы только рассуждаем о том, как можно было бы такое тестирование организовать.
Это вы не проводите, а мы рельсы уже пишем для определения развития ИИ, понимания где мы находимся, в )) интересном стиле. Ах да, есть еще сильные утверждения, и логика которая используется для построения рассуждающего в языке ИИ, вернее могущий передавать и получать управление на языке.
_>>Хотите мысленный эксперимент ..давайте Uber. И инфраструктурные объекты, и модифицированный ирония судьбы )) А че нам ) это же АИ. _>>Женя нового бота, притащила домой проинсталлила и решила заказать с его помощью Uber такси. Сказала так S>И что?
Я не дописал сорри ) позже ..
S>У меня есть упрощённая модель работы нашего интеллекта. Но это совершенно неважно — модель может быть любой, не только той, которую мысленно представил себе я. S>А вы опять сваливаетесь в обсуждение нейронок и их ограничений.
"Аля" означает как раз таки не только нейронки ..
_>> А может летать будем в "космос " в интеллектуальный космос ..? Или как на ферари ... или формула 4. Я думаю нормально все будет с ИИ. )) никакой сингулярности, это-же просто бомбезно ) не ощущаете ..? S>Я тоже думаю, что с ИИ всё будет нормально. Вопрос только в том — а как мы, люди, будем с этим ИИ взаимодействовать?
Да также как и сейчас с компиляторами )) он умный, жежь. Иногда и понять, что хочет сложно .. но всегда возможно. Ну, а дальше все как в software, single responsibility ну и дальше по тексту. Коллективный АИ запустим
S>Это же в некотором смысле гораздо хуже культурного шока при встрече каких-нибудь дикарей с цивилизованным человеком. S>Потому что дикарь может непосредственно наблюдать практическое превосходство цивилизации — просто посмотрев на артефакты, произведённые в цивилизации. Ну, то есть понятно, что дикарь, возможно, владеет некоторыми навыками, которых у конкретного цивилизованного человека нет — но цивилизованный человек выигрывает за счёт более совершенных моделей мира. Допустим, дикарь умеет ловко поймать рыбу при помощи дротика, чего не сможет цивилизованный человек. Но цивилизованный человек может понять, как это сделал дикарь. Зато дикарь не в курсе, к примеру, принципа работы безынерционной катушки — при помощи которой цивилизованный человек забрасывает спиннинг дальше, чем долетит любой дротик дикаря. А если такой способ рыбной ловли не выиграет — выиграет бросок динамита в водоём. Дикарю, чтобы понять принцип работы динамита, придётся осваивать физику и химию, которые гораздо сложнее, чем его бытовые представления об устройстве мира. S>Но при этом у дикаря есть хотя бы уверенность в том, что он на это способен — у него такой же мозг, как у цивилизованного человека. Если отправить дикаря в школу, университет, и научную лабораторию, он добьётся сопоставимых результатов — именно потому, что инструмент у него такой же. S>А когда мы говорим про супер-ИИ, то мы говорим о другом инструменте. Есть шанс, что разработанные таким ИИ теории будут понятны человеку. Но гарантии — нет. S>Мы можем оказаться в положении тех самых дикарей, которые научились пользоваться спичками и динамитом, на уровне "вот тут чиркать, вот сюда подносить, вот это нельзя трясти и ронять". S>Но при этом обученный таким способом дикарь не сможет сам изготовить ни спички, ни динамит. И даже если его научить изготавливать то и другое (там, в конце концов, технология не шибко запредельная), то он не сможет сам придумывать новые аналоги тех же спичек и динамита. S>И вот мы, при общении с таким ИИ, можем упереться в то, что мы получаем какие-то рецепты, решения задач, при этом не просто не понимая, как эти решения получены, но будучи лишены даже надежды это понять. По причинам нашей интеллектуальной ограниченности.
Коллективный разум никто не отменял, мы часто так код пишем, причем часто куда сложнее нашего понимания о нем, бывает ведь. Главное функторы иметь для беготни между категоиями, и трансляторы .. 2 лярда человек смогут понять примерно упрощенные формы. Но и вообще не беда ведь. Я сижу на стуле на своей простите кхм, и полностью об устройстве этой части своего организма даже не догадываюсь ))
Но вообще, Вы, Sinclair интересный человек. Вот в то, что человек таки сможет наработать практики, и будет понимать, что происходит в ИИ не верите, переживаете. А в то, что эти же люди от балды наколбасили веса, входные параметры, прикутили аджоинт повыносили возможность настраивать нейроны .. и все от балды, и оно заработает (я не имею в виду формальные системы в которых и так относительно просто читать), и будет работать превзойдя на порядки человека — верите. А еще верите в то, что человеческий мозг прост, ну а как вы даже думаете, что мир прост. Это правда интересно, сразу почему-то Булгаков вспомниился .. на Патриаржих прудах
_>>Вообще наиболее практически применимое и даже с коммерческим применением есть — предметно ориентированные нейронки. могу по степам рассказать, что именно надо сделать, чтобы сделать первые шаги по добавлению такого свойства интеллекта как язык. S>Если вас интересуют практические, а не философские вопросы, то надо и заниматься практикой, а не философией. Show me the code. Не рассказывайте мне про первые шаги — просто сделайте эти шаги, и покажите результат.
вообще, я беслатно уже показал результат — есть доказанный факт подрыва 1.5 метрового выражения (энтити), 30 символьной рандомной строкой ..я писал — там где-то ниже. в других тредах, это относится не только к нейронкам, т.к. прецендент был именно на безнейронных. (я досканально знаю этот вопрос, т.к. именно я это делал, и тот компилятор переделывал под наши нужды, достаточно плотно)..вам код показать ) ну есть в опенсорс код аджоинтизации квантлиба, тоже .. "результат".
1. степ нейорнка же как-то связано с аджоинтом, в любом случае.
если брать те-же мат модели в квантлибе, в форварде нейронка учится в реверсе по аджоинту — в общем, то уже действителньто детали.
Я лишь сккзал, что у меня она есть как идея, а их есть у меня и куда я рванусь и как, еще не решил. И бду — ли рваться. Может просто контробас ... )
S>Иначе всё это изоморфно сайтам про "заработок в интернете".
) ну тогда я получал 2800 УЕ, когда за две недели доказал экспоненциальный взрыв. И комплиятор практически переписал, во всяком случае корных частей ..парсеров и т.д. рантайм модели.
сейчас есть идея как делать, пишу же сие разсуждения ради ..интересно.
Здравствуйте, 4058, Вы писали: 4>С точки зрения нейробиологии, происходящее в нашем мозге не имеет ни малейшего отношения к вычислениям, там вообще сплошной морфогенез и прочие прелести, весьма далекие от этих электронно вычислительных погремушек.
Эмм, "вычисления" и "электронно-вычислительные погремушки" очень косвенно связаны между собой.
Смотреть надо не на элементную базу, а на математику.
А в математике "вычисление" не только не эквивалентно вычислениям в ЭВМ, оно даже не обязательно выражено в абстрактно-императивных терминах вроде машины Тьюринга.
Но у нас есть формальное доказательство взаимного соответствия между всеми достаточно выразительными формализмами вычислений.
И есть неформальный тезис Чёрча, который делает ещё более сильное утверждение.
Поэтому то, что происходит в мозгу, вполне себе имеет отношение к вычислениям, даже если там нет никакого фон Неймана, или Тьюринга, или Чёрча.
Уйдемте отсюда, Румата! У вас слишком богатые погреба.