Сообщение Re: Что изучать в IT (инвестиция времени)? от 23.03.2023 16:12
Изменено 23.03.2023 16:22 vsb
Re: Что изучать в IT (инвестиция времени)?
На текущий момент очевидные проблемы с ИИ:
1. У него нет никакого цикла взаимодействия. Только через человека. Если я ему копирую выхлоп компилятора, ну очевидно, что проблема с реализацией. Но в принципе это больше вопрос инструментария, понятно, что реализовать это не должно быть сложно.
2. У него нет системного мышления. Как бы крут он ни был, это по прежнему гуманитарный инструмент. Если я пишу скрипт, я проверяю каждую команду на целевой системе, я проверяю маны. Если я пишу для OpenBSD, я на каждом C-шном вызове перечитываю ман, хотя и знаю в целом, что он делает. Если он пишет код, он его пишет исходя из общих соображений. В целом это тоже связано с первой проблемой.
3. У него нет со-процессоров. GPT3 порой выдавал неправильные ответы на банальные арифметические выражения. Такого не должно быть возможно. Должен быть арифметический сопроцессор. Должен быть логический сопроцессор (для рассуждений). У него под рукой должен быть запущенный питон, к примеру, на котором он может посчитать и перепроверить ответ на задачу.
4. Нужен возможность управления интерфейсами. Он должен уметь пользоваться всеми программами, которыми могу пользоваться я. Заходить и ориентироваться на любом сайте в поиске информации.
Все эти пункты выглядят решаемыми. Но всё же это будет не завтра и не через год.
Что пока не очевидно — выглядит ли решаемым — любая задача, аналогов которой не было. Согласен с тобой, ты про это и пишешь. К примеру я пишу веб-приложение, но решил отказаться от некоторых популярных библиотек и написал им замену. Думаю, ИИ этого делать бы не стал. Всё же на текущий момент он решает задачи методом средней температуры по больнице. Средняя температура по больнице это использование популярных библиотек.
Но я даже сам не готов утверждать, правильно ли то, что я в данном случае велосипедю. Я, конечно, считаю, что правильно, но в целом вопрос спорный и используя всё стандартное, результат получится не особо хуже.
Хотя я и с gyraboo согласен. Прогресс настолько стремителен, что делать какие-то предсказания сейчас — дело неблагодарное. Это рассуждения о толщине слоя навоза. Я уже вполне всерьёз допускаю создание сильного ИИ в ближайшие 10-20 лет, что однозначно сделает все профессии умственного труда бесполезными.
1. У него нет никакого цикла взаимодействия. Только через человека. Если я ему копирую выхлоп компилятора, ну очевидно, что проблема с реализацией. Но в принципе это больше вопрос инструментария, понятно, что реализовать это не должно быть сложно.
2. У него нет системного мышления. Как бы крут он ни был, это по прежнему гуманитарный инструмент. Если я пишу скрипт, я проверяю каждую команду на целевой системе, я проверяю маны. Если я пишу для OpenBSD, я на каждом C-шном вызове перечитываю ман, хотя и знаю в целом, что он делает. Если он пишет код, он его пишет исходя из общих соображений. В целом это тоже связано с первой проблемой.
3. У него нет со-процессоров. GPT3 порой выдавал неправильные ответы на банальные арифметические выражения. Такого не должно быть возможно. Должен быть арифметический сопроцессор. Должен быть логический сопроцессор (для рассуждений). У него под рукой должен быть запущенный питон, к примеру, на котором он может посчитать и перепроверить ответ на задачу.
4. Нужен возможность управления интерфейсами. Он должен уметь пользоваться всеми программами, которыми могу пользоваться я. Заходить и ориентироваться на любом сайте в поиске информации.
Все эти пункты выглядят решаемыми. Но всё же это будет не завтра и не через год.
Что пока не очевидно — выглядит ли решаемым — любая задача, аналогов которой не было. Согласен с тобой, ты про это и пишешь. К примеру я пишу веб-приложение, но решил отказаться от некоторых популярных библиотек и написал им замену. Думаю, ИИ этого делать бы не стал. Всё же на текущий момент он решает задачи методом средней температуры по больнице. Средняя температура по больнице это использование популярных библиотек.
Но я даже сам не готов утверждать, правильно ли то, что я в данном случае велосипедю. Я, конечно, считаю, что правильно, но в целом вопрос спорный и используя всё стандартное, результат получится не особо хуже.
Хотя я и с gyraboo согласен. Прогресс настолько стремителен, что делать какие-то предсказания сейчас — дело неблагодарное. Это рассуждения о толщине слоя навоза. Я уже вполне всерьёз допускаю создание сильного ИИ в ближайшие 10-20 лет, что однозначно сделает все профессии умственного труда бесполезными.
Re: Что изучать в IT (инвестиция времени)?
На текущий момент очевидные проблемы с ИИ:
1. У него нет никакого цикла взаимодействия. Только через человека. Если я ему копирую выхлоп компилятора, ну очевидно, что проблема с реализацией. Но в принципе это больше вопрос инструментария, понятно, что реализовать это не должно быть сложно.
2. У него нет системного мышления. Как бы крут он ни был, это по прежнему гуманитарный инструмент. Если я пишу скрипт, я проверяю каждую команду на целевой системе, я проверяю маны. Если я пишу для OpenBSD, я на каждом C-шном вызове перечитываю ман, хотя и знаю в целом, что он делает. Если он пишет код, он его пишет исходя из общих соображений. В целом это тоже связано с первой проблемой.
3. У него нет со-процессоров. GPT3 порой выдавал неправильные ответы на банальные арифметические выражения. Такого не должно быть возможно. Должен быть арифметический сопроцессор. Должен быть логический сопроцессор (для рассуждений). У него под рукой должен быть запущенный питон, к примеру, на котором он может посчитать и перепроверить ответ на задачу.
4. Нужен возможность управления интерфейсами. Он должен уметь пользоваться всеми программами, которыми могу пользоваться я. Заходить и ориентироваться на любом сайте в поиске информации. Если перед ним стоит задача написать программу для такого-то микроконтроллера, которая будет взаимодействовать с таким-то чипом, первое, что он должен сделать — найти в интернете спецификации последних версий и прочитать их, к примеру. И по мере работы автоматически перечитывать нужные места, если он будет забывать их.
Все эти пункты выглядят решаемыми. Но всё же это будет не завтра и не через год.
Что пока не очевидно — выглядит ли решаемым — любая задача, аналогов которой не было. Согласен с тобой, ты про это и пишешь. К примеру я пишу веб-приложение, но решил отказаться от некоторых популярных библиотек и написал им замену. Думаю, ИИ этого делать бы не стал. Всё же на текущий момент он решает задачи методом средней температуры по больнице. Средняя температура по больнице это использование популярных библиотек.
Но я даже сам не готов утверждать, правильно ли то, что я в данном случае велосипедю. Я, конечно, считаю, что правильно, но в целом вопрос спорный и используя всё стандартное, результат получится не особо хуже.
Хотя я и с gyraboo согласен. Прогресс настолько стремителен, что делать какие-то предсказания сейчас — дело неблагодарное. Это рассуждения о толщине слоя навоза. Я уже вполне всерьёз допускаю создание сильного ИИ в ближайшие 10-20 лет, что однозначно сделает все профессии умственного труда бесполезными.
1. У него нет никакого цикла взаимодействия. Только через человека. Если я ему копирую выхлоп компилятора, ну очевидно, что проблема с реализацией. Но в принципе это больше вопрос инструментария, понятно, что реализовать это не должно быть сложно.
2. У него нет системного мышления. Как бы крут он ни был, это по прежнему гуманитарный инструмент. Если я пишу скрипт, я проверяю каждую команду на целевой системе, я проверяю маны. Если я пишу для OpenBSD, я на каждом C-шном вызове перечитываю ман, хотя и знаю в целом, что он делает. Если он пишет код, он его пишет исходя из общих соображений. В целом это тоже связано с первой проблемой.
3. У него нет со-процессоров. GPT3 порой выдавал неправильные ответы на банальные арифметические выражения. Такого не должно быть возможно. Должен быть арифметический сопроцессор. Должен быть логический сопроцессор (для рассуждений). У него под рукой должен быть запущенный питон, к примеру, на котором он может посчитать и перепроверить ответ на задачу.
4. Нужен возможность управления интерфейсами. Он должен уметь пользоваться всеми программами, которыми могу пользоваться я. Заходить и ориентироваться на любом сайте в поиске информации. Если перед ним стоит задача написать программу для такого-то микроконтроллера, которая будет взаимодействовать с таким-то чипом, первое, что он должен сделать — найти в интернете спецификации последних версий и прочитать их, к примеру. И по мере работы автоматически перечитывать нужные места, если он будет забывать их.
Все эти пункты выглядят решаемыми. Но всё же это будет не завтра и не через год.
Что пока не очевидно — выглядит ли решаемым — любая задача, аналогов которой не было. Согласен с тобой, ты про это и пишешь. К примеру я пишу веб-приложение, но решил отказаться от некоторых популярных библиотек и написал им замену. Думаю, ИИ этого делать бы не стал. Всё же на текущий момент он решает задачи методом средней температуры по больнице. Средняя температура по больнице это использование популярных библиотек.
Но я даже сам не готов утверждать, правильно ли то, что я в данном случае велосипедю. Я, конечно, считаю, что правильно, но в целом вопрос спорный и используя всё стандартное, результат получится не особо хуже.
Хотя я и с gyraboo согласен. Прогресс настолько стремителен, что делать какие-то предсказания сейчас — дело неблагодарное. Это рассуждения о толщине слоя навоза. Я уже вполне всерьёз допускаю создание сильного ИИ в ближайшие 10-20 лет, что однозначно сделает все профессии умственного труда бесполезными.