Stack Overflow 200 тыс. -> 4 тыс. вопросов в месяц
От: Shmj Ниоткуда  
Дата: 05.01.26 05:46
Оценка:
Интересное к чему GPT-привел. Сам же обучился на SOF, но потом его и убил: https://habr.com/ru/news/982844/
=сначала спроси у GPT=
Re: Stack Overflow 200 тыс. -> 4 тыс. вопросов в месяц
От: dsorokin Россия  
Дата: 05.01.26 06:54
Оценка: +3
Здравствуйте, Shmj, Вы писали:

S>Интересное к чему GPT-привел. Сам же обучился на SOF, но потом его и убил: https://habr.com/ru/news/982844/


Не только дело в ИИ-агентах. Сейчас стагнация в области языков программирования еще. Rust — как глоток свежего воздуха, да и ему уже немало лет. Уже давно ничего особо интересного не замечал в области языков программирования. Нулевые и десятые — это была больше реализация тех идей, которые придумали в 20м веке, часто даже на рубеже 70-80х (для динамических языков) или 80-90х годов (для статических языков). В нулевые и десятые было доведение до ума, до рабочих решений. А вот что сейчас? Да и в том же Rust не особо и много нового придумали — скорее, удачно агрегировали, скомпилировали то, чтобы было уже придумано. Сейчас такая стадия развития, когда доводят до ума то, что было заложено ранее. Или просто новые прорывные идеи пока не популярны, пока не показали себя.

Поэтому откуда взяться новым вопросам на SOF, если новых идей особо-то и не появляется?

Да и основные технологии почти не меняются. Либо набившая оскомину Java, либо такой же .NET, либо такие же C++, либо вытеснивший всех других из браузера JavaScript-победитель, либо опять этот питон... А объем легаси такой, что этих монстров вряд ли на что-то другое будут менять — экономически нецелесообразно. А развивать их трудно — слишком большой груз прошлых ошибок
Re: Stack Overflow 200 тыс. -> 4 тыс. вопросов в месяц
От: Anton Batenev Россия https://github.com/abbat
Дата: 05.01.26 19:47
Оценка:
Здравствуйте, Shmj, Вы писали:

S> Интересное к чему GPT-привел. Сам же обучился на SOF, но потом его и убил: https://habr.com/ru/news/982844/


И это хорошо. Надеюсь SO очень скоро совсем будет закрыт и новые модели будут обучаться на чем-то менее галлюциногенном.
Re: Stack Overflow 200 тыс. -> 4 тыс. вопросов в месяц
От: qqqqq  
Дата: 05.01.26 20:59
Оценка:
Когда полезная инфа от людей иссякнет, чаты начнут постить вопросы и отвечать друг другу в so, Reddit... чтобы продолжить обучаться?
Re[2]: Stack Overflow 200 тыс. -> 4 тыс. вопросов в месяц
От: sergii.p  
Дата: 08.01.26 10:26
Оценка:
Здравствуйте, dsorokin, Вы писали:

D>Поэтому откуда взяться новым вопросам на SOF, если новых идей особо-то и не появляется?


сейчас почти каждый язык каждые пару лет выпускает новую версию. Может кардинально новых идей и не так много, но синтаксис меняется довольно активно. А SO — должен помереть именно из-за ИИ. Все эксперты SO раньше фактически работали как агрегаторы информации: где-то находили информацию, обрабатывали и выдавали в форме ответов. Это и ИИ делает приемлемо. А для пищи любому ИИ достаточно статьи с обзорами новых фич языка. У тонн мусора на SO ценность сомнительная.
Re: Stack Overflow 200 тыс. -> 4 тыс. вопросов в месяц
От: paucity  
Дата: 08.01.26 12:19
Оценка: +2
Здравствуйте, Shmj, Вы писали:

Там же прям вначале статьи:

... нейросети скорее стали последним гвоздем в крышку гроба платформы.
Атмосфера начала меняться еще в 2014 году, когда Stack Overflow "улучшил эффективность модерации" ...

Многие и рады были бы испытать когнитивный диссонанс, но нечем.
Re[2]: Stack Overflow 200 тыс. -> 4 тыс. вопросов в месяц
От: Skorodum Россия  
Дата: 08.01.26 12:48
Оценка:
Здравствуйте, Anton Batenev, Вы писали:

AB>И это хорошо. Надеюсь SO очень скоро совсем будет закрыт и новые модели будут обучаться на чем-то менее галлюциногенном.

Я бы не был так уверен насчет "менее", люди специально генерят бред для обучения ИИ: Poison Fountain
Re[3]: Stack Overflow 200 тыс. -> 4 тыс. вопросов в месяц
От: dsorokin Россия  
Дата: 08.01.26 13:16
Оценка: +1
Здравствуйте, sergii.p, Вы писали:

SP>сейчас почти каждый язык каждые пару лет выпускает новую версию. Может кардинально новых идей и не так много, но синтаксис меняется довольно активно. А SO — должен помереть именно из-за ИИ. Все эксперты SO раньше фактически работали как агрегаторы информации: где-то находили информацию, обрабатывали и выдавали в форме ответов. Это и ИИ делает приемлемо. А для пищи любому ИИ достаточно статьи с обзорами новых фич языка. У тонн мусора на SO ценность сомнительная.


А я и не спорю, что видимость движухи большая. Выпускают, мол, новые версии, но этого как-то мало по сравнению с движухой на рубеже 80-90х, да даже на рубеже 90х-нулевых или нулевых-десятых. Я просто смотрю, какие по интересующим меня языкам программирования появились основополагающие книги, и вижу, что последняя такая движуха была в районе 2010 года, плюс-минус года два-три. Но это моя выборка по интересующим меня технологиям: F#, Scala, Clojure, Erlang. В какой-то части справедливо и для Haskell, но он всегда идет в своем темпе.

Активная движуха для C# мне запомнилась в начале нулевых и в районе середины нулевых. Сначала, когда на основе одной из лучших реализаций Java того времени сделали первый .NET. Потом — когда добавили генерики (разработал, кстати, создатель F#). После особо не следил, но качественных изменений не наблюдаю со времен WPF. Может быть, просто из-за того, что перестал интересоваться.

Про Java, вообще, скажем, что там основной движ был на рубеже 90х-нулевых, когда Java стали массово внедрять в банках, особенно, когда туда в Java добавили генерики (при участии автора Scala, кстати, — не находите любопытную тенденцию?). Сама же Java старше — начало-середина девяностых. Но на рубеже нулевых-десятых она как язык уже успела многим надоесть. Так родились Scala и Clojure (последний — как реинкарнация Лиспа), а несколько позже и Kotlin (как ответ на неустраивающую в некоторых аспектах Scala — а вы попробуйте, например, собрать через Scala простое приложение для андроида с каким-нибудь Array и без ProGuard!).

Про Go-lang особо сказать ничего не могу. Как-то не цепляет. Ну, здорово, конечно, что реализовали идею всеобъемлющей асинхронности IO (как в Haskell и Erlang), и при этом сделали это доступным для массового потребителя. Это сделать очень трудно, и у них получилось! А тут еще докер подсобил на пару с микро-сервисами.

А вот про Rust скажу особо. Уж очень мне понравился сам язык, зацепил, хотя если смотреть вдолгую, то нахожу крайне уязвимой его экосистему, основанную на пакетном менеджере, который тянет что-то откуда-то (как к системе сборки вопросов нет, но тут соединили их вместе). У меня как человека с тягой к контролю, от этого факта волосы начинают на голове шевелиться. Но сейчас такова мода, общая тенденция. Мы просто еще не подошли к тому моменту развития, когда такая схема распространения библиотек станет критически опасной, хотя первые звоночки уже давно есть.

Тем не менее, сам язык Rust для своей ниши прекрасен как производительный язык без автоматического сборщика мусора. Мне как любителю (статически типизированного) функционального программирования, и просто как человеку, который любит контролировать код, нравится, что в Rust очень многое проверяется на уровне системы типов (если вы пытались писать много шаблонного кода на C++, то меня поймете).

Про JavaScript. Большие игроки сделали ставку на JavaScript. Аплеты, сильверлайт, флеш — больше не удел. Там, где не хватает скриптинга — там сделали ставку на wasm. Вы знаете, что я скажу? Как человек, на глазах которого прошел весь жизненный цикл тех же Java-аплетов, могу предположить, что неизвестно, что будет работать в браузере лет через пять-десять... Сие есть тайна, неведомая никому. И не нам, простым смертным, это решать.

А так, если взять книги по Scheme, Common Lisp и Smalltalk, то видишь, что в самом программировании мало что поменялось. Скорее, отшлифовали материал, а гранит остался тем же. Со статическими языками сложнее, но тоже все меньше языков программирования меня приятно удивляет. Последним был как раз Rust, а вот в конце 80-х я когда-то фанател от Ada.

Про С++ могу сказать, что я его постоянно использую последние годы. В сети стало популярным сравнение C++ с ПЛ/1. Кто слышал об истории падения последнего (когда появились микрокомпьютеры и персоналки, для которых открылись новые ниши, и когда перестал быть нужен такой сложный язык как ПЛ/1), то тот поймет, что может ожидать C++ с его неповоротливостью и довольно таким приличным грузным весом, где большинство программистов даже боится заглядывать в новые стандарты.

Хотя мы все субъективны по своей природе. Мы никак не можем быть объективными. Может быть, что-то и изобрели такое в области языков программирования, что я с интересом изучил бы, посмотрел бы.

Просто есть еще один фактор — экономический. Раньше у небольших фирм был шанс создать что-то новое, прорывное, и иногда даже на этом заработать денег, но чаще — разориться. А сейчас такое время, что даже колоссам, фирмам-гигантам, часто не под силу разработать и протолкнуть такое, что понравилось бы основной массе программистов. Рынок языков программирования стал массовым, и здесь важнее стала роль денег, а меньше стало возможностей для одиночек. Да и само программирования много где превратилось из искусства в ремесло, а у последнего — другие приоритеты.

Что касается вопросов на SO. Ну, большую часть вопросов задали, и на них ответили. Произошло еще естественное насыщение в условиях стагнации самой области языков программирования. Особо нечему удивляться. А на ИИ-агенты еще многое можно сейчас списать (это даже стало модным), хотя как поисковики они хороши, безусловно
Re: Stack Overflow 200 тыс. -> 4 тыс. вопросов в месяц
От: netch80 Украина http://netch80.dreamwidth.org/
Дата: 08.01.26 13:17
Оценка:
Здравствуйте, Shmj, Вы писали:

S>Интересное к чему GPT-привел. Сам же обучился на SOF, но потом его и убил: https://habr.com/ru/news/982844/


Может, сокращение количества заметно глупых вопросов -- это как раз хорошо?
Остаются те, которые не могут быть отвечены ИИ.
The God is real, unless declared integer.
Re[2]: Stack Overflow 200 тыс. -> 4 тыс. вопросов в месяц
От: Михаил Романов Удмуртия https://mihailromanov.wordpress.com/
Дата: 12.01.26 07:49
Оценка:
Здравствуйте, Anton Batenev, Вы писали:

AB>И это хорошо. Надеюсь SO очень скоро совсем будет закрыт и новые модели будут обучаться на чем-то менее галлюциногенном.

А можно примеры кандидатов?
У меня вот нечего предложить.
Re[2]: Stack Overflow 200 тыс. -> 4 тыс. вопросов в месяц
От: mrTwister Россия  
Дата: 13.01.26 11:34
Оценка:
Здравствуйте, Anton Batenev, Вы писали:

AB>И это хорошо. Надеюсь SO очень скоро совсем будет закрыт и новые модели будут обучаться на чем-то менее галлюциногенном.


Скорее на чем-то более галлюциногенном, а именно на своем же слопе от предыдущих моделей.
лэт ми спик фром май харт
Re[2]: Stack Overflow 200 тыс. -> 4 тыс. вопросов в месяц
От: rFLY  
Дата: 14.01.26 05:06
Оценка:
Здравствуйте, netch80, Вы писали:

N>Может, сокращение количества заметно глупых вопросов -- это как раз хорошо?

Меня чаще бесило количество одинаковых ответов под одним и тем же вопросом. И ответы не по теме, например:

Вопрос: Как в A сделать B?
Ответ: В C это делается так.

И пофиг, что в вопросе указана конкретная либа или без их использования, но всегда найдутся советчики захламляющие обсуждение.

N>Остаются те, которые не могут быть отвечены ИИ.

ИИ ответит на любой вопрос. А если результат не устроит, то его (ИИ) всегда можно дожать до приемлемого.
Re[2]: Stack Overflow 200 тыс. -> 4 тыс. вопросов в месяц
От: VladFein США  
Дата: 14.01.26 05:54
Оценка: :)
Здравствуйте, Anton Batenev, Вы писали:

AB>И это хорошо. Надеюсь SO очень скоро совсем будет закрыт и новые модели будут обучаться на чем-то менее галлюциногенном.


Постой, дай угадать. РСДН???
Re[3]: Stack Overflow 200 тыс. -> 4 тыс. вопросов в месяц
От: Nuzhny Россия https://github.com/Nuzhny007
Дата: 14.01.26 06:39
Оценка:
Здравствуйте, Михаил Романов, Вы писали:

МР>А можно примеры кандидатов?


Смотря чему обучаться. Если давать ответы, как лучше написать тот или иной код, то обучаться на коде и документации к нему.

МР>У меня вот нечего предложить.


Раз уж мы хотим учить нейронки для людей, то логично и учить их как людей. А людей учат профессионалы, по учебникам, методикам и т.д.
Очевидно, что и для снижения галлюцинаций, и для преодоления кризиса нехватки данных надо что-то менять в консерватории архитектуре. Чтобы по точным и небольшим источникам нейронки могли хоорошо учиться. Типа как AlphaZero в шахматы. Дать паре нейронкам спецификацию языка, документацию, библиотеки и компилятор. И пусть одна придумывает задача и проверяет, а вторая пишет код.
Re[4]: Stack Overflow 200 тыс. -> 4 тыс. вопросов в месяц
От: Shmj Ниоткуда  
Дата: 14.01.26 08:25
Оценка:
Здравствуйте, Nuzhny, Вы писали:

N>Раз уж мы хотим учить нейронки для людей, то логично и учить их как людей. А людей учат профессионалы, по учебникам, методикам и т.д.

N>Очевидно, что и для снижения галлюцинаций, и для преодоления кризиса нехватки данных надо что-то менять в консерватории архитектуре. Чтобы по точным и небольшим источникам нейронки могли хоорошо учиться. Типа как AlphaZero в шахматы. Дать паре нейронкам спецификацию языка, документацию, библиотеки и компилятор. И пусть одна придумывает задача и проверяет, а вторая пишет код.

А вот те же учебники и справочники — как быть с авторскими правами. Емнип этот вопрсо уже поднимали.

Студент купил учебники, справочники — но делать копии и проадвать их не может. Только для личного использования. А нейросеть? Она же потом будет публично все данные из учебников и справочников продавать за деньги... Что скажут авторы?

Но оно вроде как микшер получается, как в крипте. Берет тексты, которые охраняются авторскими правами. Перемешивает. И уже вроде как получается нечто новое, что авторскими правами не охраняется. Но так ли все просто?
=сначала спроси у GPT=
Re[5]: Stack Overflow 200 тыс. -> 4 тыс. вопросов в месяц
От: Nuzhny Россия https://github.com/Nuzhny007
Дата: 14.01.26 08:47
Оценка:
Здравствуйте, Shmj, Вы писали:

S>А вот те же учебники и справочники — как быть с авторскими правами. Емнип этот вопрсо уже поднимали.


И поднимали, и решали:

Компания Anthropic, разработчик чат-бота Claude, закупила и уничтожила миллионы печатных книг для их последующей оцифровки и использования при обучении искусственного интеллекта. Книги приобретались оптом — в том числе у поставщиков возвратов Amazon и библиотек, распродающих фонды. После покупки переплеты распарывались, страницы сканировались, а сами экземпляры утилизировались. Руководитель отдела партнерств Том Турви, ранее работавший в Google Books, в письмах коллегам писал, что цель — «получить все книги, которые только возможно».

Федеральный суд в Калифорнии признал эту практику законной. Суд постановил, что уничтожение и оцифровка купленных книг подпадают под принцип «добросовестного использования» (fair use), поскольку речь идет о трансформирующем применении без ущерба для рынка оригинальных произведений. Такое решение суд сравнил с прецедентом Google Books.


Тут также как и с людьми, никакой разницы: читать и учиться можно, но копировать и воспроизводить просто так нельзя. Либо указывать на автора, как в цитатах. Либо выплачивать автору вознаграждение — зависит от лицензии. Так что тут надо просто следовать законодательству.

S>Студент купил учебники, справочники — но делать копии и проадвать их не может. Только для личного использования. А нейросеть? Она же потом будет публично все данные из учебников и справочников продавать за деньги... Что скажут авторы?


А как критики и литературоведы пишут рецензии на книги, с цитатами из них? Они не платят автору, но платят за саму книгу. Также и нейросети. При этом нейросети не имеют права полностью и дословно воспроизводить авторский контент. Всё как и с людьми.

S>Но оно вроде как микшер получается, как в крипте. Берет тексты, которые охраняются авторскими правами. Перемешивает. И уже вроде как получается нечто новое, что авторскими правами не охраняется. Но так ли все просто?


А такого и нет. Ты точно уверен, что нейросети так работают? А именно хранят в себе тексты, а при выдаче их перемешивают? Можно пруфы?
Re[3]: Stack Overflow 200 тыс. -> 4 тыс. вопросов в месяц
От: rFLY  
Дата: 14.01.26 15:02
Оценка:
Здравствуйте, VladFein, Вы писали:

VF>Постой, дай угадать. РСДН???

Россия отлучена от церкви ИИ. А разве у вас не осталось достойных ресурсов, тот же редит?
Re[4]: Stack Overflow 200 тыс. -> 4 тыс. вопросов в месяц
От: Михаил Романов Удмуртия https://mihailromanov.wordpress.com/
Дата: 14.01.26 15:06
Оценка: 1 (1) +1
Здравствуйте, Nuzhny, Вы писали:

N>Раз уж мы хотим учить нейронки для людей, то логично и учить их как людей. А людей учат профессионалы, по учебникам, методикам и т.д.

Я могу ошибаться, так как и близко не специалист в ИИ и глубоком обучении, но у меня сложилось понимание, что нейронные сети, это механизм самообучения, рассчитанный (как и все или, по меньшей мере, большинство методов самообучения), на обучение по индукции, иначе говоря на обобщении большого исходного массива информации.
Тогда как обучение человека, это скорее дедуктивное обучение — когда мы осваиваем общие закономерности, а потом из них получаем частное решение.

На сколько этот второй подход в принципе возможен при обучении нейронок? (ну кроме каких-то простейших случаев, типа "научить решать школьные примеры, просто нагенерировав кучу примеров")

N>Смотря чему обучаться. Если давать ответы, как лучше написать тот или иной код, то обучаться на коде и документации к нему.

В продолжение предыдущего вопроса — а этого объема хватит для того чтобы обучить модель?
На каком именно коде учить — конкретного проекта или всём коде мира? И какого качество этого кода...

N>Очевидно, что и для снижения галлюцинаций, и для преодоления кризиса нехватки данных надо что-то менять в консерватории архитектуре. Чтобы по точным и небольшим источникам нейронки могли хоорошо учиться. Типа как AlphaZero в шахматы. Дать паре нейронкам спецификацию языка, документацию, библиотеки и компилятор. И пусть одна придумывает задача и проверяет, а вторая пишет код.

Ну идея, конечно, интересная — генерировать всевозможные входы (или ходы) и проверять их правильность.
Но на сколько это применимо за пределами искусственных задач (типа игр), где:
— в целом число состояний хоть и велико, но тем не менее конечно (а, например, грамматика языка априори порождает бесконечное число программ)
— очень ограниченный набор правил для генерации разных комбинаций (а, тут сложность генерация задач это имхо, что-то по сложности сравнимое с их решением — и даже есть косвенное подтверждение, набирающий обороты "промпт инжиниринг" — имхо, что-то из серии "CEO-оптимизации 2.0")
— есть простой критерий проверки успеха (а в реальной задаче формулировка критерия успешности — почти как описание её решения)

Ну и тоже момент, мы это уже обсуждали в другом тренде, современная индустрия ИИ снова начинает упираться в ресурсы, требуемые и для обучения, и для работы.
Где-то я даже встречал утверждение, что Илья Суцкевер покинул OpenAI после того, как показал Альтману, что идея создания AGI, требует энергии больше, чем можно получить в Солнечной системе (ну или как-то так формулировалось).
А идея "генерировать входы, на которых учить нейронку", имхо, на порядок затратнее идеи "учить нейронку на готовых примерах".
Re[4]: Stack Overflow 200 тыс. -> 4 тыс. вопросов в месяц
От: VladFein США  
Дата: 14.01.26 16:32
Оценка: +1
Здравствуйте, rFLY, Вы писали:

FLY>Здравствуйте, VladFein, Вы писали:


VF>>Постой, дай угадать. РСДН???

FLY>Россия отлучена от церкви ИИ. А разве у вас не осталось достойных ресурсов, тот же редит?

Reddit имеет такое же отношение к SO как РСДН к MSDN
Re[5]: Stack Overflow 200 тыс. -> 4 тыс. вопросов в месяц
От: Nuzhny Россия https://github.com/Nuzhny007
Дата: 15.01.26 08:41
Оценка: 2 (1)
Здравствуйте, Михаил Романов, Вы писали:

МР>Я могу ошибаться, так как и близко не специалист в ИИ и глубоком обучении, но у меня сложилось понимание, что нейронные сети, это механизм самообучения, рассчитанный (как и все или, по меньшей мере, большинство методов самообучения), на обучение по индукции, иначе говоря на обобщении большого исходного массива информации.

МР>Тогда как обучение человека, это скорее дедуктивное обучение — когда мы осваиваем общие закономерности, а потом из них получаем частное решение.

Соглашусь.

МР>На сколько этот второй подход в принципе возможен при обучении нейронок? (ну кроме каких-то простейших случаев, типа "научить решать школьные примеры, просто нагенерировав кучу примеров")


Сейчас практически невозможен. "Войну и мир" нейронки самообучаясь не напишут.

МР>В продолжение предыдущего вопроса — а этого объема хватит для того чтобы обучить модель?

МР>На каком именно коде учить — конкретного проекта или всём коде мира? И какого качество этого кода...

Сейчас не хватит. И надо на всём коде мира, на всех языках мира.

МР>Но на сколько это применимо за пределами искусственных задач (типа игр), где:

МР>- в целом число состояний хоть и велико, но тем не менее конечно (а, например, грамматика языка априори порождает бесконечное число программ)

Я поэтому и написал, что надо что-то менять в консерватории. В конце 2025 года об этом не написал только ленивый, но и 15 лет назад проблема была очевидной: ребёнок учится различать слона не по миллиону разных картинок со слоном. Но 15 лет назад в данных для обучения не было дефицита, а сейчас уже есть.

МР>Где-то я даже встречал утверждение, что Илья Суцкевер покинул OpenAI после того, как показал Альтману, что идея создания AGI, требует энергии больше, чем можно получить в Солнечной системе (ну или как-то так формулировалось).


Это в пределе для текущей архитектуры. Люди же как-то справляются.

МР>А идея "генерировать входы, на которых учить нейронку", имхо, на порядок затратнее идеи "учить нейронку на готовых примерах".


Тем не менее, программированию прямо сейчас так уже учат. Бляго, сё как ты написал: есть критерий успеха. Даже больше, можно не только смотреть на конечный успех, но и дифференцировать вознаграждение: не просто программа работает или не работает, но и первая половина программы работает, а вторая нет.
Re[6]: Stack Overflow 200 тыс. -> 4 тыс. вопросов в месяц
От: fmiracle  
Дата: 20.01.26 07:10
Оценка: 5 (3) +1
Здравствуйте, Nuzhny, Вы писали:

N>Тут также как и с людьми, никакой разницы: читать и учиться можно, но копировать и воспроизводить просто так нельзя. Либо указывать на автора, как в цитатах. Либо выплачивать автору вознаграждение — зависит от лицензии. Так что тут надо просто следовать законодательству.


Это соблюдение закона об авторских правах по букве, но не по сути его. У законов же есть какой-то смысл, почему они принимались. Для авторских прав смысл — чтобы авторам был смысл писать книги. Если он книгу долго-долго писал, а потом ее у него все раскопировали и он не получил денег — какой смысл писать в следующий раз?

Теперь про ИИ. Да, все по букве — для обучения ИИ купили один экземпляр книги и ИИ его "прочитала" и научилась на нем. Все как и люди и все соответствует закону. Но ИИшку после обучения, в отличии от людей, саму можно копировать и/или использовать параллельно многими людьми.

Представим прекрасный мир будущего, где куча ИИ-агентов у всех на все случаи жизни. Написанная книга изучается нейросетью, запоминается и становится доступна всем пользователям агентов этой сети. Автор пишет книгу по Расту, нейросеть осваивает, все программисты мира через ии-агентов моментально получают эти "знания" сразу в усвоенном и готовом к применению виде. Получается, покупать книгу людям — уже не нужно. Значит и писать книгу для людей — бессмысленно.
Всех продаж книги в мире — для нескольких производителей моделей по одному экземпляру, да для малой кучки людей-энтузиастов для их коллекции.

Остается только вариант писать книгу сразу для продажи только нескольких копий цифровым гигантам, которые обучают нейросети. По цене один дохрена за каждый экземпляр. Но будет ли это интересно этим самым гигантам — потенциально повысить знания их сети на 0.00000...01% за солидную сумму сразу? Совсем не факт.

И получим ту же исходную проблему откуда придумали законы про авторские права — нет смысла писать книги, все это направление деятельности может умереть.
Re[7]: Stack Overflow 200 тыс. -> 4 тыс. вопросов в месяц
От: Shmj Ниоткуда  
Дата: 20.01.26 07:47
Оценка:
Здравствуйте, fmiracle, Вы писали:

F>И получим ту же исходную проблему откуда придумали законы про авторские права — нет смысла писать книги, все это направление деятельности может умереть.


+ Зрите в корень, в самую суть
=сначала спроси у GPT=
Отредактировано 20.01.2026 7:47 Shmj . Предыдущая версия .
Re[6]: Stack Overflow 200 тыс. -> 4 тыс. вопросов в месяц
От: mrTwister Россия  
Дата: 20.01.26 07:55
Оценка:
Здравствуйте, Nuzhny, Вы писали:

N>Тем не менее, программированию прямо сейчас так уже учат.


Учат, но не всех успешно. Я заметил, что программировать научаются те, кто умеет запускать у себя в голове "виртуальную машину" в которой выполняют программы. И изучение языка программирования, или фреймворка — это создание транслятора для своей мозговой виртуальной машины и развитие этой виртуальной машины, добавление в нее новых функций. Для этого не требуется большого объема входных данных. Но для этого требуется самосознание, и "внутренний мир"
лэт ми спик фром май харт
Re[7]: Stack Overflow 200 тыс. -> 4 тыс. вопросов в месяц
От: Nuzhny Россия https://github.com/Nuzhny007
Дата: 20.01.26 13:16
Оценка: +1 -1
Здравствуйте, fmiracle, Вы писали:

F>Представим прекрасный мир будущего, где куча ИИ-агентов у всех на все случаи жизни. Написанная книга изучается нейросетью, запоминается и становится доступна всем пользователям агентов этой сети. Автор пишет книгу по Расту, нейросеть осваивает, все программисты мира через ии-агентов моментально получают эти "знания" сразу в усвоенном и готовом к применению виде. Получается, покупать книгу людям — уже не нужно. Значит и писать книгу для людей — бессмысленно.


Выделенное, а именно "изучать и запоминать" нейросети не умеют. Они нужны для сжатия информации, а не для запоминания. Так-то ты можешь просто текст взять, зачем тебе нейросеть?
Поэтому и выводы все дальше неверные.

Второй пункт про "зачем писать книгу". Если книга пишется исключительно для заработка — "писатель пописывает, читатеть почитывает", то и сейчас такие книги писать не надо. Зачем? Пользы для общества никакой. Оплачиваться должна только полезная деятельность.
Re[8]: Stack Overflow 200 тыс. -> 4 тыс. вопросов в месяц
От: fmiracle  
Дата: 20.01.26 20:00
Оценка: +1 :)
Здравствуйте, Nuzhny, Вы писали:

N>Выделенное, а именно "изучать и запоминать" нейросети не умеют. Они нужны для сжатия информации, а не для запоминания. Так-то ты можешь просто текст взять, зачем тебе нейросеть?

N>Поэтому и выводы все дальше неверные.

Это придирки к словам. На основе книги производится обучение и дальше нейросеть может применять полученное из нее на практике. Так же как и человек — он не заучивает книгу наизусть, а осознает и получает какие-то выводы из нее. Но 100000 разных людей должны прочитать каждый книгу, а 100000 внедрений одной обученной нейросети нуждаются только в одном "прочтении".


N>Второй пункт про "зачем писать книгу". Если книга пишется исключительно для заработка — "писатель пописывает, читатеть почитывает", то и сейчас такие книги писать не надо. Зачем? Пользы для общества никакой. Оплачиваться должна только полезная деятельность.


Оплачиваться должно только то, что делалось не ради оплаты? Так себе концепция. Если человек вложил труд, делал полезную работу — то оплата это справедливо, и стимулирует его продолжать данную полезную работу, даже если из чисто меркантильных побуждений. Если же полагаться, что полезные книги будут писаться только из стремления в самовыражению... ну далеко не все имеют такое желание и возможности.
Re[2]: Stack Overflow 200 тыс. -> 4 тыс. вопросов в месяц
От: Mr.Delphist  
Дата: 20.01.26 21:40
Оценка:
Здравствуйте, netch80, Вы писали:

N>Может, сокращение количества заметно глупых вопросов -- это как раз хорошо?


Задавал там один нестандартный, большой и (надеюсь) неглупый вопрос.
Мне сказали "это ДВА вопроса". Закрыто.
Ок, оформил как два разных вопроса, хотя вкусовщина модератора.
Это дубликат! Закрыто.
Re[9]: Stack Overflow 200 тыс. -> 4 тыс. вопросов в месяц
От: Nuzhny Россия https://github.com/Nuzhny007
Дата: 21.01.26 03:28
Оценка: :)
Здравствуйте, fmiracle, Вы писали:

F>Это придирки к словам. На основе книги производится обучение и дальше нейросеть может применять полученное из нее на практике. Так же как и человек — он не заучивает книгу наизусть, а осознает и получает какие-то выводы из нее. Но 100000 разных людей должны прочитать каждый книгу, а 100000 внедрений одной обученной нейросети нуждаются только в одном "прочтении".


Так людям всё равно книгу надо прочитать. Ты именно про техническую литературу? Или про художественную? В художественной текст важен сам по себе. Если книга будет написана для людей, то люди её и будут читать, её, а не пересказ нейросети.
Теперь аргумент про один раз прочитал, а потом тысяча внедрений "бесплатно". А критик выложил свою рецензию и тысяча человек прочитала её бесплатно вместо покупки книги? Только для меня является целью текст, а не его интерпретация? Зачем люди покупают учебники, если на лекции и так вс рассказывают?

F>Оплачиваться должно только то, что делалось не ради оплаты? Так себе концепция. Если человек вложил труд, делал полезную работу — то оплата это справедливо, и стимулирует его продолжать данную полезную работу, даже если из чисто меркантильных побуждений. Если же полагаться, что полезные книги будут писаться только из стремления в самовыражению... ну далеко не все имеют такое желание и возможности.


Я и говорю о полезности. Если книга написана ради того, чтобы людям раззказать или научить, то она ценна и покупать её будут. Если важнее не сама книг, а её пересказ нейросетью, то такая книга не нужна и писать её не стоило. Всё, не все книги и не весь труд полезны. Бесполезный труд зачем оплачивать?
 
Подождите ...
Wait...
Пока на собственное сообщение не было ответов, его можно удалить.