Сообщение Игорь Ашманов об ИИ - новое от 13.09.2025 3:55
Изменено 13.09.2025 4:02 LaptevVV
Все ссылки в исходной статьеОбсудим, надо ли регулировать ИИ и как именно. И что предлагает наше продвинутое министерство, живущее вместе с Германом Оскаровичем в далёком будущем.
Для затравки — несколько ссылок на клеветнические публикации ретроградов и луддитов:
— «Врачи моментально теряют навык диагностики, когда начинают использовать нейросети. После отказа от ИИ показатели падают ниже исходных. Врачи-эндоскописты быстро теряют навыки выявления некоторых предраковых заболеваний после начала использовании вспомогательных технологий машинного зрения».
— Отчёт MIT: 95% пилотных проектов генеративного ИИ в компаниях терпят неудачу. Исследование было основано на 150 интервью с руководителями, опросе 350 сотрудников и анализе 300 публичных кейсов внедрений ИИ. Выяснилось, что только около 5% пилотных программ ИИ дают быстрый рост выручки; подавляющее большинство из них останавливается, практически не оказывая измеримого влияния на прибыли и убытки компаний.
— ИИ не даёт экономического эффекта. Вне западного побережья Америки почти не видно, чтобы ИИ оказывал сколько-нибудь существенное влияние на что-либо.
— От ИИ-инструментов глупеют? В июне 20025 г. ученые Массачусетского технологического института опубликовали исследование на основе данных эхоэнцефалографии, которое показало, что при решении задач с использованием ботов на основе больших языковых моделей вроде ChatGPT мозговая активность намного ниже (в среднем на 47%), чем в случаях, когда оно осуществляется самостоятельно. Таким образом, применение ИИ может негативно отражаться на развитии когнитивных способностях человека, навыках критического мышления и уровне интеллектуальной независимости.
Ну и так далее. Скептические публикации разных исследователей последние месяца два-три идут косяком.
Все ссылки в исходной статьеОбсудим, надо ли регулировать ИИ и как именно. И что предлагает наше продвинутое министерство, живущее вместе с Германом Оскаровичем в далёком будущем.
Для затравки — несколько ссылок на клеветнические публикации ретроградов и луддитов:
— «Врачи моментально теряют навык диагностики, когда начинают использовать нейросети. После отказа от ИИ показатели падают ниже исходных. Врачи-эндоскописты быстро теряют навыки выявления некоторых предраковых заболеваний после начала использовании вспомогательных технологий машинного зрения».
— Отчёт MIT: 95% пилотных проектов генеративного ИИ в компаниях терпят неудачу. Исследование было основано на 150 интервью с руководителями, опросе 350 сотрудников и анализе 300 публичных кейсов внедрений ИИ. Выяснилось, что только около 5% пилотных программ ИИ дают быстрый рост выручки; подавляющее большинство из них останавливается, практически не оказывая измеримого влияния на прибыли и убытки компаний.
— ИИ не даёт экономического эффекта. Вне западного побережья Америки почти не видно, чтобы ИИ оказывал сколько-нибудь существенное влияние на что-либо.
— От ИИ-инструментов глупеют? В июне 20025 г. ученые Массачусетского технологического института опубликовали исследование на основе данных эхоэнцефалографии, которое показало, что при решении задач с использованием ботов на основе больших языковых моделей вроде ChatGPT мозговая активность намного ниже (в среднем на 47%), чем в случаях, когда оно осуществляется самостоятельно. Таким образом, применение ИИ может негативно отражаться на развитии когнитивных способностях человека, навыках критического мышления и уровне интеллектуальной независимости.
Ну и так далее. Скептические публикации разных исследователей последние месяца два-три идут косяком.
Что делать-то? Что я думаю об этом
Концепция отражает хотелки и мечтания наших цифровизаторов, которые говорят начальству, что ИИ решит все наши проблемы, а сами себе думают, что ИИ решит все их проблемы.
То есть используют ИИ для того, чтобы казаться умными перед начальством, делать карьеру, получать бюджеты и власть.
Чтобы это всё делать свободно и невозбранно — нужно прогнуть под себя законодательство, закрепив «гибридный подход» и «снятие барьеров», то есть фактический запрет регулирования — см. выше.
Моё мнение (не раз выраженное публично и в разного рода докладах и записках):
Ситуация рискованная
1. Имеется явный пузырь ИИ. Во время пузыря делается всё самое модное и ненужное, вытрачивается огромное количество денег и труда, потом пузырь лопается, деньги всем прощают. Происходит бешеная медийная накачка публики и чиновников — см. интервью Грефа.
2. Наш отечественный ИИ — глубоко вторичный, статьи, алгоритмы, платформы, данные скачиваются у американцев и выдаются за свои (в Сбербанке, МТСе, даже в Яндексе). Технологическая линейка у нас неполная, содержит зияющие дыры: нет процессоров и карт, нет так называемых «фреймворков» (нейронных операционных систем). Мало кадров, практически нет своей ИИ-науки. Это создаёт вторичность, «наркоманию скачивания свежих апдейтов» с Запада.
Это риск для нацбезопасности: Россия усилиями «евангелистов ИИ» всё глубже впадает в статус цифровой колонии. В области ИИ «импортозамещения» — по сути нет.
3. Социальные риски ИИ огромны: это отупение молодёжи, разрушение образования, барьеры между гражданами и властью, манипуляция, генерация шлака и фейков, дипфейки и пропаганда, вербовка и мошенники, потеря компетенций врачами, инженерами, гуманитариями. Социальные рейтинги, автоматическая дискриминация. Попытки внедрить ИИ в право, законотворчество, закрепить снятие ответственности с чиновников.
4. Государственные риски ИИ: в России образуется новый цифровой класс управленцев, которые получают власть по факту доступа к данным граждан и государства и к цифровым сервисам. Происходит незаметное, но мощное перетекание власти от энергетиков и промышленников к цифровикам. Это по сути — ползучий государственный переворот.
Вывод
ИИ крайне нужен России на войне и в промышленности — и категорически не нужен, вреден и опасен в социальной сфере, образовании, государственном управлении.