|
|
От: |
LaptevVV
|
|
| Дата: | 09.02.26 04:20 | ||
| Оценка: | 2 (1) | ||
И там еще много интересного.С конца 2012 по начало 2013 года он соучередитель компании DNNResearch (аббревиатура DNN происходит от словосочетания «Глубокие (Deep) Нейронные (Neural), Сети (Networks)), учреждённой с Джеффри Хинтоном и Алексом Крыжевским. С марта 2013 по 2015 год – Илья научный сотрудник в подразделении Google Brain (после покупки DNNResearch компанией Google). С конца 2015 по 2023 год – сооснователь и главный научный компании OpenAI.
В 2023 году он становится в OpenAI соруководителем нового проекта Superalignment (Суперинтеллект), ориентированного на обеспечение безопасности ИИ.
...
К осени 2023 года между Сэмом Альтманом (ещё одним сооснователем OpenAI) и Суцкевером возник конфликт.
Илья считал, что компания движется слишком быстро, игнорируя риски, а Сэм хотел быстро использовать открывшееся окно возможностей.
...
Конфликт закончился тем, что 15 мая 2024 года Суцкевер ушел. При этом он считал, что через какое-то время из-за отсутствия новых данных в Интернете предобучение закончится, и придется перейти к синтетическим данным, но это только несколько улучшит значения метрик, не обеспечив нового качества, в отличие от того, как это было раньше. Похоже, это и произошло при выпуске в июле 2025 года ChatGPT-5.
...
Суцкевер считает, что следующий качественный скачок в развитии ИИ наступит, когда модели, созданные учёными, смогут делать «новую науку» – самостоятельно ставить гипотезы и получать нетривиальные научные результаты. Он полагает, что в части создания безопасного суперинтеллекта на первый план выходит мысль, что безопасность и способности – единая техническая научная задача: нельзя сделать безопасный ИИ, не понимая его научно, и нельзя строить сверхмощные системы, игнорируя строгий научный анализ их надежности (https://www.antoinebuteau.com/lessons-from-ilya-sutskever/).