К 2028 году на рынке могут появиться ИИ-системы, способные самостоятельно разрабатывать и обучать собственных преемников, считает сооснователь Anthropic.
К 2028 году на рынке могут появиться ИИ-системы, способные самостоятельно разрабатывать и обучать собственных преемников без участия человека. Такой прогноз дал сооснователь компании Anthropic Джек Кларк.
«Это очень важно. Я не знаю, как осознать это. Я прихожу к этому выводу с неохотой, потому что последствия настолько велики, что я чувствую себя подавленным ими, и я не уверен, что общество готово к тем изменениям, которые подразумевает автоматизированная ИИ-разработка», — отметил он.
Кларк описал сценарий полной автоматизации ИИ-исследований — модель самостоятельно:
Эксперт назвал это «рубиконом в почти непредсказуемое будущее» и оценил вероятность такого сценария в 60% в ближайшие два года.
Вывод Кларка строится на динамике нескольких бенчмарков:
По словам сооснователя Antropic, все три метрики демонстрируют одно: ИИ быстро переходит от точечного написания кода к полноценному выполнению инженерных и исследовательских задач.
Еще один аргумент — увеличение продолжительности задач, которые ИИ-модели способны выполнять без вмешательства человека.
По данным METR, в 2022 году системы справлялись с заданиями, занимавшими у человека десятки секунд. В 2024 показатель вырос примерно до 40 минут, в 2025 году — до шести часов. Сейчас передовые модели способны вести инженерную работу около 12 часов подряд.
Кларк связал это с распространением агентных инструментов для программирования. Чем дольше модель удерживает цель, проверяет промежуточные результаты и исправляет ошибки, тем больше этапов исследовательского цикла можно ей делегировать.
Современный цикл разработки ИИ устроен по одной схеме: изучить материалы, воспроизвести результат, собрать эксперимент, обучить или дообучить модель, проверить метрики, найти узкие места и повторить. Рост на SWE-Bench, CORE-Bench и MLE-Bench показывает, что модели уже справляются с целыми фрагментами такого цикла.
Кларк отдельно указал на прогресс в более специализированных задачах. Например, ИИ начинают применять для дизайна GPU-ядер — кода, который определяет эффективность обучения и инференса моделей на конкретном железе.
Еще одно направление — дообучение моделей. В бенчмарке PostTrainBench ИИ-системы улучшают небольшие LLM с открытым исходным кодом.
По состоянию на весну 2026 года лучшие нейросети достигают 25-28% от целевого прироста (у человеческих команд — 51%). Кларк считает результат значимым: ориентир задают реальные инструктивные модели, созданные опытными исследователями.
Anthropic замеряла, как ее модели оптимизируют обучение LLM на CPU. За год ускорение выросло с 2,9 раза (Claude Opus 4) до 52 (Claude Mythos Preview). Человеку на аналогичную задачу обычно требуется четыре-восемь часов.
Кларк отметил, что современные системы начинают координировать работу других агентов. Такой подход уже используется в продуктах вроде Claude Code или OpenCode: один ассистент распределяет задачи между несколькими подассистентами, контролирует их и собирает результаты.
Для ИИ-разработок это важно: они редко представляют собой одну линейную задачу — обычно это десятки параллельных процессов, включая написание кода и настройку окружения.Если модель начнет управлять такими контурами самостоятельно, степень человеческого участия резко сократится.
По мнению сооснователя Anthropic, один из ключевых вопросов— на что больше похожа разработка ИИ: на открытие общей теории относительности или на сборку Lego.
Кларк признал, что современные LLM пока не способны генерировать принципиально новые научные идеи. Однако для автоматизации значительной части AI R&D это может быть не обязательно.
«В основном ИИ движется вперед через методичное выполнение людьми некоторого цикла: взять хорошо работающую систему, масштабировать какой-то ее аспект, посмотреть на ошибки при масштабировании и исправить их. Для этого требуется очень мало нестандартных идей, и большая часть подобного процесса похожа на неприглядную черновую инженерную работу», — отметил эксперт.
Кларк считает, что у ИИ-моделей уже начинают появляться ранние признаки научной интуиции. Он привел несколько примеров из математики и информатики:
Кларк обратил внимание, что крупнейшие ИИ-лаборатории уже движутся в сторону автоматизации исследований. OpenAI намерена создать ИИ-стажера для самостоятельной научной деятельности, Anthropic выпускает работы по автоматической настройке под человеческие ценности.
Если текущий темп сохранится, индустрия перейдет к фазе полной автоматизации ИИ-разработок, спрогнозировал эксперт — запустится цикл, при котором каждое новое поколение ИИ ускоряет появление следующего.
По его словам, если к концу 2028 года переход состоится, мир столкнется не только с технологическим скачком. На первый план также выйдут фундаментальные вопросы безопасности, распределения капитала, роли человеческого труда и контроля над системами, которые начинают развиваться быстрее своих создателей.
«Если бы вы заставили меня назвать вероятность для 2027 года, я бы сказал 30%. Если мы не увидим этого к концу 2028 года, то, думаю, мы обнаружим какой-то недостаток в текущей технологической парадигме, и для движения вперед потребуется человеческое изобретение», — заключил Кларк.
Напомним, в январе гендиректор Anthropic Дарио Амодеи предсказал скорое появление AGI и сокращения рабочих мест.
Конец монополии на интеллект: как алгоритмы вытесняют когнитивную элиту