Популярные криптовалюты

BTC $75,531.81 -0.46%
ETH $2,303.79 -0.62%
MNT $0.6292 -0.02%
SOL $85.31 -0.43%
XRP $1.4238 -0.15%
ZEC $315.78 -0.79%
BNB $629.64 +0.02%

Экс-сотрудники Google представили ИИ для роботов с «необученными» навыками

Стартап Physical Intelligence представил модель π0.7. Разработчики заявили о «качественном скачке» в способности ИИ обобщать навыки и выполнять задачи.

Основанный бывшими инженерами Google стартап Physical Intelligence представил модель π0.7. Разработчики заявили о «качественном скачке» в способности ИИ обобщать навыки и выполнять задачи, которым его не обучали напрямую.

Our newest model, π0.7, has some interesting emergent capabilities: it can control a new robot to fold shirts for which we had no shirt folding data, figure out how to use an appliance with language-based coaching, and perform a wide range of dexterous tasks all in one model! pic.twitter.com/s9NxKfb7pe

— Physical Intelligence (@physical_int) April 16, 2026

Система относится к классу «зрение-язык-действие» (Vision-Language-Action, или VLA) и предназначена для управления роботами. 

В отличие от предыдущих решений, π0.7 продемонстрировала признаки композиционного обобщения — способности комбинировать ранее усвоенные навыки для решения новых задач.

Необученные задачи и перенос между роботами

В ходе экспериментов модель показала ряд неожиданных способностей. В частности, π0.7 смогла управлять новым типом робота и складывать футболки, несмотря на отсутствие обучающих данных для этой конкретной платформы.

Compositional generalization is a key capability of large models like LLMs, but it has been elusive in robotics. Another emergent ability we found is to control a new robot (UR5e) to fold t-shirts, even though we didn't have any laundry folding data on this robot. pic.twitter.com/lAXYag002Z

— Physical Intelligence (@physical_int) April 16, 2026

Результаты сопоставимы с уровнем операторов, имеющих сотни часов опыта телоуправления, отметили программисты. 

Инструмент также смог разобраться в использовании ранее незнакомых устройств, включая кухонную технику. Например, робот выполнил часть задачи по приготовлению батата в аэрогриле, хотя подобных сценариев в обучающей выборке не было.

По словам разработчиков, это стало возможным за счет объединения разрозненных навыков — аналогично тому, как языковые модели комбинируют знания из разных областей.

Управление через язык и контекст

Одним из ключевых отличий π0.7 стала возможность управлять не только через команды «что делать», но и через уточнение «как делать».

Модель принимает:

  • текстовые инструкции;
  • метаданные (например, скорость и качество выполнения);
  • визуальные субцели — изображения ожидаемого результата шага.

Некоторые из субцелей вспомогательная система может создавать прямо во время работы. Это дает роботу возможность корректировать поведение без дообучения.

π0.7 handles diverse prompts that don't just say what to do, but also how to do it, including rich language and multimodal information, such as visual subgoal images. At test time, these images can be produced by a lightweight world model. pic.twitter.com/cbdovdVjBG

— Physical Intelligence (@physical_int) April 16, 2026

Такой подход позволяет объединять данные от разных источников — видео, телеметрию с роботов и автономно собранные эпизоды — в единую систему обучения.

Первый шаг к «универсальным» роботам

В Physical Intelligence отметили, что раньше подобные модели требовали дообучения под каждую задачу — как ранние версии языковых моделей. π0.7, напротив, работает «из коробки» и адаптируется к новым сценариям через язык.

Команда подчеркнула: такой уровень обобщения долгое время считался сильной стороной LLM, но в робототехнике оставался недостижимым.

Несмотря на прогресс, модель пока не всегда справляется со сложными задачами без пошаговых подсказок. Однако при последовательных инструкциях качество выполнения заметно растет.

В будущем такие инструкции помогут обучать более автономные машины, способные действовать без человека. В Physical Intelligence считают, что π0.7 показывает первые признаки перехода к универсальным роботам, которые адаптируются к новым условиям без ручной настройки под каждую задачу.

Напомним, в феврале компания Carbon Robotics выпустила ИИ-модель Large Plant Model, которая умеет распознавать виды растений для борьбы с сорняками. 

RSS 21.04.2026 1 82
Источник: https://forklog.com/news/ai/eks-sotrudniki-google-predstavili-ii-dlya-robotov-s-neobuchennymi-navykami