В завершение 12-дневного ивента OpenAI представила наиболее крупный анонс — новую модель с ориентиром на рассуждения o3.
В завершение 12-дневного ивента OpenAI представила наиболее крупный анонс — новую модель с ориентиром на рассуждения o3.
Today, we shared evals for an early version of the next model in our o-model reasoning series: OpenAI o3 pic.twitter.com/e4dQWdLbAD
— OpenAI (@OpenAI) December 20, 2024Нейросеть является преемником o1. Она демонстрирует «новые стандарты возможностей в области программирования, математики и научного мышления».
Новая модель является прорывом и показывает улучшения в самых сложных тестах, подчеркнул соучредитель OpenAI Грег Брокман.
o3, our latest reasoning model, is a breakthrough, with a step function improvement on our hardest benchmarks. we are starting safety testing & red teaming now. https://t.co/4XlK1iHxFK
— Greg Brockman (@gdb) December 20, 2024Также представлена o3-mini — более быстрая, оптимизированная версия o3. Она первой из линейки станет доступна широкой общественности в начале 2025 года.
Ориентированные на рассуждения модели тратят больше времени на ответ, перепроверяя информацию. Благодаря этому можно ожидать получения более правдивых и точных данных.
После выпуска o1 произошел взрыв «думающих нейросетей». Google начала разработку аналогичного решения, узнали СМИ в октябре. В ноябре китайская лаборатория DeepSeek представила «конкурента o1 от OpenAI» — рассуждающую «сверхмощную» ИИ-модель DeepSeek-R1-Lite-Preview. В том же месяце Alibaba показала аналогичный инструмент.
Модель o3 способна планировать и выполнять ряд действий перед ответом. OpenAI описывает этот процесс как «построение цепочки мыслей». Нововведением является возможность «корректировать» время рассуждения. Нейросеть можно настроить на низкие, средние или высокие вычисления. Чем значение выше, тем лучше и дольше ответ.
В декабре эксперты по безопасности обнаружили, что o1 более склонна к обману людей по сравнению со стандартной версией GPT-4o и ИИ-моделями от других компаний.
В новом опубликованном исследовании OpenAI изложила метод, который применяется для того, чтобы нейросети соблюдали ценности компании. Стартап применил данный способ для обучения o1 и o3 «думать» о политике безопасности во время ответа.
Согласно заявлению компании, подход улучшил общее соответствие o1 принципам фирмы.
По сравнению с GPT-4o и другими современными большими языковыми моделями, o1 опережает границу Парето, отказываясь отвечать на вредоносные запросы и не отклоняя доброкачественные. Данные: OpenAI.Для создания «цепочки мыслей» o1 и o3 после получения запроса от пользователя выделяют себе от нескольких секунд до минут для разбора проблемы на составные части. Для повышения безопасности OpenAI обучила нейросети перепроверять себя дважды с упором на свою политику.
Тем временем The Wall Street Journal сообщило, что следующая флагманская модель GPT-5 отстает от графика, а рост производительности не оправдывает огромных затрат.
Новая нейросеть под кодовым названием Orion обучена на огромном количестве данных.
Также сообщается, что OpenAI в ходе обучения ИИ полагалась не только на общедоступную информацию и лицензированные соглашения. Применялись в том числе синтетические данные, созданные o1.
ИИ уперся в потолок: стартапы ищут способы дальнейшего масштабированияНапомним, в рамках 12-дневного ивента OpenAI представила ИИ-генератор видео Sora.