OpenAI в среду анонсировала запуск новых моделей o3 и o4-mini, представляющих собой последнюю доработку в линейке моделей логического рассуждения. Модель o3, продемонстрированная еще в декабре, уже считается самой продвинутой из созданных OpenAI.
Новые модели обучены «думать перед тем, как говорить», что, в свою очередь, приводит к более качественным ответам, пусть и с замедленным временем обработки запросов. Модели также показывают высокие результаты в кодировании, математике и науке, но главное нововведение заключается в визуальном понимании.
Модели o3 и o4-mini впервые способны «думать с изображениями», что позволяет им использовать визуальную информацию в процессе обработки запросов. Также пользователи могут загружать изображения низкого качества или размытые, и модель сможет их понять.
Кроме того, o3 и o4-mini могут независимо использовать все инструменты ChatGPT, включая веб-браузинг, Python, понимание и генерацию изображений, что помогает в решении сложных многоэтапных задач. Возможность синтезировать информацию из различных областей также предполагает возможность предложить новаторские эксперименты.
Модели уже доступны пользователям ChatGPT Plus, Pro и Team, а также для разработчиков через API. Кроме того, OpenAI запустила Codex CLI — open-source агента программирования, который работает локально на терминалах пользователей.
В целях повышения безопасности новых моделей они прошли стресс-тестирование и оценку в рамках обновленных стандартов подготовки.
OpenAI также объявила о запуске инициативы на сумму $1 миллиона для поддержки ранних проектов, предоставляя гранты по $25K через API-кредиты.
