Databricks представляет новый подход к оптимизации обучения AI без размеченных данных

Компания Databricks представила новый метод, называемый адаптивной оптимизацией во время тестирования (TAO), который позволяет настраивать крупные языковые модели (LLM) без необходимости в размеченных данных. Этот подход решает одну из главных проблем при внедрении AI-технологий — необходимость в длительном процессе сбора и маркировки доменных данных.

По словам Брендона Цуи, ведущего исследователя в области усиленного обучения, существующие методы требуют значительных усилий и времени для получения размеченных данных, что препятствует внедрению AI в бизнес-процессы. Основное преимущество нового метода TAO заключается в том, что он использует только входные данные, которые уже имеются у компании, и результаты показывают лучшие показатели по сравнению с традиционными методами настройки моделей.

TAO опирается на четыре ключевых механизма, включая генерацию ответов на неразмеченных данных и оптимизацию моделей с помощью методов усиленного обучения. Данная методология уже показала свое превосходство на различных benchmarks, включая FinanceBench и BIRD-SQL, значительно улучшив результаты без увеличения затрат на ресурсы во время вывода модели.

TAO предоставляет компаниям возможность внедрять специализированные AI-решения за недели, а не месяцы, что создает стратегическое преимущество в конкурентной борьбе. В условиях усиления роли AI в бизнесе, такие технологии могут значительно повлиять на скорость внедрения и качество результатов, что делает их привлекательными для организаций, стремящихся к опережению в области AI.

На текущий момент метод доступен на платформе Databricks в режиме частного просмотра.