Исследователи из MIT и международных научных институтов создали инновационный подход, который значительно повышает эффективность и точность генерации программного кода и структурированных данных большими языковыми моделями (LLMs). Эта новая архитектура позволяет моделям, даже небольшим по размеру, превосходить более крупные аналоги в задачах создания корректного и структурированного кода, запросов к базам данных и планов для робототехники.
Главной особенностью разработки является использование метода последовательных Монте-Карло, который позволяет динамично распределять ресурсы между несколькими параллельными потоками генерации, оценивая вероятность корректности каждого результата и исключая наименее перспективные. В результате, исследователям удалось добиться повышения точности и снижения вычислительных затрат, что особенно важно при работе с сложными кейсами и ограниченными ресурсами.
В рамках тестирования новый подход продемонстрировал превосходство на задачах по созданию Python-кода, SQL-запросов, молекулярных структур и планов для роботов. Так, небольшая открытая модель по сравнению с крупными коммерческими решениями показала лучшие результаты в генерации кода.
Эксперты отмечают, что данный метод может стать важным шагом в развитии систем автоматического программирования, автоматизированного анализа данных и научных исследований, делая их более надежными и доступными для пользователей без глубоких технических знаний.
Авторы работы подчеркивают, что их технология не только улучшает качество выводимых результатов, но и обеспечивает более эффективную интеграцию знаний экспертов, что открывает перспективы для внедрения в системы машинного обучения и когнитивные науки. Планируется дальнейшее развитие методов обучения и автоматизации контроля за генерируемым контентом, что может радикально изменить подходы к взаимодействию человека с искусственным интеллектом.
