Google DeepMind анонсировала запуск Frontier Safety Framework, цель которого заключается в проактивной идентификации и снижении рисков, связанных с будущими возможностями мощных моделей искусственного интеллекта. Данный подход разработан для оценки потенциально опасных возможностей, таких как исключительная автономия и сложные киберспособности, с акцентом на серьезные угрозы.
В рамках нового проекта предусмотрены три ключевых компонента, на которые опирается начальный набор уровней критических способностей. Эти уровни затрагивают области автономии, биобезопасности, кибербезопасности и исследовательской разработки искусственного интеллекта. Первоначальные исследования показывают, что эти области могут представлять наибольшие риски в связи с ростом возможностей будущих моделей.
Рамка безопасности призвана не только оценивать риски, но и настраивать меры защиты в соответствии с различными уровнями способностей. Хотя высокоуровневые меры защиты могут замедлить развитие технологий, они намерены обеспечить баланс между инновациями и безопасностью.
Google DeepMind ожидает, что новая рамка будет значительно дорабатываться и изменяться по мере накопления данных и опыта, а ее полное внедрение планируется к началу 2025 года. Важным элементом работы за рамкой является соблюдение принципов ответственности и безопасности, которые сформулировала компания.
Сейчас DeepMind стремится к сотрудничеству с другими участниками индустрии, академической средой и государственными органами для формирования стандартов и лучших практик в оценке безопасности моделей нового поколения.
