Google DeepMind анонсировала запуск своей новой Frontier Safety Framework — набора протоколов, предназначенных для выявления будущих возможностей могущих нанести серьезный вред. Данный шаг стал ответом на растущие опасения по поводу рисков, которые могут возникнуть с развитием моделей искусственного интеллекта (AI).
Компания продолжает активно продвигать технологии AI, которые могут стать важными инструментами в решении глобальных проблем, таких как изменение климата, поиск новых лекарств и экономическая продуктивность. Однако с возрастанием возможностей современных моделей, увеличивается и вероятность возникновения новых рисков, которые могли бы угрожать безопасности.
Новая рамка ориентирована на серьезные угрозы, связанные с мощными возможностями на уровне модели, такими как исключительное поведение или сложные киберспособности. Она будет дополнять текущие исследования компании в области согласования моделей с человеческими ценностями и целями общества.
Предполагается, что Frontier Safety Framework будет развиваться по мере его внедрения и тем более глубокого понимания риска AI. В рамках программы также предусмотрено сотрудничество с представителями различных секторов, чтобы обеспечить устойчивый и безопасный рост технологий AI.
Основные компоненты Framework заключаются в создании уровней критических возможностей, исследующих такие области, как автономия, биобезопасность и кибербезопасность. В рамках этого подхода будут разработаны меры безопасности и развертывания, которые позволят управлять потенциальными угрозами, однако они могут замедлить темп инноваций.
Google DeepMind планирует внедрить начальную версию новой рамки к началу 2025 года, подчеркивая приверженность компании принципам ответственного развития AI.
