Google DeepMind представил новую стратегию управления рисками, связанными с искусственным интеллектом

Google DeepMind анонсировала свою новую концепцию под названием Фреймворк безопасности на грани возможностей, которая нацелена на проактивное выявление и минимизацию рисков, связанных с передовыми моделями искусственного интеллекта. Данная инициатива призвана помочь справиться с потенциальными угрозами, возникающими в результате развития мощных моделей искусственного интеллекта, таких как исключительные способности к самоуправлению или сложные кибернетические возможности.

«Важность разработки данной инициативы подчеркивается тем, что технологии на горизонте смогут стать ценными инструментами решения ключевых глобальных вызовов, включая изменение климата, поиск новых лекарств и экономическую продуктивность», — отметили авторы исследования.

Фреймворк представляет собой комбинацию протоколов, направленных на идентификацию будущих возможностей, способных нанести серьезный ущерб, и механизмов для их обнаружения и смягчения последствий. Он основан на четырех ключевых областях: автономность, биобезопасность, кибербезопасность и исследования и разработки в области машинного обучения. Эти аспекты помогут исследовать, насколько высока вероятность применения таких технологий в злонамеренных целях и какие угрозы могут возникнуть.

Хотя риски, связанные с этими новыми моделями, выходят за пределы существующих, DeepMind уверены, что реализация фреймворка поможет подготовиться к ним. Ожидается, что первоначальные этапы внедрения будут завершены к началу 2025 года.

Компания активно сотрудничает с представителями отрасли, научного сообщества и правительства для дальнейшего совершенствования данного фреймворка и согласования стандартов и лучших практик в области оценки безопасности будущих моделей искусственного интеллекта.