Эксперты призвают к повышению безопасности искусственного общего интеллекта

Группа экспертов в области искусственного интеллекта, включая Anca Dragan, Rohin Shah, Four Flynn и Shane Legg, представила новые рекомендации по обеспечению безопасности и ответственности при разработке искусственного общего интеллекта (AGI). В своем исследовании они подчеркивают, что AGI, обладающий когнитивными способностями на уровне человека, может стать реальностью в ближайшие годы.

Развитие AGI открывает новые горизонты для решения актуальных мировых проблем, таких как здоровье, экономика и изменение климата. Например, с помощью AGI возможно улучшение диагностики заболеваний и создание персонализированных образовательных программ, что может существенно повысить доступность и качество медицинских услуг и образования для миллиардов людей.

Тем не менее, эксперты предупреждают, что с такими мощными технологиями следует учитывать и потенциальные риски. В своей работе они выделили четыре основных области риска: злоупотребление, несоответствие, аварии и структурные риски, с акцентом на проблемы злоупотребления и несоответствия.

Чтобы предотвратить возможные последствия злоупотреблений, специалисты разрабатывают механизмы безопасности, которые могут помешать вредоносным действиям с использованием AI. Также они подчеркивают важность понимания и учета человеческих ценностей в процессе разработки AGI, чтобы избежать ситуации, когда AI принимает решения, противоположные человеческим намерениям.

Одним из ключевых аспектов их стратегии является создание системы мониторинга, способной выявлять действия AGI, не соответствующие заранее заданным целям. Кроме того, эксперты призывают к международному сотрудничеству для выработки согласованных подходов к управлению рисками, связанными с AGI.

В заключение группа подчеркивает необходимость повышения осведомленности среди исследователей и экспертов о проблемах безопасности AGI и запускает новые образовательные инициативы для формирования надежных основ в этой области.