С увеличением влияния искусственного интеллекта (ИИ) на нашу повседневную жизнь возрастает важность вопросов, касающихся его использования и внедрения. Какие ценности определяют направления работы ИИ? Чьи ценности учитываются? Как эти ценности выбираются? Эти вопросы подчеркивают роль принципов — основных ценностей, управляющих принятыми решениями в области ИИ.
В статье, опубликованной сегодня в Proceedings of the National Academy of Sciences, исследователи Иасон Габриэль и Кевин Маки вдохновляются философией для поиска справедливых принципов, направляющих поведение ИИ. В частности, они исследуют, как концепция «вуали незнания» — мысленный эксперимент, помогающий находить справедливые принципы для групповых решений — может быть применена к ИИ.
В проведенных экспериментах было установлено, что этот подход способствует принятию решений, основанных на справедливости, независимо от личной выгоды. Участники выборов, находившиеся под вуалью незнания, чаще предпочтительно выбирали ИИ, который помогал наиболее ущемленным.
Одной из ключевых целей исследователей ИИ является приведение систем ИИ в соответствие с человеческими ценностями. Однако нет единого набора человеческих ценностей или предпочтений, которые могли бы регулировать ИИ. Поэтому задача выбора принципов для этой технологии становится особенно актуальной в условиях разнообразия мнений.
Исследование демонстрирует, как применение философских концепций может способствовать разработке более этичных и справедливых ИИ-систем. Данные результаты актуальны для всех вовлеченных сторон и могут повлиять на формирование будущего ИИ.
