Исследователи применили философскую концепцию для формирования справедливых принципов этики ИИ

В условиях растущего влияния искусственного интеллекта (ИИ) на различные аспекты нашей жизни, вопросы его использования и внедрения становятся всё более актуальными. Чьи ценности лежат в основе ИИ, и как они выбираются? Эти вопросы освещают роль принципов — базовых ценностей, которые определяют принятие решений в сфере ИИ.

В статье, опубликованной в Proceedings of the National Academy of Sciences, исследователи Иасон Габриэль и Кевин Маки вдохновились философскими концепциями для определения более справедливых принципов поведения ИИ. В частности, они исследуют применение концепции «занавеса незнания» — мысленного эксперимента, позволяющего определить справедливые принципы для групповых решений.

В ходе экспериментов у участников исследование показало, что подход «занавеса незнания» способствовал принятию решений, основывающимся на справедливости, независимо от личной выгоды. Участники, которые рассуждали согласно этому принципу, предпочли бы, чтобы ИИ помогал тем, кто находится в наибольшей нужде.

При выборе принципов для ИИ важно учитывать многообразие человеческих ценностей, поскольку нет единого мнения о том, какие из них должны управлять ИИ. Концепция «занавеса незнания», предложенная философом Джоном Роулзом в 1970-х годах, служит решением этой проблемы, позволяя людям выбирать принципы, которые будут справедливы для всех.

Результаты исследования показывают, что выбор принципов поведения ИИ оказывался наиболее справедливым, когда участники не знали о своем социальном статусе или уровне благосостояния. В отличие от них, осведомлённые о своем положении участники чаще выбирали принципы, приносящие им непосредственную выгоду.

Расширение исследований в данной области и использование принципов, таких как «занавес незнания», могут помочь в формировании более справедливых и этичных ИИ-систем, которые принесут пользу всем слоям общества.