Недавнее исследование, проведенное Лаурой Вайдингер и Уильямом Исаком, представило новую трехуровневую структуру для всесторонней оценки социальных и этических рисков, связанных с системами генеративного искусственного интеллекта (ИИ). Поскольку такие системы уже активно используются в писательстве, графическом дизайне и медицинской практике, важно внимательно оценивать потенциальные этические и социальные риски их разработки и применения.
В рамках своей работы авторы выделили три ключевых уровня оценки: возможности системы ИИ, взаимодействие с пользователями и системные последствия. Было также проведено сопоставление текущего состояния оценок безопасности, в котором выявлены три главные проблемы: единство контекста, специфические риски и многомодальность. Для устранения этих недостатков исследователи подчеркивают необходимость переработки существующих методов оценки и внедрения комплексного подхода, как показано в кейс-исследовании о дезинформации.
Успешная работа технологий требует решения как социальных, так и технических задач. Соответственно, для более точной оценки безопасности систем ИИ необходимо учитывать различные уровни контекста. Авторы подчеркивают, что измерение возможностей ИИ является важным индикатором более широких рисков, связанных с его использованием. Например, системы, которые с большей вероятностью генерируют фактически недостоверные или вводящие в заблуждение материалы, могут способствовать распространению дезинформации, что вызывает проблемы с доверием общества.
Эти результаты подчеркивают необходимость совместной ответственности как разрабатывающих ИИ, так и государственных структур за обеспечение безопасности в условиях увеличенного применения генеративного ИИ.
