Ученые предложили новый подход для оценки этических рисков AI-систем

В новом исследовании, представленном Лорой Вайдингер и Уильямом Исаком, предложена трехуровневая структура для комплексной оценки социальных и этических рисков, связанных с системами генеративного искусственного интеллекта (AI). Эти технологии уже активно используются для написания книг, создания графического дизайна и помощи врачам, что подчеркивает необходимость ответственного подхода к их разработке и внедрению.

Структура включает в себя оценки возможностей AI, взаимодействия с пользователями и системных последствий. Авторы также провели обзор существующих методов оценки безопасности, выявив три основных недостатка: недостаток контекста, специфических рисков и мультимодальности. Для устранения этих недостатков предполагается адаптация существующих методов оценки для генеративного AI и внедрение комплексного подхода, который был продемонстрирован в случае с дезинформацией.

«Для того чтобы технологии работали так, как задумано, необходимо учитывать как социальные, так и технические вызовы», – подчеркнули авторы. Оценка взаимодействия пользователей с AI-системами и системных последствий их широкого применения призвана дать более полное представление о безопасности этих технологий.

Анализ показал, что оценки возможностей AI не могут гарантировать его безопасность. Важно учитывать, кто использует систему и с какой целью, а также как система функционирует на практике. Таким образом, предложенная трехуровневая модель предоставляет обширный и глубокий подход к оценке рисков, связанных с использованием AI в различных контекстах.

Авторы призывают к сотрудничеству между разработчиками AI и государственными структурами с целью создания эффективной экосистемы для обеспечения безопасности генеративного AI и минимизации потенциальных рисков, связанных с его внедрением в общество.