Исследование выявляет тактики злоупотребления многомодальным генеративным ИИ

Новое исследование, проведенное в сотрудничестве с Jigsaw и Google.org, анализирует злоупотребление генеративными искусственными интеллектами (ИИ), производящими изображения, текст, аудио и видео. В условиях растущих возможностей таких технологий возрастает и риск их неправомерного использования, включая манипуляцию, мошенничество, буллинг и домогательства.

Анализировав почти 200 СМИ-отчетов о случаях злоупотребления, произошедших с января 2023 по март 2024 годов, исследователи выделили и классифицировали общие тактики применения генеративного ИИ для создания более безопасных и ответственных технологий.

Исследование выявило две основные категории тактик: эксплуатация возможностей генеративного ИИ и компрометация его систем. К мошенническим действиям с использованием ИИ относятся случаи создания реалистичных изображений для выдачи себя за публичных личностей. Между тем компрометация систем включает в себя методы, такие как ‘jailbreaking’, позволяющий удалить встроенные защитные механизмы.

Обнаруженные случаи злоупотребления показывают, что малознакомые с технологией злоумышленники используют доступные инструменты генеративного ИИ для достижения своих целей, включая манипуляцию общественным мнением и участие в мошеннических схемах. Например, один из высокопрофильных инцидентов в феврале 2024 года обернулся потерей компании более 200 миллионов гонконгских долларов после того, как сотрудника обманом заставили перевести средства на онлайн-встрече с ‘имитаторами’, созданными ИИ.

Исследование подчеркивает необходимость разработки инициатив по защите пользователей, включая программы повышения грамотности в области генеративного ИИ и меры предупреждения о манипулировании средствами массовой информации. Только через совместные усилия можно сформировать более безопасные и этически обоснованные технологии, минимизировав риски окружающей среды, в которой они функционируют.