Новое исследование выявляет случаи злоупотребления генеративным ИИ и предлагает пути для повышения безопасности

Новые возможности генеративного искусственного интеллекта (ИИ) открывают перед человечеством эпоху творчества и коммерческих перспектив, однако с ростом этих возможностей также увеличивается риск их злоупотребления. В рамках своей усилий по ответственному использованию ИИ, исследователи из Google, в сотрудничестве с Jigsaw и Google.org, опубликовали новую статью, посвященную анализу случаев злоупотреблений технологиями генеративного ИИ, зарегистрированных в медиа с января 2023 года по март 2024 года.

Исследование охватывает почти 200 случаев, в рамках которых были выявлены общие тактики и новаторские схемы эксплуатации ИИ. Основные опасности включают манипуляции, мошенничество и запугивание, что подчеркивает необходимость создания более надежных систем безопасности для технологий генеративного ИИ.

Анализ обнаружил две ключевые категории злоупотреблений: использование возможностей генеративного ИИ и компрометация систем. Наиболее частые случаи включают создание фальшивых образов с целью подделки личностей и финансовых махинаций. Одним из резонансных примеров является случай, когда международная компания потеряла около 26 миллионов долларов после обмана с использованием созданных ИИ поддельных участников видеовстречи.

Исследование также направлено на разработку более эффективных стратегий управления и защиты общественности от потенциальных угроз. В рамках новых инициатив компании Google будут внедрены улучшенные практики, такие как обязательное раскрытие информации о сгенерированном контенте в рекламных материалах и на платформах, таких как YouTube.

В результате работы команда надеется, что выявленные слабости и способы злоупотреблений помогут исследователям, политикам и специалистам в области безопасности разработать более безопасные технологии и улучшить их защитные меры.