Новое исследование, проведенное Гамалельдином Эльсайедом и Майклом Мозером, показывает, что даже незначительные изменения в цифровых изображениях, предназначенные для запутывания компьютерных систем распознавания, могут также оказывать влияние на восприятие человека. Компьютеры и люди по-разному воспринимают мир. Биологические системы и искусственные в машинах могут не всегда обращать внимание на одни и те же визуальные сигналы.
Как стало известно, нейронные сети, обученные классифицировать изображения, могут быть полностью дезориентированы небольшими искажениями изображения, которые человек не замечает. Это дает основания для обсуждения фундаментальной разницы в восприятии между человеком и машиной. Однако исследователи решили выяснить, могут ли люди, также под контролем испытаний, продемонстрировать чувствительность к тем же искажениям.
В серии экспериментов, опубликованных в Nature Communications, были получены доказательства того, что человеческие суждения действительно систематически влияют на враждебные искажения. Эти открытия подчеркивают схожесть между человеческим и машинным зрением, но также открывают необходимость дальнейших исследований, чтобы понять влияние враждебных изображений как на людей, так и на системы ИИ.
Враждебное изображение — это изображение, которое было немного изменено с помощью процедуры, вызывающей уверенное неправильное определение его содержания ИИ-моделью. Например, такая атака может заставить модель распознать вазу как кошку.
Исследование также показало, что несмотря на то, что человеческое зрение менее восприимчиво к враждебным искажениям по сравнению с машинным, эти искажения тем не менее могут смещать восприятие мнений человека. А это вызывает критические вопросы по безопасности и защите ИИ. Представленные результаты могут информировать будущие исследования, стремящиеся повысить надежность компьютерных моделей визуализации, лучше согласовывая их с человеческими визуальными репрезентациями.
