Недавние исследования, проведенные Йорамом Бахрахом и Яношом Крамаром, продемонстрировали, как искусственные агенты могут значительно улучшать свои способности к сотрудничеству в ходе переговоров в игре ‘Diplomacy’. Эта игра, известная своей сложностью и акцентом на построение альянсов, стала площадкой для моделей взаимодействия и коммуникации между искусственными агентами.
В своей статье, опубликованной в Nature Communications, исследователи представили алгоритмы переговоров, которые позволяют агентам общаться и достигать единого плана действий, преодолевая ограничения некомунирующих противников. В ‘Diplomacy’, где каждое решение зависит от действий других игроков, сотрудничество часто осложняется недостатком доверия. Исследование поднимает важный вопрос: какие условия способствуют честной коммуникации и совместной работе?
Главным выводом исследования стало то, что применение санкций к игрокам, нарушающим договоренности, значительно снижает их мотивацию к нарушению обязательств, что способствует более честному взаимодействию. В ходе экспериментов агенты, способные на переговоры, показали значительно лучшие результаты по сравнению с классическими некомуницирующими агентами.
При этом исследователи также выявили типы агентов-девиаторов, которые, отклоняясь от соглашенных контрактов, могут доминировать над честно действующими агентами. Для борьбы с этой тактикой были разработаны защитные агенты, которые реагируют негативно на нарушения договоренностей, что также эффективно снижает шансы девиаторов на успех.
Работа открывает новые горизонты для исследования и разработок в области справедливых и прозрачных систем ИИ, которые соответствуют ценностям и приоритетам общества. Исследователи ставят перед собой вопрос о том, как разработать более сложные протоколы для содействия честному поведению в будущем.
