На следующей неделе начинается 40-я Международная конференция по машинному обучению (ICML 2023), которая пройдет с 23 по 29 июля в Гонолулу, Гавайи. Конференция собирает сообщество искусственного интеллекта (ИИ) для обмена новыми идеями, инструментами и наборами данных, а также для установления связей, способствующих продвижению этой области.
Наш директор по науке, технологиям и обществу, Шакир Мохамед, выступит с докладом на тему машинного обучения с социальной целью, в котором будут рассмотрены проблемы в области здравоохранения и климата, с акцентом на социотехнический аспект и укрепление глобальных сообществ.
Мы с гордостью поддерживаем конференцию в качестве спонсора Platinum и продолжаем сотрудничество с нашими долгосрочными партнерами LatinX in AI, Queer in AI и Women in Machine Learning.
На конференции также будут продемонстрированы новшества, касающиеся AlphaFold, достижений в области управляемого термоядерного синтеза, и новых моделей, таких как PaLM-E для робототехники и Phenaki для генерации видео из текста.
Исследователи Google DeepMind представят более 80 новых статей на ICML в этом году. Многие из статей были поданы до объединения Google Brain и DeepMind, поэтому статьи, изначально поданные под аффилиацией Google Brain, будут включены в блог Google Research, в то время как статьи, поданные под аффилиацией DeepMind, будут представлены в данном блоге.
Ключевым аспектом успешного функционирования ИИ, который умеет читать, писать и создавать, являются основанные модели – ИИ-системы, обученные на огромных наборах данных, способные выполнять множество задач. В наших последних исследованиях рассматривается, как перевести эти усилия в реальный мир и подготовить почву для более способных и внедренных ИИ-агентов, которые могут лучше понимать динамику мира, открывая новые возможности для более полезных инструментов ИИ.
В одном из устных докладов мы представим AdA, ИИ-агента, способного адаптироваться для решения новых задач в смоделированной среде, как это делают люди. За считанные минуты AdA может выполнять сложные задачи: комбинировать объекты нестандартным образом, исследовать незнакомые местности и сотрудничать с другими игроками.
Таким образом, развитие ответственного и надежного ИИ требует понимания целей, лежащих в основе этих систем. В рамках обучения с подкреплением мы стремимся уточнить гипотезу вознаграждения, впервые выдвинутую Ричардом Саттоном, мнение которой заключается в том, что все цели можно рассматривать как максимизацию ожидаемого кумулятивного вознаграждения.
