Article

Google DeepMind предложила AlphaEvolve: LLM переписала алгоритмы теории игр и превзошла экспертов

Метод AlphaEvolve использует большую языковую модель для автоматического переписывания алгоритмов MARL в играх с неполной информацией.

3 апреля 2026 г. в 22:26Обновлено: 3 апреля 2026 г. в 23:38Global AI News DeskMarkTechPost3 мин
Кинематографичная сцена: гуманоидный робот у прозрачного голографического экрана с визуализацией графа и пирамидой дерева решений, два сосредоточенных исследователя наблюдают; на столе шахматные фигуры, игральные карты и фишки, символизирующие игры и стратегии.
Суть

Коротко по делу

  • 01

    Google DeepMind представила AlphaEvolve — подход, в котором большая языковая модель переписывает алгоритмы для многопользовательского обучения с подкреплением (MARL) в играх с…

  • 02

    AlphaEvolve — метод Google DeepMind, в котором большая языковая модель генерирует и модифицирует компоненты алгоритмов для MARL в сценариях с неполной информацией.

  • 03

    Подобные задачи относятся к последовательным играм с приватной информацией игроков (например, покер), где традиционно разработка алгоритмов требовала интуиции и многократной…

Что произошло

Google DeepMind представила AlphaEvolve — подход, в котором большая языковая модель переписывает алгоритмы для многопользовательского обучения с подкреплением (MARL) в играх с неполной информацией; AlphaEvolve автоматизирует подбор схем взвешивания, правил дисконтирования и…

Почему это важно

Для исследователей и инженеров, работающих с MARL в последовательных играх с приватной информацией, AlphaEvolve может уменьшить время на ручной подбор алгоритмических компонентов и дать более конкурентные решения без длительной итерации.

Разбор

Контекст

AlphaEvolve — метод Google DeepMind, в котором большая языковая модель генерирует и модифицирует компоненты алгоритмов для MARL в сценариях с неполной информацией. Система автоматически подбирает схемы взвешивания, правила дисконтирования и солверы равновесия вместо ручной итерации и проб и ошибок.

Детали

Подобные задачи относятся к последовательным играм с приватной информацией игроков (например, покер), где традиционно разработка алгоритмов требовала интуиции и многократной настройки. По данным статьи на MarkTechPost от 3 апреля 2026 года, подход DeepMind показал результаты лучше, чем алгоритмы, разработанные экспертами в этой области.

Что это меняет

Это означает, что этапы выбора весов, правил дисконтирования и солверов равновесия для MARL могут быть автоматизированы и оптимизированы LLM, что сокращает ручную настройку и может ускорить разработку более сильных агентов для игр с неполной информацией, таких как покер.

Связанные материалы

Еще по этой теме

28 мар.The DecoderНовость3 мин
Гладкий лабораторный робот за столом с двумя исследователями, манипулирующий светящимися голографическими блоками и схемой/микросхемой, символизирующими процесс обучения и его оптимизацию; современная лаборатория на фоне, кинематографическое освещение.

Meta представила «гиперагентов», которые учатся улучшать сам процесс обучения

Meta совместно с несколькими университетами разработала системы, которые одновременно решают задачи и оптимизируют механизм собственного обучения.

Открыть