Колектив американських дослідників створив алгоритм, здатний аналізувати колективну поведінку гравців і стратегію в командних видах спорту, наприклад, футболі. Програма навчалася на траєкторіях професійних футболістів в матчах Європейської ліги УЄФА і при цьому сама визначала ролі гравців по ходу гри, не прив'язуючи до їх формальних позицій у складі команді. Дослідження було представлено на конференції ICML 2017, а також описано в препринті, який доступний на сайті Disney Research.Машинне навчання глибоких нейромереж вже неодноразово доводило свою перевагу в завданнях аналізу та освоєння різних ігор. Настільні ігри на кшталт шахів і го вже остаточно підкорилися штучному інтелекту, а на «перемогу» над комп'ютерними іграми виділяється все більше ресурсів. З точки зору машинного навчання і ті й інші ігри є завданнями навчання з підкріпленням, і в них потрібно навчити одного «агента», скількома б меншими одиницями (фігурами, юнітами) він не керував. Однак існують ігрові види спорту, в тому числі командні, де агентів кілька, і всі вони змушені взаємодіяти один з одним. Зі зрозумілої причини комп'ютери на даний момент не можуть змагатися з людьми в таких видах спорту, зате можуть аналізувати ігри і навчати своїх агентів в симуляторах. Досі, однак, успіхів у вирішенні таких завдань було трохи через складну систему взаємодій агентів один з одним. У новій роботі автори запропонували гібридну схему машинного навчання, яка поєднує дві глибоких нейромережі. Одна займалася тим, що аналізувала дії гравців в залежності від ігрового контексту (рухів м'яча і гравців суперника), намагаючись передбачити найкращий план дій кожного гравця в окремій ігровій ситуації. Ця система навчалася з підкріпленням, тобто на кожну дію система отримує певний відгук від «середовища». Наприклад, якщо якась серія дій призводила до пропущеного м'яча, нейромережа була оштрафована, а якщо віртуальні гравці забивали гол супернику - нагороджена.