Publié le 2024-02-29 14:35:00. Des chercheurs ont mis au point MadSpace, une nouvelle bibliothèque logicielle qui promet d’accélérer considérablement les simulations complexes utilisées en physique des particules, ouvrant la voie à de nouvelles découvertes potentielles grâce à une meilleure exploitation des capacités des cartes graphiques modernes.
- MadSpace est une bibliothèque C++ avec un support natif des GPU via CUDA et HIP.
- Elle unifie des processus clés comme la construction de l’espace des phases, l’échantillonnage adaptatif et la non-pondération des événements.
- L’intégration avec des outils d’apprentissage automatique comme PyTorch est facilitée par une interface Python.
La physique des hautes énergies, notamment les expériences menées au Grand collisionneur de hadrons (LHC), repose de plus en plus sur des simulations informatiques sophistiquées pour interpréter les données et prédire de nouveaux phénomènes. Ces simulations sont extrêmement gourmandes en ressources, et leur efficacité est un facteur limitant dans la recherche de nouvelles particules ou de nouvelles lois physiques. Pour répondre à ce défi, une équipe internationale de scientifiques a développé MadSpace, une bibliothèque logicielle innovante conçue pour optimiser ces processus de simulation.
Développée par Theo Heimel et Olivier Mattelaer (CP3, Université catholique de Louvain) et Ramon Winterhalder (TIFLab, Università degli Studi di Milano & INFN Sezione di Milano) et leurs collaborateurs, MadSpace se distingue par son approche unifiée basée sur des graphiques de calcul. Cette architecture permet d’accélérer significativement des étapes cruciales de la simulation, telles que la construction de l’espace des phases – une représentation mathématique de tous les états possibles d’un système – et l’échantillonnage adaptatif, une technique permettant de concentrer les calculs sur les régions les plus importantes de cet espace. La bibliothèque intègre également des méthodes avancées de non-pondération des événements, améliorant ainsi la précision des résultats.
MadSpace prend en charge une large gamme de techniques de cartographie, des méthodes établies comme l’espace de phase multicanal MadGraph aux approches plus récentes et optimisées, incluant des transformations inverses analytiques. Tous les composants sont conçus pour fonctionner sur des lots d’événements, ce qui réduit considérablement la surcharge liée au transfert de données entre le processeur et la carte graphique. Une interface Python conviviale permet une intégration facile avec des bibliothèques d’apprentissage automatique telles que PyTorch, ouvrant ainsi de nouvelles perspectives pour l’application de ces techniques à la physique des hautes énergies.
Les chercheurs ont mis en œuvre des versions performantes de mappages basés sur les diagrammes de Feynman, ainsi que de nouveaux schémas de type Rambo, dont une variante optimisée pour les GPU appelée FastRambo. Les routines d’échantillonnage adaptatives, comme VEGAS, et la normalisation des flux sont également nativement prises en charge sur les GPU. Cette conception modulaire facilite l’intégration de MadSpace avec d’autres frameworks, comme MadNIS, pour l’inférence, la modélisation de substitution et la programmation différentiable.
La prochaine version majeure de MadGraph, un outil largement utilisé en physique des particules, intégrera MadSpace comme composant central. Initialement, cette intégration se concentrera sur les calculs d’ordre supérieur, mais les développeurs prévoient d’étendre les fonctionnalités à d’autres types de calculs à l’avenir. Au-delà de la physique des collisionneurs, l’architecture de MadSpace est conçue pour prendre en charge des stratégies d’accélération basées sur l’apprentissage automatique et des cadres de simulation différentiables, ce qui laisse présager des applications potentielles dans d’autres domaines du calcul scientifique.
Les validations menées par l’équipe confirment l’exactitude des volumes d’espace de phase et des distributions générées par MadSpace. Les tests de performance ont démontré des gains significatifs en termes de débit de génération d’événements. Les chercheurs reconnaissent toutefois que l’exploitation complète du potentiel des architectures massivement parallèles reste un défi, et que des optimisations continues seront nécessaires pour répondre aux exigences croissantes des expériences futures, telles que le LHC à haute luminosité.