Rédaction
Date
High-Performance Graphics 2025 est dense. Peu de monde, beaucoup d’idées. Un événement incontournable des expertises en rendu 3D en temps réel, un lieu où milieu de la recherche et industrie se croisent pour présenter des algorithmes, des méthodes et des technologies qui orientent la prochaine génération d’effets visuels. On y voit des papiers, on y parle de code, on échange sur ce qui peut réellement intégrer en production.
Cette année, HPG 2025 a frappé fort en mêlant habilement approches traditionnelles et avancées technologiques. Intelligence artificielle, shaders neuronaux, compression optimisée, réflexion spéculaire allégée. On y découvre ce qui s’en vient dans un an ou deux dans vos moteurs, dans vos pipelines et dans vos équipes.
Olivier Therrien, du CDRIN, y était. Il y a vu des choses qui parlent aux studios et aux équipes R&D. Dans ce retour d’expérience, il partage ses observations clés. On parle d’IA, de performance, de durabilité, de plateformes, de matériel. Mais aussi de choix, de ce qu’il faut surveiller et de ce qu’on peut déjà tester.
Pour le CDRIN et les studios québécois, HPG 2025 n’est pas qu’un rendez-vous technique: c’est une fenêtre sur les innovations concrètes à court terme, les pistes de R&D à explorer, et les collaborations à construire pour conserver l’avance dans un marché mondial en constante évolution.
Pourquoi HPG 2025 était-il un rendez-vous incontournable cette année?
Le HPG est un évènement qui réunit des chercheur·euses spécialisé·s dans le rendu 3D en temps réel de partout à travers le monde. On assiste à des présentations détaillées de différents algorithmes qui typiquement vont améliorer la qualité ou les performances d’un effet visuel. Le programme cet année était très intéressant, proposant à la fois des techniques basées sur l’intelligence artificielle, ainsi que des méthodes plus traditionnelles. C’est un évènement relativement petit, et y aller en personne permet de rencontrer et discuter avec plusieurs chercheur·euses du domaine.
Quelles percées récentes en rendu (temps réel, ray tracing, optimisation GPU) t’ont le plus marqué, notamment celles présentées dans des papiers ou démos concrètes? Vois-tu des applications industrielles à court terme dans le jeu vidéo, l’animation ou les VFX (en termes de coûts, délais, qualité)?
Un des papiers que j’ai trouvé intéressant est Hardware Accelerated Neural Block Texture Compression with Cooperative Vectors par des chercheurs chez Intel, qui permet de compresser des textures PBR dans un format neural, afin d’optimiser la taille en mémoire vidéo et sur le disque dur. La technique semblait utilisable à court terme, et n’est pas contrainte par l’obligation d’utiliser du Stochastic Texture Filtering, ce qui la rends plus performante et facile à intégrer que les méthodes alternatives que j’avais vu auparavant.
Un autre papier intéressant était Spherical Harmonic Exponentials for Efficient Glossy Reflections par des chercheurs chez Activision, qui permet de précalculer les réflexions spéculaires dans dans une représentation à base de Spherical Harmonics, similaire aux sondes de lumières qui sont utilisé dans les jeux depuis longtemps mais typiquement seulement pour la lumière diffuse. Cela permet de réduire la quantité de mémoire vidéo requise car ça remplace les Cubemaps qui sont habituellement utilisés pour cet effet.
Quelles applications concrètes de l’IA générative ou de l’optimisation graphique t’ont marqué, notamment en lighting, shading ou création d’assets? Vois-tu un impact réel sur les pipelines de production ou la définition du rendu haut de gamme?
La présentation de Nvidia intitulée The Future of Analytical Materials in a Neural World était une réflexion sur la place des matériaux à base d’IA dans les productions futures. Selon la présentatrice, de plus en plus de shaders vont être sous forme neurale, ce qui permettra de simuler des matériaux beaucoup plus complexes que ce qu’il y a en ce moment. Par exemple, la peinture d’automobile est composée de plusieurs couches, tel qu’une base diffuse, des brillants (glints), ainsi que plusieurs couches semi-transparentes. Simuler la propagation de la lumière entre toutes les couches est très couteux en calculs, et avoir une approximation à base de réseau de neurones serait beaucoup plus performant pour les applications temps-réel.
Parles-nous un peu d’avancées matérielles ou logicielles qui t’ont semblé les plus prometteuses pour améliorer la performance, l’optimisation multi-plateforme ou réduire les coûts (portage, cloud, énergie).
La présentation Hallucinating the Future of Real-Time Rendering de Roblox a mis beaucoup l’emphase sur le fait que les graphismes des jeux ne sont plus nécessairement le fer de lance des ventes de jeux, mais plutôt le support multi-plateformes et mobile, ainsi que du contenu nouveau sur une base régulière qui permettent d’attirer et surtout retenir les joueurs dans un jeu. Il y a donc de plus en plus de jeux qui fonctionnent sur toutes les plateformes, et l’optimisation deviens essentielle sur certaines d’entre elles (mobile, Nintendo Switch).
Comment les enjeux de durabilité ou de performance énergétique sont-ils pris en compte dans les solutions de rendu?
Ces enjeux ont été indirectement exposés. La plupart des optimisations de performance présentées permettent de réduire la quantité d’électricité consommée par les processeurs. Le fait que les appareils mobiles et consoles portables soient de plus en plus populaires permet aussi de réduire la quantité d’énergie consommée.
En ce qui concerne les avenues de R&D et de transfert technologique que le CDRIN devrait explorer dans les prochaines années pour stimuler l’innovation au sein des studios québécois: quelles technologies ou collaborations émergentes pourraient favoriser la croissance et renforcer la compétitivité des studios dans un avenir proche?
Définitivement l’aspect de l’IA dans le rendu, par exemple via les shaders à base de réseau de neurones est à suivre de près, car ça deviendra probablement incontournable dans quelques années. Tangentiellement, les langages de programmation différentiables tel que SlangD sont de plus en plus pertinents pour le développement d’algorithmes de rendus futurs, en permettant notamment de spécialiser ou fine tuner une partie des calculs selon une scène ou un jeu en particulier.
Quels acteurs (hardware, software, middleware) dominent les discussions?
Les présentations sont données autant par des chercheur·euses universitaires que par ceux et celles qui sont dans l’industrie ou dans des centres de recherches privés. L’emphase est mise principalement sur les algorithmes plus que sur le hardware, mais évidemment les GPUs sont au centre de presque tout ce qui est présenté.
En quoi ce que tu as vu alimente nos projets, notamment en collaboration avec les studios québécois? Aperçu de pistes concrètes de R&D ou de transfert technologique à surveiller?
C’est certain que ce contenu donne un aperçu des technologies et des évolutions qui s’en viennent en production dans les prochaines années, ce qui nous permet à la fois de mieux orienter nos partenaires sur ce qu’il faut surveiller, et d’amorçer des projets de recherche pertinents. Discuter avec des experts·es est aussi très intéressant et m’a permis de répondre à certaines questions ou problématiques que je rencontre dans mes projets actuels. Et qui sais, parfois cela peut mener à des collaborations futures.