25 mars 2020

ORI revient encore plus beau


Le premier jeu vidéo "Ori et la forêt aveugle" m'avait bien épaté pour la délicatesse des animations, et le soin méticuleux apporté au level design et à la lumière. Il faut dire qu'Ori est un petit personnage attachant, et que la narration est boostée par un son exceptionnel (voix, musique, sound design).

Mais ce qui m'a le plus intéressé, c'est de voir comment Ori - qui est lumineux - éclaire son environnement par sa seule présence. Il découpe des liserés sur les objets qu'il frôle, ce qui en révèle le volume et ancre parfaitement le perso dans son environnement.



Dans ce nouveau jeu Ori sort de sa forêt, ce qui est prétexte à de nouveaux décors, et des jeux de lumière à la fois subtils et expressifs. Les combinaisons de couleurs sont particulièrement harmonieuses. Et la profondeur de champ réduite contribue à l'impression de voir un monde minuscule se déployer devant nos yeux.

La majorité des combinaisons de couleurs évoque soit l'aventure, le mystère ou l'action, soit une douceur et une intimité avec les personnages bienfaisants qu'Ori croise sur son chemin:

© des illustrations : Microsoft Studios
A l'inverse, et plus rare, un exemple de choix de couleurs plus crues, désaturées, et de contrastes plus stridents dont la combinaison créé en nous un sentiment de tension et d'inconfort:



"Ori and the Will of the Wisps" est sorti sur Xbox One et PC : https://www.orithegame.com

Un Walkthrough complet du Gameplay:


Merci à Rémy de m'avoir signalé la sortie de ce jeu ;-)

21 mars 2020

Lumières numériques - où en sommes-nous ?

© Fabrice Bourrelly

La lumière n'est depuis longtemps plus confinée seulement dans le monde réel. Ces cinq dernières années, j'ai eu l'occasion d'explorer la mise en lumière d'univers en 3D temps réel, et je constate une convergence entre le réel et le virtuel, entre les tournages "en dur" et les technologies derrière les jeux vidéo et les expériences VR.
Je vous propose un petit point d'étape.

Du côté virtuel

Les "outils" commencent à se ressembler: sur Unreal Engine - l'un des moteurs qui servent à construire des univers virtuels, pour les jeux vidéo par exemple - les Timelines sur le Sequencer évoquent les Timelines des logiciels de montage, et vous pouvez choisir votre caméra (Alexa? RED? 5D Mark III?), vos objectifs (un choix de focales étourdissant) ou votre dolly (Fisher? Panther?) parmi un catalogue qui évoque ce qui est disponible dans le monde réel.

Même les effets de post-prod, dont l'étalonnage en Live, font ressembler les jeux vidéo récents à des films.

Là où ça pêche encore, c'est au rayon lumière. On ne trouve pratiquement aucune source qui corresponde à celles que l'on utilise sur les vrais plateaux. L'une des raisons vient du fait qu'en 3D temps réel, la lumière est encore difficile à simuler sans exiger des puissances de calcul considérables. Du coup, Unreal Engine, Unity et les autres obligent l'utilisateur à recourir à des sources lumineuses abstraites, qui cachent des formules mathématiques sophistiquées. Formules qui ont l'avantage de s'exécuter rapidement, mais le désavantage de ne refléter qu'une partie de la complexité lumineuse du monde réel.
Pour assurer une cadence de projection normale, les processeurs actuels font déjà des miracles. Les rendus 3D temps réel commencent à ressembler à bon nombre de films d'animation traditionnels, ou pré-calculés (type Pixar). Mais pour arriver à cette qualité, il faut économiser du temps de calcul, partout où c'est possible. Et particulièrement en lumière.

En matière de lumière numérique, il faut encore tricher pour arriver à ses fins. Pour ménager les cartes graphiques, l'un des trucs consiste par exemple à "baker" (terme anglais qu'on pourrait traduire par "cuire dans la masse") une partie des lumières et des ombres sur les textures mêmes des objets.

Par exemple: près d'une fenêtre, un canapé est appuyé à un pilier. L'ombre portée du pilier sur le sofa serait pré-calculée et juxtaposée sur la texture du canapé, ce qui ne sollicitera pratiquement pas la carte graphique. Par contre, la lumière qui entrera par la fenêtre pourrait être dynamique, de façon à rebondir en temps réel sur le personnage qui la traversera au cours de la scène.

C'est tout le charme du temps réel: que le personnage traverse la pièce en courant, qu'il s'approche de la fenêtre pour regarder à l'extérieur ou qu'il contourne le canapé, la lumière sera toujours "juste" - elle rebondira du personnage et éclairera les objets avoisinants, et tout ça à 25 images/seconde ou plus. L'un des paramètres à régler est le nombre de rebonds lumineux que l'on désire simuler, parce qu'en lumière dynamique, chaque rebond supplémentaire fait descendre la cadence de projection.

Ces derniers temps, les choses changent. Certaines sources vont bientôt ressembler à des objets que nous mobilisons sur tous les plateaux de tournage depuis des dizaines d'années. Entre autres, les softbox comme nos Chimera, avec l'équivalent des "louvers", ces nid d'abeilles qui concentrent la lumière douce vers l'avant.

Du côté réel

Les plateaux ont aujourd'hui massivement recours aux LEDs, ces sources électroniques dont les IRC (un indice de restitution des couleurs) rivalisent avec ceux des HMI.

Mais les avancées technologiques ont récemment fait un bond en avant grâce aux plateaux virtuels, comme celui utilisé pour plus de la moitié des plans de "The Mandalorian", la série Live de Disney basée sur l'univers Star Wars.

Tournage de «The Mandalorian». Des écrans LED permettent d'afficher un décors numérisé d'un réalisme époustouflant, animé par un moteur graphique de jeu vidéo.
Le système Stagecraft d'ILM a été officiellement inauguré sur la série The Mandalorian | © ICG Magazine

Une bonne partie des décors sont modélisés en 3D, puis assemblés et projetés en temps réel via Unreal Engine sur de vastes écrans de LEDs. La partie de l'écran dans le champ de la caméra est en 6K, le reste en basse résolution.
Plus besoin de déplacer les équipes, ni de construire trop de décors. Les acteurs jouent plus "vrai" puisqu'ils voient l'environnement plutôt qu'un fond vert. Et ils sont réellement éclairés par le décor, ce qui favorise l'illusion de l'incrustation.

Le Stagecraft d'ILM permet entre autres de pister dans l’espace les mouvements d’une caméra réelle (ses coordonnées XYZ) qui filme des acteurs réels, et de synchroniser les projections du décor sur les écrans LED pour que les effets de parallaxe soient cohérents depuis la caméra.
Rien de bien sorcier quand on connaît les possibilités d’Unreal Engine, combinées à de la capture de mouvement (Motion Capture).
Mais ces nouvelles possibilités techniques pourraient libérer les scénaristes (et les producteurs) de certaines contraintes spatio-temporelles, puisque la multiplication des décors ne pose plus vraiment de problèmes.

J'avais donné récemment une interview sur le système Stagecraft, que vous pouvez lire ici.

Parmi les pros avec qui j’ai eu l’occasion d’échanger sur ces enjeux, Fabrice Bourrelly est un spécialiste chevronné de Unreal Engine, et il donne des tutos en ligne. C'est en anglais mais les visuels parlent d'eux-mêmes:





Vu nos parcours et nos intérêts convergents, Fabrice et moi travaillons actuellement sur une série de "Webinars", des séminaires en ligne, en anglais. Nous en avons déjà diffusé deux, dont l'un consacré à reconstituer l'univers lumineux d'une séquence de Blade Runner 2049:

Interface de Unreal Engine, l'un des "moteurs" qui servent à fabriquer des univers virtuels.

De la même façon, nous aborderons prochainement les intérieurs / extérieurs jour / nuit, toujours en 3D temps réel:


Le site web de Fabrice: https://www.fabricebourrelly.com
Pour ceux d'entre vous qui comprennent à peu près l'anglais: inscrivez-vous, les prix sont actuellement plus que raisonnables ;-)
Et vu que ces Webinars sont en Live, et qu'ils attirent des curieux de tous niveaux du monde entier, c'est aussi une façon de nouer des contacts. A bon entendeur...

18 mars 2020

Roma, côté lumière

© Netflix 2020 
Netflix vient de sortir un Making-Of de "Roma", le long-métrage pluri-récompensé d'Alfonso Cuaron. Son titre: "Camino a Roma" (Road to Roma).
Une fois n'est pas coutume, le réalisateur avait choisi de se charger lui-même de la photographie, secondé par une solide équipe en post-prod (MPC, Mr.X) qui a amélioré pratiquement tous les plans du film *.
Mais de ça ou de son équipe, il en est très peu question dans ce documentaire tout entier conçu comme une auto-célébration. C'est parfois un peu gênant, d'autant plus qu'il ne dit pas grand chose de consistant:


© Netflix 2020


Par contre, la partie dédiée à l'image est intéressante pour ce qu'on y voit. Ca commence à 40 minutes, et les arrêts sur image vous permettront d'apprécier tout le travail de son équipe caméra / lumière / machinerie.

A force de travailler avec Emmanuel Lubezki (lien > Wikipedia), Cuaron a surtout appliqué quelques unes des stratégies de Maestro Chivo: privilégier de grandes sources douces en contre, et les longs plans mobiles. Pendant 10 minutes vous verrez un déferlement d'énormes diffuseurs plats ou cubiques, suspendus à des grues. Ou des grappes d'Aladin Bi-Flex, ces sources LED ultra-plates bien pratiques, gaffées sur l'auvent des magasins de la rue commerçante:

Vous noterez les propos de Cuaron, pétris de modestie. © Netflix 2020

Ne vous y trompez pas: j'aime beaucoup les films d'Alfonso Cuaron, de "Y Tu Mama Tambien" à "Gravity". Mais son indifférence à son équipe tourne ici au ridicule.


https://www.hollywoodreporter.com/behind-screen/how-romas-visual-effects-team-created-intense-ocean-sequence-1169264