Sélectionner une page
Pourquoi les entreprises doivent s’intéresser au jumeau numérique dès aujourd’hui

Pourquoi les entreprises doivent s’intéresser au jumeau numérique dès aujourd’hui

Pourquoi les entreprises doivent s’intéresser aux jumeaux numériques dès aujourd’hui

(Grâce à Pixar ! Et pas que pour faire des films !)
kongsberg-flickr-digital-twin
Credit : kongsberg digital twin, on flickr

Déjà présents, mais peu exploités

Les jumeaux numériques, « digital twins » en anglais, sont des répliques virtuelles d’objets ou d’espaces physiques.

En prenant du recul sur cette définition Wikipédieste, on se rend compte d’une chose. Les jumeaux numériques sont en fait déjà bien présents dans l’industrie. En effet, il n’y a plus un produit, plus un espace de vente, plus une usine qui n’utilise pas la CAO – Conception Assistée par Ordinateur. (nous en faisions l’objet d’un article).

Bonne nouvelle donc, vous avez déjà des jumeaux numériques et ceux-ci ne demandent qu’à être valorisés. Mais comment faire ? Quels peuvent en être les usages ? Et surtout, pourquoi s’y intéresser aujourd’hui plus qu’hier ?

Précisons d’abord ce que l’on entend par « jumeaux numériques » et ce que l’on peut en attendre.

Le jumeau numérique c’est une représentation 3D, une sculpture virtuelle d’un objet ou d’un espace. Cette sculpture est le minimum nécessaire dont un industriel ait besoin pour pouvoir passer à la fabrication. Toutefois, elle ne permet pas de représenter fidèlement un objet. En effet, tout produit a également besoin de matériaux, et ces matériaux ont besoin d’être définis sur la 3D. Il faut décider leur aspect, leur granularité, leur comportement à la lumière, afin d’en obtenir un visuel réaliste – voire photoréaliste. C’est la grande différence qu’il y a entre un logiciel de CAO, et un logiciel, dit DCC, d’images de synthèse ou d’applications virtuelles.
modèle 3D aspirateur rowenta
On pourrait s’arrêter là – à la forme et à la matière – pour un simple produit, mais QUID d’un objet complexe ou d’un espace ? Il y a dans ceux-là une hiérarchie, du moins une organisation, avec des éléments rangés selon la logique du produit. Des éléments « sur », des éléments « liés », et des éléments « dans ». Par exemple ce sera le cas d’une maison composée, entre autres, d’une cuisine, d’un salon, et dans ce salon, une table, des chaises, une bibliothèque avec des livres, un canapé avec de gros coussins moelleux …Ou bien une usine, avec des chaînes de montage, des robots, etc. C’est à cette richesse, propre à la réalité, que doit prétendre le jumeau numérique pour être valorisé. Mais justement, comment le valoriser ?

Une exploitation diverse

Pendant longtemps, l’usage des jumeaux numériques s’est limité à fournir une belle image de synthèse à des fins de communication. Les enseignes l’ont bien compris. La 3D permet d’obtenir des images propres sans retouche ni détourage pour mettre en scène le produit, souvent, avant même qu’il soit fabriqué. L’exemple le plus connu étant celui du catalogue IKEA, qui propose des images et des aménagements majoritairement en image de synthèse.
salon-3d-ikea
Aujourd’hui, les évolutions technologiques autour de la 3D ouvrent la porte à d’autres exploitations. D’abord, on peut enrichir le modèle numérique d’informations complémentaires. C’est ce que fait le secteur du bâtiment avec son fameux BIM – Building Information Modeling. Le BIM c’est quoi ? Eh bien, imaginez un bâtiment complet en version numérique, sur lequel viennent se greffer une variété de données : informations de conception, matériaux, réseau électrique, plomberie, consommation énergétique. Une 3D complète, fidèle, enrichie de donnée, et consultables par toutes les équipes pour faciliter le processus de création et de gestion. C’est un premier exemple de jumeau numérique avancé. Il y en a d’autres. Dans l’industrie par exemple, où il est très présent, on s’en sert pour suivre et driver l’activité. En liant chaque infrastructure à son modèle 3D, on affiche des données en temps réelle pour surveiller la production, informer les ingénieurs, gérer les équipes, assurer la sécurité, contrôler la consommation énergétique, etc. Les industriels s’en servent aussi pour simuler des phénomènes, anticiper des incidents ou des opérations.

Un exemple en vidéo

Ici, le jumeau numérique d’une usine de BMW.

En plus de son rôle premier (donner une visibilité complète de la production) les ingénieurs s’en servent pour simuler les étapes de montage des prochains modèles afin de les adapter aux travailleurs, les rendre plus confortables, plus ergonomiques.

En deuxième partie de vidéo, les intervenants montrent également qu’en couplant le jumeau numérique au machine learning, ils permettent à leurs robots d’apprendre toutes les configurations possibles de l’usine pour que les robots puissent mener leurs missions efficacement. Autrement dit : les robots apprennent à s’adapter au réel grâce à des situations virtuelles.

Et même de plus en plus diverse

Ces dernières années, certaines technologies ont beaucoup évolué, tandis que d’autres ont vu le jour. Le jumeau numérique profite de tout cela. Aujourd’hui par exemple, grâce à des appareils de plus en plus puissants, des technologies embarquées et un accès rapide à internet, on peut interagir avec notre jumeau numérique directement sur notre smartphone. À cela s’ajoute la réalité augmentée qui apporte de nouveaux champs d’applications : localisation spatiale, agencement in situ, simulation, notice interactive, etc. De son côté, la réalité virtuelle progresse – peut-être moins vite que ce que l’on a pu prétendre, mais à mon avis de manière plus sereine – grâce à des applications orientées business : visite d’un nouveau projet, étude d’ergonomie d’un poste de travail, formation d’une personne selon un scénario, etc. Le Cloud, lui, apporte le stockage, la puissance de traitement et la disponibilité nécessaire pour manipuler ce média, effectivement un peu lourd, qui ne passe pas dans la boîte mail. Enfin, l’évolution rapide de l’intelligence artificielle, surtout dans le domaine de la vision, de la reconnaissance et de la compréhension de son environnement dessine un vaste champ d’applications pour le futur. Alors, pourquoi malgré toutes ces avancées, il est encore difficile de valoriser son jumeau numérique, quand bien même les technologies sont là ?

Rouler avec le frein à main

La réponse : parce qu’il n’y a pas de standardisation. C’est là où le bât blesse. En informatique, quand un usage se répand, des formats standards finissent toujours par apparaitre et faciliter les échanges. Imaginez donc le web sans HTML, l’affichage d’images sans JPEG, le partage de document sans PDF, ou la diffusion vidéo sans MPEG4. C’est tout le problème des jumeaux virtuels, ils n’ont pas encore de formats standards. À l’heure actuelle, chaque éditeur de logiciel a son propre format propriétaires. Pire encore, certains logiciels au sein d’un même éditeur ont des formats différents ! Et donc, une fois un jumeau numérique créée dans un logiciel, on peut difficilement le transférer dans un autre. Si aujourd’hui, on parvient sans mal à récupérer la géométrie d’un objet. C’est-à-dire ses faces, ses segments, son maillage. La chose est plus difficile pour les matières ou la hiérarchie d’une scène. Cela implique à chaque fois un gros de travail de reprise et d’adaptation du modèle. Nous-mêmes, lorsque nous reprenons le travail d’un autre studio ou d’un free-lance pour rectifier ne serait-ce qu’une simple illustration sur un produit, ou ajouter une nouvelle teinte, nous savons qu’il ne faut pas espérer recevoir plus que le modèle 3D brut. Ce qui nous laisse souvent 95% du travail à reprendre. Un travail chronophage, donc coûteux, qui mange une grosse partie du budget avant même que nous ayons pu retoucher le modèle pour lui faire gagner en valeur ajoutée. Encore plus si à cela vient s’ajouter une phase de développement spécifique au domaine. Heureusement les choses bougent ! Et dans la bonne direction. En effet, il se joue actuellement une révolution, peu audible certes, mais bien réelle, et qui n’arrive pas forcément par là où on l’attendait.

Le GLTF, le JPEG de la 3D

C’est Kronos Groupe, un consortium d’industriel, qui a fait le premier pas vers une standardisation du jumeau numérique. En 2015, ils ont annoncé les spécifications du glTF, un format spécifique aux modèles 3D. Leur travail a ensuite continué pour aboutir en 2017 à une évolution permettant l’intégration de matériaux de manière dite « physiquement plausible ». Traduction : de manière réaliste.
GlTF_logo.svg

En bref, il est maintenant possible de présenter un produit dans une application ou sur une page Web. Un produit, mais aussi un espace 3D complet si la plateforme cible a les épaules assez solides.

Certes, le glTF n’est pas parfait, car il n’ouvre pas beaucoup les possibilités d’édition – sur ce point, il est comparable au JPEG qui perd les calques ou au PDF dans lequel on ne peut pas modifier le texte – mais il permet au moins de diffuser la 3D à tout le monde, pour que chacun puisse la visualiser de manière interactive, voire interagir avec, sans avoir à installer un logiciel spécifique.

Aujourd’hui, c’est le format que nous préconisons lorsque, par exemple, les utilisateurs d’une application en Réalité Augmentée peuvent eux-mêmes enrichir l’application avec leurs créations.

Preuve que le glTF est pratique : il permet d’intégrer des 3D directement dans notre article

Quand Pixar s’en mêle

Vous l’aurez compris, toute la difficulté avec le jumeau numérique est de récupérer le maximum du travail préalablement réalisé. Quand on passe d’un univers métier à un autre, ou d’un partenaire à un autre, c’est primordial. Même les grosses production d’animation/VFX rencontrent ce problème. En effet, ils utilisent une grande variété de logiciels pour exploiter le meilleur de leurs fonctionnalités.
Une des grandes batailles de la production de film aujourd’hui est de maintenir un pipeline pour ne pas perdre le travail des artistes. Car lorsqu’on fait un film, la gestion des scènes 3D passent de mains en mains, de logiciel en logiciel. Ce qu’on veut alors, c’est ne pas perdre le travail des artistes à chaque relais. Ce travail c’est du temps-homme, c’est un coût. Aujourd’hui l’industrie du streaming impose une telle productivité qu’il est courant de faire appel à plusieurs studios, soit pour profiter de leur expertise, soit pour absorber la charge de travail. Les 3D ne passent alors plus seulement d’un artiste à l’autre au sein d’un studio, mais d’un studio à l’autre, avec moultes allers-retours. C’est pour cette raison qu’en 2016 Pixar a développé un format pour ses propres besoins, et l’a rendu open source.

L’USD (mais pas les dollars)

L’USD, pour Universal Scene Description, est à la fois un format et une boîte à outils. Il permet d’éditer des scènes 3D : d’ajouter des éléments, changer des matériaux, créer des variantes de certains modèles, composer plusieurs assemblages distincts dans une seule et même scène, animer les éléments, etc.
logo-USD
De plus – car quand Pixar développe quelque chose ils le font aussi bien que leurs films – l’USD est conçu pour permettre l’édition par plusieurs artistes d’une même scène. De nombreux studios se sont alors vivement intéressés à cette technologie et travaillent aujourd’hui conjointement pour continuer à la faire évoluer. Les éditeurs ont également emboîté le pas pour fournir la prise en charge de l’USD dans leurs propres logiciels. Tout n’est pas parfait, car avoir une solution pour décrire virtuellement la complexité de notre réalité n’est pas une mince affaire. Et il y a encore une uniformisation des métiers à mener dans une industrie de plus de 20 ans. Mais tout cela indique que nous sommes sur la bonne voie.

Omniverse, la boîte à outils

La société NVIDIA, elle aussi, s’est naturellement intéressée à l’USD. Pour ceux qui ne connaissent pas NVIDIA, c’est l’un des plus gros fabricants de cartes graphiques – carte graphiques que l’on utilise pour quoi ? Je vous le donne en mille : pour afficher des scènes 3D ! Bref, en ce qui concerne le matériel, c’est un acteur incontournable de notre métier. Mais pas que. NVIDIA propose aussi la plateforme Omniverse, une boîte à outils géante qui permet l’édition, la manipulation et la visualisation de conceptions 3D. Fondée sur l’USD bien sûr.
nvidia-studiojpg
Omniverse, ce sont des méthodes de collaboration sur les scènes et modèles, à la Google Docs. C’est aussi des solutions pour la simulation des IA et évidemment pour la visualisation sur station de travail ou au travers du cloud. Et bien plus encore. La plateforme est ouverte à la connexion et à la création à d’outils spécifiques. Ce qui permet à des studios comme le nôtre de proposer des développements directement sur les spécificités d’un besoin ou d’un métier, sans avoir à réinventer la roue à chaque fois pour l’affichage, la navigation ou l’édition de base destinés à l’utilisateur.

Alors, pourquoi s’intéresser au jumeau numérique ?

Parce qu’aujourd’hui vous avez dans un coin des 3D précieuses qui pourront servir de bien des manières. Parce que les technologies et les formats pour les exploiter existent déjà, et qu’un jour, dans le cadre de votre activité, viendra le besoin d’utiliser vos modèles comme jumeau numérique. Pourtant beaucoup de professionnels choisissent encore de ne pas s’y intéresser. Une situation qui n’est pas sans rappeler une autre : celle des contraintes imposées pour les photos d’identité. À l’époque, les technologies de reconnaissances faciales n’étaient pas encore aux points pour identifier une personne d’après une vidéo. Mais les critères pour faire de la reconnaissance faciale, si. Ici la situation est similaire. Tous les éléments sont en place. Les jumeaux numériques sont présents dans tous les domaines. Les technologies existent. Reste simplement à franchir le pas pour que l’usage se démocratise. Dès lors pour vous, un travail de référencement et de classement de vos jumeaux numériques peut être envisageable, mais aussi un travail de conformation à l’USD ou du moins au glTF. Cela vous permettra, le jour voulu, de les exploiter efficacement.

Des questions ou des requêtes concernant vos 3D ?

Film Médical 3D : un cas particulier

Film Médical 3D : un cas particulier

Film Médical 3D : un cas particulier

Modéliser des outils médicaux, animer des gestes de soin, représenter et expliquer des phénomènes biologiques, nous savons faire. Le film médical est un genre que nous pratiquons, si bien qu’avec le temps nous avons pu identifier des caractéristiques qui lui sont propres.

Il soulève un ensemble de problématiques, de points de vigilance et d’interrogations que les autres genres ne soulèvent pas. En cela, il demande donc un savoir-faire spécifique, qui s’acquiert avec l’expérience. Voyons ça de plus près.

Une mise en scène protocolaire

Dans la catégorie des films médicaux, on trouve le film-produit ou film-notice dont le but est de vendre un outil médical à destination des professionnels. La grande différence avec un produit lambda, c’est que l’outil médical ne supporte par les imprécisions d’usage. La notice doit être infaillible, car elle répond d’un protocole.

mega-dental-protocole

Représenter un protocole de soin, c’est animer chaque geste très précisément

Si le professionnel comprend mal l’outil qu’on lui présente, il risque la faute professionnelle. Plus qu’ailleurs, l’animation doit être intelligible, et ne doit laisser aucune place à l’interprétation.

C’est donc un genre très particulier dans lequel la mise en scène est guidée par le protocole. Ce dernier conditionne ce qu’on va montrer, et comment on va le montrer.

Ce qui signifie au moins deux choses.

D’abord qu’il y a besoin d’autant d’échanges que nécessaire avec le constructeur, pour ne laisser aucun doute sur l’utilisation du produit. Les allers-retours entre les deux équipes doivent être fructueux et entrepris au plus tôt. L’erreur serait de ne pas poser assez de questions.

Ensuite, que de notre côté, chaque plan doit être efficace. Forcément, nous avons moins de marge de manœuvre. C’est là qu’est le défi : penser rapidement au meilleur plan, au meilleur effet, au meilleur mouvement pour expliquer le produit – le plus simple est le mieux – sans oublier toutefois de composer une image vendeuse et réaliste qui le mette en valeur.

Bien sûr, toutes ces méthodes s’acquièrent à force de travailler avec des experts. C’est une habitude qui finit par faire surgir des compétences : on sait adopter leur langage, récupérer et exploiter leurs données, comprendre leur besoin et les guider vers des choix de réalisation adaptés.

Une vigilance quant à la sensibilité du public

Le film médical est le seul type de réalisation dans lequel nous sommes amenés à montrer des corps et des chirurgies. Même si ces films sont destinés à des professionnels que le sang n’effraie pas, la question de la censure s’impose. Elle s’impose pour une raison très simple : ce sont des réalisations qui cherchent à vendre un produit, elles représentent une marque, et doivent véhiculer une bonne image. Une image d’efficacité et de professionnalisme. Fatalement, le sang n’a pas sa place. Il y a également une autre raison. On souhaite que le spectateur retienne l’objet et son usage. Le problème des images un peu crues, c’est qu’elles empiètent inévitablement sur le message du film. Il y a le risque que le spectateur se focalise dessus et ne retienne que ça plutôt que ce qu’on veut lui transmettre. Or, rappelons-le, le spectateur est un potentiel acheteur.

Très vite alors, on adopte des réflexes de publicitaires. On pense une image la plus clean possible, on met en place des astuces pour l’épurer, pour contourner les problématiques vers lesquelles nous mènent telle opération ou tel geste de soin.

Ce n’est pas vraiment de la censure, car on ne modifie pas une image existante. On la conçoit par avance pour qu’elle ne soit pas choquante. On n’efface pas le sang, on choisit de ne pas le représenter. Ça ne veut pas dire non plus qu’on efface le geste chirurgical. Bien au contraire, s’il faut montrer une perforation ou une incision, on la montre, mais on évitera soigneusement tout ce qui rappelle la réalité charnelle de ce geste.

colonne-vertebrale

Par exemple, sur cette image, on ne montre pas le dos. On s’en tient à la colonne vertébrale.

Chose possible aussi parce que la présentation nous le permet. Pour expliquer l’outil, nul besoin de montrer la perforation de la peau, on a seulement besoin de montrer l’essentiel (à quel niveau des vertèbres et à quelle profondeur l’outil agit).

Bien sûr, il y a des cas où cette problématique ne peut pas être contournée, et où nos clients ne veulent pas qu’elle le soit. Regardez par exemple notre ancienne production pour Megadental. Un protocole de soin sur une dent abîmée. Le protocole nous oblige à montrer tout le processus de soin…en détail.

Âme douillette, s’abstenir. (surtout si vous détestez passer chez le dentiste).

Une diversité de réalisations

Derrière la requête « film médical », on pourra trouver aussi bien de la vulgarisation scientifique que des films de campagne sanitaire ; aussi bien des films pour des colloques que de la présentation de produit. Ce n’est pas seulement la nature des films qui change d’une production à l’autre, mais aussi la discipline représentée. Derrière le terme « médical », se tient une foule de domaines : immunologie, neurologie, cardiologie, odontologie, radiologie, médecine générale, endocrinologie, dermatologie, etc etc. On ne va pas vous faire toute la liste des services hospitaliers. Ainsi, comme le secteur social ou comme l’ingénierie, le domaine médical représente un énorme champ de disciplines. Cette réalité impacte directement notre activité, puisqu’elle nous oblige – nous, spécialistes de l’animation 3D – à dialoguer avec tous les métiers et à nous adapter à leur spécialité. Bien sûr nous ne sommes experts d’aucune discipline médicale. Ce n’est jamais nous qui guidons le contenu des films, en revanche, c’est nous qui apportons des réponses artistiques aux requêtes qui nous sont soumises. Aucun film n’est pareil, chacun vise un but différent, car chaque client vient avec une demande liée à son domaine. Pour fournir des propositions adaptées, il nous faut comprendre leur besoin, comprendre les spécificités de leur domaine, et exercer une gymnastique parfaite. Tout cela pour dire qu’il y a autant de film médical qu’il y a de domaine médical, et de besoins du commanditaire. En cela le film médical est bien différent du film immobilier, du film marketing, ou encore du film institutionnel. Des genres à sens unique, très codifiés, aux buts similaires d’un film à l’autre. Prenons un exemple de chez nous.

Notre réalisation pour la firme FIM médical : une animation cartoon destinée aux patients amenés à souffler dans un spiromètre (appareil de mesure de la capacité pulmonaire). Pour les aider à inspirer et expirer correctement dedans, une animation les guide.

On ne montre rien de médical dans le film. Pas de soin, pas de science, pas de produits chirurgicaux. Et pourtant c’est une réalisation qui répond directement à un besoin médical, commandée par un professionnel qui avait des attentes particulières liées à son métier. Il nous a fallu comprendre les problématiques qu’il rencontrait avec ses patients qui utilisaient des spiromètres, et lui proposer nos idées en retour.

Le Motion Design

Le Motion Design

Le Motion design

Comment réalisons-nous vos films ? Quels sont les styles intéressants ? Quel process implique un film motion design ?

2D ou 3D ? Les deux !

Chez 3D émotion nous sommes animateurs 3D avant tout, mais 2D également.

Ce qui signifie deux choses :

  • Non seulement que nous ne sommes pas cantonnés à la 3D et nous réalisons des purs films motion design quand on nous le demande.
  • Mais aussi que nos films motion design eux-mêmes ne sont pas obligatoirement limités à une approche 2D

Tout cela pour dire qu’il faut oublier cette distinction 2D/3D. Elle n’est pas un frein pour nous. Nous réalisons tous les jours des films qui marient les deux, ne serait-ce qu’en insérant des textes animés, ou en intégrant des images au sein de nos scènes 3D, il y a toujours une part motion graphic dans nos productions.

La preuve par l’exemple, avec notre réalisation pour Engie :

C’est quoi le Motion Design exactement ?

Le motion design c’est l’art d’animer des éléments graphiques.

Né au cinéma, lorsque les génériques ont commencé à ne plus être de simple succession de texte figés (souvent des pancartes filmées), mais des textes animés, mouvants, apparaissant de façon originale. Ensuite, sont venus se greffer des formes, des couleurs, rendant les génériques de plus en plus graphiques, au point de constituer des intentions artistiques à part entière.

Parmi les classiques, on citera le générique de la Mort aux trousses, très efficace encore aujourd’hui.

Dans un registre plus récent, on se souvient de celui de Skyfall, véritable bijou de réalisation avec effet spéciaux d’images live et grosse partie motions graphics – qu’on se le dise, une telle séquence, c’est une équipe entière des mois durant.

Mais ce dernier exemple, est-ce encore du motion design ?
Justement, difficile de réduire le motion design à une définition. Aujourd’hui, c’est un art pluriel qui englobe différentes formes d’animations. Sous cette étiquette, on croisera par exemple des bricolages d’images live, des montages de photographies, du dessin animé, etc. Tout est permis, du moment que c’est « graphique ». Bref, s’il fallait définir le motion design sans trop se mouiller, on parlerait davantage d’une formule de mise en scène. Les vidéos motion design ont en commun leur vivacité, leur couleur et leur pate graphique très prononcée. Elles se définissent aussi par ce qu’elles ne sont pas : elles ne sont ni du récit animé, ni du pur film d’animation 3D. Il y a de l’animation certes, mais rarement au service d’une histoire.

À quoi ça sert ?

Sa simplicité graphique (en apparence) et sa vivacité de mouvement font du motion design un bon candidat pour les vidéos de présentation et d’explication. Pour expliquer quoi ? Eh bien tout ce qui est explicable : le service d’une entreprise, le fonctionnement d’un produit, des notions scientifiques, la philosophie d’une marque, l’histoire d’une enseigne, etc. (Attention hein ! Il existe aussi du motion design purement artistique.)
Aquamove-capture2
Le motion design, idéal pour créer des schémas en mouvement

En motion design, on anime des formes, des symboles, des logos et aussi des mots. On peut donc rester très proche du texte. En offrir une version visuelle.

Par exemple dans un film, si on dit : « notre logiciel s’implante dans l’ensemble de vos usines », en motion design on pourra montrer des symboles dudit logiciel se planter dans le sol aux côtés de petites usines. Oui, c’est très terre à terre, c’est prendre le texte au pied de la lettre, mais c’est le but.

En cela le motion design a le même rôle qu’un bon schéma. Il favorise la mentalisation. Illustrer un discours c’est le rendre de suite plus claire, plus impactant, et plus tenace.

Le motion design sert donc d’abord à cela : à dynamiser et à faciliter l’appréhension d’un discours.

Bien sûr, il participe aussi à créer une image de marque. C’est l’occasion de faire s’exprimer l’identité graphique de l’entreprise à travers une réalisation qui vous ressemble. Par ailleurs, une vidéo colorée et dynamique envoie un message positif au spectateur qui associera ces qualités à l’enseigne. Ce sera toujours plus marquant qu’un film corporate triste et gris.

Quel style graphique ?

C’est là que ça se complique. Il existe mille et un graphismes différents. Faisons simple et citons ceux que nous sommes en mesure de montrer, pour les avoir expérimentés.

Flat design

Aplat de couleur sans volume (ou alors un faux volume suggéré par des ombrages) et disposant l’informations sur un seul plan. C’est une approche graphique simplifiée pour retrouver un effet « bonhommes de papier ». C’est aussi le style adapté aux interfaces web pour faciliter la lecture des informations.

vlcsnap-2021-11-04-14h14m34s527
vlcsnap-2021-10-26-13h56m45s922

Motion design 3D

Lorsque le design prend du volume, que les cercles deviennent des sphères et les carrés des cubes, on peut parler de motion design 3D. C’est tout aussi graphique que le motion design normal, mais la 3D permet de montrer plus de choses, d’aller plus loin dans la mise en scène. Qu’on ne se méprenne pas alors, il s’agit bien de films 3D, animé logiciels , que des studios seulement par des studios, pas de 2D

Low Poly

Abréviation de « low polygone », c’est-à-dire « peu de polygone ». Une 3D épurée, avec moins de faces, moins de détails. Théoriquement très simple à faire, en réalité c’est un savoir-faire de créer des formes simples mais vite identifiables.

vue schématique animée pour la gestion des coupes en forêt
vlcsnap-2021-10-26-13h56m45s922

Isométrique

L’isométrique dans le jeu vidéo – Sim city et les vieux RPG par exemple – est très pratique pour offrir une vue dégagée sur un ensemble de bâtiments ; qualité qui a vite trouvé un intérêt dans les films pour montrer différentes choses : les différents sites d’une usine, l’implantation d’un service à travers une ville, des concepts smart cities, la représentation schématisée d’une ville, etc. On se souvient tous de cette fameuse pub Areva qui s’en sert judicieusement.

Mentions honorables

N’oublions pas tous les styles graphiques non évoqués ici :

Line art. Visual design. Pop art. Minimalisme. Epure design. Material design. Data visualisation. Symbol design. Incrustation

Quel process ?

Pour du motion design simple fait d’aplats, une grande partie du travail revient au graphiste. C’est lui qui définit le style, et crée les éléments graphiques afin de vous les soumettre au plus tôt. Il les assemble alors dans un storyboard qui permet de comprendre les plans importants du film et d’imaginer les enchainements. Cette création se fait sur Illustrator, et l’animation sur After Effect. Dans le cas d’un film 3D c’est différent. On ne peut pas partager des éléments graphiques seuls, à part du reste. Le rendu définitif ne s’obtient qu’à la fin, lorsque toutes les couches sont superposées (imaginez le film 3D comme un mille-feuille avec des couches qui forment l’image finale). On ne vous soumet donc pas de graphisme fini dès le départ. On ne peut pas. En revanche on peut vous faire comprendre le rythme du film en vous envoyant une animatique : version « brouillon » qui permet de juger la mise en scène (mouvement, transition, cadre, longueur des plans).
Voici quand même une liste claire des étapes susceptibles d’être rencontrées pour votre production.
Ecriture : Il faut forcément partir d’un scénario, même pour un film très court. S’il y a une voix-off ou des personnages, leur texte doit être rédigé. Nous pouvons partir d’un document déjà existant. Ou bien l’écrire avec votre collaboration étroite. Recherche graphique : Ensuite, le style ! Nous cherchons celui qui correspond le mieux à votre projet. Ce qui se traduira par des croquis divers, des dessins plus ou moins poussés, pour vous donner une idée de ce que nous imaginons. Story board ou Animatique : On l’a déjà dit, mais on le redit. Pour du design 2D, nous dessinons les éléments du film et vous les montrons dans des plans composés grâce au storyboard. Pour de la 3D, nous commençons à vous soumettre du concret avec l’animatique, sorte de version beta de votre film. Animations : À ce stade de la production, nos idées vous plaisent, la direction est définie, ne reste plus qu’à animer le film. Post-production : Sur certaines productions, il arrive qu’il faille travailler des effets spéciaux. Ou bien de retoucher le rendu général de l’image.
La Motion Capture

La Motion Capture

La Motion Capture

Notre dernier film, Granpa & Zoé : Mission Lumière, a été l’occasion de ressortir notre combinaison de motion capture – dans le métier on dit « mocap ».

Comme d’habitude, c’est notre animateur qui l’a endossée et a incarné tous les rôles du film. C’est donc une animation maison. Nous faisons tout nous-mêmes. Ce qui ne nous empêche pas d’obtenir des résultats de qualité.

Simplement, pour nous c’est un process différent de celui des grands studios. N’ayant pas les prétentions d’Hollywood, il nous faut travailler autrement, développer une autre organisation.

Le système

D’abord, il faut savoir que nous travaillons avec un système gyroscopique.

Nous expliquions déjà son principe dans notre article sur l’animation. Et pour notre propre santé, nous éviterons de radoter.

Rappelons simplement que lorsque dans un making of, vous voyez un studio cerné de caméra infrarouges avec un acteur en combinaison qui effectue ses mouvements au milieu, eh bien c’est précisément ce qu’on ne fait pas. Il s’agit dans ce cas d’un système optique. Les caméras infrarouges saisissent les mouvements de la combinaison.Dans notre cas, celui du système gyroscopique, c’est la combinaison elle-même qui nous envoie les informations de mouvements. Pas besoin de caméras, ni de studio dédié.

combinaison Motion Capture Neuron

Revenons alors à notre animateur dans sa combinaison.

Nous ne lui demandons pas vraiment de « jouer la comédie » – car il ne donne pas de sa voix – mais plutôt de mimer les personnages.

Quand on fait de l’animation, on a déjà une certaine science du mouvement. On sait caractériser un personnage à travers sa gestuelle, et prêter attention aux détails d’une posture. Bref, on sait parler le body language.

Mais il y a une nette différence entre animer un personnage sur son PC, frame par frame, et le porter en soi. Il faut oublier sa propre gestuelle pour en accueillir une nouvelle. Ce n’est peut-être pas de la comédie totale, mais c’est déjà une forme d’acting.

Un acting un peu particulier d’ailleurs, dans la mesure où on ne peut pas s’appuyer sur les artifices habituels du cinéma ou du théâtre, pour s’aider à entrer dans son rôle. Pas de décor, pas de costume non plus. La combinaison n’en est pas un. Elle peut même produire l’effet inverse, en devenant un attirail un peu encombrant, dont on doit veiller au bon fonctionnement.

Il faut tout imaginer. Se projeter dans une peau et dans un monde en image de synthèse qui n’existent pas encore.

Ou du moins pas complétement. Car on voit quand même notre personnage, dans un rendu sommaire certes, sans finitions esthétique, mais qui permet de juger notre jeu en temps réel. Bien sûr, lorsqu’il joue, l’animateur n’a pas le loisir d’observer ce rendu. C’est son collègue, posté devant le PC, qui le fait pour lui. Il lance l’enregistrement et dirige la session.

D’autres ont la chance d’avoir Spielberg et Peter Jackson pour les guider, c’est bien aussi :

Quels avantages, et quelles limites pour un animateur 3D ?

Ce qu’il faut comprendre alors, c’est que chacun trouvera un intérêt différent dans la motion capture, et louera les qualités qu’il y trouve.

Dans le domaine du jeu vidéo par exemple, là où elle est le plus utilisée, on s’y intéresse d’abord pour sa force mimétique. On s’en sert pour capturer le réalisme des mouvements.

Ce peut être des choses simples en apparence : une discussion entre deux personnages comme ici, ou bien une roulade, une acrobatie quelconque, le mouvement de recharge d’un fusil. Ce peut être aussi des choses complexes qui font suer n’importe quel animateur. Les mouvements d’un cheval par exemple.

Dans ce cas précis, la motion capture rend possible un rêve partagé par tous les animateurs au moins depuis que l’animation existe : aller vers plus de réalisme.

De notre côté, nous utilisons la motion capture pour sa rapidité d’exécution.

Grâce à elle, on peut produire des animations de qualité plus rapidement que si nous les faisions à la main.

De qualité, c’est-à-dire avec un rendu naturel. On cherche à saisir le réel des mouvements comme les petits balancements de bras, les placements non réfléchis de nos mains, la légère inertie de notre corps lors d’une marche. Autant de détails qu’on ne remarque pas lorsqu’ils sont là, mais dont on note aussitôt l’absence, car ils sont la marque du réel. Des détails tous réalisables en animation traditionnelle, mais que la motion capture permet d’obtenir sans même y penser. C’est donc sa rapidité et sa fiabilité qui nous intéresse.

Toutefois, la motion capture n’est pas une solution totale. Elle a ses limites.

D’abord, dans notre cas, elle ne concerne que les personnages. Qui plus est, les personnages ayant forme humaine. Puisque notre combinaison est uniquement adaptée au format humain, inutile de l’essayer sur autre chose.

Si nos personnages ont des membres qui n’appellent pas de mouvements humains, alors la capture n’est plus concernée.

Petite parenthèse : on oublie aussi souvent que la capture ne peut pas tout prendre en charge sur le personnage lui-même. Quid du visage par exemple ? Si on prend les yeux, un studio comme le nôtre devra les animer à la main. Il existe bien sûr des systèmes d’eye tracking, mais ce n’est pas donné à tout le monde.

Ensuite, même lorsqu’on utilise la capture, on aime repasser en animation traditionnelle, car elle nous donne un contrôle plus fin sur les mouvements. Souvent dans l’intention de leur donner plus d’expressivité. Après tout, nous tenons notre héritage du dessin animé. Nous employons son langage. Celui d’une animation vivante, exagérée, qui bascule parfois dans le cartoonesque. Et cela, la Motion Capture ne peut pas nous le donner.

Des étapes supplémentaires, en plus de l’enregistrement

Ok, elle est rapide. Ok, elle est efficace. Mais attention, la motion capture n’est pas automatique. Il ne suffit pas de s’enregistrer avec la combinaison pour produire des animations parfaites.

C’est un outil qui s’apprivoise, qui se règle, et qui exige de passer par plusieurs phases. Disons qu’en plus de l’enregistrement lui-même, on peut distinguer deux autres étapes.

Le retargeting d’abord

Une fois le personnage créé, si on veut l’incarner, il faut d’abord le lier à nos propres mouvements. Cette étape c’est le retargeting, ou reciblage. Reciblage car on redirige des points d’un squelette à un autre.

En animation 3D, un squelette c’est un ensemble de segments et de points liés les uns aux autres, et hiérarchisés de sorte qu’un mouvement en entraine d’autres. Par exemple, si on bouge le haut d’une jambe, tout ce qui prolonge cette jambe bougera aussi : le fémur, le tibia, et le pied.

C’est peut-être une évidence dit comme ça, il n’empêche que c’est ainsi que se construit un personnage animé. Avec le retargeting, ce qu’on fait, c’est transférer cette hiérarchie. Ou plus précisément : on lie les articulations et les os de notre personnage à notre combinaison.

Heureusement, avec nos logiciels, l’étape est devenue presque automatique. Du moins, elle est plus facile, car on n’a pas à tout transférer nous-mêmes. Il suffit seulement de renseigner le logiciel sur la nature d’un ensemble. Ceci est la jambe droite, ceci est le bras gauche, ceci est le dos, et le logiciel fait le reste.

Mais c’est sans compter les différences qui vont se présenter entre le squelette source de la combinaison, et celui du personnage. Souvent des différences de proportions.

Prenons l’exemple de Zoé

le retargeting en motion capture
Parce qu’elle est petite, son dos ne compte pas le même nombre de segments que le dos du squelette source basique. C’est une différence qui ne pose pas de problème. Ici, deux segments vont compter pour un. Et Zoé pourra plier son dos sans qu’aucune anomalie se présente.

Bien entendu, le retargeting n’est qu’une étape qui permet de raccrocher notre personnage à nos mouvements. L’essentiel surtout, c’est d’avoir bien construit son personnage pour que chaque mouvement soit bien opéré (et ça c’est une autre histoire, celle du rigging).

Ensuite le nettoyage

Il faut comprendre une chose. En motion capture, si le mouvement est immédiatement retranscrit, il n’est pas immédiatement exploitable. Il y aura toujours des ajustements et des corrections à effectuer après la capture.

On peut en distinguer trois sortes :

Le verrouillage des pieds au sol

Et de manière générale : le verrouillage de tout ce qui entre en contact avec du dur – c’est le cas lorsqu’un personnage se couche, roule, ou bien s’appuie contre un mur.

Si nous prenons l’exemple de la marche, on verra que lorsqu’on pose le pied au sol, le logiciel de capture ne comprend qu’une chose : que ce pied est immobile. Mais il ne sait pas ancrer ce pied sur le sol, qui pourra alors se décaler légèrement, ou bien à l’inverse entrer à l’intérieur du sol. Ce que nous faisons alors, c’est définir le niveau du sol puis fixer le pied sur ce niveau, et le tour est joué.

Les bruits

Un ensemble d’irrégularités générées pendant la capture qu’un œil amateur ne verra pas forcément, mais qu’un professionnel remarquera à coup sûr. Des tremblements, des mouvements saccadés, ou bien des décalages. Bien sûr, il faut distinguer le bruit de tous les mouvements voulus. Tout cela doit être corrigé en réarrangeant les mouvements par animation keyframe.

Toutes les erreurs dues aux proportions du personnage

Ainsi qu’aux distance vis-à-vis du décor.

Pour la proportion, l’exemple classique, c’est celui du personnage au corps trop grand ou trop gros, si bien que lorsque l’acteur repose les bras le long du corps, les proportions n’étant pas les mêmes entre lui et le personnage, les bras de ce dernier lui entrent dans le corps.

Le problème est de même nature pour les distances.

Lors de l’enregistrement, on essaie de faire attention aux déplacements dans la scène. Si le personnage doit se rendre d’un point A à un point B, on veille à ce que la distance parcourue par le comédien colle à celle imposée par la scène 3D. On prévient ainsi les collisions avec le décor. Mais nombreux sont les cas trop précis pour être correctement ajustés au moment de capture. Ils sont ajustés après coup.

Imaginons par exemple que le personnage doive attraper un objet, il devra avancer son bras. Dans la capture on effectue le mouvement d’approche vers ce dernier. Mais il y a de grande chance que dans la scène 3D ce mouvement soit imprécis, que le personnage soit un poil trop près ou trop loin. On ajustera.

De même qu’on ajustera le geste de saisi. Pour que les doigts se ferment correctement autour de l’objet, et que l’objet soit verrouillé dans la main, on repassera par l’animation keyframe.

Créer des personnages réalistes, la solution Metahuman (partie 2)

Créer des personnages réalistes, la solution Metahuman (partie 2)

Créer des personnages réalistes, Partie 2

La solution Metahuman

Suite de notre article sur le réalisme et l’uncanny valley.

Un peu moins d’un an après avoir dévoilé son Unreal Engine 5, Epic a annoncé début 2021 un nouvel outil destiné aux créateurs : Metahuman creator.

Une sorte d’éditeur de personnage très poussé, qui permet de composer rapidement des humains photoréalistes.

C’est noël avant l’heure. Une aubaine pour tous les studios d’animation comme le nôtre. Une bonne nouvelle pour vous aussi, nous allons voir pourquoi

Créer un humain réaliste devient facile et rapide

Simple à prendre en main, l’outil permet de créer des metahumains : humains photoréalistes que l’on pourra ensuite utiliser dans ses propres productions.

Pour l’instant, disponible en early access, il est possible de tester des premières fonctionnalités qui laissent rêveur pour la suite. Toutes sont tournées vers un seul but : offrir à l’utilisateur un outil pratique pour créer des visages réalistes.

Il se vit comme un éditeur de personnage tel qu’on en trouve dans le jeu vidéo. En partant de modèles existants, on bouge une variété de curseurs qui nous permettent de changer les traits de notre personnage.

Capture_Metahuman_teeth_2

On va pouvoir modifier jusqu’aux dents de notre personnage. Leur alignement, leur écartement, la couleur des gencives, la présence et le rendu de la plaque dentaire.

Mais c’est un éditeur qui ne nous laisse pas faire n’importe quoi. Metahuman joue en effet un rôle de garde-fou en nous empêchant de créer des humains impossibles. Toute modification manuelle sur un visage entraine toujours des ajustements connexes. Par exemple, en retroussant un nez, on verra les narines et la morphologie proche du nez suivre le mouvement.

On nous donne plusieurs niveaux de contrôle sur le visage :

Capture_Metahuman_move
Capture_Metahuman_sculpt
Un petit air d’Emily Blunt, non ?

Soulignons aussi la présence de la fonction blend

Qu’on traduira par « mélange » et qui permet de faire une tambouille de visages. On peut la comparer à ce jeu qui consiste à découper dans les magazines les visages de nos actrices préférées afin de créer la femme parfaite – le regard d’Emmanuelle Béart, la bouche de Monica Bellucci, le nez de Pénélope Cruz. Sauf qu’ici, le logiciel réajustera les traits pour ne pas créer un hybride bizarre.

En plus d’être ergonomiquement bien fait, c’est un système dont l’idée même est intelligente : plutôt que de partir d’un seul modèle et d’être en roue libre après (comme dans tous les éditeurs de personnage), on peut s’appuyer continuellement sur les modèles existants.

On veut des yeux bridés ? Pas besoin de les créer, on les récupère. Un menton carré, mais pas trop non plus ? On le pioche sur tel modèle, et on le modifie à peine. Cette pommette-là nous intéresse, allez hop ! on mélange deux personnages, et en quelques clics c’est fait.

Un haut niveau de réalisme rendu possible par l’intelligence artificielle

Mais par rapport à d’autres logiciels de création, qu’est-ce qui fait de Metahuman un outil novateur ? Un outil différent ? La réponse est simple : le machine learning.

Sans entrer dans des détails, disons que, pour construire son réalisme, Metahuman utilise l’intelligence artificielle. Les mélanges de physionomies aboutissent à des résultats crédibles, et jamais à des aberrations, parce qu’ils se reposent sur un ensemble de connaissances (des visages de personnages réelles) que Metahuman croise et interroge pour fournir une réponse vraisemblable.

Chris Evans, lead technical animator, porteur du projet, explique la chose ainsi :

« Quand vous relevez une oreille, il y a un ensemble d’appels et de réponses qui va chercher pour vous, une oreille plausible […] Vous allez effectuer un mouvement sur le visage, le logiciel va alors chercher dans une énorme base de données différents traits du visage pour vous donner une réponse anatomiquement crédible. »

Toutes les explications sont à retrouver dans le  stream organisé par Unreal.

Nous obtenons un personnage prêt à l’emploi

Maintenant, venons-en au plus intéressant.

Ce personnage, on va pouvoir l’exploiter dans nos production.

N’importe quel type de productions : film d’animation, film institutionnel, pub produit, expérience VR, hologramme, bref ! partout où on pourra avoir besoin d’un personnage réaliste.

Et là encore, tout est pensé pour faciliter cela.

Metahuman nous permet d’abord de jouer des animations pré-enregistrées dès l’interface principale. Sorte de preview à lancer avec un bouton lecture qui fait bouger et grimacer notre personnage pour nous montrer comment son visage réagit. Idéal pour procéder à des réajustements.

Preview

Un bouton lecture pour observer les mimiques de notre personnage

Mais c’est aussi une manière de nous dire : « oui, votre personnage est immédiatement animable ».

C’est une petite prouesse quand on y pense.

— C’est rendu possible parce que le squelette est toujours le même. Quel que soit le personnage, on travaillera toujours sur un squelette standard auquel on ne peut pas toucher dans le logiciel. Son rigging est scellé. Les points de mouvements sont placés de la même manière les uns par rapport aux autres, permettant ainsi d’intégrer des animations au plus tôt. —

On peut donc directement passer en motion capture, sans se soucier des étapes qui précèdent.

Pour cela, on va pouvoir récupérer les données de notre personnage pour les exploiter hors de l’outil, sur d’autres logiciels. Maya par exemple, si on a besoin de retoucher à la modélisation. Ou Motion Builder, pour l’animation – nous citons seulement les deux outils évoqués dans la communication d’Unreal Engine su Metahuman ; mais n’ayez craintes, d’autres seront sûrement possibles.

On notera enfin que Metahuman fonctionne avec Live Link Face (application d’Unreal sur IOS) qui permet de faire de la motion capture faciale en temps réel, et par leap motion ! En gros : faites des grimaces devant la caméra, et votre personnage vous suivra.

Vous, voilà ce que vous y gagnez

Que ce soit rapide et exploitable, concrètement qu’est-ce ça change pour vous ?

Plein de choses.

D’abord, si votre projet nécessite des personnages dans un style réaliste, vous pourrez vous adresser à plus de studio qu’auparavant, et pas seulement à des studios spécialisés ou à des free lance qui ne font que ça. Avec Metahuman, la question ne se pose plus. Tous les créateurs 3D peuvent faire de l’humain réaliste.

C’est non seulement faisable, mais c’est facile. Et qui dit facile, dit rapide, et dit moins cher. Metahuman nous permet de sauter toutes les étapes chronophages. La modélisation, le rigging corporel, le rigging facial, et le texturing sont déjà faits, et de qualité ! On peut donc rapidement passer à la suite de la production.

C’est encore plus efficace que d’acheter un modèle déjà fait sur une bibliothèque 3D – ce qui se fait beaucoup dans ce genre de cas – car ici c’est vous qui décidez de la tête du personnage. Et c’est nous qui la créons pour vous. (Attention toutefois, reproduire une véritable personne reste un exercice compliqué, même avec un tel outil).

C’est tout à votre avantage. Pour vous c’est une prestation à moindre frais. Ce qui hier était une demande pointilleuse qui faisait grimper le temps de production (donc le budget), devient aujourd’hui une demande abordable.

Hors considérations financières, Metahuman représente aussi un gros avantage créatif. Il peut servir pour des productions diverses.

Finissons donc notre article, en listant quelques idées de réalisations dans lesquelles un tel personnage pourrait servir.

Votre métahumain pourrait être :

  • Un guide pour une visite en réalité virtuelle ;
  • Des figurants dans une présentation de projet immobilier, pour donner de la vie au décor ;
  • Un showman dans un hologramme ;
  • Le clone d’un personnage historique dans un film contenu culturel et pédagogique
  • Un personnage silhouette pour une présentation produit ;
  • Des personnages incarnés par des acteurs, dans un métrage animé ;
  • Un médecin/infirmier/praticien dans une vidéo protocole de soin, ou pour montrer l’usage d’un outil médical ;
Etc etc…