Sites


Blender pour le montage vidéo

Traquer le mouvement : Motion tracking et Match Moving

Nous allons ici rapidement évoquer le concept du Motion Tracking (2D) et du Match Moving (3D), sans pour autant rentrer dans les détails de cette discipline qui mériterait à elle seule un livre complet. Le fait de pouvoir à la fois traiter la vidéo, la 3D et de les faire correspondre grâce au Motion tracking, tout cela dans le même logiciel, est une des forces de Blender, qui le rend très adapté à la création d'effets spéciaux.

Traquer le mouvement en 2D

Le module de Motion Tracking propose en premier lieu de pratiquer un tracking 2D, consistant à suivre un ou plusieurs points dans l'image au cours du temps, afin d'en évaluer leurs déplacements. On obtient alors des points nommés trackers, dont la trajectoire est visible sur l'écran.

Dès lors, il est possible de recaler des éléments selon les mêmes mouvements et ainsi de les faire correspondre spatialement (match en anglais). Ces informations utiles sert à la création des formes vectorielles appelées masques  dans le même module. Cet ensemble de courbes délimite une zone précise de l'image, comme le contour d'un visage par exemple. En utilisant ces masques dans le séquenceur ou dans le module de compositing, un effet peut être applique et localiser afin que celui-ci ne s'applique que sur une zone précise de l'image.

La possibilité d'accrocher un masque à un tracker associe à 90% son mouvement à la forme mouvante qu'il est censé suivre, pour ensuite retoucher image par image le contour de cet élément. L'utilisation conjointe du tracking et des masques fait gagner beaucoup de temps quand il s'agit d'extraire une zone précise afin de la traiter séparément.

On peut également se servir du Motion Tracking pour stabiliser des plans qui seraient trop « bougés » ou « secoués » directement dans Blender. Développer ce sujet serait trop long ici, mais vous pouvez vous référez à ce tutoriel (en anglais) : https://monochrome.sutic.nu/2014/02/22/video-stabilization-with-blender.html

Traquer le mouvement en 3D

Après avoir traqué un grand ensemble de points, Blender analyse leurs mouvements conjoints, afin d'en déduire le déplacement de la caméra qui les a filmé. On appelle cette discipline le match moving, ou tracking 3D, visant à retrouver et recréer le mouvement de la caméra d'origine. Il est aussi possible d'obtenir un positionnement de ces points dans l'espace, alors qu'ils étaient initialement traqués en 2D uniquement. On appelle cette phase la calibration. Une fois ces points de repère placés en 3D, on s'en sert pour recréer virutellement les objets réels.

On peut alors filmer un objet 3D exactement de la même manière que l'a fait la caméra d'origine, en tenant compte du moindre soubresaut. Si on remodélise en 3D le décor d'origine, en respectant l'échelle de la scène réelle, il est possible de superposer cette maquette au plan original 2D. Cela permet par exemple de modifier des éléments du décors, voir de l'étendre et d'ajouter des étages à un batiment qui n'aurait été construit que sur le rez-de-chaussée.

Cette illustration représente la position de la caméra à chaque image, récréée à partir de la vidéo du survol de l'allée visible sur la capture d'écran précédente.

Aller plus loin dans la découverte du Motion Tracking

Pour en apprendre plus sur le tracking 2D et 3D dans Blender, une conférence en français traitant du sujet et expliquant en détail le mode de fonctionnement de ce module est disponible sur Youtube (https://youtu.be/0adnFuzSJTk?t=43m20s).

Pour les anglophones, la formation "Track, Match, Blend" dédiée à cette pratique est disponible sur le Blender Cloud.

Il y a une erreur de communication avec le serveur Booktype. Nous ne savons pas actuellement où est le problème.

Vous devriez rafraîchir la page.