module inscription newsletter haut de page forum mobile

Dismiss Notice

formations etalonnage sur davinci resolve

Nos Formations Etalonnage avec Forest reviennent en octobre !
Adoptez une réelle méthodologie d'étalonnage professionnelle et atteignez vos objectifs créatifs avec nos formations intensives sur 3 jours
Toutes les infos
Dismiss Notice

ateliers live resolve avec forest

Ateliers Live Resolve - Formez-vous en ligne tous les mois avec Forest !
Faites rapidement évoluer la qualité de vos étalonnage avec nos ateliers mensuels de 3h.
Toutes les infos
Dismiss Notice

Formation Lumière - Pratique Intensive du 14 au 16 octobre à Paris
Formez-vous avec cet atelier de pratique intensive dans des conditions exceptionnelles ! Formation finançable.
Toutes les infos

Ateliers et Formations

Motion capture

Discussion in 'Effets spéciaux visuels' started by spico, Jul 27, 2004.

  1. spico

    Trophy Points:
    550
    Likes Received:
    0
    Messages:
    16
    Appréciations:
    +0 / 0 / -0
    Bonjour je suis tout nouveau dans les effect speciaux.
    Je voulais savoir comment on du motion capture j'ai deja chercher mais ça n'exploitais pas a fond le sujet merci pour toute vos reponse
     
  2. bradock

    Trophy Points:
    1,000
    Likes Received:
    0
    Messages:
    413
    Appréciations:
    +1 / 7 / -0
    Salut,
    le logiciel Mathmover fai ça très bien. Cherche des sujets sur ce logiciel dans ce forum, je crois bien qu'il y en as
     
  3. spico

    Trophy Points:
    550
    Likes Received:
    0
    Messages:
    16
    Appréciations:
    +0 / 0 / -0
    merci romanello
     
  4. spico

    Trophy Points:
    550
    Likes Received:
    0
    Messages:
    16
    Appréciations:
    +0 / 0 / -0
    Bon j'ai le logiciel matchmover mais j'aimerai bien faire du tracking 3d et remplacer quelque chose de reel par de la virtuel donc si vous avez des tutorials sa m'interessent fortement

    merci a vos reponses d'avances
     
  5. Julien W.

    Trophy Points:
    1,000
    Likes Received:
    0
    Messages:
    1,499
    Appréciations:
    +0 / 0 / -0
    Mais tu veux faire du motion capture ou du tracking 3d? C'est pas la même chose!
     
  6. spico

    Trophy Points:
    550
    Likes Received:
    0
    Messages:
    16
    Appréciations:
    +0 / 0 / -0
    Je vais vous expliquer ce que je veut faire en fait je veux filmer quelqun et je voudrai le remplacer par une personne virtuel donc voila
     
  7. Julien W.

    Trophy Points:
    1,000
    Likes Received:
    0
    Messages:
    1,499
    Appréciations:
    +0 / 0 / -0
    Bon, premièrement si tu veux réaliser ceci, tu dois déjà avoir de fortes connaissances en animation de personnages. Tu devrais donc savoir que la motion capture s'effectue séparément, dans un studio spécialité avec du matériel très très cher.
    Les données brutes sont ensuite travaillées, dans des softwares tout aussi chers, pour être exportées dans un programme 3d classique. Là, ces données vont être attachées à un squelette, qui sera lui aussi attaché à ton personnage virtuel.
    Après un long travail que modification (les données provenant d'une session de motion capture sont généralement utilisées simplement comme base), demandant de véritables connaissances en animation de personnage (pas au niveau des connaissances du programme, mais au niveau des connaissances de l'anatomie humaine, des mouvements, de l'expression, etc.).
    Ton personnage étant enfin prêt, il va être incrusté sur une vidéo réelle. Là, il faudra effectuer un tracking 3d (manipulation qui demande beaucoup de connaissances et de patience) si la caméra est en mouvement. Ce tracking recréera un mouvement de caméra virtuelle similaire au mouvement réel.
     
  8. spico

    Trophy Points:
    550
    Likes Received:
    0
    Messages:
    16
    Appréciations:
    +0 / 0 / -0
    bon je crois que je vais laisser tomber
     
  9. spico

    Trophy Points:
    550
    Likes Received:
    0
    Messages:
    16
    Appréciations:
    +0 / 0 / -0
    Par contre j'aimerai bien savoir implanter un objet 3d comme dans la parodie sg40 au debut du premiere episode il y a une porte temporel et dans le deuxieme episode qund c'est une fausse voiture et qui sont dans l'espace voila meric j'espere que je me suis bien exprimer merci
     
  10. Julien W.

    Trophy Points:
    1,000
    Likes Received:
    0
    Messages:
    1,499
    Appréciations:
    +0 / 0 / -0
    Il faut tout d'abord modeliser l'objet, ensuite le texturer, puis éventuellement l'animer. Ensuite, il faut faire correspondre les paramètres de la caméra réelle aux paramètres de la caméra virtuelle (position, inclinaison, focale, etc.).
    On effectue un rendu avec un cache alpha.
    Puis dans un programme de compositing, on superpose le plan CG au plan réel, et on effectue les dernières retouches (colorimétriques, etc.).
     
  11. KaosMaX

    KaosMaX Guest

    Appréciations:
    +0 / 0 / -0
    Salut ...

    Pour le motion capture si tu sais développer qq peux, je te conseille les liens suiavants :

    Johann Marty

    Et ici pour la source !!

    Salut.
     
  12. bradock

    Trophy Points:
    1,000
    Likes Received:
    0
    Messages:
    413
    Appréciations:
    +1 / 7 / -0
    Salu, c'es moi qui es fai les effets de SG40.

    Comme disai JulienW, il fau savoir si ton objet à incruster se fera sur un plan fixe ou mobile. Pour un plan mobile, c'es exactement comme JulienW l'as dis.
    Si maintenant, tu veu incruster sur un plan fixe, c'es beaucoup plus facile.
    En ce qui concerne la porte:
    Tu fait ton annimation sur fond noir que t'as plus qu'as incruster par masquage par luminance avec After Effect ou premiere sur ta vidéo.

    Comme le dis JulienW,il fau aussi créer la même annimation en cache alfa (séquence vidéo ou d'image). Je sai que Lightwave te permet de compiler en même temps ton annimation et les caches alfas. Il dois en être de même avec les autres.
     
  13. Julien W.

    Trophy Points:
    1,000
    Likes Received:
    0
    Messages:
    1,499
    Appréciations:
    +0 / 0 / -0
    KaosMaX, c'est marrant que tu parles de cet article, car le projet a été dévellopé dans mon école, et car j'ai eu l'occasion de le tester moi-même. C'est impressionant :)
     
  14. KaosMaX

    KaosMaX Guest

    Appréciations:
    +0 / 0 / -0
    Julien W.

    Salut Julien W.,

    Dis nous en plus ..
    Etais-ce réellement "real time ?", ou alors y avait il une latence ??

    content de voir que certain s'intéressent ;-)

    Merci JW.

    KMX
     
  15. Julien W.

    Trophy Points:
    1,000
    Likes Received:
    0
    Messages:
    1,499
    Appréciations:
    +0 / 0 / -0
    Il y a peut-être une légère latence, mais moins d'une seconde.
    Il y a le PC avec une webcam sur l'écran. Tu t'assieds devant l'écran et tu te mets bien face à la webcam. Ensuite le programme s'initialise (je ne me rapelle plus si le visage virtuel se calibre automatiquement ou si il faut définir quelques points). On peut bouger légèrement la tête, et le visage suit. Mais les mouvements brusques peuvent faire perdre le programme.
    Le programme peut afficher le visage en fil de fer, mais également des lunettes, une moustache, etc. Enfin c'est plus pour de la démonstration qu'autre chose.
    Il y avait un autre programme de ce type, plus ancien je crois. Une caméra betacam te filme, et dans tes mains tu tiens une sorte de boîte. Le programme reconnait la boîte et en définit la position et l'orientation. Ainsi, il peut ajouter un manche plus long, un sabrelaser, etc. Tout ça en temps réel.
    Mais les mouvements brusques font perdre également le programme. Et dans certaines positions le programme n'arrive pas à identifier la boîte.
     
Loading...

Share This Page

Dernières Occasions

 
Vous souhaitez annoncer sur le Repaire ? Contactez-nous