module inscription newsletter haut de page forum mobile

Rejeter la notice

ateliers live resolve avec forest

Ateliers Live Resolve - Formez-vous en ligne tous les mois avec Forest !
Faites rapidement évoluer la qualité de vos étalonnage avec nos ateliers mensuels de 3h.
Toutes les infos

motion capture

Discussion dans 'Effets spéciaux visuels' créé par snoozkilla, 9 Mars 2019.

  1. snoozkilla

    So

    Points Repaire:
    7 930
    Recos reçues:
    111
    Messages:
    4 306
    Appréciations:
    +23 / 327 / -0
    bonjour à tous, je dois pour les besoin d'un clip sous forme de court métrage, réaliser une motion capture sur le visage d'un personnage à partir de la caméra principale, est-ce que cela est possible ou faut il un matériel trop poussé et donc devrais-je passer sur le procédé vfx makeup.
    merci de vos réponses
     
  2. Miaz3

    Points Repaire:
    1 520
    Recos reçues:
    7
    Messages:
    494
    Appréciations:
    +7 / 11 / -0
    Le tourner ne devrait pas poser de problème, il suffit de mettre quelques points à des endroits spécifique du visage.
    Tout dépend, de se qu'il y a à faire ensuite ? si c'est remplacer un visage, ou simplement faire une cicatrise voir supprimer un élément.
     
  3. giroudf

    So

    Points Repaire:
    15 400
    Recos reçues:
    505
    Messages:
    18 966
    Appréciations:
    +809 / 3 501 / -35
    on peut faire du motion capture markerless (sans marqueur) meme avec une webcam de nos jours.
    evidemment tu te doutes bien que quelque soit la solution, en general c'est pas donne, d'ou l'interet en principe de le faire faire par quelqu'un qui a deja l'installation.
    Maintenant si tu veux juste faire du tracking pour un trucage video dans after effect par exemple , il faut des marqueurs que tu peux facilement fabriquer avec une perforeuse de bureau.
    En general des marqueurs avec orientation (c'est a dire des avec des angles qu'on peut tracker) sont plus efficaces, suffit par exemple de dessiner un triangle ou un simple trait dans le marqueur.
    tu as moults examples sur youtube, depuis que terminator a fait des emules

    le probleme est que le motion capture ne te donne que des points de reperes, qu'il faut ensuite repliquer sur le modele, qui lui doit etre adapte a cet usage si le model se deforme (topologie ad-hoc pour une deformation realiste), ce qui n'est pas toujours le cas. des fois on a juste besoin de plaquer un element sur une tete (comme des cornes par exemple) . dans ce cas, un modele 3D obtenu par un simple scan 3D, possible avec un smarphone, suffit . Une fois que tu as les donnees, tu peux travailler dans blender, Maya ou autres assez facilement.
    une autre methode est de ne pas avoir de tracker du tout, et d'utiliser la video comme fond de travaille pour poser les elements en 2D avec un simple programme de paint. Ensuite tu deplaces/deformes les elements a la main tous les x images pour faire l'animation.
    Ca peut etre une solution faisable pour un truc simple et court fait par un graphise qui maitrise bien la 2D et pas du tout la 3D.

    L'interet des applications tout en un (comme reallusion), c'est d'eviter des conversions de fichier, assez penibles, surtout dans l'animation.
    Perso j'utilise Reallusion (toute la suite de iClone a CrazyTalk) et il y avait Faceshift (que tu trouves encore) qui a ete tue par Apple (ils l'ont achete et enterre, plus jamais entendu parle ensuite).
    reallusion marche nickel avec le rig Neuron et maintenant tu peux avoir en meme temps le mocap sur le visage (avec motion live) ,un iPhone 10 (solution que j'ai pas teste parce qu'entre le prix d'un iphoneX, la licence Liveface, on est equivalent a l'autre solution faceware qui elle marche avec une simple webcam).
    voila ce que ca donne

    L'avantage de reallusion, c'est qu'il fourni une tete standard (avec la bonne topologie, qu'il suffit de deformer pour faire la tete qui te convient (avec character creator ou CrazyTalk).
    Il y a aussi quelques programmes qui marche avec des cameras comme les intel realsense ou les Xtion et autres Kinect (comme le regrette FaceShift).



    juste avec CrazyTalk tu peux deja bien t'amuser
     
    #3 giroudf, 10 Mars 2019
    Dernière édition: 10 Mars 2019
  4. Miaz3

    Points Repaire:
    1 520
    Recos reçues:
    7
    Messages:
    494
    Appréciations:
    +7 / 11 / -0
    Sans les marqueurs, ce n'est pas 100% fiable. Il y a quand même pas mal de saute.
    Ça ne coute rien de mettre quelques points, les calculs seront bien plus fiables.
     
  5. giroudf

    So

    Points Repaire:
    15 400
    Recos reçues:
    505
    Messages:
    18 966
    Appréciations:
    +809 / 3 501 / -35
    le plus simple c'est peut-etre qu'il nous decrive ce qu'il a besoin de faire.
    il y a souvent plusieures approches possibles.
    de toute facon, on voit souvent des demos de mocap live, mais pour la precision , meme avec de bons trackers, on est en general oblige de reprendre le tracking, pour "lisser les data" pour corriger la perte d'un tracker qui passe hors champ par exemple.
    Bref, c'est comme tout, des que tu mets la barre un peu haut en terme de qualite, ca demande un boulot de finition supplementaire.
    Ce qui est admirable de nos jours , c'est que tu peux te lancer relativement facilement.
    Mais si tu veux le faire serieusement, les prix s'envolent vite. (y a qu'a aller chez Faceware ou Optitrack pour voir les prix)
    De toute facon on ne peut pas echapper aux trois etapes essentielles.
    Modeling - reproduire en 3d la tete de l'acteur (ou seulement la partie concernee)
    Mocap - capturer les mouvement (milieu "naturel" ou pas, ce qui peut compliquer la tache si tu dois ensuite effacer les marques de tracking au compositing), ca c'est la partie la plus facile, comme a l'a dit un simple iPhone x suffit.
    Rigging - appliquer ces mouvement sur le model 3d. La tu depend grandement des choix de software que tu as fait. Tous les rigs ne sont pas equivalents et il faut parfois bricoler.
    En video/cine, il reste une etape supplementaire (compositing avec tracking) qui consiste a reappliquer le tout sur la sequence originale. la c'est tout le probleme de faire que ca ne se voit pas (gestion des ombres et des reflections, couleurs, focus etc...
     
    #5 giroudf, 10 Mars 2019
    Dernière édition: 10 Mars 2019
  6. WylssonMan

    Points Repaire:
    550
    Recos reçues:
    0
    Messages:
    27
    Appréciations:
    +0 / 0 / -0
    Mocap Bruce lee vs Chuck Norris
     
  7. caraibe

    Points Repaire:
    16 200
    Recos reçues:
    243
    Messages:
    22 481
    Appréciations:
    +524 / 1 712 / -62
    • Merci Merci x 1
  8. WylssonMan

    Points Repaire:
    550
    Recos reçues:
    0
    Messages:
    27
    Appréciations:
    +0 / 0 / -0
    Oui je sais c'est pas grave ca peut faire remonter le topic etc
     
  9. Alcoriza

    So

    Points Repaire:
    8 200
    Recos reçues:
    97
    Messages:
    5 211
    Appréciations:
    +294 / 698 / -5
    Parce que ta vidéo, c'est de la mocap ? :weird:
     
  10. WylssonMan

    Points Repaire:
    550
    Recos reçues:
    0
    Messages:
    27
    Appréciations:
    +0 / 0 / -0
    Ben oui, indirectement via une technique de reproduction de mouvement entre les 2 acteurs
     
  11. Alcoriza

    So

    Points Repaire:
    8 200
    Recos reçues:
    97
    Messages:
    5 211
    Appréciations:
    +294 / 698 / -5
    Et donc, quelle technique de mocap tu as utilisé ?
     
    • J'aime J'aime x 1
  12. giroudf

    So

    Points Repaire:
    15 400
    Recos reçues:
    505
    Messages:
    18 966
    Appréciations:
    +809 / 3 501 / -35
    tu as des softs qui sont capables de reconstruire des mouvents 3D depuis une video 2D.
    On a pas toujours la possibilite de pouvoir produire un mocap depuis l'original 3D.
    Ca s'appelle de la cinemeatique inverse et ca suppose que ton modele respecte quelques regles pour ses mouvement (comme un bras ou une jambe qui ne peut pas bouger n'importe comment.

    Ca s'utilise enormement dans les Marvel comme spiderman ou tu peux dire au modele de faire une pirouhette, pas besoin de forcement tout lui expliquer. tu donne le point de depart et celui d'arrivee et le soft se demmerde pour te faire un mouvement "humain"

    Tu as ca aussi en foot maintenant ou le terrain est modelise et les joueurs aussi, comme ca tu peux faire un replay d'une action avec des joueurs de synthese plus vrai que nature.

    L'avantage c'est que les mouvements sont plus fluides et tu n'a pas besoin d'un cascadeur.
     
    • J'aime J'aime x 1
  13. WylssonMan

    Points Repaire:
    550
    Recos reçues:
    0
    Messages:
    27
    Appréciations:
    +0 / 0 / -0
    Exactement giroudf ta tout compris c'est bien ça
    Par contre concernant le foot et les replay en 3D j'avou que à ce niveau là je galère un peu car c'est plus compliqué techniquement parlant
    J'aimerais bien animé un mouvement 3D animé de match à 11 vs 11 mais c'est plus compliqué
     
  14. WylssonMan

    Points Repaire:
    550
    Recos reçues:
    0
    Messages:
    27
    Appréciations:
    +0 / 0 / -0
    Via un soft qui reproduit une animation 2D en 3D mais par contre obligé de faire quelques retouches et regler certaines coordinations pour que ce soit fluide et cohérant
    On dirais peut-être pas mais ca demande beaucoup de travail
     
  15. saint kro

    saint kro Conseiller Technique Son numérique
    Modérateur So So

    Points Repaire:
    16 450
    Recos reçues:
    272
    Messages:
    22 970
    Appréciations:
    +651 / 3 663 / -80
    Encore faudrait-il que tu y participes en donnant des détails sur tes manip et sur les softs utilisés.
     
Chargement...

Dernières occasions

 

Partager cette page

Vous souhaitez annoncer sur le Repaire ? Contactez-nous


Dernières Occasions

 
Vous souhaitez annoncer sur le Repaire ? Contactez-nous