Blender Italia forums ArtWork Work in Progress Kinect Motion Capture Tests Re:Kinect Motion Capture Tests

Aspirante Fumettista
Membro
  • Blenderista
  • Post sul Forum 35
@aspirante-fumettista
#207058

Grazie per i commenti! :mrgreen:

E' vero: le luci nella scena di Blender sarebbero da rivedere, soprattutto nel secondo test, dove le bambole non proiettano ombre, mentre il sottoscritto sì. Ho cercato di migliorare la situazione nel terzo test, quello con il mantello.

Miku si muove in maniera eccessiva (ma è normale: Miku è dotata di vita propria! :wink:). C'è da dire, però, che questo è quanto “esce” automaticamente dal programma (Miku Miku Dance), senza interventi di ritocco, o quasi. Ho solo eliminato una manciata di fotogrammi dove il polso destro faceva uno strano scatto, nulla di più. Invece negli altri due test il lavoro di pulitura è stato maggiore (e rimangono comunque degli errori).

Il rig di Miku secondo me è interessante. Era stato segnalato anni fa su Blender Nation, ma ho iniziato a darci un'occhiata solo ieri, per capire come facessero i capelli a muoversi in modo così convincente e “naturale” al primo colpo, mentre con il mantello ci ho messo dei mesi per ottenere quello che avevo in mente (e ho anche dovuto fare qualche ritocco in GIMP, in qualche fotogramma)! :geek:

Esiste più di un sistema per usare il Kinect come periferica di Motion Capture. Ho pensato di postare l'esperimento per dare un punto di partenza a chi volesse lanciarsi a sua volta in questo genere di cose, perché all'inizio mi sono perso… Qui ho usato Brekel, che esporta in BVH, facilmente importabile in Blender. Il limite è che durante la fase di acquisizione non vedi il tuo personaggio, ma solo lo “scheletro” animato. Con Miku Miku Dance, invece, si ha il controllo in tempo reale, che aiuta a capire l'efficacia della cattura. Nel frattempo però è uscito NiMate, che permette di muovere i personaggi in tempo reale direttamente all'interno di Blender. Ci ho solo giocherellato, ma è particolarmente bello: funziona anche nel Game Engine, così si possono vestire i panni di Big Buck Bunny (fornito con il programma) e demolire muri “in diretta”. L'ho testato durante una supplenza ed è stato piuttosto divertente. :razz:

Purtoppo non sono ancora riuscito a fare qualche esperimento di MoCap da Ubuntu: la via più breve, a quanto ho capito, passa ancora da Windows.

Tra i programmi che ho testato, merita una menzione speciale Noesis, opera del misterioso Seà±or Casaroja, che continua la tradizione di famiglia (corse degli asini e reverse-engineering, da quanto si legge sul sito). In realtà , quando l'ho provato non sono riuscito a far leggere i suoi BVH (né da Blender, né da altri programmi), però ha il suo fascino!

Scusate la lunghezza del post: spero che possa essere utile a qualcuno!