Blender Italia forums ArtWork Work in Progress Kinect Motion Capture Tests

Status della richiesta: Non è una richiesta di supporto
Stai visualizzando 10 post - dal 1 a 10 (di 10 totali)
  • Autore
    Post
  • Aspirante Fumettista
    Membro
    • Blenderista
    • Post sul Forum 35
    @aspirante-fumettista
    #18561

    Dopo secoli di assenza, riesco finalmente a postare qualcosa anch'io! :smile:

    Si tratta di un piccolo video che raccoglie tre test di Motion Capture che ho fatto l'estate passata con il Kinect. Nel primo Blender c'entra poco (l'ho usato solo per il montaggio), mentre negli altri due è lo strumento principale. Nel frattempo ho anche provato NiMate, che sembra decisamente interessante (e chissà  che prima o poi non arrivi anche su Linux…).

    E' solo un test, ma spero che vi piaccia (consigli e critiche bene accetti, naturalmente)!

    Anfeo
    Partecipante
    • Veterano Bronzo
    • ★★★
    • Post sul Forum 2124
    @anfeo
    #207056

    In pratica con il kinetic puoi importare dati di motion capture in Blender?

    Wow :shock:


    andcamp
    Partecipante
    @andcamp
    #207057

    Bellissimo come esperimento :)

    Miku si muoveva troppo rispetto all'originale (forse ci aggiungeva un po' di suo), Dracula invece segueva i movimenti dell'attore, ma non c'era il movimento della maglietta

    nel tracking con Blender da mettere a posto le luci sui personaggi


    Aspirante Fumettista
    Membro
    • Blenderista
    • Post sul Forum 35
    @aspirante-fumettista
    #207058

    Grazie per i commenti! :mrgreen:

    E' vero: le luci nella scena di Blender sarebbero da rivedere, soprattutto nel secondo test, dove le bambole non proiettano ombre, mentre il sottoscritto sì. Ho cercato di migliorare la situazione nel terzo test, quello con il mantello.

    Miku si muove in maniera eccessiva (ma è normale: Miku è dotata di vita propria! :wink:). C'è da dire, però, che questo è quanto “esce” automaticamente dal programma (Miku Miku Dance), senza interventi di ritocco, o quasi. Ho solo eliminato una manciata di fotogrammi dove il polso destro faceva uno strano scatto, nulla di più. Invece negli altri due test il lavoro di pulitura è stato maggiore (e rimangono comunque degli errori).

    Il rig di Miku secondo me è interessante. Era stato segnalato anni fa su Blender Nation, ma ho iniziato a darci un'occhiata solo ieri, per capire come facessero i capelli a muoversi in modo così convincente e “naturale” al primo colpo, mentre con il mantello ci ho messo dei mesi per ottenere quello che avevo in mente (e ho anche dovuto fare qualche ritocco in GIMP, in qualche fotogramma)! :geek:

    Esiste più di un sistema per usare il Kinect come periferica di Motion Capture. Ho pensato di postare l'esperimento per dare un punto di partenza a chi volesse lanciarsi a sua volta in questo genere di cose, perché all'inizio mi sono perso… Qui ho usato Brekel, che esporta in BVH, facilmente importabile in Blender. Il limite è che durante la fase di acquisizione non vedi il tuo personaggio, ma solo lo “scheletro” animato. Con Miku Miku Dance, invece, si ha il controllo in tempo reale, che aiuta a capire l'efficacia della cattura. Nel frattempo però è uscito NiMate, che permette di muovere i personaggi in tempo reale direttamente all'interno di Blender. Ci ho solo giocherellato, ma è particolarmente bello: funziona anche nel Game Engine, così si possono vestire i panni di Big Buck Bunny (fornito con il programma) e demolire muri “in diretta”. L'ho testato durante una supplenza ed è stato piuttosto divertente. :razz:

    Purtoppo non sono ancora riuscito a fare qualche esperimento di MoCap da Ubuntu: la via più breve, a quanto ho capito, passa ancora da Windows.

    Tra i programmi che ho testato, merita una menzione speciale Noesis, opera del misterioso Seà±or Casaroja, che continua la tradizione di famiglia (corse degli asini e reverse-engineering, da quanto si legge sul sito). In realtà , quando l'ho provato non sono riuscito a far leggere i suoi BVH (né da Blender, né da altri programmi), però ha il suo fascino!

    Scusate la lunghezza del post: spero che possa essere utile a qualcuno!

    #207059
    'Aspirante wrote:

    Scusate la lunghezza del post: spero che possa essere utile a qualcuno!

    scusate?????

    ma continua ….. prego! :)

    è stato veramente molto interessante, complimenti!

    Se riuscissi a fare una guida passo passo anche gli utenti meno esperti potrebbero cimentarsi in questa prova

    {Genesis}
    Membro
    • Blenderista
    • Post sul Forum 311
    @genesis
    #207060

    Thread molto interessante, mi unisco ad afranx riguardo la realizzazione di una guida o tutorial che magari potrebbe uscire col prossimo numero di BMI.

    Aspirante Fumettista
    Membro
    • Blenderista
    • Post sul Forum 35
    @aspirante-fumettista
    #207061

    Sono contento che l'argomento interessi! :smile:

    I tre test corrispondono ad altrettanti articoli che ho scritto per Win Magazine (numeri di marzo, aprile e maggio 2012, quest'ultimo in edicola proprio ora :cool: ). A dirla tutta, se sono riuscito a portare avanti l'esperimento è stato anche grazie all'occasione degli articoli (soprattutto per quanto riguarda quel maledetto mantello, che probabilmente avrei potuto risolvere in maniera più sbrigativa… ma questo l'ho scoperto solo dopo!).

    Mentre mettevo in rete il video (30 aprile), NiMate è uscito dalla fase beta. Da quanto si legge sul sito, una versione gratuita del programma dovrebbe comunque essere sempre disponibile. Purtroppo NiMate non è libero, ma valutando il suo “legame speciale” con Blender, la promessa di una ormai prossima versione Linux e il fatto che funziona bene (almeno dalla prove che ho fatto), direi che sarebbe il punto di partenza ideale per un articolo sul MoCap in salsa Blender.

    Per sicurezza, ho scritto a Win Magazine per sapere se ci fossero problemi nel caso di un articolo per BMI, visto l'argomento simile. Sono stati molto gentili e mi hanno detto che va bene, considerando che cambierebbero sia il programma di acquisizione, sia il modello da animare. Da parte mia, tempo permettendo, sarei contento di scrivere un tutorial sull'argomento (così ho anche un motivo in più per continuare negli esperimenti!). Partire con NiMate in realtà  è molto immediato, però magari aggiungendo qualche “trucchetto” il tutto potrebbe risultare interessante.

    A proposito: un altro programma pensato per il MoCap con Blender è Bloop, che però si basa su Microsoft Kinect SDK, quindi è solo per Windows. NiMate invece è stato pensato per tutti e tre i sistemi operativi più diffusi, anche se la versione Linux si fa attendere. In più, sta progressivamente estendendo le sue possibilità  di connessione (oltre a Blender, si può usare anche con Cinema 4D, Maya e Animata). Il fatto che ad essere supportato per primo è stato il nostro “frullatore” preferito non può che far piacere!

    Blender Italia
    Amministratore del forum
      @admin
      #207062

      ciao  bel lavoro, una informazione hai usato kinect xbox o kinect windows?


      Domenico Acito
      Membro
      • Blenderista
      • Post sul Forum 15
      @domenico-acito
      #207063

      Che cosa interessante, davvero! :D  

      …e soprattutto sono felice di trovare persone che conoscono Miku Hatsune  :cool:

      Aspirante Fumettista
      Membro
      • Blenderista
      • Post sul Forum 35
      @aspirante-fumettista
      #207064

      Sono contento che il mio vecchio post sia stato rispolverato!

      Purtroppo da allora non sono più riuscito a fare nuovi esperimenti di MoCap, al di là  di un rapido test di NIMate su Ubuntu (risultato: si installa facilmente e funziona bene). I test del video li avevo realizzati con il kinect per xbox (all’epoca la versione per windows non c’era neanche!).

      Ne approfitto per segnalare un uso “alternativo” del motion capture effettuato tramite Blender e NIMate. In pratica si tratta di una versione casalinga della “telecamera virtuale” resa famosa da Cameron con il suo Avatar. Oltre che sul blog dell’autore ( http://marwinportugal.wordpress.com/), l’esperimento è stato segnalato anche sul forum di NIMate (http://www.ni-mate.com/forum/).

      EDIT: dando una nuova occhiata agli esperimenti della “finestra” e della “telecamera” virtuali, ho scoperto che erano legati allo studio di animazione Tuldok, che purtroppo sembra essere stato chiuso.

      Lieto di conoscere un altro amico di miss Hatsune!

    Stai visualizzando 10 post - dal 1 a 10 (di 10 totali)
    • Devi essere connesso per rispondere a questo topic.