Live Video Stream su una texture

Stai vedendo 15 articoli - dal 1 a 15 (di 15 totali)
  • Autore
    Articoli
  • #3686

    Megisto
    Partecipante
    • Blenderista
    • Post sul forum 9

    Secondo questo link http://wiki.blender.org/index.php/Dev:S … deoTexture dovrebbe essere possibile inviare su una texture un segnale video proveniente ad esempio da una telecamera, o comunque un ingresso video collegato al computer.

    Conoscete della documentazione o un tutorial su questo argomento? Perché gli esempi riportati su quella pagina si riferiscono solo a video registrati e non live.

    grazie

    #76715

    Utente cancellato
    Partecipante

      Ciao è sempre buona educazione presentarsi ad una comunità  prima di interagire con essa puoi farlo aprendo un topic in sezione off topic.

      Questo è sicuramente un argomento nuovo, in effetti si parla sempre di texture video ma non si era mai accennato se non sbaglio a texture di questo genere, ne so come possano essere proiettate…..

      vedo di informarmi meglio.

      #76716

      Megisto
      Partecipante
      • Blenderista
      • Post sul forum 9

      Ti ringrazio della risposta. Stavo giusto scrivendo la mia mail di presentazione, ho solo dato la precedenza a questa. Ho mancato evidentemente di tempismo e non di buona educazione.

      Questo perché sto ricercando informazioni riguardo a questo aspetto da un po’ di tempo ed ho battuto a tappeto i forum di Blender nel mondo, senza ottenere nessuna risposta. Mi domando se sia perché è una feature non utilizzata o non utilizzabile ancora. Immagino però che se riportata tra le possibilità  delle video texture allora almeno gli sviluppatori sapranno come funziona.

      Grazie e mi scuso per non essermi presentato in anticipo.

      #76717

      Utente cancellato
      Partecipante

        Figurati il messaggio era volto a ricordare la presentazione non ad additarti come maleducato, mi sono espresso male 🙂

        Comunque…per fare…si può fare, e questo già  è qualcosa …se si può fare da qualche parte in rete ci sarà  qualcosa un tutorial o altro..spero.

        [youtube]ECCDKDSvXVM[/youtube]

        Questo video dimostra come questo ragazzo sia riuscito nello scopo…puoi intanto inviargli una mail o un messaggio chiedendogli lumi o se è gentile proprio un tutorial…è anche italiano mi pare.

        EDIT: ho trovato l’origine del video http://www.beniaminodellatorre.com/?p=103 spiega anche come fare…

        Ora spero sia quello che cerchi perchè un pò sto navigando al buio…non conosco il campo.

        facci sapere.

        #76718

        Megisto
        Partecipante
        • Blenderista
        • Post sul forum 9

        Sì, l’avevo visto. Questo purtroppo parla di come caricare un filmato (o più filmati) presenti sul proprio hard disk su una texture. Mentre ciò che vorrei fare è mettere su una video texture un segnale video streaming. Cioè acquisito in tempo reale da un ingresso firewire oppure un video input della scheda di acquisizione video. Secondo il manuale dovrebbe essere possibile.

        #76719

        stez90
        Partecipante
        • Blenderista
        • Post sul forum 170

        molto interessante, ma quale sarebbe l’utilità  di una cosa del genere? nel senso, tra modellazione rendering ecc passa del tempo.. come fai a coniugare queste tempistiche con la diretta video? mi sfugge.. ❓

        #76720

        riky70
        Partecipante
        • Veterano Bronzo
        • ★★★
        • Post sul forum 1946

        confermo, non credo sia possibile… stiamo parlando di real time ma per ora con le nostre macchinette da casa non è fattibile… 😀

        o meglio non credo lo sia, se provi anche solo a renderizzare la scena standard del cubo, così com’è non avviene comunque in tempo reale… figurati ad appiccicarci una texture e per di più acquisita in tempo reale… 😎

        #76721

        andcamp
        Moderatore
        • Veterano Platino
        • ★★★★★★
        • Post sul forum 5422
        • Blender Italia Staff
        • Associato Blender Italia

        se ha librerie (per la connessione internet e per il trasporto dello streaming) per farlo si puo’ fare, altrimenti no


        #76722

        riky70
        Partecipante
        • Veterano Bronzo
        • ★★★
        • Post sul forum 1946

        scusate ma lui dice di utilizzare un filmato caricato e non preso da una video camera in tempo reale… in pratica riesce a vedere il filmato nella viewport in realtime ma non è che il filmato è in realtime…

        sue testuali parole:

        In ogni caso, se vi interessa sapere cosa ho fatto per l’anteprima è molto semplice: ho importato un video (.mov H.264 nel mio caso) ed ho attivato nel pannello di importazione texture l’opzione Auto Refresh. La texture va applicata al solido o al piano come UV, altrimenti non c’è modo di vederne l’anteprima. Anche dal pannello UV/Image Editor ho attivato l’Auto Refresh, e a questo punto il gioco è fatto (ricordatevi anche di attivare la visione Textured nelle finestre 3D in cui volete vedere le texture). E’ necessario però, da quanto ho visto, tenere visibile sempre (questo credo sia ancora un bug) il pannello di editing delle Texture. Dal video infatti si nota che andando su un altro pannello si blocca l’anteprima. Un po’ fastidioso, ma aggirabile!

        qui possiamo riallacciarci ai vari test che avevamo fatto testando le schede video per la velocità  della viewport… infatti dice anche che filmati un po’ grandi non riescono a girare….

        #76723

        Megisto
        Partecipante
        • Blenderista
        • Post sul forum 9

        Be’ io non ho esattamente una “macchinetta” a casa. In ogni caso a giudicare da questo link http://wiki.blender.org/index.php/Dev:S … deoTexture, dice che tra i formati supportati vi sono

        – dv1394 camera

        – videoForWindows capture card (this includes many webcams)

        Quindi immagino sia possibile.

        #76724

        Bernardo
        Partecipante
        • Veterano Bronzo
        • ★★★
        • Post sul forum 1363

        beh poi c’è sempre il motore del bge…

        #76725

        Megisto
        Partecipante
        • Blenderista
        • Post sul forum 9

        Ah scusate, io parlavo prorprio del BGE. Forse non l’ho specificato. La necessità  d’avere su video texture la telecamera acquisita sottintende l’uso del game engine.

        #76726

        riky70
        Partecipante
        • Veterano Bronzo
        • ★★★
        • Post sul forum 1946

        ah…. beh allora non è la sezione giusta… per il GE non saprei… non lo conosco affatto…

        #76727

        Utente cancellato
        Partecipante

          sposto in sezione adatta

          #76728

          Megisto
          Partecipante
          • Blenderista
          • Post sul forum 9

          Su Blenderartists ho ricevuto questa risposta

          Quote:
          Check out openCV (open computer-vision) for a method to access a computer’s webcams or connected video capture devices. You should be able to grab the webcam’s buffer each frame, once you have that I think its only a matter of forcefully overriding the VideoFFMpeg’s frame buffer to be the webcam’s frame buffer. You can do that by assigning VideoFFMpeg.image to be the webcam’s buffer.

          So do create your video texture the normal way, although when you get to a line like:

          Code:
          video.source = VideoTexture.VideoFFmpeg(movie_source)
          # or, in 2.5
          video.source = bge.texture.VideoFFmpeg(movie_source)
          Put in empty strings as the argument, i.e VideoFFmpeg(“”).

          Than, where you refresh the video texture each frame, you want to switch the video textures frame buffer with the webcam’s:

          Code:
          import cv

          import bgl

          if “capture” not in own:
          own[“capture”] = cv.CreateCameraCapture(0) # the 0 should indicate the default capture device, try 1 if it fails
          frame = cv.QueryFrame(own[“capture”])
          buffer = bgl.Buffer(bgl.GL_BYTE, frame.size*frame.width*4, frame.imageData) # if this fails try replacing 4 with 3
          video.source.image = buffer

          Take this code to be a starting point, I’m fairly certain parts of it may fail. I hope you get the idea.

          Credo che il punto sia catturare il frame buffer e sostituirlo alla texture. Mi chiedo se qualcuno possa aiutarmi ad approfondire la questione. Pare che la documentazione, a parte il link che ho messo all’inizio di questa discussione, sia molto scarsa a riguardo. Esprime chiaramente la possibilità  di avere i propri video input su texture, ma non fa altri esempi se non quello del video offline.

        Stai vedendo 15 articoli - dal 1 a 15 (di 15 totali)

        Devi essere loggato per rispondere a questa discussione.