Un grupo de investigadores de la Universidad Politécnica de Valencia han creado un proyecto sobre nuevas estrategias de lenguaje audiovisual propiciadas por las tecnologías de la imagen utilizando elementos de visión artificial de 2D (cámaras convencionales) y 3D (cámara Kinect) que se llama CvCinema y que permite minimizar el nivel de intervención humana en el proceso de realización audiovisual.
Investigadores de la Universidad Politécnica de Valencia (UPV) han desarrollado un prototipo experimental que utiliza herramientas innovadoras de hardware y software de visión artificial para conseguir una realización audiovisual automatizada. El prototipo se llama CvCinema y es el resultado de la investigación ‘Aplicación de las técnicas de visión artificial en realizaciones audiovisuales’, que supone una aportación a las investigaciones actuales sobre nuevas estrategias de lenguaje audiovisual propiciadas por las tecnologías de la imagen.
Esta aportación es posible gracias al empleo de sistemas innovadores de hardware y software de visión artificial a la hora de buscar nuevos usos de los recursos audiovisuales tanto en la grabación de las imágenes como en el montaje. El planteamiento original a la hora de desarrollar un dispositivo experimental que permitiese evaluar el potencial expresivo del uso de herramientas de visión artificial en el campo audiovisual es el de crear nuevos criterios de decisión con respecto al qué y al cómo registrar imágenes y sonidos en un escenario determinado. Estos nuevos criterios trasladan la tarea de decidir a algoritmos de visión artificial que ya existen en otros campos, como la robótica, la vigilancia o el control de calidad, con el fin de minimizar el nivel de intervención humana en el proceso de realización audiovisual.
El investigador del grupo Laboratorio de Luz de la UPV, que lleva a cabo el desarrollo del prototipo, David Sanz, ha explicado a EFE que “no se trata de sustituir al ser humano sino buscar alternativas, es decir, resultados a los que un director o realizador no llegarían con su propia creatividad pero a las que sí que podría llegar una máquina o un robot con su peculiar forma de ver”. Según ha explicado, como se trata de un proyecto experimental, el tipo de audiovisual que surge “no es convencional”, por lo que de momento “no hay que esperar una película de cine” sino “un tipo de lenguaje visual que se genera con imágenes fragmentadas y una especie de montaje que recurra al estilo del videoclip”. Ha subrayado el “éxito” que ha tenido en los experimentos que han realizado, la integración del sistema en conciertos en directo, por lo que considera que, además del cine, “una futura aplicación sería la realización automática de videoclips, bien en conciertos en directo o en estudios de televisión”.
Dispositivos 2D y 3D
Para crear este dispositivo experimental, los investigadores han utilizado elementos de visión artificial de 2D y 3D, subsistemas “input” de captura de imágenes y alimentan al sistema con materia imágenes del mundo real y elementos de “output”, que muestran la materia producida. Los dispositivos 2D son cámaras de vídeo convencionales, que proporcionan datos bidimensionales del espectro visible captado, organizados en fotogramas consecutivos, cada uno con una resolución o cantidad de píxeles determinada. Como dispositivo 3D han usado una cámara Kinect, un periférico de la videoconsola Xbox, cuyos sensores proporcionan información espacial tridimensional del espacio que cubre su rango de trabajo y corresponden a posiciones en el espacio real de la escena.
Una aplicación concreta, en el caso del sensor Kinect, es la de analizar la nube de puntos en busca de patrones que se correspondan con la posición de una persona en el espacio y, tras detectar la pose del usuario, permite que éste interactúe con sus propios movimientos en el mundo virtual de un videojuego. Sanz considera que una vez haya alguna empresa potencialmente interesada en disponer del producto, en el plazo de un año podría estar totalmente desarrollado.