Eva Domínguez - Eva Domínguez

Eva Domínguez

+

Ayudo a organizaciones a informar y divulgar con lenguajes inmersivos para conectar más con sus públicos

Hola

¿Te puedoayudar?

La tecnología es el lenguaje de nuestro tiempo

Me encanta facilitar el cambio porque es la manera de construir el futuro desde el presente. Ese futuro está modelado por la tecnología y es tridimensional. Transforma la manera en que contamos historias y comunicamos. Por eso, uno comunicación, tecnología e innovación desde hace 20 años como consultora, productora, investigadora y emprendedora. Estoy especializada en narrativas inmersivas (ahora le llaman historias en el metaverso).

SERVICIOS

COACHING NARRATIVO

Lo que haces es importante y merece llegar a más gente. Te ayudo a amplificar el alcance de tu idea innovadora incorporando los nuevos lenguajes con un storytelling digital impactante.

SHERPA DIGITAL

Pongo mi bagaje tecnológico y de dirección de proyectos a tu servicio para dar estructura e impulso a tu creatividad acompañándote en todo el camino, desde la estrategia hasta el lanzamiento.

Si necesitas producir un formato visual original, descubre nuestro estudio, donde unimos la magia de la tecnología, la ilustración y las historias en experiencias inmersivas.

APLICACIONES

Espacios físicos

Las historias son una experiencia, también en los espacios físicos, donde el movimiento y las sensaciones forman parte de la narrativa. En estas narrativas espaciales el relato es envolvente y se pueden utilizar diferentes recursos, incluidas tecnologías inmersivas, como la realidad aumentada y la virtual. Todo se integra en el concepto y el guion para ir del storytelling al storyliving.

Formatos web

Los contenidos informativos en la web pueden ser funcionales o pueden contar historias de una forma original y efectiva. No importa el alcance. Puedes aplicarlo para algo muy concreto en un scrollytelling o tenerlo en cuenta al cambiar toda tu página web. Es el momento de pensar en el mensaje, los formatos y el estilo de tu comunicación para que incluir las plantillas, las herramientas y los recursos que lo hagan posible.

Inmersivas y metaverso

El futuro de los contenidos digitales es tridimensional. La posibilidad de experimentar entornos y contenidos en 3D a tu alrededor va a transformar la manera en que comunicamos, informamos y divulgamos. La narrativa con tecnologías inmersivas es mi especialidad, tanto desde la teoría como la práctica. Asesoro en cómo comunicar y dar servicio con realidad extendida o lo que ahora se llama metaverso.

RECURSOS

Herramientas digitales

En esta lista encontrarás herramientas digitales que encuentro particularmente útiles para la creación de contenidos digitales.

Periodismo inmersivo

Durante años he investigado la influencia de las tecnologías inmersivas y el videojuego en la narrativa de no ficción. Tesis doctoral incluida.

SUSCRÍBETE

Menciones

Eva is a very smart and innovative thinker who has been working toward reinventing the future in a fun and accessible way.

Nonny de la Peña

The godmother of VR Journalism

Eva is a kind and easy-going person with a can-do attitude and a highly empathetic vision of communication. She has a great capacity of synthesis and she is very strong identifying the essential key points of a story. Her background in journalism and her knowledge of new technologies, together with her professional approach to public audiences make her a great fit for any complex project and innovation challenges.

Isabel Salgado Gispert

Directora del Área de Exposiciones y Colección en Fundación "la Caixa"

Eva es una de las mejores expertas en narrativas audiovisuales interactivas, capaz de ver más allá de la tecnología encontrando historias emocionantes y dándoles la profundidad que merecen. En este mundo tan voluble en cuanto a formatos, tiene la habilidad de ver los proyectos en su conjunto y encontrar los equipos y tecnologías necesarios para que el contenido luzca. Perfeccionista, capaz, paciente y totalmente recomendable.

Adriano Morán

Fundador de 93 Metros

Eva was our mentor in a deep tech acceleration program. Her kind opinions, her encouragement and wise advises about communication were key for the team to achieve a common vision about the project. We made the pitch... and we succeed!

Miguel Ángel Pérez

Techtransfer at I2CAT Foundation

Great leadership, marvellous coaching, always insightful and passionate. A pleasure to have her as my boss. Recommended anytime.

Jorge Serrano-Cobos

PhD Researcher and Analyst

Es difícil encontrar una profesional con más capacidades, conocimientos y determinación que Eva. Se trata de una comunicadora decidida, implicada y valiente. Si a esto le sumamos que es una excelente persona, difícilmente encontraremos alguien mejor para compartir cualquier tipo de proyectos.

Joan Francesc Canovas

Consultant specializing in crisis communications and spokesperson training

With their help and guidance, the museum is developing new strategies and proposals in the field of digital exhibitions and VR resources applied to exhibitions and, in general, to the dissemination of heritage. Rigor, creativity and flexibility define her professional personality and make her a particularly essential, useful and appreciated collaborator for our museum.

Jusèp Boya

Director of Museu d'Arqueologia de Catalunya

20

AÑOS DIGITALES

1

STARTUP

5

LIBROS

9999

MOMENTOS ESTUPENDOS

Escaparate

En esta entrevista no hay humanos (podcast #45)

Esto es una transcripción del podcast. Podrás encontrar todos los episodios en las siguientes plataformas:

(Imagen hecha con Craiyon)

Si escuchas el podcast de este episodio oirás una conversación entre dos personas en inglés al inicio.

Pues bien, te hago una confesión: esta entrevista no la he producido yo. Bueno, ni nadie humano. Lo ha hecho la IA.

Mi objetivo era explicarte de manera amena cómo la realidad virtual está transformando los documentales. Estamos pasando de ver a experimentar y eso significa poner el cuerpo en medio de la historia. Te iba a contar los resultados de un estudio muy interesante del MIT Open Documentary Lab y el festival IDFA.

Pero, ¿sabes qué me pasa? Que apenas tengo tiempo. Llego siempre derrapando a esta cita contigo. Así que como el informe es largo, pues he probado una nueva herramienta que ha lanzado Google que se llama NotebookLM. Le subes un informe y le puedes hacer preguntas sobre su contenido.

Si no se te ocurre nada, te sugiere preguntas, también.

Por ejemplo, te sugiere la pregunta: ¿Cómo están usando los cineastas la incorporación en sus proyectos para abordar y comprender la realidad?

Y te responde: En lugar de intentar sumergir completamente a los participantes en un mundo virtual, los cineastas se inclinan por las realidades duales, utilizando el contenido, las historias y la textura de la experiencia para jugar con los deslices entre diferentes realidades.

Yo aquí lo de los deslices entre diferentes realidades no sé qué es. Y se supone que de esto se algo. La verdad, no le he entendido.

Después te indica que eso se concreta en: familiarizar al público con la experiencia, desafiar la percepción y el enfoque, generar incomodidad creativa y resaltar realidades estratificadas. Aquí, de nuevo, lo de realidades estratificadas no es muy amigable.

Lo cierto es que te ayuda a hacer preguntas a documentos largos y a crear rápidos resúmenes y notas.

Aunque lo más flipante, de verdad, flipante, es que te convierte el informe en una conversación entre dos voces humanas.

Lo hace en inglés. En serio, escucha el podcast. Está al final de este artículo.

Fíjate en el tono de la conversación, el ánimo, las bromas. Es una conversación hecha por la IA y no hay manera de distinguirla de una real.

Como de momento, solo lo hace en inglés, he probado a traducir la conversación al español con distintas herramientas, como Rask o Heygen. He subido el audio y lo he pasado a vídeo pero no ha habido manera.

Con tantas pruebas ya no me ha dado tiempo y lo he dejado aquí. Que esto de probar herramientas de Inteligencia Artificial consume también energía.

También me hubiera gustado sustituir una de las voces por la mía para ver el efecto. Así que ya probaré todo esto en otro momento.

En fin, el caso es que con tantas pruebas, no te he hablado de lo que iba a hablar. Que era de los interesantes casos sobre cómo los entornos inmersivos cambian la manera de hacer documentales.

Pues ya hablaremos de eso en otro momento.

Parece que el momento en que este podcast realmente lo haga la Inteligencia Artificia está cada vez más cerca. ¿Crees que notarás la diferencia? Espero que sí.





Historias liliputienses en realidad mixta (podcast #44)

Esto es una transcripción del podcast. Podrás encontrar todos los episodios en las siguientes plataformas:

Imagen oficial de la obra The Tent

(The Tent)

Te acuerdas de Los viajes de Gulliver? ¿Qué te parecería sentirte como Gulliver en Liliput? Ese lugar de seres diminutos dónde tú serías gigante? Pues con la realidad mixta, ya puedes sentirte así.

Te recuerdo primero qué es la realidad mixta. Si me has ido escuchando he hablado mucho de realidad virtual y aumentada. Cuando te pones unas gafas de realidad virtual, tu mundo alrededor desaparece y es substituido por uno creado por ordenador por el que te puedes mover.

En la realidad aumentada, que se experimenta habitualmente desde el móvil, sigues viendo a través de la cámara posterior tu entorno como fondo y en él aparecen los elementos digitales.

Pues bien, la realidad mixta es como una realidad aumentada pero avanzada, en la que lo que aparece en 3D tiene en cuenta el espacio físico en el que está.

Me refiero, por ejemplo, que si hay muebles, sabe que hay muebles y los tiene en cuenta. Si hay un personaje en 3D, pues no los atraviesa ni se superpone en ellos. El entorno funciona como una frontera física para ese personaje.

Por tanto, la realidad mixta interactúa con el entorno real. Además puedes interactuar con ella con las manos.

Imagina que pudieras ver una casa diminuta en la mesita de café de la tuya. Y luego ves a una pareja también diminuta que entra y sale charlando. A través de su historia reflexionas sobre lo complicado que es ser buena persona y qué se necesita para vivir de acuerdo con los valores de cada uno.

Durante los 21 minutos que dura la obra, ambientada en Los Ángeles, los puedes observar desde tu vista de gigante desde cualquier lugar. Te acercas, te alejas, te mueves a su alrededor.

Para que la puedas ver así, la obra de teatro ha utilizado diversas técnicas. Por un lado, han creado los escenarios tridimensionales y, por otro, han grabado los personajes con vídeo volumétrico. Si recuerdas, hablé de eso en el podcast número 40.

En The Tent, que es como se llama esta obra, eres una espectadora de tamaño gigante pero solo espectadora. No puedes incidir en el guión. No es interactiva. El director es Rory Mitchell. Es una obra de teatro tridimensional.

Ahora imagina que tuvieras unos personajes diminutos ante ti y pudieras cambiar el curso de lo que pasa tocando aquí y allá con tus propias manos.

Pues bien, eso es lo que ocurre en Wall Town Wonder, un videojuego en el que tienes que ayudar a construir una ciudad de tamaño liliputiense.

Juego en realidad mixta Wall Town Wonder

 

En el juego hay 100 edificios que se pueden construir y la manera en que se desarrolla la construcción de la ciudad depende de lo que cada jugador gigante decida hacer en ella.

En la construcción de esa ciudad no estás sola tú como gigante, sino que tu labor es ayudar a los 40 personajes diminutos que van a hacerlo.

Este videojuego está hecho para las últimas versiones de gafas Oculus, de Meta, que integran la tecnología de realidad mixta. Por tanto, interpretan el espacio que te envuelve para adecuar la dimensión del videojuego a la sala de tu casa.

Estas narrativas liliputienses están aprovechando las posibilidades que la realidad aumentada y la realidad mixta ofrecen para crear historias tridimensionales sin que pierdas de vista el espacio físico.

Van a aparecer muchas más, porque siguen apareciendo nuevos dispositivos que apuestan por ella. De hecho, es una tendencia lógica para expandir las historias y los contenidos tridimensionales.

Recientemente la red social Snapchat ha anunciado el lanzamiento de unas gafas de realidad mixta que no se distinguen mucho de unas gafas normales.

Tienen claro que para que el consumo digital sea realmente tridimensional, es preciso que la experiencia de usuario, ya sea en móviles o gafas, sea cómoda e intuitiva.

El videojuego como plató de cine (podcast #43)

Esto es una transcripción del podcast. Podrás encontrar todos los episodios en las siguientes plataformas:
(Imagen creada con Skybox AI)

Además de ser una de las industrias culturales más potentes, sino la que más, el videojuego está cambiando la forma de producción de otras industrias audiovisuales, como el cine, la televisión y la animación. Hoy te hablo de los platós virtuales. Pero antes vamos a hablar de machinima.

Machinima proviene de machine cinema. Son películas hechas a partir de videojuegos. Como sabes, en los videojuegos se pueden grabar secuencias del juego. Pues imagina que eliges el plano desde el que grabas a jugadores y después montas esas secuencias. Ya tienes una primera película grabada a partir de un videojuego.

De hecho, se considera que la primera película machinima es Diary of a Camper, del 1996.

Esta capacidad de los videojuegos para poder grabar escenas ha dado alas a la creatividad de muchas personas, que han creado cortos y hasta películas.

Si eres un fan de La guerra de las Galaxias, puedes crear un guión e involucrar a unos cuántos jugadores para grabar las escenas que tienes pensadas. Con los distintos videojuegos sobre la saga, tienes bastantes escenarios y personajes donde elegir.

Así se hizo, de hecho, Bog War, en 2006, una película de fans que se llegó a proyectar en una convención de La Guerra de las Galaxias en Las Vegas.

Y, bien, dirás, pero qué tiene que ver eso con el cine, la televisión o la animación.
 

Pues mucho, porque los programas con los que se hacen los videojuegos han aumentado de forma exponencial su capacidad para generar escenarios tridimensionales que son indistinguibles de los reales. Y eso ha hecho que la industria del cine los esté utilizando como platós virtuales.

 
Uno de estos programas es Unreal Engine. Su hiperrealismo y detalle es asombroso. Tu ojo es incapaz de ver si es un escenario real o sintético, creado por ordenador.

Por eso, se está utilizando para ponerlos de fondos en la producción de cine y televisión.

Me imagino que suena el concepto de chroma, ese fondo verde con el que se graba en televisión para después sustituirlo por otra imagen.

Supongo que sí. Tradicionalmente, se ha utilizado para poner de fondo algo grabado con una cámara. Bien, pues ahora en lugar de un escenario real puedes colocar escenarios virtuales hiperrealistas.

¿Qué permite? De entrada, no mover equipos enteros a lugares remotos o protegidos para grabar en escenarios reales. O recrear con más facilidad lugares de otras épocas.

O sea, ahorrar dinero, pero también imaginar escenarios que no son fáciles de conseguir y hacerlo todo en un único plató.

De hecho, las superproducciones han ido más allá en mostrar el potencial de este cambio. La serie Mandalorian, de Disney, que está basada en el universo de La Guerra de las Galaxias, utilizó de manera espectacular esta capacidad de crear entornos hiperrealistas creados con Unreal Engine, entre otros.

En lugar de utilizar el croma, los proyectó directamente en el plató en gigantescas pantallas LED de manera que los actores actuaban envueltos en ese escenario tal cual se estaba filmando. Además, de que todo el mundo veía cómo estaba quedando también les permitía hacer ajustes de forma mucho más rápida. Por ejemplo, podían mover una montaña en el programa de creación de los escenarios tridimensionales.

Toda la serie se grabó en un enorme plató en el que se iban cambiando los escenarios según las escenas.

      
Salvando las distancias de presupuesto y ambición, esta manera de producir se puede ajustar a todo tipo de creaciones. Facilita que empresas más pequeñas puedan crear historias con escenarios fantásticos hechos por ordenador.

Se puede aplicar al cine, a las series y a la televisión. Y, por supuesto, a la animación. Porque con estos programas también puedes dar vida a personajes digitales que actúen en directo o con los que grabes escenas para montarlas luego.

Así que los entornos creados con programas de videojuego son los nuevos platós virtuales de la industria audiovisual.

Hoy he hablado solo de este aspecto, pero es muy interesante ver cómo las industrias y los lenguajes se influencian mutuamente.

Las IA hablan entre ellas (pocast #42)

Esto es una transcripción del podcast. Podrás encontrar todos los episodios en las siguientes plataformas:


   


Lo que acabas de ver es un diálogo entre dos chatbots grabado en el 2011, hace ya 13 años. No es una conversación entre humanos, aunque haya muchos diálogos entre personas que se parezcan a este.

Esto fue un experimento divertido. Los chatbots, que son programas que simulan la conversación de una persona, estaban muy lejos de lo que tenemos hoy con el boom de la Inteligencia Artificial. Era una época en la que era fácil detectar cuando hablabas con una máquina.

De hecho, existían competiciones para ver si la máquina podía confundir a una persona. Estaban basadas en el Test de Turing.

Alan Turing fue un matemático inglés al que se le considera el padre de la informática moderna. Durante la Segunda Guerra Mundial trabajaba descifrando códigos nazis. Se dice que si no hubiera sido por él la guerra podría haber durado entre dos y cuatro años más.

Inventó el test que juzgaba si a través de sus respuestas la inteligencia de una máquina era indistinguible de la de un ser humano. Los jueces dialogaban por escrito con personas y máquinas a través de un ordenador y tenían que acertar quién era la máquina.

Pues, oficialmente, fue en 2014 una de ellas pasó el test. Es decir, el diálogo que mantuvo engañó a suficientes jueces.

Diez años más tarde, la Inteligencia Artificial habla como humanos y los humanos hablamos con ella como si fueran personas.


Y ya no me refiero a Siri o cualquier asistente de conversación, sino también y especialmente a robots con aspecto de personas.

Algunos de ellos se han hecho muy populares, como Sofia, de Hanson Robotics, que para solucionar los problemas del mundo dijo que había que eliminar a la humanidad.

Y a ver, que no tendrá sentimientos, pero razón no le falta. El algoritmo es implacable.

La fascinación por estos humanos sintéticos, como se les llama, y hasta dónde podrán llegar se vio en la primera rueda de prensa con el star system de los robots, en el 2023.


Allí estaban la polémica Sofía, Desdémona, una estrella de rock también creada por Hanson Robotics, junto con Grace, de SingularityNet, programada para atención sanitaria, y Ameca, de Engineered Arts, entre otros.

Respondían educadamente a los periodistas. Sin embargo, cada vez más, los robots hablan entre sí.

No solo en conferencias o como parte de juegos o experimentos sino también como soluciones comerciales.

Te pongo un ejemplo. Una agencia de servicios norteamericana llamada Fantasy entrena a Inteligencias Artificiales para participar en focus grups de usuarios.

Como sabes, las empresas realizan estos focus grups con personas para conocer las opiniones y preferencias por ejemplo para lanzar un producto o un servicio.

Pues bien, han incorporado a personajes creados con IA a estos focus grups. Es decir, que una parte de los usuarios que están dando su opinión no son personas sino programas de ordenador entrenados para responder como personas.

Y al parecer está dando muy buenos resultados, según los clientes que pagan. En un artículo de Wired, se menciona el caso del cliente British Petroleum que encargó un focus grup con 50 de estos humanos sintéticos para que discutieran proyectos de ciudades inteligentes.

Y decían que los humanos que participaron también dieron respuestas más creativas.

Parece que las máquinas que razonan como si fueran humanos lo hacen mejor que nosotros mismo. Si piensas que te pueden sustituir, pues evidentemente ya lo están haciendo. 

Ahora bien, no sale gratis, porque el consumo de créditos de IA es alto y eso cuesta por ahora bastante dinero. Seas humano o máquina, nadie quiere trabajar gratis.

El auge del criptoarte (podcast #41)

Esto es una transcripción del podcast. Podrás encontrar todos los episodios en las siguientes plataformas:

(Imagen creada con Craiyon)

Hoy te cuento cómo el criptoarte y los NFTS están dando alas a muchos artistas.

Imagina que vendes una obra por 70 millones de dólares, o que te encargan el NFT para una película de Hollywood, o que tú decides qué porcentaje de los ingresos destinas a una organización social.

Antes de las historias, vamos a entender todos estos palabros.

Uno de los principales problemas que han tenido las artistas digitales es que no podían certificar la autenticidad de sus obras.

Una obra digital es fácilmente replicable y ambos ficheros son iguales. La facilidad de replicabilidad que ofrece la tecnología digital se convierte en una pesadilla cuando lo que necesitas es darle un valor de exclusividad.

Así estaban en desventaja respecto de artistas que trabajan con otros materiales.

Pues eso se ha cambiado con la llegada de los NFT y la tecnología blockchain.

Un NFT, que significa token non fungible, es una representación digital indivisible, que se puede certificar como tal. Se hace a través de la tecnología blockchain.

El blockchain es como un «libro de registro digital» descentralizado que se utiliza en Internet para mantener un registro seguro y transparente de transacciones y datos. Una vez que se registra, esa información no se puede cambiar ni borrar, y todos pueden verla.

La obra NFT lleva un certificado digital de autenticidad que garantizan la legitimidad de la obra. Se registras su autor, su valor inicial y todas las transacciones realizadas y todos los diferentes propietarios que haya tenido a lo largo del tiempo.

Eso permite que una artista que haya certificado su obra con NFTs la puede vender directamente a un comprador.

Además, esta suponiendo un revulsivo para el mercado del arte y el coleccionismo. Muchos inversores están comprando obras en NFT con la esperanza de que su valor crezca en el futuro.

Para muestra, la subasta de Christie's, que en marzo del 2021 subastó la primera obra de arte íntegramente digital por 70 millones de dólares. El propio autor de la obra, Beeple, se atragantó en Twitter.

Pero aparte de los casos extremos, está ayudando a muchas artistas digitales a llevar el control de su obra.

Una de ellas es la barcelonesa Gala Mirissa, que comenzó haciendo gifs hace décadas y hoy día es una de las criptoartistas más reconocidas. Ha hecho incluso una obra NFT para la película Fresh Kills.

Crear obras NFT permite también comercializarlas como desees a través de las plataformas específicas que existen.

Así, puedes por ejemplo decidir que un porcentaje va a ir destinado a organizaciones que contibuyen a mejorar la educación de niñas. Eso ha hecho la artista Maliha Abidi con su obra WomenRise. Se compone de 10.000 ilustraciones que representan la diversidad de la mujer.

Hay muchas formas de arte digital y de comercializarlo. Por ejemplo, Anna Zhilyaeva pinta con brochas digitales en realidad virtual, lo que quiere decir que para disfrutar sus obras tienes que hacerlo con unas gafas de realidad virtual.

Sin embargo, ella hace muchas de sus obras en directo y algunas de sus grabaciones en vídeo en que se ve el proceso también se subastan.

La tecnología blockchain ha dado el merecido reconocimiento a muchas artistas que al elegir el ámbito digital para sus obras habían sido relegadas a un lugar menor en el mundo del arte.


Pero, además, ofrece un control y autonomía sobre sus obras, que también está siendo adoptado por todo tipo de artistas.

Y poder certificar la autoría, reconocerla y valorarla siempre es una buena noticia.




Viajeros volumétricos en el tiempo (podcast #40)

Esto es una transcripción del podcast. Podrás encontrar todos los episodios en las siguientes plataformas:
(Imagen creada con Craiyon)

¿Te gustaría viajar en el tiempo? A mí, me encantaría. Me gustaría descubrir por mí misma el pasado o conocer alguna de las posibilidades del futuro que está por venir.

 
Bueno, ¿y si te cuento que el vídeo volumétrico te puede transportar a otras épocas? Vídeo volumétrico. ¿Y qué es eso?

 

El vídeo volumétrico es una forma de grabar vídeo en el que las imágenes en lugar de ser planas tienen volumen. Se graba la escena de forma tridimensional.


 
Si te cuesta imaginarlo piensa en un escenario de videojuego, en el que te puedes mover libremente. Son escenarios modelados en 3D por ordenador. Pues, simplemente, imagina que lo que ves ha sido realmente grabado con cámaras.

 
Y dirás, bueno, pero si lo voy a ver en una pantalla qué diferencia hay.

 
Te lo explico con un ejemplo reciente. Como sabrás, el desembarco de Normandía fue el momento clave del triunfo de los aliados en la Segunda Guerra Mundial.

 
Se le llama el día D y pasó el 6 de junio de 1944. Es decir, que se acaban de cumplir los 80 años de ese momento.

 
Con motivo del aniversario, se han hecho muchos especiales informativos, pero ninguno ha tenido tanto impacto como el realizado por el canal de televisión francés TF1.

 
Han emitido un reportaje audiovisual inmersivo. ¿Por qué? Pues porque consigue la inmersión espacial, la que te transporta a otro lugar.

 
Mientras reconstruye paso a paso cómo fue el desembarco, el periodista aparece en medio de cada una de las escenas. Lo vemos en medio de un despacho donde los nazis planifican su estrategia.

 
También dentro de uno de los aviones desde los que van a saltar 13.000 paracaidistas. Vemos cómo saltan y luego en tierra, el periodista, en medio de la noche baja la voz. Y se mueve entre algunos de los soldados que fueron capturados. Uno de cada tres. La cámara va moviéndose entre los soldados en las escenas.

 
También entramos en los búnquers de los alemanes, que no son conscientes del ataque. Después la cámara con movimientos acelerados nos lleva entre los 7000 barcos que se acercan a la costa francesa y entre los 10.000 bombarderos aliados que se aproximan.

 
Y por último el periodista se sitúa en la playa, en el momento del desembarco. La cámara se va alejando y medida que el periodista se hace más pequeño vemos el escenario apocalíptico de la operación.

 
La cámara nos lleva entre los alambres de espinos y los soldados avanzando, que están congelados en la imagen. Como si le hubiéramos dado al botón de pausa.

 
El reportaje ha conseguido muchos visionados.

 
Para conseguir esta inmersión, han combinado distintas técnicas, como reconstrucciones de escenarios 3D, la realidad aumentada y el vídeo volumétrico.


 
El vídeo volumétrico ha permitido grabar escenas con actores caracterizados y darnos la sensación de que nos movíamos entre ellos con el movimiento de cámara.

 
El efecto es que durante 8 minutos sientes que te han transportado a ese momento histórico gracias al hiperrealismo que se consigue con los escenarios recreados en 3D y el vídeo volumétrico.

 
Este es un vídeo para ver en una pantalla plana. Sin embargo, estas técnicas sirven también para tecnologías inmersivas, como la realidad virtual y la realidad aumentada.

 
Imagina que en lugar del periodista, eres tú quién está en medio de cada escena y la puedes recorrer como si hubieras estado allí.

 
El vídeo volumétrico solo está comenzando y veremos cada vez más producciones que lo utilizan. En Hollywood ya llevan tiempo con ello y hay platos especializados.

  

Por cierto, no confundir vídeo volumétrico con vídeo en 360 grados, que es un vídeo plano envolvente. Puedes mirar a cualquier lado pero no se graba en volumen.
 
Como ves, el vídeo volumétrico que nos acercan al Internet tridimensional y que nos permiten reconstruir historias del pasado o imaginar del futuro como si estuviéramos allí.