Estoy hablando con Elon Musk (podcast #3) - Eva Domínguez

20.1.23

Estoy hablando con Elon Musk (podcast #3)
Esto es una transcripción del podcast. Podrás encontrar todos los episodios en las siguientes plataformas:


¿Te imaginas hacerle una entrevista por videoconferencia a Elon Musk? Se parece a él, habla como él, piensa como él…



Pues bien, eso ya se podría hacer, pero que algo se pueda hacer no quiere decir que deba hacerse.
¿Hasta dónde llega nuestra responsabilidad individual cuando estamos investigando y desarrollando el futuro? Os pongo un ejemplo. Este caso de la entrevista a Elon Musk es real. 

En uno de los grupos digitales sobre Inteligencia Artificial en los que estoy, hace poco un desarrollador compartía sus avances en un vídeo y mostraba algo que todo el mundo aplaudía y que a mí además de fascinarme la parte técnica me preocupó bastante. 

Mostraba un vídeo en el que le hacía una entrevista a Elon Musk por videoconferencia. Bueno, eso es lo que parecía, porque en realidad no era Elon Musk, sino un experimento hecho con Inteligencia Artificial. El tipo que se veía en vídeo hablaba como Elon Musk, y se movía como él pero no era él. 

Era una imagen creada por ordenador que hablaba y pensaba como el empresario. Diréis, ¿pensar como él? Bueno, casi. Habían recopilado entrevistas y respuestas de Elon Musk para que el programa pensara como él. La parte de la imagen es menos sorprendente porque ya hemos visto que gracias a la IA se puede hace un Deep fake. En este caso, lo preocupante es que no solo parece que es Elon Musk y se mueve como él, sino que puede tener un diálogo a tiempo real. 

Por tanto la inteligencia artificial lo que hacía era generar respuestas basadas las ideas de Elon Musk que se han plasmado en esas declaraciones, en entrevistas. Y el efecto era realmente espectacular a nivel técnico tecnológico pero preocupante a nivel ético. 

Si queréis verlo, este es el vídeo: How to create Elon Musk with ChatGPT
 
Hice esa reflexión al desarrollador porque esto eleva las fake news a otra potencia. Me contestó que seguramente ese tema lo resolverá alguien también con Inteligencia Artificial. Es decir, balones fuera. Y para mí aquí está el problema. En la responsabilidad o mejor dicho, en la falta de responsabilidad individual. Que puedas hacer algo no significa que haya que hacerlo.

Se suele argumentar y yo también lo he llegado a decir alguna vez que la tecnología no es buena ni mala sino es el uso de ella. Lo cierto es que detrás de la tecnología, detrás de cada línea de código o avance científico hay una persona. ¿Aparcamos cualquier código ético mientras investigamos? Es cierto que no podemos saber el impacto de lo que podemos hacer pero hay cosas que sí las sabemos. 

Por ejemplo, cuando se está tomando como en este caso la imagen de alguien, se manipula y se pone en su boca declaraciones que no ha dicho, es probable que no estemos respetando su derecho a la imagen, que está protegido. Ahí estamos tomando una decisión. ¿Por qué no utilizo mi propia imagen, para la que no tengo que pedir permiso a nadie, o la de alguien que me conozca y me autorice a usarla? Porque con la de Elon Musk voy a tener más impacto y es probable que a él le de igual y no vaya a denunciarme aunque podría hacerlo. 

Otro ejemplo, ¿qué ocurre si creo un algoritmo para crear imágenes a partir de texto? Para entrenar el algoritmo tengo que utilizar un enorme banco de imágenes. Cuando las elijo, ¿tengo en cuenta si tengo derecho a utilizarlas? Si no lo hago, ya estoy tomando una decisión sobre el uso de esas imágenes. 

Evidentemente, es mucho más complicado mi trabajo si lo tengo que comprobar o si solo puedo utilizar imágenes que tengan una licencia que lo permitan, por supuesto, pero es que eso es lo que pasa en muchos ámbitos. 

No sabemos cuál va a ser el impacto de lo que estamos desarrollando ahora mismo a enorme velocidad con la Inteligencia Artificial y, por eso mismo, no podemos dejar fuera cuestiones que en otros muchos ámbitos no se permiten. 

En el ámbito de la salud o el científico hay muchos protocolos a seguir para no garantizar los derechos de los pacientes y la seguridad de las investigaciones. En el de la creación de contenidos, hay derechos de autoría y de imagen protegidos. ¿Por qué eso no se cumple con el desarrollo tecnológico? Hay una responsabilidad colectiva pero desde luego hay responsabilidad individual.