Esto es una transcripción del podcast. Podrás encontrar todos los episodios en las siguientes plataformas:
¿Qué puede tener en común la erupción del Vesubio que sepultó Pompeya con el Covid y con la Inteligencia Artificial?
Pues ahora te lo cuento.
Durante el confinamiento, cada uno ocupó su tiempo como pudo. Si tenemos que hacer caso de TikTok, a muchos hombres les dio por pensar en la Antigua Roma.
Uno de ellos, es Nat Friedman, un norteamericano que en sus horas ante el ordenador descubrió el misterio de los papiros de Herculano.
Cuando la erupción del Vesubio sepultó Pompeya, las cenizas también engulleron a otra urbe cercana llamada Herculano.
En ella había una villa que al parecer pertenecía al suegro de Júlio César, que era senador y que tenía una amplísima biblioteca.
Tiene muchísimo valor porque se calcula que contiene unos 1800 papiros.
Hasta ahora solo se han extraído unos centenares.
Recuperar su contenido ha sido una obsesión de académicos porque conocer esos textos podría reescribir la historia antigua tal como la conocemos. Al fin y al cabo son las raíces culturales de Occidente.
¿Y por qué no se ha hecho?, te preguntarás. Pues porque están en un estado lamentable. Quedaron carbonizados. ¿Sabes cuando se apaga una hoguera y quedan restos de troncos? Pues ese es el aspecto que tienen.
De hecho, en un primer momento se pensó que eran justamente eso, trozos de carbón o troncos quemados.
La carbonización los conservó pero al mismo tiempo hizo casi imposible desenrollarlos sin que se deshicieran.
A lo largo de la historia, se han probado e inventado múltiples maneras de intentar desenrollarlos para descifrarlos pero con muy poco éxito. Incluso un equipo impulsado por Napoleón unió algunos trozos de texto que no se podían leer.
El pionero es Brent Seales, profesor de ciencias de la computación en la Universidad de Kentucky, que lleva 20 años utilizando tecnología médica, diseñada para hacer ecografías, por ejemplo, para intentar leerlos.
Entonces, Nat Friedman, que durante el Covid descubre esta historia decide que quiere conseguir descifrarlos. Resulta que Friedman había sido el director de GitHub, una plataforma de desarrollo de software y se convirtió en inversor en Inteligencia Artificial.
Friedman contacta con Seales y ponen en marcha un concurso llamado el Desafío Vesubio dotado con un millón de dólares. El ganador debía conseguir desarrollar un programa para descifrar los papiros.
Previamente, tenían que preparar el material para los concursantes porque los archivos eran grandes y difíciles de manejar por un ordenador normal.
Así que para ganar el concurso se tenía que conseguir leer cuatro pasajes de al menos 140 caracteres de texto seguido.
El reto se acababa a finales de 2023 y atrajo a grandes competidores, entre ellos gente que trabajaba en Google.
Los participantes comentaban sus avances, lo cual era una de las condiciones.
Como sabes, muchos modelos de Inteligencia Artificial se nutren a partir de una enorme cantidad de datos.
Uno de los participantes llamador Luke Farritor creó un modelo que iba hacía justo lo opuesto: necesitaba datos mínimos para cada cuadrado de imagen, determinando la presencia de tinta y centrándose en letras griegas.
Farritor propuso a otros dos unir fuerzas y tecnologías y acabaron ganando el concurso.
Este avance da alas a la imaginación. Si con la Inteligencia Artificial se pueden leer muchos de esos papiros podríamos conocer partes de la historia que ignorábamos y ampliar o incluso cambiar algunos aspectos de lo que sabemos.
Y si jóvenes con el talento de Farritor son capaces de aliarse en plena competición para conseguir algo mejor colaborando, también somos capaces de modelar nuestro futuro.
Esto es una transcripción del podcast. Podrás encontrar todos los episodios en las siguientes plataformas:
Imagina que un día recibes una llamada. Reconoces la voz del presidente de tu país. Te saluda y te pide que, por favor, no votes en unas elecciones.
Si eres una persona muy informada y con mucho sentido crítico, te imaginarás enseguida que es un bulo. Pero quizá no lo seas, y realmente pienses que ese mensaje grabado lo ha hecho tu presidente. Imagina que vives en Estados Unidos y la voz es de Joe Biden.
Bueno, pues no hace falta imaginar mucho porque ya ha pasado. Trump ha ganado en las primarias para convertirse en candidato republicano a la presidencia. Las falsas llamadas con la voz clonada de Joe Biden pretendían influir en el resultado.
Ya sabemos que la facilidad que ofrece la Inteligencia Artificial para crear Deep fakes, contenidos falsos, es uno de los mayores riesgos actuales. Y afecta a muchos aspectos de nuestra vida.
Su uso en política es especialmente dañino porque además de contribuir a la confusión general acaba creando una versión alternativa de los hechos pasados y recientes.
Te cuento una historia curiosa. Como sabéis, en julio de 1969 el Apollo 11 tenía la misión de llegar a la Luna.
Despegó el día 16 y cinco días más tarde el comandante Amstrong al pisar la superficie decía aquella famosa frase Un pequeño paso para el hombre, un gran paso para la humanidad".
¿Pero qué hubiera pasado si la misión hubiera fallado? Pues los asesores de Nixon tenían preparado un discurso titulado En caso de desastre lunar, que el presidente norteamericano hubiera leído si la misión hubiera fallado. Afortunadamente, Nixon no lo tuvo que grabar.
Sin embargo, hace unos años el MIT Center for Advances Virtuality recreó cómo hubiera sido ese momento si los astronautas no hubieran podido volver.
El documental se llama Moon disaster y está online.
Nixon lee ante las cámaras el discurso alternativo gracias a la Inteligencia Artificial. Podría ser lo que pasó en un mundo paralelo.
El vídeo de ese fragmento también está en Youtube, así que es muy fácil de encontrar y verlo sin el contexto para el que fue creado.
En las búsquedas de Internet lo mismo puedes encontrar el discurso real que el falso.
Igual piensas que no es muy grave. Ahora te pongo otro caso.
Como sabrás en la plaza de Tiananmén de Pekín en 1989 el gobierno chino acabó con protestas de manifestantes con la ayuda del ejército. Una de las escenas más dramáticas conocidas es la de un ciudadano que se planta ante un tanque de combate.
Pues bien, si buscas hombre del tanque en inglés, Tank men, entre los resultados aparecen imágenes de un manifestante delante del tanque haciéndose un selfie. Obviamente es falsa y está hecha con Inteligencia Artificial.
Si tienes formación y contexto lo detectas, pero si no lo tienes ¿qué ocurre? Son solo unos cuantos ejemplos y va a ir a más.
Ante esta situación, por ahora, la única defensa que tenemos es aplicar lo que unos expertos han llamado la ignorancia crítica.
Como ante el volumen de la confusión que puede vomitar el mundo digital, ya el pensamiento crítico no es suficiente, proponen ignorar críticamente.
Es decir desarrollar la habilidad de elegir qué ignorar y dónde invertir nuestra atención. Pues ya sabes, ignora críticamente.
Espero que no lo hagas con Criaturas Inmersivas.
Reescribir la historIA (podcast #30)
Eva Dominguez
enero 16, 2024
Esto es una transcripción del podcast. Podrás encontrar todos los episodios en las siguientes plataformas:
- En Spotify
- En Podimo
- En Apple podcast
- En Google Podcast
- En ivoox
¿Puede la realidad virtual hacerte mejor persona?
¿Puede hacerte más empática? ¿Poniéndote en la piel de alguien totalmente distinto?
Y aún más, ¿podría tener efectos físicos en tu cuerpo?
Interesante, ¿no?
Se suele decir mucho que la realidad virtual favorece la empatía, pero se aplica a cualquier experiencia que tengamos con unas gafas inmersivas, ya sea ver un vídeo en 360 grados o una simulación. Y tal vez sea esperar mucho.
No obstante, las investigaciones demuestran que los efectos psicológicos y físicos son posibles según en qué casos.
¿Cuándo puede ocurrir? Pues, de entrada, es necesario que al ponerte las gafas en realidad virtual veas el cuerpo con el que estás representada y que los movimientos coincidan. Es decir, que si mueves tu mano, el movimiento coincida con la mano digital de tu avatar.
Eso hace que tengas una ilusión de propiedad sobre ese cuerpo virtual. En resumen, que lo percibes como el tuyo. Esa ilusión perceptual puede ser muy fuerte.
Imagina que te ves con unos músculos de acero y unos abdominales de chocolatinas y te pones a hacer ejercicio. Bien, pues un estudio demostró que los participantes que se veían con avatares cachas tenían una sensación de menor esfuerzo físico del que hubieran tenido normalmente.
Como la percepción propia cambia, las expectativas se ajustan a esa percepción.
El potencial para aplicaciones terapéuticas es sustancial.
Imagina a alguien que tiene el síndrome del miembro fantasma, que sigue sintiendo una parte del cuerpo que ha perdido, como por ejemplo una pierna. Pues otro estudio demostró que el hecho de que esa persona se viera a sí misma con la pierna, gracias a su avatar, reducía su dolor.
El cerebro reacciona igual ante el cuerpo simulado que ante el cuerpo real.
Me parece fascinante. Por tanto, sí hay cambios físicos.
¿Y te imaginas cambiar tu cuerpo por el de otra persona?
Mira, BeAnotherLab es una asociación cultural sin ánimo de lucro ubicada en Barcelona que desde el 2012 facilita la experiencia de intercambio de cuerpos.
Es decir, que dos personas pueden verse a sí mismas con el cuerpo de la otra. Su sistema se llama The Machine to be Another.
Combinan la realidad virtual, las ciencias cognitivas y las artes escénicas para ver a través de los ojos de otra persona y de habitar su cuerpo.
La han aplicado en la resolución de conflictos, en casos de violencia de género, e incluso en un prototipo para el diagnóstico de la anorexia.
¿Puede la realidad virtual cambiar nuestra conducta moral?
Es una tecnología muy útil para estudios en psicología porque las teorías son difíciles de corroborar o refutar en contexto real. Así, que con ella, se simulan situaciones en las que se encarna a otra persona.
Por ejemplo, es evidente que los maltratadores demuestran una ausencia de empatía hacia sus víctimas. En el 2018, investigadores de la Universidad de Barcelona demostraron que la experiencia virtual mejora la percepción de las emociones por parte de los que participaron.
Hoy día, la realidad virtual se utiliza como parte de la terapia de rehabilitación para personas que han maltratado a su pareja o a un menor. Ser receptor de la violencia les ayuda a reconocer ciertas emociones, lo que es un avance para su tratamiento.
Hay un proverbio sioux que dice a que antes de juzgar a una persona camina 3 lunas con sus mocasines.
Pues bien, hoy ya podríamos decir que antes de juzgar a una persona ponte de su piel digital con realidad virtual y entonces igual dejarás el juicio aparcado.
La inmersión de los ultracuerpos (podcast #29)
Eva Dominguez
enero 12, 2024
Esto es una transcripción del podcast. Podrás encontrar todos los episodios en las siguientes plataformas:
(Imagen creada con Dall.E)
¿Qué podrían tener en común un peluche que habla como si fuera una persona y Elon Musk? Enseguida te lo cuento.
Ya sabemos que la Inteligencia Artificial se filtra en todas partes. Y, por supuesto, también lo hace en los juguetes.
Te cuento el caso de una empresa llamada Curio, que ha lanzado unos peluches que hablan.
Eso no es nada nuevo. Ya sabemos que muchos muñecos hablan desde hace décadas.
Pero los de Curio van a tener auténticas conversaciones con los niños y niñas porque utilizan Inteligencia Artificial generativa.
Esta Inteligencia Artificial está creada por OpenAI, que es la empresa que ha desarrollado ChatGPT.
Bueno, aquí tienes la primera conexión con Elon Musk, porque el fundador de Tesla fue de los primeros inversores de OpenAI, aunque luego se fue.
Sin embargo, esta no es la conexión importante.
Resulta que la idea de hacer estos peluches charlatanes es de Grimes, una cantante canadiense que ha sido pareja de Elon Musk y con el que ha tenido tres hijos.
Los peluches se llaman Grok, Grem y Gabbo. Resulta que Grok también es el nombre de un asistente virtual o chatbot creado por Elon Musk, pero Grimes asegura que no hay ninguna relación.
Bueno, pues los peluches vienen con una aplicación con la que los padres podrán ver una transcripción de las conversaciones que sus bebés mantienen con estos muñecos. La empresa asegura que se eliminarán a los 90 días.
Estos peluches con IA se insertan en la larga tradición de muñecos parlantes y las preocupaciones por cómo las empresas utilizan estas tecnologías.
No son pocos los juguetes que se han denunciado o retirado porque se les acusaba de espiar a los menores grabando y guardando conversaciones o imágenes.
Un ejemplo es el de la muñeca Cayla que se conectaba a Internet para dar respuestas a las preguntas de los niños y que les preguntaba todo tipo de datos personales, incluso dónde vivían.
Se descubrió que era muy fácil de hackear y que, por tanto, ponía a los niños en una situación vulnerable.
Otro caso conocido es el de una Barbie que llevaba incorporada una cámara. Si habéis visto la película aparece como un modelo retirado.
Es normal que las preocupaciones de qué se hace con esos datos y quién podría acceder a ellos se acentúen con la incorporación de la IA generativa. Y ahí la vigilancia de los padres y la aplicación de la nueva normativa Europa son fundamentales.
Ahora bien, no cabe duda de que el uso consciente y legal de la IA en los juguetes infantiles los va a convertir en mágicos.
Imagina un peluche que sea divertido, que pueda consolar a tu bebé y entretenerlo, o que les ayude incluso a aprender.
Si ya teníamos juguetes con los que hablábamos de pequeñas, los bebés de ahora tendrán juguetes que parecerán personajes reales.
Quizá ahí resida el miedo inconsciente de que ya desde bebés nos acostumbremos a tener relaciones con objetos como si fueran de carne y hueso y podamos empatizar con ellos incluso más que con los de nuestra especie.
Sabemos que las relaciones humanas no están exentas de conflicto, pero es precisamente la superación de esos conflictos lo que nos ayudan a evolucionar.
Imagino que habrá de todo. En Disney ya están creando robots programados con Inteligencia Artificial, de lo que hablé en el capítulo 12, el robot de Disney.
No debe faltar mucho para que sean personajes con los que interactuar.
Y como probablemente no se dejarán fuera los ingredientes clásicos de sus narrativas. No faltará drama, conflicto y superación.
Peluches charlatanes (podcast #28)
Eva Dominguez
diciembre 29, 2023
Esto es una transcripción del podcast. Podrás encontrar todos los episodios en las siguientes plataformas:
(Imagen creadad con Dall.E)
¿Están los alumnos utilizando la Inteligencia Artificial para hacerse chuletas?
Se habla mucho de cómo la IA va a transformar la escuela y viendo el ingenio del alumnado para utilizarla, me ha surgido la pregunta.
¿Te has alguna vez una chuleta para un examen? Yo sí, lo confieso. Después lo cierto es que no me atrevía a consultarlas.
Pero me daban seguridad porque yo tengo mala memoria para los datos. Los nombres, las fechas, los lugares se me resisten y tenerlo en una chuleta en el bolsillo me daba confianza.
Lo cierto era que de tanto preparar la chuleta, lo que ocurría es que conseguía memorizar el contenido y no me hacía falta.
Por eso reivindico la función de la chuleta, la manual, claro. Las que te escribías a mano.
Después, la tecnología también ha entrado en el mundo chuletil.
Desde hace años, en las aulas se cuelan pinganillos y aplicaciones en el móvil. O chuleta escritas con… no os lo perdáis…
Chuleator una herramienta online que la genera al tamaño microscópico que hay que hacerlas para que quepa todo.
Con el mérito que tenían esas chuletas hechas a mano… Yo tenía compañeros que dedicaban más tiempo a hacerlas que a estudiar y habían desarrollado mucho arte e ingenio. En los brazos, dentro del tubo de los bolis, en el mobiliario… Dedicaban mucha energía.
Al final de todo eso algo les quedaba, porque está demostrado que escribir a mano ayuda a memorizar.
Los estudiantes que toman apuntes a mano retienen mejor los temas que los que lo hacen por ordenador, por ejemplo.
Y eso es por varias razones. Una de ellas es que al tomar notas a mano, no te limitas a transcribir porque no te da tiempo sino que sintetizas y eso implica filtrar lo que es más importante y escribirlo con tus palabras.
Por tanto, el trabajo cognitivo es superior que cuando simplemente se copia lo que se escucha, cosa que es más fácil de hacer con la rapidez del ordenador.
Otra razón, que se demostró con un estudio con niños, es que cuando escribes se activan zonas del cerebro que no lo hacen cuando se teclea.
Eso quiere decir que se crean conexiones neuronales.
Por lo tanto, no hay duda de que escribir a mano es bueno para la salud mental, porque lo que no se usa se pierde.
Si hay conexiones neuronales que dejas de hacer esas capacidades se reducen.
Y, por eso, si ya no solo no escribimos, sino que dejamos de teclear para tomar notas, ¿cuánto puede cambiar nuestro aprendizaje?
Con la Inteligencia Artificial ya no es necesario tomar notas en clase con el ordenador. El ordenador las toma directamente para ti y las resume. No necesitas tocar el tecleado.
Lo hace una herramienta que se llama StudyFetch.
Es una de sus funcionalidades. Hay otras.
Por ejemplo, también crea tarjetas de resumen.
Esos esquemas que nos hacemos para sintetizar ideas.
También te crea cuestionarios de conocimiento a partir de los apuntes y del material con que nutras la herramienta.
Apuntes y chuletas con Inteligencia Artificial (podcast #27)
Eva Dominguez
diciembre 29, 2023
Esto es una transcripción del podcast. Podrás encontrar todos los episodios en las siguientes plataformas:
(Imagen creadad con Dall.E)
Confieso que soy un poco Salieri. Tengo una enorme envidia del talento musical. En mi caso no de Mozart, sino de cualquier persona que sabe tocar, componer o cantar me produce envidia. Sana, en mi caso. Admiro el tener talento musical.
¿Cómo sería de mágico tener la capacidad de componer sin distinguir una corchea de una semicorchea? o de lo que para mí son más un grafismo que un lenguaje. Soy una analfabeta musical. ¿Puede alguien así componer música?
Pues, la verdad es que siempre he pensado que no. Pero entonces un día veo un vídeo que me provoca una conmoción.
En él un tipo hace sonidos con la boca y los convierte música (para oírlos tendrás que escuchar el episodio de mi podcast).
Y, claro, me lanzo a buscar la aplicación, que se llama Musicfy. De pronto, veo cómo yo también puedo crear música, mi música.
Quién sabe, quizá ir incluso ir a un Talent Show de talentos seniors.
De gente que de pronto descubre que está dotada para algo que no había descubierto. Y todo gracias a la Inteligencia Artificial.
Así que abro la aplicación y comienzo a tararear cosas. Lo convierto en una opción de percusión. Elijo Drums. Y se convierte en algo… que tendrás que escuchar en el podcast.
Luego me he inspirado en Enia, la cantante y compositora irlandesa. Tenía un amigo que me decía que hacía música para ballenas.
Y me he dicho, pues voy a probar.
Me ha parecido que el sonido de un violín le daría ese tono angelical. No hay palabras para describirlo. Tendrás que escucharlo.
He vuelto a ver el vídeo del chico y, claro, ahí me he dado cuenta.
Los sonidos que emite por su boca ya tienen ritmo, ya tienen sentido, ya tienen música.
Con la aplicación lo que hace es darle el tono y el sonido de un instrumento y no tiene nada que ver con lo que yo he hecho.
A veces, parece que tenemos esta idea de que la inteligencia artificial generativa es magia y que nos va a convertir a todos en artistas, en ilustradores, en guionistas y que no vamos a necesitar el talento humano.
A una cierta escala puede parecerlo, pero cuando realmente necesitas maestría la Inteligencia Artificial se convierte en un eficaz asistente que puede ser muy útil al servicio de alguien con mucho talento.
Pero si ese talento no existe, la magia no es consistente. Puede haber un chispazo pero no una obra magistral. Que a muchas nos gustaría ser Mozart pero igual nuestro talento es más común, como el de Salieri. Y no hay nada de malo en eso.
Emular a Mozart (podcast #26)
Eva Dominguez
noviembre 17, 2023