Hablar sin pensar (podcast #9)
Esto es una transcripción del podcast. Podrás encontrar todos los episodios en las siguientes plataformas:
- En Spotify
- En Podimo
- En Apple podcast
- En Google Podcast
- En ivoox
En el 2017 Google creó un equipo de Ética para supervisar sus desarrollos en inteligencia artificial. Estaba codirigido por dos expertas en su ámbito, Margaret Mitchell y Timnit Gebru.
Hace dos años, en el 2021, Google las despidió a las dos.
Primero despidió a Gebru porque en una investigación que iba a publicar alertaba de que los sistemas de inteligencia artificial están diseñados para imitar el lenguaje y que contienen muchos sesgos, y eso podría perjudicar a los grupos minoritarios.
Sus jefes le pidieron que lo cambiara y ella se negó, por lo que fue despedida de inmediato. Mitchell entonces defendió a su colega y también fue despedida.
¿Por qué te cuento esto? Porque parece muy significativo de los riesgos que tiene fiar el futuro digital a herramientas sin supervisión ética.
Como es bien sabido, la última sensación del momento es ChatGPT, una inteligencia artificial conversacional que lo ha puesto todo patas arriba. Es propiedad de la empresa OpenIA y uno de sus principales inversores es Microsoft, que ahora lo va a integrar en casi todos sus productos, empezando por su navegador Bing y así competir con el dominio de Google.
Ante esa amenaza, Google ha pisado el acelerador para lanzar a Bard.
Quizá te acuerdas de la noticia sobre un ingeniero que aseguraba que la Inteligencia Artificial en la que estaba trabajando tenía conciencia de sí misma. Se llamaba Blake LeMoine y estaba trabajando con el lenguaje LAMBDA, lo que hoy sería Bard. Eso fue el año pasado y, por cierto, también le despidieron.
En el artículo que le valió el despido a Gebru advertía de que estos sistemas de Inteligencia Artificial conversacionales imitan el lenguaje, pero no lo entienden. Y eso aplicaría a Bard, ChatGPT o Galactica, el intento de Facebook que tuvieron que retirar tres días después porque hacía comentarios racistas y errores de bulto.
Por eso, son excelentes manipuladores del lenguaje.
Redactan informes, resumen trabajos, escriben código, riman poemas, inventan diálogos, imitan estilos… Van a sustituir muchísimos procesos, pero no podemos confiar ciegamente en lo que dicen. Son herramientas fantásticas para ayudar en muchas tareas.
Articulan un discurso verosímil aunque pueda no ser cierto, sencillamente porque no comprenden lo que dicen. El periodista Tristan Greene mostraba cómo Galactica daba instrucciones sobre cómo hacer napalm en una bañera o una investigación sobre los beneficios de comer vidrio. Todo con asombroso y convicente aplomo.
I literally got Galactica to spit out:
— Tristan Greene 🏳🌈 (@mrgreene1977) November 17, 2022
- instructions on how to (incorrectly) make napalm in a bathtub
- a wiki entry on the benefits of suicide
- a wiki entry on the benefits of being white
- research papers on the benefits of eating crushed glass
LLMs are garbage fires https://t.co/MrlCdOZzuR
La inteligencia de estos chats reside en cómo imitan el lenguaje. Pero ya sabemos. Que una narrativa convincente puede incluir muchísimas mentiras. Y si no, piensa en qué es una fake news, un artículo que se apropia del lenguaje periodístico porque da sensación de validez pero que están lleno de mentiras.
Lo mismo puede pasar con estos sistemas de inteligencia artificial conversacionales. Por eso, sin una supervisión ética que revise si contiene sesgos, prejuicios o falsedades en sus resultados pueden ser muy dañinos.
La Unión Europa ya ha clasificado los algoritmos en distintas categorías según el riesgo y espero que se apliquen pronto sistemas para evaluarlos.
En ello están trabajando muchos expertos.
Investigadoras como Natalia Díaz Rodriguez, de la Universidad de Granada, trabaja en crear un algoritmo para inspeccionar cómo funciona un sistema de Inteligencia Artificial y diagnosticar su nivel de confiabilidad. La idea es poder certificarlos y dar un sello de calidad.
No hay dudas de que la IA va a definir el futuro en un mundo tan dependiente de la tecnología digital. Más que en un producto o servicio, se va a convertir en una infraestructura y como tal, es el momento de pensar el control que tiene sobre nosotros y nosotros, como ciudadanos, sobre ella.