¿Hackear el algoritmo? (podcast #13) - Eva Domínguez

14.4.23

¿Hackear el algoritmo? (podcast #13)
Esto es una transcripción del podcast. Podrás encontrar todos los episodios en las siguientes plataformas:

 

(Imagen de Wikimedia Commons)

¿No te da la sensación de que además de muy entusiasmadas y a la vez asustadas por lo que la inteligencia artificial puede hacer también estamos resignadas? 

¿Como si todo estuviera ya escrito, fuera inevitable y no tuviéramos nada que decir sobre el futuro al que vamos?

Por ejemplo, se toman muchas decisiones basadas en algoritmos. sobre a quién contratar o a quién dar o negar una ayuda social. Son momentos que impactan en la vida de las personas. Aunque no seamos conscientes se usan en todos lados, también en los gobiernos. Y se ha demostrado que perpetúan sesgos. 

Pensamos que detrás de determinadas decisiones que pueden ser trascendentales hay personas, cuando en realidad hay un cálculo matemático. Afortunadamente, se comienza a corregir el error en muchas administraciones y gracias también a los tribunales.

Ahora, con el boom de programas basados en Inteligencia Artificial, se están amplificando exponencialmente los sesgos.

Por ejemplo, sabemos que las imágenes que generan contienen prejuicios porque se han entrenado con imágenes digitales de países occidentales. Apenas hay contenidos de África o Latinoamérica.

Por lo tanto, el resultado reproduce la perspectiva de estos países, de las instituciones y empresas de las que se alimentan estos algoritmos.

En un estudio reciente crearon unos buscadores para comprobar estos sesgos. Lo hicieron investigadores Hugging Face y de la Universidad de Leipzig para comparar en DALL-E 2 y Stable Diffusion, dos de las plataformas más conocidas.

Primero las utilizaron para crear más de 90000 imágenes de personas de diferentes etnias géneros y profesiones. Y después consultaban los resultados, escribiendo adjetivos. 

Y por ejemplo si se pedía una imagen sobre director ejecutivo el resultado eran hombres y si se añadía el adjetivo compasivo o sensible aparecían mujeres. Descubrieron que la mayoría de imágenes eran de personas blancas y masculinas. 

Es evidente que la visión del mundo y de la sociedad que devuelven estas herramientas es la de una minoría poderosa, pero minoría. No representa la diversidad actual. 


Para eso hace falta que se representen más culturas, más géneros, más maneras de vivir, más posibilidades que ya existen en nuestra sociedad.

¿Y qué hacemos? ¿podemos hackear el algoritmo? ¿Por qué no?

Es lo que se plantearon en el Máster in Data and Design de Elisava, que hacen en colaboración the Design Research Institute del la Universidad Chiba, en Japón. Lo explica Pau García de Domestic data streamers que es un estudio creativo que combina arte y datos.

Cuatro alumnos hicieron un experimento durante cuatro días para reentrenar Stable Diffusion con imágenes de diferentes grupos étnicos. Utilizaron los icónicos muñecos Barbie y Ken y caracterizarlos con rasgos y vestidos de diversas comunidades infrarrepresentadas, como los Inuit o los Lo Lo, por ejemplo.

La Inteligencia Artificial no era capaz de etiquetar automáticamente los resultados, porque no las podía reconocer, lo que demuestra que para ellas estas imágenes no existen, pues no las puede comparar con nada que ya tenga en la base de datos. Lo tuvieron que hacer manualmente.

Igual que en este experimento, muchos artistas de todas partes trabajan con Inteligencia Artificial para poner en evidencia los prejuicios que contiene.

Es evidente que se necesitan más mirada, más opciones y más regulación. Se van dando pasos, como la iniciativa de Unión Europea que obliga a distinguir todo lo que se genera con IA. Pero hay que ir más rápido, porque la velocidad es de vértigo. Por eso, tantas voces reclaman una pausa ética.

Pero cuando estás en medio de una competición, no te paras para reflexionar, a menos que te obliguen.
También van apareciendo otras opciones de código abierto, como Vicuna, que dan esperanza al proyecto de una IA más colaborativa, en la que se puedan representar valores alternativos, otras realidades y otras miradas.

Si solo tenemos una IA desbocada generando imágenes ficticias y fakes que engulle Internet, yo diría que la representación está cada vez más alejada de la realidad.


Por tanto, por un lado, si estamos generando un nuevo imaginario colectivo en el mundo digital tendríamos que poder intervenir en él de alguna manera.

Y, por otro, que es una cuestión que da para largo, deberíamos saber cuándo detrás de cada decisión, respuesta o imagen hay una persona o un algoritmo.

No cabe duda de que tenemos que abrazar la IA, regularla y participar en ella para definir nuestro futuro.

Más información: