«La IA necesita más diversidad y control humano para garantizar los valores democráticos»

Entrevista a Daniel Innerarity, catedrático de Filosofía Política

«La IA necesita más diversidad y control humano para garantizar los valores democráticos»

¿Cómo afectan los algoritmos a nuestra capacidad de deliberación y decisión colectiva? El pensador Daniel Innerarity lo analiza en el libro Una teoría crítica de la inteligencia artificial, en el que reflexiona sobre el futuro de la voluntad popular en la era digital.

El filósofo Daniel Innerarity ha publicado el libro ‘Una teoría crítica de la inteligencia artificial’. / SINC
El filósofo Daniel Innerarity ha publicado el libro ‘Una teoría crítica de la inteligencia artificial’ (Foto: SINC)

La Inteligencia Artificial plantea desafíos técnicos, pero también políticos y filosóficos. “La gran cuestión hoy es decidir si nuestras vidas deben estar regidas por procedimientos algorítmicos”, afirma Daniel Innerarity (Bilbao, 1959), catedrático de Filosofía Política y Social, investigador Ikerbasque en la Universidad del País Vasco, en Una teoría crítica de la inteligencia artificial (Galaxia Gutenberg, 2025).

Innerarity, que también es director del Instituto de Gobernanza Democrática, entre otros cargos, reflexiona en su nuevo libro sobre los límites tanto de la inteligencia humana como de la artificial.

La gran cuestión hoy es decidir si nuestras vidas deben estar regidas por procedimientos algorítmicos

En un encuentro organizado por la editorial, conversa con SINC sobre su obra, galardonada con el III Premio de Ensayo Eugenio Trías. En la portada, una gaviota sobre una barandilla doblada frente al mar sugiere, contra lo previsible, otra manera de mirar la revolución tecnológica.

¿Por qué esta portada y este libro?

No quería la típica imagen en tonos azules, asociada a lo etéreo y la nube, porque concibo la inteligencia artificial de forma más material, en contraste con el cuerpo humano. La foto, algo retocada con IA, juega con esa idea: una máquina interpretaría que la barra se ha doblado por el peso de la gaviota, mientras que los humanos entendemos la broma de inmediato. Es una metáfora sobre las diferencias entre nuestra intuición y el procesamiento de la IA.

Silicon Valley quiere que creamos que la tecnología, y no la deliberación democrática, resolverá los grandes problemas

Escribí este libro para que se entienda qué está en juego. Hay mucha histeria sobre la tecnología, con expectativas desmesuradas de tecnosolucionismo. Silicon Valley quiere que creamos que la tecnología, y no la deliberación democrática, resolverá los grandes problemas. También hay un pánico exagerado no ajustado a los riesgos reales ni a nuestras posibilidades de afrontarlos. La IA no impone un camino, abre varias posibilidades, como el contexto histórico, político y geoestratégico actual. No está escrito que esto termine mal ni que la tecnología reduzca nuestra libertad, puede tener un potencial emancipador.

Portada del libro de Daniel Innerarity. / Galaxia Gutemberg

Portada del libro de Daniel Innerarity. / Galaxia Gutemberg

¿Es el ‘tecnosolucionismo’ la ideología de la era digital?

Es la de ciertos grandes empresarios del mundo digital, reforzada por el espectacular desarrollo tecnológico. Cada día surgen noticias prometedoras o inquietantes: ayer, una mujer recuperó el habla gracias a la IA; hoy, los traductores protestan para que sus trabajos no alimenten estos sistemas. Este carrusel de avances y conflictos genera perplejidad.

¿Cuál es el papel de la decisión política en una democracia algorítmica, considerando que la IA condiciona tanto el debate como la toma de decisiones?

El proceso de decisión en la IA involucra diseño, datos e interacción con usuarios, y la clave está en cuándo, cómo y para qué deben intervenir los humanos. La falta de diversidad en quienes diseñan estos sistemas, especialmente la escasa presencia femenina, puede generar sesgos. Un ejemplo es el reconocimiento facial que confundía a mujeres negras con orangutanes debido a entrenamientos sesgados con más imágenes de hombres blancos. Es crucial alimentar la IA con más diversidad, como lo hace España con la IA en castellano y lenguas cooficiales [ALIA], frente al anglocentrismo actual, y supervisar la interacción humana para garantizar su compatibilidad con valores democráticos, como hacen Algorithm Watch y la AESIA (Agencia Española de Supervisión de la IA).

No hemos encontrado una forma adecuada de control para la IA: o dejamos demasiado margen, poniendo en riesgo valores, o aplicamos un control excesivo que frena su aprendizaje. La clave está en combinar velocidad y seguridad

¿Por qué no es deseable que la IA sea igual que la humana? ¿La podemos controlar?

En aviación, los hermanos Wright demostraron que, en lugar de imitar a las aves, se debía estudiar la aerodinámica. Así ocurre con la IA: en vez de replicar la inteligencia humana, se debe aprovechar su capacidad de computación y manejo de grandes volúmenes de datos. Funciona bien en contextos con datos claros y soluciones binarias, pero en problemas complejos o ambiguos, los humanos seguimos siendo irreemplazables.

No hemos encontrado un concepto de control adecuado para la IA: o dejamos demasiado margen, poniendo en riesgo valores, o aplicamos un control excesivo que frena su aprendizaje. El Acta Europea de IA avanza en la dirección correcta, pero sigue siendo genérica. Es como en 1868, cuando en Reino Unido se exigía que una persona caminara delante del coche con una bandera roja para evitar accidentes. La clave está en combinar velocidad y seguridad, como con los coches modernos o el ABS, donde la mejora tecnológica evita los riesgos de frenar de forma brusca en una situación de pánico.

La IA funciona bien en contextos con datos claros y soluciones binarias, pero en problemas complejos o ambiguos, los humanos seguimos siendo irreemplazables

¿Qué legitimidad tenemos para imponer una perspectiva regulatoria europea?

Lo ideal sería alcanzar un acuerdo global sobre estándares éticos, políticos y democráticos, pero tenemos culturas distintas. Como en el cambio climático, sabemos que es urgente, pero se avanza con pactos parciales. No obstante, los estándares europeos influyen en otros actores. Además, IA y ecología se solapan porque el consumo energético de esta tecnología es enorme y ya forma parte de la agenda climática internacional.

¿Qué implica que las regulaciones de IA las formulen personas no nativas digitales, con distinta percepción sobre sus riesgos y beneficios que las nuevas generaciones?

La transformación digital no consiste solo en digitalizar administraciones, sino en transformar la sociedad en su conjunto. Y una transformación de esta magnitud debe ser democrática e inclusiva, abrir debates, permitir la crítica, y tener en cuenta las brechas generacionales, económicas, geográficas y culturales. No puede gestionarse ignorando la diversidad: nativos digitales, mayores, migrantes, habitantes del mundo rural… Es una prueba de fuego, ¿desarrollaremos una tecnología inclusiva o dejaremos que divida y expulse? Debemos evitar que la digitalización sea una herramienta de exclusión, como se percibió con la transición ecológica en las protestas de los chalecos amarillos en Francia.

Debemos evitar que la digitalización sea una herramienta de exclusión, como se percibió con la transición ecológica en las protestas de los chalecos amarillos en Francia

En La era de la revancha, Andrea Rizzi propone un organismo global para gobernar la IA, como el OIEA en energía nuclear. ¿Cómo hacerlo en un contexto de desconfianza?

Vivimos en esa era y las instituciones globales son cuestionadas por motivos ideológicos o geoestratégicos. Prevalece la lógica del «sálvese quien pueda» y los juegos de suma cero, lo que dificulta una gobernanza internacional sólida. Hoy, el modelo win-win ni está, ni se le espera. A este respecto, la pandemia tuvo efectos ambivalentes. En lo positivo, promovió una respuesta cooperativa en Europa, impulsando mecanismos de solidaridad como los fondos Next Generation, impensables en 2008. En lo negativo, profundizó desigualdades, como la educación online, que excluyó a los estudiantes del entorno escolar, y generó sensación de vulnerabilidad e irritación social, alimentando desconfianza hacia autoridades, migrantes y otros países, de lo que viven ciertos extremismos hoy en día.

¿Qué repercusiones tiene esa desconfianza?

Ahora la ciudadanía tiene mayor sentido crítico, lo que puede ser visto como un avance democrático. Sin embargo, creo que la idea de transparencia está sobrevalorada y que nuestra cultura visual asume erróneamente que ver equivale a entender. Frente a la transparencia –entendida como simplemente «ver dentro de la caja negra»–, propongo centrarnos en la explicabilidad: no basta con mostrar, hay que hacer comprensible, porque los sistemas tecnológicos actuales son tan complejos que solo pueden ser evaluados adecuadamente mediante instituciones públicas de mediación fiables.

No basta con mostrar, hay que hacer comprensible, porque los sistemas tecnológicos son tan complejos que solo pueden ser evaluados adecuadamente mediante instituciones públicas de mediación fiables

¿Cómo afrontamos algoritmos que favorecen la polarización y la desinformación?

Transitamos de un ecosistema con pocas fuentes de información a uno con muchas donde el reto es discriminar la fiable. Esta abundancia, beneficiosa y democrática, se distorsiona por redes sociales con algoritmos que favorecen el extremismo, la polarización, lo escandaloso y castigan la moderación. Pero se pueden regular los algoritmos para promover dinámicas compatibles con una cultura democrática, como hace la UE.

¿Cómo abordamos el conflicto entre la IA y los derechos de autor?

Europa lidera en regulación de derechos de autor y privacidad, pero el equilibrio es complejo. Buena parte de la creatividad humana consiste en recomponer la creatividad de otros, no somos tan creativos como creemos. No se trata de justificar el plagio, hay algunos límites evidentes, pero en otros casos no es fácil delimitar qué hay de original y qué de repetitivo, en buena medida porque vivimos en una cultura con muchos productos –como guiones de series o bestsellers– banales o basados en fórmulas poco originales.

Esta abundancia [de fuentes de información], beneficiosa y democrática, se distorsiona por redes sociales con algoritmos que favorecen el extremismo, la polarización y lo escandaloso, y castigan la moderación

La IA está revolucionando campos como la medicina, pero la formación va con retraso. ¿Qué le diría, en general, a maestros y profesores, como usted?

En ámbitos como la medicina (o el derecho) se hace muy evidente el desfase entre lo que la sociedad espera y una formación memorística, repetitiva y poco creativa. Aunque en salud y justicia no solemos hacer experimentos, sería necesaria una formación más holística.

En general, a los maestros les diría que ya no somos solo transmisores de información. Desde que existe Google, esa función se ha vuelto banal, los estudiantes ya no nos necesitan para encontrar datos. ¿Qué podemos aportarles que no puedan encontrar por sus medios?: podemos ayudarles a formular las preguntas oportunas –porque buscar no es algo fácil o espontáneo– y enseñarles a encontrar de verdad lo que buscan. Google compite con nosotros solo en recopilar información, no en lo más creativo de enseñar.

Fuente: SINC

Más información