Una nueva técnica explica cómo la IA toma sus decisiones
16/12/2025CATEGORíA: General
Investigadores españoles han desarrollado un método que permite a las redes neuronales “hablar” y mostrar exactamente cómo toman sus decisiones, un paso clave para aumentar la confianza en la inteligencia artificial (IA).
El equipo de investigadores José Luis Carles-Bou y Enrique Javier Carmona, del Departamento de Inteligencia Artificial de la Universidad Nacional de Educación a Distancia (UNED), ha creado FACE (Feature Attribution Computed Exactly), un método innovador que traduce el funcionamiento interno de las denominadas redes neuronales feedforward profundas en explicaciones claras y precisas. Estas redes funcionan como una línea de procesamiento: los datos entran, se analizan paso a paso en varias capas, y al final la red genera un resultado o predicción.

Foto de julien Tromeur en Unsplash
La información siempre fluye hacia adelante, sin “dar marcha atrás”, lo que hace que su funcionamiento sea más fácil de entender y analizar en comparación con otros tipos de redes más complejas.
Ventajas principales del sistema:
- Fidelidad perfecta: Las explicaciones reflejan exactamente cómo funciona la red.
- Eficiente: Funciona rápido incluso con redes grandes y profundas.
- Fácil de usar: No requiere el ajuste de ningún parámetro por parte del usuario.
Gracias a FACE, se puede ver qué características de los datos influyen en cada decisión, un avance crucial para detectar sesgos y comportamientos inesperados en campos como la medicina, la conducción autónoma, la ciberseguridad o las finanzas.
FACE podría ayudar a un médico a entender por qué una red neuronal recomendó cierto tratamiento, puede revelar decisiones sesgadas antes de que afecten a personas reales, y, además podrá aplicarse a modelos más complejos, como los de inteligencia artificial generativa.
Los investigadores concluyen “nuestro objetivo es que las redes neuronales no solo realicen bien sus tareas, sino que también puedan explicar sus decisiones de manera transparente, fiable y comprensible” y aunque actualmente el método se aplica a redes feedforward y a explicaciones locales (una predicción a la vez), el equipo planea extenderlo a otros tipos de redes y explicaciones globales.
Fuente: https://www.uned.es
Volver al listado



