Antonio Fumero

Antonio Fumero

I+D. Todo se puede solucionar con una cerveza fría.

El futuro de la IA: desentrañar el algoritmo para explicar lo inexplicable

Cualquier tecnología suficientemente avanzada es indistinguible de la magia”. La frase se debe al célebre Arthur C. Clarke. Hoy esa magia la asociamos, en gran medida, a lo que conocemos, sin un criterio muy preciso, como Inteligencia Artificial (IA). Pero vivimos tiempos mediocres y ya no nos basta con la magia: para aliviar nuestra falta de moralidad, enarbolamos la bandera de la ética y nos aventuramos a desentrañar los secretos del todopoderoso e ignoto algoritmo, a abrir la “caja negra” en la que lo habíamos encerrado.

Inteligencia Artificial (IA)

Se trata de una de las seis tecnologías habilitadoras clave (Key Enablig Technologies, KET) en la que en Europa ha apostado como base de una anhelada “soberanía” en el ámbito tecno-científico. No estamos hablando de un concepto nuevo y esto nos ha llevado a la necesidad de poner en el mercado productos cuyas capacidades, basadas en IA, sean entendibles por los humanos.

¿Te suena?

Hemos echado el resto con esto de la inteligencia artificial: se trata de una de las seis tecnologías habilitadoras clave (Key Enablig Technologies, KET) a las que en Europa hemos apostado como base de una anhelada “soberanía” en el ámbito tecno-científico.

Esto nos ha llevado a la necesidad de poner en el mercado productos cuyas capacidades, basadas en IA, sean entendibles por los humanos es cada vez mayor; mucho más si atendemos, en toda su extensión, al atributo de “fiabilidad” asociado a la excelencia técnica en el desarrollo de esas tecnologías.

El caso es que, cuando tiramos del hilo de la “fiabilidad” como atributo fundamental de la IA con marca Europa, no nos queda otra que lidiar con los, otrora olvidados, aspectos éticos de nuestra actividad profesional como ingenieros, así como con ciertas líneas de desarrollo de aquella disciplina, como es la que se ha dado en llamar eXplainable AI, XAI.

En Europa, encontramos que el derecho a disponer de “una” explicación del resultado obtenido tras la aplicación de algún algoritmo de aprendizaje automático se encuentra recogido en el Considerando 71 de la GDPR, textualmente:

The data subject should have the right not to be subject to a decision, which may include a measure, evaluating personal aspects relating to him or her which is based solely on automated processing and which produces legal effects concerning him or her or similarly significantly affects him or her, such as automatic refusal of an online credit application or e-recruiting practices without any human intervention [···] In any case, such processing should be subject to suitable safeguards, which should include specific information to the data subject and the right to obtain human intervention, to express his or her point of view, to obtain an explanation of the decision reached after such assessment and to challenge the decision.

shutterstock 1803136597 2 1
Fuente: ComputerWorld
Captura de pantalla 2022 02 03 a las 10.53.31 2
Fuente: @lensofsep, Unsplash

En las Pautas Éticas para una IA Fiable, se establece la importancia del principio de explicabilidad; “Explicability is crucial for building and maintaining users’ trust in AI systems. This means that processes need to be transparent, the capabilities and purpose of AI systems openly communicated, and decisions – to the extent possible – explainable to those directly and indirectly affected.

Frente a la intuitiva necesidad de empezar a dejar de tratar los algoritmos utilizados por diferentes técnicas de inteligencia artificial como “cajas negras”, surge hoy también la preocupación por el hecho de que los esfuerzos en ese sentido nos hagan perder en funcionalidad y eficacia.

A primera vista, no parece que las técnicas habituales de la inteligencia artificial que hoy conocemos como más populares, es decir el aprendizaje profundo o los algoritmos genéticos, estén pensadas para que sean fácilmente “explicables” o “interpretables”. Pero lo cierto es que se han venido desarrollando aproximaciones novedosas para acercarnos a esa “explicabilidad” que la ética exige: métodos como el de Layerwise Relevance Propagation (LRP) o conceptos como el de interpretabilidad “local”.

No estamos hablando de un concepto nuevo ni de un requisito sobrevenido, ni mucho menos: desde los sistemas de apoyo a la toma de decisiones basados en razonamiento simbólico de los años 1970, se ha buscado una manera de “asegurar el tiro” cuando un sistema experto hacía una predicción; de la misma manera que más recientemente se ha querido jugar la carta de la interacción humana con aproximaciones basadas en lo que se ha dado en llamar “Human-In-The-Loop” Machine Learning.

Pensemos en las aplicaciones cotidianas de la Inteligencia Artificial que se nos vienen encima, como los vehículos autónomos en un escenario de convivencia con peatones y otros vehículos conectados con más o menos capacidad cooperativa… o los sistemas expertos aplicados a la Medicina Basada en la Evidencia o la Medicina 4P.

e-Fumérides

¿Hasta qué punto crees que hablamos de un principio irrenunciable cuando nos referimos a esa “explicabilidad”? ¿Crees que está reñida con la mejora en la eficacia de las técnicas de inteligencia artificial de andar por casa que usamos a diario?

Otros artículos

Ir al contenido