Hace años que escucho, en podcast, el programa de Radio Nacional, “A hombros de gigantes”, un espacio de radio dedicado a la ciencia. En un mundo lleno de problemas, catástrofes, enfrentamientos, dedicar 1 hora a escuchar mejoras médicas, medioambientales, logros científicos, da un poco de esperanza de que el mundo todavía puede mejorar, de que no vamos a una catástrofe ecológica o una catástrofe en las relaciones humanas.
En este espacio, se tocan todos los puntos de la ciencia, últimamente me gusta sobre todo el espacio dedicado a la biofísica, son tremendos los avances en aspectos físicos aplicados a la biología que estamos descubriendo estos últimos años.
Pese a todo, creo que es la primera vez que escribo en mi blog sobre este programa y esta primera vez me voy a enfocar en un aspecto que estaba siendo “tema habitual” en mi blog: La inteligencia artificial.
Manuel Seara Valero que dirige el programa, ya ha invitado en varias ocasiones a Humberto Bustince, catedrático de la Universidad Pública de Navarra para hablar de Inteligencia Artificial (IA). En el programa del pasado 23 de noviembre, Humberto expuso 4 grandes problemas asociados a la toma de decisiones automáticas que puede llevar asociado un sistema de IA y que debe poner freno al uso indiscriminado de esta tecnología para este tipo de sistemas.
El primero de ellos es la EXPLICABILIDAD: Cuando una IA, por ejemplo, da un diagnóstico de una enfermedad a partir de unos síntomas es muy importante que dicha IA pueda EXPLICAR por qué ha dado ese diagnóstico. En muchos casos las IA funcionan como una caja negra que a partir de unos datos producen unos resultados pero cuando intentamos obtener una explicación al porqué de esos resultados no es posible tener más explicaciones. En algunos contextos este modo de funcionar puede ser válido, por ejemplo, para proporcionar ayuda pero no debería dejarse una toma de decisiones críticas en manos de un sistema de IA de este tipo. Los riesgos son claros, no habría un responsable de una mala decisión.
El segundo problema que expone Humberto es la INTERPRETABILIDAD: Es la compresión a nivel humano del funcionamiento interno del sistema, es decir, poder reproducir paso a paso los que realiza el sistema hasta llegar al resultado. Esta falta de interpretabilidad que se manifiesta especialmente en los sistemas big data (con grandes cantidades de datos) puede tener asociados sesgos debido a malos entrenamientos que no podemos detectar.
El tercer problema es la ADAPTABILIDAD: Aumentar el grado de complejidad de un problema implica empezar de nuevo desde 0.
El cuarto problema es la SOSTENIBILIDAD: El cómputo de la IA supone un gasto energético tan elevado que no resulta sostenible. La IA podría representar el 0,5 por ciento del consumo mundial de electricidad.
También introduce por encima (promete comentarlo en otro programa) otro problema derivado del entrenamiento de estos sistemas: Los trabajadores fantasma, estos son, personas (normalmente mal pagadas) que se dedican a interpretar los resultados de la IA y decidir si son buenos o malos para reforzar (realimentar) al propio sistema.
Plantear sistemas de IA sin tener en cuenta estos aspectos, son cuanto menos un peligro para nuestro futuro, Humberto considera y no puedo estar más de acuerdo, que es necesario legislar para que la IA no se desarrolle sin tener en cuenta este tipo de inconvenientes.
Imagen: Mister rf, CC BY-SA 4.0 <https://creativecommons.org/licenses/by-sa/4.0>, via Wikimedia Commons
No hay comentarios:
Publicar un comentario