Artículo seleccionado: Reyes M, Meier R, Pereira S, Silva CA, Dahlweid F, Tengg-Kobligk Hv, et al. On the Interpretability of Artificial Intelligence in Radiology: Challenges and Opportunities. Radiology: Artificial Intelligence. 2020;2(3)
DOI: https://doi.org/10.1148/ryai.2020190043
Sociedad: Radiological society of North America (RSNA) (@RSNA)
Palabras clave: N/A.
Abreviaturas y acrónimos utilizados: IA (Inteligencia Artificial), DL (Deep Learning), ML (Machine Learning), TC (Tomografía Computarizada), RM (resonancia magnética).
Línea editorial del número: Este número del Radiology: Artificial intelligence se compone de 11 artículos. En primer lugar me gustaría destacar un editorial sobre cómo la inteligencia artificial puede ayudar con el COVID-19, donde además de aspectos más hipotéticos, se presentan varios sistemas de IA que están en desarrollo o incluso utilizándose para el diagnóstico de la enfermedad utilizando la radiografía o el TC, con una precisión sorprendente. En segundo lugar, me ha llamado la atención un artículo original sobre el uso del aprendizaje profundo para medir la calidad de imagen en la RM cardíaca. Además de esto, me llamaron la atención un desarrollo técnico sobre el uso de redes neuronales adversarias para mejorar la reproducibilidad y discriminación de las características radiómicas y otro artículo original sobre la construcción de un amplio dataset de la hemorragia intracraneal a través de la colaboración de múltiples centros: The RSNA 2019 Brain CT Hemorrhage Challenge. Finalmente, resaltar la presencia de varios artículos de opinión sobre el presente y futuro de la tecnología y la radiómica, entre otros aspectos.
Motivo para la selección: He escogido este artículo porque uno de los conceptos que me parece más impactante cuando se lee sobre el aprendizaje profundo es el hecho de que funcione como una “caja negra” y que de entrada no se pueda saber cómo el sistema es capaz de ofrecer su resultado. En esta revisión se muestran diferentes maneras para solventar este problema, que incluso podrían ser útiles para aprender nosotros de la inteligencia artificial.
Resumen:
La interpretabilidad de una IA se define como la capacidad de entender la relación entre las características que ha extraído el sistema y su resultado. El DL tiene múltiples capas ocultas, lo cual hace difícil entender cómo alcanza sus conclusiones. Esto se conoce como el problema de la “caja negra”.
Se han propuesto diferentes clasificaciones para estos métodos de interpretación de los modelos de IA:
Cajas negras vs cajas blancas.
Los métodos de interpretabilidad que requieren acceso a la información interna del modelo se considera que operan en “cajas blancas”.
Los que lo hacen en cajas negras, por el contrario, no requieren acceso a su información interna sino que operan directamente en la red, analizando cómo al hacer alteraciones en los datos de entrada, se modifican las salidas.
Global vs local.
Los métodos de interpretabilidad global buscan estudiar los patrones comunes en los datos que llevan a las predicciones del modelo. Esto los hace muy útiles en las tareas de desarrollo y validación de una IA, dado que se puede verificar que los patrones que ha aprendido el modelo son coherentes con el conocimiento existente, y de lo contrario, pueden ser útiles para detectar sesgos en los datos de entrenamiento.
Por el contrario, los métodos de interpretabilidad local buscan explicar por qué un modelo hace una predicción dado un input específico.
Explicación a través de la visualización.
Las técnicas de visualización son una buena manera de comprender el comportamiento de los modelos de DL. Dos formas básicas que trabajan sobre cajas negras se denominan partial dependence plots (PDPs) e individual conditional expectation (ICE). Se utilizan durante la fase de entrenamiento y consisten en ir cambiando el valor de una variable predictora cada vez, para ver cómo se modifica el resultado del modelo. De esta manera se puede identificar qué variables tienen más impacto en los resultados. Una limitación a estas técnicas es que se asume que las variables no están correlacionadas, y si realmente lo estuvieran, al modificar el valor de una de ellas se crearían situaciones irreales, como por ejemplo combinaciones imposibles de edad y grosor cortical cerebral.
Por otro lado, una de las primeras técnicas que se utilizó en el campo de la inteligencia artificial para poder interpretar el DL fueron los saliency maps, que consisten básicamente en resaltar las áreas de la imagen que conducen a la predicción del modelo. Esto se puede hacer tanto calculando desde el resultado del sistema de DL hasta la imagen de entrada, como analizando el efecto de un píxel (o región) en el resultado cuando ese píxel es alterado. En radiología esto puede ser integrado fácilmente en el trabajo diario, fusionándose con la imagen del paciente. (Link a una imagen del artículo original). De todas formas, existen diferentes maneras de realizar esta técnica, y los autores del artículo señalan que aún se necesita mayor investigación para su uso en imágenes médicas.
Otro método es el local interpretable model-agnostic explanations (LIME), que se utiliza sobre cajas negras. La idea es que se explica un modelo complejo (DL) aproximándolo a otro simple (un modelo lineal, por ejemplo).
Explicación a través de contraejemplos o funciones de influencia
Las funciones de influencia persiguen entender qué datos de entrenamiento tienen mayor influencia en las predicciones el modelo. Esto se puede realizar haciendo re-entrenamientos, dejando uno de los datos sin utilizar cada vez. Es lógico pensar que este método puede ser útil para establecer un control de calidad durante el proceso de entrenamiento, aunque los autores remarcan que esta área de investigación no ha recibido demasiada atención para su uso en imágenes médicas.
Explicación a través de semántica
Estos métodos lo que dan como resultado es explicaciones textuales de los algoritmos. Por ejemplo, dado diagnóstico de cáncer, en lugar de dar como resultado una probabilidad, haría una descripción de la lesión.
Estimación de la incertidumbre
Medir la incertidumbre del modelo es también una manera de mejorar su interpretabilidad, dado que podemos entender qué imágenes o áreas de la imagen le resultan más difíciles de procesar. De esta manera, se han propuesto técnicas que miden el nivel de confianza de los resultados.
En resumen, en este enlace se puede visualizar un esquema del artículo original de las distintas técnicas que se han explicado.
Importancia y potenciales usos de la interpretabilidad de la IA
- Se podrían utilizar para la auditoría de nuevas IAs y en general para hacer un control de calidad.
- Ayuda a encontrar debilidades y sesgos en el sistema durante el proceso de desarrollo, que pueden ser corregidos.
- Para, a medida que se vaya extendiendo el uso de la IA, mejorar la confianza en la misma, dado que se puede demostrar su funcionamiento y fiabilidad.
- A nivel regulatorio, para ayudar a establecer protocolos estandarizados que garanticen la seguridad de esta tecnología.
- En la práctica clínica diaria, puede ser aplicable en diferentes tareas como la segmentación, registro de imágenes, el apoyo diagnóstico, el triaje…
Valoración personal: Esta revisión me ha parecido un poco densa de leer y comprender, debido a la gran cantidad de terminología específica del campo de la inteligencia artificial que utiliza, pero considero muy interesante la revisión que hace de las distintas formas en las que se puede interpretar la IA, especialmente la parte en la que desgranan su importancia de cara a la futura implementación de la tecnología. Considero que es un buen artículo para solventar la duda que genera el concepto de la caja negra en el aprendizaje profundo, si bien para entenderlo son necesarios conocimientos básicos en el campo de la inteligencia artificial.
Nombre: Jorge Luis Cabrera Marrero
Hospital, año de residencia: Hospital Ntra. Sra. De La Candelaria, R2
Deja una respuesta